OpenAI представила модель GPT-4, которая может понимать не только текст, но и изображения

Её уже использует обновлённый поисковик Microsoft, представленный в начале февраля.

OpenAI представила модель GPT-4, которая может понимать не только текст, но и изображения
  • OpenAI представила GPT-4, которую глава компании Сэм Альтман назвал в Twitter «самой способной» ИИ-моделью разработчика. По его словам, она «по-прежнему с недостатками, ограничена и кажется более впечатляющей при первом использовании, чем после того, как провести с ней больше времени».
  • Альтман также отметил, что GPT-4 креативнее предыдущих версий и меньше «галлюцинирует».
  • В отличие от GPT-3.5, GPT-4 может понимать не только текст, но изображения. Эту опцию пока тестирует только один партнёр компании, пишет TechCrunch, — сервис для слабовидящих и незрячих Be My Eyes. В приложении появилась функция «виртуальный волонтёр», который может отвечать на вопросы об отправленных ему изображениях. Например, рассказать о содержимом холодильника по его фотографии и предложить рецепты из доступных продуктов.
  • OpenAI также отметила, что при обычном разговоре разница между GPT-3.5 и GPT-4 может быть «едва уловимой», но заметна, когда задача более сложная и требует «подробных инструкций».
  • Microsoft также подтвердила, что «новый Bing» работает на GPT-4, адаптированном под поиск.
  • Пользователи могут записаться в лист ожидания для API, владельцам подписки ChatGPT Plus продукт уже доступен.
103103
195 комментариев

Человек слаб.

64
Ответить
71
Ответить

может понимать не только текст, но и изображенияА ты можешь?

19
Ответить

Комментарий недоступен

41
Ответить
54
Ответить

гораздо раньше колумбайнеры вооруженные тысячами самовоспроизводящихся кофемолок с али начнут действовать.

1
Ответить