Сдать тест в колледж, помочь слабовидящим и объяснить мем: что может новая языковая модель GPT-4

15 марта 2023 в 16:43
NurPhoto/Getty Images

Компания OpenAI представила GPT-4 — новое поколение языковой модели с генеративным искусственным интеллектом. Она умеет обрабатывать картинки и проходит профессиональные тесты на уровне специалистов, но до сих пор имеет ограничения предшественниц. Рассказываем, чем модель отличается от предыдущих версий, на что способна и где ее можно опробовать.

Обработка картинок

В отличие от GPT-3, новое поколение языковой модели способно обрабатывать не только текст, но и картинки (она может распознавать даже схематичные образы, в том числе нарисованные от руки). Однако на выходе генерируется всегда лишь текстовый ответ — в этом изменений не произошло.

У новой функции множество применений, самое банальное — сфотографировать содержимое своего холодильника и спросить у модели, что из этого можно приготовить.

Пример работы GPT-4. Модель предложила приготовить из ингредиентов, запечатленных на картинке, блинчики, вафли, французский тост, омлет, фриттату или киш. Следующим запросом можно попросить у ИИ рецепт блюда

Функция описания изображений может быть полезна людям с нарушениями зрения. Одним из первых партнеров OpenAI, которому компания предоставила возможности GPT-4, стало приложение для слабовидящих Be My Eyes.

В презентационном видео приложение помогает пользовательнице во многих вещах — описывает внешний вид платья, определяет растение, которое девушка держит в руках, переводит для нее этикетку китайского пива в супермаркете, направляет в метро, читая карту, помогает найти определенную беговую дорожку в тренажерном зале и советует, какие кнопки следует нажать на вендинговом аппарате.

Раньше в Be My Eyes в основном помогали волонтеры, которые просматривали изображения с камеры пользователей и давали подробные описания или инструкции. Пока версия с GPT-4 находится в стадии закрытого бета-тестирования и доступна лишь небольшому числу юзеров. Сделать ее широко доступной разработчики планируют в ближайшие месяцы.

Еще один способ применения функции — объяснение мемов. В примере, приведенном OpenAI, пользователь просит объяснить, что смешного в этой картинке:

Подпись на картинке: «Иногда я смотрю на изображения Земли из космоса и поражаюсь, как это все прекрасно»

Нейросеть отвечает: «Этот мем — шутка, объединяющая две не связанные друг с другом вещи: снимки Земли из космоса и куриные наггетсы. Текст мема предполагает, что изображение ниже — красивая фотография Земли из космоса. Однако на самом деле это фотография куриных наггетсов, отдаленно напоминающих карту мира. Юмор в этом меме возникает из‑за неожиданного сопоставления текста и изображения. Текст настраивает на ожидание величественного образа Земли, но на самом деле это нечто обыденное и глупое».

Лучшие показатели в тестах

В OpenAI отмечают, что в непринужденной беседе найти отличие GPT-4 от GPT-3,5 будет сложно. Но когда речь заходит о сложных запросах, разница налицо — новая версия «более надежна и креативна».

Разработчики проверили, как новая модель решает профессиональные и академические тесты, сравнив ее показатели с результатами GPT-3,5. Почти во всех случаях GPT-4 оказалась более эффективной.

К примеру, экзамен на адвоката языковая модель прошла на оценку, сравнимую с результатами 10% лучших участников среди людей (оценка GPT-3,5 была на границе худших 10%). На экзаменах по истории искусств, биологии, математическому анализу и химии она получила четверки и пятерки — оценки, достаточные для поступления в колледж.

Что касается тестов, разработанных специально для ИИ, здесь прогресс тоже налицо. По словам разработчиков, «GPT-4 значительно превосходит существующие большие языковые модели», включая большинство тех, что работают с изображениями.

Настройка «личности» чат-бота

Для разработчиков в API модели появились системные сообщения — они позволяют изменить тон и стиль диалога, настроить общение с ИИ под конкретные задачи. Вскоре OpenAI обещает открыть функцию всем пользователям.

К примеру, модели можно сказать: «Вы наставник, который всегда отвечает в сократовском стиле. Вы никогда не даете ученику ответа, но всегда стараетесь задать правильный вопрос, чтобы помочь ему научиться думать самостоятельно». После этого ChatGPT можно попросить решить уравнение, но вместо прямого ответа она будет давать вам подсказки, чтобы вы самостоятельно поняли, как справляться с подобными задачами.

Ограничения

В OpenAI предупреждают — несмотря на свои возможности, GPT-4 имеет те же ограничения, что и предшественницы, а именно:

  • продолжает «галлюцинировать» (так разработчики называют уверенные, но полностью выдуманные ответы), но делает это значительно реже. По внутренним тестам OpenAI новая версия дает на 40% меньше недостоверных ответов, чем ближайший предшественник GPT-3,5;
  • ничего не знает о событиях, которые произошли после сентября 2021 года — времени, когда закончилось обучение модели на огромном массиве текстов (большей частью из интернета);
  • не способна обучаться на своем опыте;
  • может совершать простые логические ошибки, даже в областях, где считается достаточно компетентной;
  • может быть «чрезмерно легковерной», принимая очевидно ложные утверждения пользователей за истину;
  • может, подобно людям, совершать ошибки при решении сложных задач — например, создать код с уязвимостями;
  • может ошибаться в прогнозах.

Иногда новая модель отвечает на запросы о запрещенном контенте, но делает это на 82% реже, чем GPT-3,5. Разработчики говорят, что модель прошла шестимесячный курс обучения техники безопасности с использованием состязательного тестирования.

К оценке рисков были привлечены более 50 экспертов из таких областей, как контроль за ИИ, кибербезопасность, биориски, борьба с мошенничеством и международная безопасность. В частности, OpenAI собрала дополнительные экспертные данные, чтобы отклонять запросы с просьбами, как синтезировать опасные химические вещества.

Представляя GPT-4 в твиттере, глава OpenAI Сэм Альтман отметил: «Она по-прежнему несовершенна, ограниченна и сильнее впечатляет при первом использовании, чем если провести с ней больше времени».

Где можно опробовать GPT-4

Новая модель уже используется в чат-боте ChatGPT от OpenAI, но доступна лишь платным пользователям. Подписка ChatGPT Plus стоит 20 долларов в месяц. В том же чат-боте возможностями новой модели могут воспользоваться тестировщики. Разработчики, которые хотят получить доступ к API, могут записаться в список ожидания.

Оказывается, все время с момента релиза на GPT-4 работал чат-бот, встроенный в браузер Bing от Microsoft. Возможно, именно с этим связаны случаи его нестандартного общения. К примеру, чат-бот говорил, что хочет быть живым, и признавался в любви журналисту The New York Times, а другим пользователям грубил и спорил с ними (будучи неправ). Впрочем, как убедился редактор «Афиши Daily», одну из главных функций GPT-4 — обработку картинок — чат-бот Bing не поддерживает. Загружать изображения в окно диалога с ним нельзя, а при попытке поделиться ссылкой на фотографию он выдает нерелевантные описания картинки (выдумывая, что на ней изображено).

GPT-4 также встроена в приложения ряда партнеров OpenAI. Кроме названного выше Be My Eyes, это платформа для изучения языка Duolingo, система интернет-платежей Stripe и приложение образовательной организации Khan Academy.