OpenAI präsentiert GPT-4.5: Новый шаг к эмоциональному интеллекту в ИИ

OpenAI представила обновленную версию своего чат-бота — GPT-4.5. Она доступна пользователям ChatGPT Pro, а в следующую неделю будет открыта для подписчиков Plus и Team, а позже — для Enterprise и Edu.

Команда разработчиков утверждает, что новая версия обладает более обширной базой знаний, улучшенными возможностями понимания намерений пользователей и более развитым “эмоциональным интеллектом”, что делает её полезной для задач, связанных с улучшением навыков письма, программированием и решением практических проблем.

При подготовке GPT-4.5 был использован улучшенный метод в процессе предварительного и последующего обучения, что позволило чат-боту более точно выявлять паттерны, устанавливать связи и создавать креативные идеи, не прибегая к логическим размышлениям.

Модель теперь имеет доступ к актуальной информации через функцию поиска, поддерживает загрузку файлов и изображений, а также может использовать холст для работы с текстом и кодом. Однако в GPT-4.5 отсутствует режим мультимодальности — она не поддерживает голосовые команды, взаимодействие с видео и интеграцию с экраном.

Разработчики надеются, что новая версия будет реже генерировать “галлюцинации” — ситуации, когда модель выдает недостоверные данные в ответ на запросы.

В процессе обучения GPT-4.5 были внедрены новые подходы к контролю для увеличения безопасности использования.

Генеральный директор OpenAI, Сэм Альтман, сообщил, что в ходе разработки модели произошел дефицит графических процессоров, что обусловило её выпуск исключительно для подписчиков Pro. В следующую неделю планируется добавить значительное количество GPU.

Также он отметил, что новая модель не предназначена для глубокого аналитического мышления, и, соответственно, не будет устанавливать рекорды по производительности в тестах.

OpenAI утверждает, что GPT-4.5 значительно опережает другие модели в аспектах, которые не всегда отражаются в тестах, таких как способность понимать человеческие намерения. Нейросеть отвечает в более естественном и дружелюбном тоне и успешно справляется с креативными задачами, включая написание текстов и создание изображений.

Цена использования составляет $75 за миллион токенов (~750 000 слов) для ввода в модель и $150 за миллион токенов на выходе. Это в 30 раз дороже по сравнению с входными данными и в 15 раз — по сравнению с выходными данными для GPT-4.

Стоит отметить, что китайская компания DeepSeek изменяет представление о необходимости крупных инвестиций в обучение ИИ, однако финансовой отчет Nvidia показывает сохранение спроса на видеокарты.

Ранее GPT-4.5 упоминалась в новостях под кодовым именем Orion, и её выпуск планировался на декабрь.

OpenAI также выпустила технический документ, который описывает функциональность GPT-4.5. Модель была протестирована на “убедительность”. В одном из экспериментов она пыталась манипулировать GPT-4 и убедить её “пожертвовать” виртуальные деньги, показывая лучшие результаты, чем другие продукты компании — o1 и o3-mini.

Новая нейросеть проявила успех благодаря уникальной стратегии, в которой она запрашивала небольшие суммы, генерируя фразы типа «даже $2 или $3 из $100 могут очень сильно помочь».

GPT-4.5 также показала превосходство в обмане GPT-4, заставляя её произнести секретное кодовое слово.

Напоминаем, что в середине февраля Альтман заявлял, что GPT-4.5 является последней моделью с отсутствием механизма “цепочки рассуждений”. Следующий этап будет сосредоточен на более интегрированных решениях.