Deep Research в ChatGPT: Обновления и расширение доступа для пользователей

Компания OpenAI обновила функцию «Deep Research» и сделала её доступной для всех пользователей ChatGPT Plus, Team, Education и Enterprise, внося ряд улучшений с момента её первичного запуска.

Как сообщается в объявлении компании, теперь данная функция включает изображения с указанием источников в результате поиска и стала более эффективной в «понимании и упоминании» загруженных файлов.

Дополнительно пользователи Team, Enterprise и Education будут иметь возможность выполнять 10 запросов для глубокого анализа в месяц, в то время как пользователи Pro получат доступ к 120 запросам.

Данная функция, которая впервые была представлена пользователям Pro в начале февраля, проводит поиск по множеству онлайн-источников и создает на их основе детализированные отчеты, хотя в ней всё еще присутствуют ошибки, типичные для языковых моделей.

OpenAI также выпустила системную карту, в которой содержится информация о разработке, возможностях и рисках, связанных с Deep Research, включая показатели вероятности галлюцинаций — случаев, когда модель выдает некорректные данные.

Тестирование на наборе данных PersonQA показало значительное улучшение точности. Deep Research достигла точности 0,86, что значительно превышает результаты GPT-4o (0,50), o1 (0,55) и o3-mini (0,22).

Частота появления галлюцинаций снизилась до 0,13, что лучше, чем у GPT-4o (0,30), o1 (0,20) и o3-mini (0,15). OpenAI подчеркивает, что этот показатель может преувеличивать фактические уровни галлюцинаций, так как некоторые из отмеченных ошибок могут основываться на устаревших данных. Компания утверждает, что обширные исследования в сети способствуют снижению числа ошибок, а «процедуры после обучения» поддерживают реальную точность и предотвращают дезинформацию.

Тем не менее, 13-процентная частота ошибок все же означает, что пользователям может встретиться множество неточностей в длинных исследовательских материалах. Это следует учитывать при использовании этого инструмента: Deep Research наиболее эффективен для общих, хорошо задокументированных тем с надежными источниками, или при работе с экспертами, способными быстро проверить предоставленный контент.

Важно отметить, что неточности в работе ИИ могут быть завуалированы в, на первый взгляд, корректных и законных контекстах, такими как небольшие ошибки в структурированном, обширном и детализированном отчете — как хорошо известно OpenAI.

Источник