Ученые выражают растущий скептицизм по поводу возможности создания AGI: новое исследование подчеркивает значительные барьеры и необходимость контроля

Недавнее исследование выявило, что многие специалисты в области искусственного интеллекта испытывают серьезные сомнения по поводу способности текущих методов привести к созданию искусственного общего интеллекта (AGI), несмотря на постоянное развитие этой технологии.

Согласно отчету AAAI о будущем AI-исследований, более трех четвертей опрошенных ученых убеждены, что просто масштабировать существующие AI-системы не приведет к созданию AGI, причем 76% респондентов охарактеризовали эту вероятность как «маловероятную» или «крайне маловероятную».

Данная работа подчеркивает существующий консенсус относительно важности символического интеллекта: более 60% исследователей считают, что любая система, которой удастся приблизиться к человеческому уровню мышления, должна иметь не менее 50% символических компонентов. Однако в этой области до сих пор недостаточно четких определений и согласованных тестовых методов для оценки AGI.

Несмотря на существующие сомнения, многие исследователи настоятельно рекомендуют продолжать работу в данном направлении. 70% из них против остановки исследований до внедрения механизмов безопасности, при этом 82% считают, что потенциальные системы AGI, создаваемые частными фирмами, должны находиться под государственным контролем.

Ученые также отмечают значительные возможности для специализированных AI-систем. Например, Alphafold от Google DeepMind рассматривается как образец того, как AI может ускорить научные исследования в определенной области, что подчеркивает одно из значительных достоинств AGI.

Несмотря на недавние успехи в разработке тестовых алгоритмов для моделей рассуждений, исследование выявило серьезные ограничения существующих архитектур AI. Системы не способны эффективно планировать на долгосрочной основе, им не хватает возможности к непрерывному обучению, и они лишены структурированной, эпизодической памяти, присущей человеку.

Исследователи также подчеркивают вынужденные недостатки в понимании причин и следствий и взаимодействии с окружающим миром. Даже несмотря на выдающиеся достижения в управлении речью и изображениями,AI-системы по-прежнему не обладают глубоким пониманием физических законов.

Результаты исследования были собраны президентской группой AAAI 2025 по будущему AI-исследований под руководством президента AAAI Франчески Росси. В исследовании приняли участие 24 опытных исследователя AI с лета 2024 года по весну 2025 года, охватывающих 17 различных тем в области AI, включая научные прорывы и AGI. Дополнительное анкетирование 475 участников, в основном из академических кругов (67%) и из Северной Америки (53%), дало дополнительный взгляд на развитие этой области.

Источник