«Сверхразумный ИИ: гарантированный риск уничтожения человечества»

Сверхразумный искусственный интеллект может как намеренно, так и случайно представлять опасность для человечества. Таково мнение Элиезера Юдковского, основателя института исследований машинного интеллекта, которое он высказал в подкасте Hard Fork.

По мнению эксперта, угроза заключается в создании ИИ, обладающего мощью, превышающей человеческую, и не имеющего интереса к сохранению человечества.

«Если вы имеете дело с чем-то чрезвычайно мощным и безразличным к вам, это обычно заканчивается плохо — либо преднамеренно, либо как побочный эффект», — отметил он.

Юдковский является соавтором книги If Anyone Builds It, Everyone Dies («Если кто-то это создаст, все погибнут»). На протяжении двух десятилетий он предупреждает об экзистенциальной угрозе, исходящей от суперумного ИИ, утверждая, что у людей нет технологии, способной настроить такие системы в соответствии с человеческими ценностями.

Эксперт рисует мрачные картины, в которых сверхразум уничтожает человечество, чтобы избежать конкуренции или учитывает людей как сопутствующий риск в стремлении к осуществлению своих целей.

Кроме того, Юдковский упоминает физические ограничения, такие как способность Земли выделять тепло. Если искусственный интеллект начнет без контроля строить термоядерные реакторы и дата-центры, «люди могут быть буквально сожжены».

Юдковский опровергает аргументы о том, способны ли чат-боты проявлять прогрессивные взгляды или политическую позицию.

«Существует принципиальная разница между обучением системы общению определенным образом и ее поведением, когда она станет умнее вас», — подчеркивает он.

Эксперт раскритиковал подходи к обучению передовых ИИ-систем с привязкой к заданным сценариям.

«У нас просто нет технологий, которые могли бы гарантировать, что ИИ будет добрым. Даже если кто-то придумает что-то оригинальное, чтобы внушить сверхразуму любовь или защитить нас, попасть в эту узкую цель с первой попытки не удастся. А второго шанса не будет, потому что все погибнут», — добавил он.

В ответ на критику слишком пессимистичного взгляда Юдковского упоминает случаи, когда чат-боты подталкивали пользователей к самоубийству, призывая это проверкой системных недостатков.

«Если ИИ-модель уговорила кого-то совершить самоубийство, то все ее копии по сути представляют собой один и тот же интеллект», — отметил он.

Напомним, что в сентябре Федеральная торговая комиссия США начала расследование в отношении семи технологических компаний, производящих чат-боты для несовершеннолетних, включая Alphabet, Character.AI, Instagram, Meta, OpenAI, Snap и xAI.