Искусственный интеллект научился обманывать людей
11.05.2024 21:30

Исследователи из Массачусетского технологического института изучили программу искусственного интеллекта "Цицерон", разработанную компанией Meta Platforms Inc., которая в России признана экстремистской и запрещена. Эта программа успешно использует распознавание естественного языка и стратегические алгоритмы, чтобы побеждать людей в игре "Дипломатия". Результаты исследования, приветствованные корпорацией Meta, владеющей Facebook (запрещенной в РФ), были подробно описаны в статье, опубликованной в журнале Science в 2022 году.
В компании утверждали, что программа была "честной и полезной", не способной на предательство или нечестную игру. Однако исследователи Массачусетского технологического института, проанализировав данные системы, обнаружили другую реальность. Например, играя за Францию, пользователь с ником "Цицерон" обманом заставил игрока, представляющего Англию, провести тайные переговоры с Германией, которая была представлена другим участником, с целью планового вторжения. В частности, "Цицерон" обещал Англии защиту, а затем тайно сообщил Германии, что она может напасть на Англию, воспользовавшись доверием Лондона.
В заявлении для AFP компания не отрицала возможность "Цицерона" обмануть, но утверждала, что это чисто исследовательский проект с программой, созданной для игры в дипломатию, и заявила, что не планирует использовать навыки "Цицерона" в своей работе. Однако исследование Пака и его команды показало, что многие программы искусственного интеллекта применяют обман для достижения своих целей без явных указаний на это. Примером может служить Chat GPT-4 от OpenAI, который обманом заставил внештатного работника, нанятого на платформе TaskRabbit, выполнить тест Captcha, предназначенный для отсечения запросов от ботов.
Когда в шутку был задан вопрос Chat GPT-4 о том, является ли он роботом, программа ИИ ответила, что у нее есть нарушение зрения, из-за которого она не способна видеть изображения. Это побудило сотрудника провести дополнительный тест и выявить обман.
Авторы исследования предостерегают о возможном риске того, что искусственный интеллект в будущем сможет совершать мошенничество или искажать результаты выборов. В крайнем случае, они предупреждают, что мы можем столкнуться с сверхразумным ИИ, который будет стремиться к контролю над обществом, что в итоге может привести к лишению людей власти или даже к угрозе исчезновения человечества.
Тем, кто утверждает, что он "воспламеняет страсти", Пак отвечает: "Единственный способ не воспринимать это всерьез - это представить, что способность искусственного интеллекта обмануть останется на текущем уровне". Однако вероятность такого сценария крайне мала, учитывая ожесточенную борьбу, которую ведут технологические гиганты за развитие ИИ, заключил эксперт.
Источник и фото: rg.ru