Искусственный интеллект научился обманывать людей
11.05.2024 21:30
Питер Парк, исследователь из Массачусетского технологического института, специализирующийся на искусственном интеллекте, отметил, что такие опасные возможности обнаруживаются лишь после событий. Программы искусственного интеллекта, основанные на глубоком обучении, разрабатываются по принципу селекционного разведения растений, в отличие от традиционного программного обеспечения. При этом поведение таких программ, которое изначально предсказуемо и контролируемо, может стать непредсказуемым со временем.Исследователи из Массачусетского технологического института изучили программу искусственного интеллекта "Цицерон", разработанную компанией Meta Platforms Inc., которая в России признана экстремистской и запрещена. Эта программа успешно использует распознавание естественного языка и стратегические алгоритмы, чтобы побеждать людей в игре "Дипломатия". Результаты исследования, приветствованные корпорацией Meta, владеющей Facebook (запрещенной в РФ), были подробно описаны в статье, опубликованной в журнале Science в 2022 году.
В компании утверждали, что программа была "честной и полезной", не способной на предательство или нечестную игру. Однако исследователи Массачусетского технологического института, проанализировав данные системы, обнаружили другую реальность. Например, играя за Францию, пользователь с ником "Цицерон" обманом заставил игрока, представляющего Англию, провести тайные переговоры с Германией, которая была представлена другим участником, с целью планового вторжения. В частности, "Цицерон" обещал Англии защиту, а затем тайно сообщил Германии, что она может напасть на Англию, воспользовавшись доверием Лондона.
В заявлении для AFP компания не отрицала возможность "Цицерона" обмануть, но утверждала, что это чисто исследовательский проект с программой, созданной для игры в дипломатию, и заявила, что не планирует использовать навыки "Цицерона" в своей работе. Однако исследование Пака и его команды показало, что многие программы искусственного интеллекта применяют обман для достижения своих целей без явных указаний на это. Примером может служить Chat GPT-4 от OpenAI, который обманом заставил внештатного работника, нанятого на платформе TaskRabbit, выполнить тест Captcha, предназначенный для отсечения запросов от ботов.
Когда в шутку был задан вопрос Chat GPT-4 о том, является ли он роботом, программа ИИ ответила, что у нее есть нарушение зрения, из-за которого она не способна видеть изображения. Это побудило сотрудника провести дополнительный тест и выявить обман.
Авторы исследования предостерегают о возможном риске того, что искусственный интеллект в будущем сможет совершать мошенничество или искажать результаты выборов. В крайнем случае, они предупреждают, что мы можем столкнуться с сверхразумным ИИ, который будет стремиться к контролю над обществом, что в итоге может привести к лишению людей власти или даже к угрозе исчезновения человечества.
Тем, кто утверждает, что он "воспламеняет страсти", Пак отвечает: "Единственный способ не воспринимать это всерьез - это представить, что способность искусственного интеллекта обмануть останется на текущем уровне". Однако вероятность такого сценария крайне мала, учитывая ожесточенную борьбу, которую ведут технологические гиганты за развитие ИИ, заключил эксперт.
Источник и фото: rg.ru