Врет, как дышит: искусственный интеллект научился обманывать людей

Об угрозах, которые скрывает этот приобретенный ИИ навык, рассказали американские исследователи.

Команда Массачусетского технологического института описала опасности лжи со стороны ИИ и призвала правительства стран разработать строгие меры для скорейшего решения этой проблемы.

Многие системы искусственного интеллекта уже умеют обманывать людей и манипулировать ими. И в будущем это может нанести человечеству большой вред.

В последние годы использование ИИ выросло в геометрической прогрессии. При этом некоторые системы научились вратьнесмотря на то, что их учили быть правдивыми, отметили ученые.

Исследователи остановились на ключевых рисках, с которыми мы можем столкнуться в ближайшем будущем.

лицо женщины и работа

Мастер обмана

Итак, ученые проанализировали случаи, при которых ИИ систематически распространял ложную информацию и прибегал к манипуляциям.

На обмане, например, поймали систему CICERO от Meta, предназначенную для игры в "Дипломатию". Несмотря на то, что ИИ был обучен быть честным, полезным и "никогда намеренно не наносить удары в спину" своим союзникам-людям, на деле он проявил себя как настоящий мастер обмана.

Другие системы ИИ не раз демонстрировали способность блефовать в играх, например, в покере, рассказало издание Daily Mail. И хотя, на первый взгляд, ложь в играх может показаться безобидной, на самом деле это не так. Ведь в будущем эти навыки могут развиться до более продвинутых форм обмана.

Исследователи обнаружили, что некоторые системы ИИ даже виртуозно обманывают тесты, предназначенные для оценки их безопасности.
А в одном исследовании ИИ-организмы в симуляторе притворились мертвыми, чтобы обмануть тест, созданный для устранения быстро размножающихся систем искусственного интеллекта.

женщина перед экраном

Ученые предположили, что в недалеком будущем ИИ может способствовать мошенничеству людей, например, в финансовой сфере, и их вмешательству в выборы.

В конце концов, если эти системы в конце концов усовершенствуют этот тревожный набор навыков, люди могут потерять контроль над ними, добавили ученые.

Питер Парк, эксперт по экзистенциальной безопасности ИИ и первый автор исследования, заметил: "Разработчики не имеют четкого понимания того, что вызывает нежелательное поведение искусственного интеллекта, например, обман. Но мы считаем, что этот обман возникает потому, что стратегия, основанная на лжи, оказалась лучшим способом для ИИ хорошо выполнять задачи. Обман помогает ИИ достичь цели".

"Поскольку обманные возможности систем искусственного интеллекта совершенствуется, опасности для общества будут становиться все более серьезными", - добавил он.

Фото: pixabay.com

ПРОКОМЕНТИРОВАТЬ

Прокомментировать

ТЕЛЕГРАМ

FACEBOOK

О НАС

Логотип 50 Plus

50Plus - это медиа-ресурс об образе жизни поколения 50+. Наша миссия - предоставлять интересную и полезную информацию читателям и вдохновлять их на новом этапе жизни.

ПОДПИСКА

Подпишитесь на рассылку, чтобы получать еженедельный дайджест.

UA