Бреше, як дихає: штучний інтелект навчився дурити людей

Про загрози, що приховує ця набута ШІ навичка, розповіли американські дослідники.

FacebookTwitterLinkedinTelegram

Команда Массачусетського технологічного інституту описала небезпеки брехні з боку ШІ та закликала уряди країн розробити суворі заходи для якнайшвидшого розв’язання цієї проблеми.

Багато систем штучного інтелекту вже вміють обманювати людей та маніпулювати ними. І в майбутньому це може завдати людству неабиякої шкоди.

Останніми роками використання ШІ зросло в геометричній прогресії. При цьому деякі системи навчилися брехати, попри те, що їх вчили бути правдивими, зауважили вчені.

Дослідники зупинилися на ключових ризиках, з якими ми можемо стикнутися у близькому майбутньому.

обличчя жінки і робота

Майстер обману

Отже, вчені проаналізували випадки, за яких ШІ систематично поширював неправдиву інформацію та вдавався до маніпуляцій.

На обмані, приміром, зловили систему CICERO від Meta, призначену для гри у «Дипломатію». Попри те, що ШІ був навчений бути чесним, корисним і «ніколи навмисно не завдавати ударів у спину» своїм союзникам-людям, на ділі він проявив себе як справжній майстер обману.

Інші системи ШІ не раз демонстрували здатність блефувати в іграх, наприклад, в покері, розповіло видання Daily Mail. І хоча, на перший погляд, брехня в іграх може здатися невинною, насправді це не так. Адже в майбутньому ці навички можуть розвинутися до більш просунутих форм обману.

Дослідники виявили, що деякі системи ШІ навіть віртуозно дурять тести, призначені для оцінки їхньої безпеки.
А в одному дослідженні ШІ-організми в симуляторі прикинулися мертвими, щоб обдурити тест, створений для усунення систем штучного інтелекту, які швидко розмножуються.

жінка перед екраном

Вчені припустили, що в незабарному майбутньому ШІ може сприяти шахрайству людей, наприклад, у фінансовій сфері, та їхньому втручанню у вибори.

Зрештою, якщо ці системи врешті вдосконалять цей тривожний набір навичок, люди можуть втратити контроль над ними, додали науковці.

Пітер Парк, експерт з екзистенційної безпеки ШІ та перший автор дослідження, зауважив: «Розробники не мають чіткого розуміння того, що спричиняє небажану поведінку штучного інтелекту, наприклад, обман. Але ми вважаємо, що цей обман виникає тому, що стратегія, заснована на брехні, виявилася найкращим способом для ШІ добре виконувати завдання. Обман допомагає ШІ досягти мети».

«Оскільки обманні можливості систем штучного інтелекту вдосконалюється, небезпеки для суспільства ставатимуть дедалі серйознішими», – додав він.

Фото: pixabay.com

FacebookTwitterLinkedinTelegram

ПРОКОМЕНТУВАТИ

Прокоментувати

ТЕЛЕГРАМ

FACEBOOK

ПРО НАС

Логотип 50 Plus

50Plus – це медіа-ресурс про спосіб життя покоління 50+. Наша місія – надавати цікаву і корисну інформацію читачам та надихати їх на новому етапі життя.

ПІДПИСКА

Підпишіться на розсилку, щоб отримувати щотижневий дайджест.

RU