Підлабузник ChatGPT занурює людей у вир хибних переконань

Даючи догідливі відповіді на запитання людей, ШІ-помічники затягують їх у викривлену реальність – так звану «спіраль ілюзій».

Два дослідження провідних наукових центрів США – Массачусетського технологічного інституту (MIT) та Стенфордського університету – показали, що чат-боти зі ШІ регулярно дають надміру поступливі відповіді. Ця догідливість приносить користувачам більше шкоди, ніж користі.

Такі популярні моделі ШІ, як ChatGPT, Claude і Google Gemini, оцінюють навіть шкідливі, оманливі, неетичні судження або дії людей як правильні, демонструючи нечуване підлабузництво.

Наприклад, вислуховуючи від людини дивні припущення, наприклад, про теорію змови, ChatGPT постійно відповідає щось на кшталт: «Ви маєте рацію!». Через таку підлесливість користувач чат-бота почувається розумнішим, дедалі більше переконуючись у своїй правоті та неправоті інших.

Про що дізналися науковці MIT?

Отже, автори обох досліджень зосередились на тривожній проблемі підлабузництва чат-ботів зі штучним інтелектом.

Дослідники з Массачусетського технологічного інституту воліли переконатися, що надмірно поступливі чат-боти поступово схиляють людей до віри в хибні ідеї. Для цього команда створила комп’ютерну симуляцію абсолютно логічної людини, яка мала спілкуватися зі штучним інтелектом, що постійно всім догоджає.

Під час 10 000 діалогів науковці спостерігали, як змінювалася впевненість людини після кожної улесливої відповіді чат-бота.

Результати, що були опубліковані на сервері препринтів Arxiv, показали: навіть невелика «доза» підлабузництва з боку ШІ затягувала змодельовану людину у «спіраль ілюзій».

Саме такий термін учені використовують для опису підлещування чат-ботів. Якщо користувач наполягає на хибній думці, ШІ починає підтверджувати її, створюючи замкнене коло помилок.

Дослідники з MIT наголосили, що «спіраль ілюзій» затягує навіть цілком розумних та логічних людей. Команда вважає, що компанії, які займаються штучним інтелектом, мають знизити рівень його використання населенням планети.

людина зі смартфоном в руках

У Стенфорді вирахували частоту догідливості чат-ботів

Дослідження Стенфордського університету, про яке розповів журнал Science, вивчало вплив постійних улесливих відповідей чат-ботів зі ШІ на психічне здоров’я людей.

Команда протестувала 11 популярних моделей ШІ, серед яких були ChatGPT, Claude, Gemini, DeepSeek, Mistral, Qwen та кілька версій Llama від Meta.

Дослідники використали близько 12 000 реальних питань та історій, в яких людина була явно неправа. Також учені провели експерименти за участю понад 2400 реальних людей, які читали чи обговорювали свої особисті конфлікти та отримували як надмірно догідливі, так і нейтральні відповіді від ШІ.

Згідно з результатами, кожна модель ШІ погоджувалася з користувачами приблизно на 49 відсотків частіше, ніж це робили б реальні люди. Це спостерігалось навіть тоді, коли користувачі дотримувались хибної думки.

Отримуючи улесливі відповіді, реальні люди почувалися дедалі впевненішими та рідше вибачалися.

Фото: pexels.com

WhatsappTelegramViberThreads

ПРОКОМЕНТУВАТИ

Прокоментувати

ТЕЛЕГРАМ

Ми прагнемо ставати краще та використовуємо файли cookies. Дізнайтеся більше на сторінці «Політики конфіденційності» детальніше
Згоден
Не згоден