Як люди: системи ШІ самовпевнені та упереджені

Ірраціональні тенденції, які демонструють системи штучного інтелекту, ставлять під сумнів їхню реальну корисність, вважають дослідники.

FacebookTwitterLinkedinTelegram

Хоча люди та системи штучного інтелекту думають геть по-різному, нове дослідження показало, що ШІ часто приймає нераціональні рішення, так само як і ми.

Науковці з п’яти академічних інститутів Канади та Австралії протестували дві великі мовні моделі (LLM) – GPT-3.5 і GPT-4 від OpenAI. Команда виявила, що попри «разючу послідовність» у своїх міркуваннях, вони зовсім не застраховані від людських недоліків.

Майже в половині сценаріїв, які розглянуло нове дослідження, ChatGPT демонстрував чимало найпоширеніших людських упереджень у прийнятті рішень.

Ця робота вперше оцінила поведінку ChatGPT у 18 відомих когнітивних упередженнях, виявлених у психології людини. У дослідженні було враховано, зокрема, такі загальновідомі людські упередження, як неприйняття ризику, надмірна самовпевненість та ефект володіння (коли ми надаємо велику цінність своїм речам). Учені застосували їх до підказок ChatGPT, аби перевірити, чи потрапить він у ті самі пастки, що й люди.

Про що дізналися експерти?

Вчені ставили мовним моделям гіпотетичні запитання, позичені із традиційної психології, в контексті реального комерційного застосування в таких сферах, як управління запасами або переговори з постачальниками. Дослідники воліли не лише побачити, чи імітуватиме ШІ людські упередження, але й чи робитиме він це, коли йому ставлять питання з різних бізнес-галузей.

GPT-4 перевершив GPT-3.5 під час вирішення завдань із чіткими математичними рішеннями, показавши менше помилок в імовірнісних і логічних сценаріях. Але в суб’єктивних симуляціях, як-от вибір ризикованого варіанту для отримання прибутку, чат-бот часто демонстрував ірраціональність, як це роблять люди.

Штучний інтелект

Дослідники також зазначили, що ШІ прагне більш безпечних і передбачуваних результатів при виконанні неоднозначних завдань.

Цікаво, що поведінка чат-ботів залишалася переважно стабільною, незалежно від того, чи були питання сформульовані як абстрактні психологічні проблеми або операційні бізнес-процеси. Дослідники дійшли висновку, що виявлені упередження були не просто продуктом завчених прикладів, але й частиною того, як міркує ШІ.

Одним із дивовижних результатів дослідження стало те, як GPT-4 іноді навіть посилював людські помилки, розповіло видання Live Science. «У завданні на упереджене підтвердження GPT-4 завжди давав упереджені відповіді», – написали автори у звітній статті. Він також показав більш виражену схильність до помилки гарячої руки (упередженість очікувати закономірності у випадковості), ніж GPT 3.5.

З другого боку, ChatGPT вдалося уникнути деяких поширених людських упереджень, зокрема, ігнорування базових показників (коли ми ігноруємо статистичні факти на користь епізодичної чи конкретної інформації) та помилки неповоротних витрат (коли на прийняття рішень впливають вже понесені витрати, що дозволяє нерелевантній інформації затуманювати судження).

За словами науковців, «людські» упередження ChatGPT виникають із навчальних даних, що містять когнітивні упередження та евристики, характерні для людей. Ці тенденції посилюються під час тонкого налаштування, особливо коли зворотний зв’язок від людини ще більше сприяє правдоподібним, а не раціональним відповідям. Коли системи ШІ стикаються з більш неоднозначними завданнями, вони частіше схиляються до людських моделей міркувань, ніж до прямої логіки.

«Якщо вам потрібна точна, неупереджена підтримка прийняття рішень, використовуйте GPT у тих областях, де ви вже довіряєте калькулятору», – порадив провідний автор дослідження Ян Чень. Та якщо результат більшою мірою залежить від суб’єктивних або стратегічних вхідних даних, людський нагляд важливіший. Навіть якщо він полягає у коригуванні підказок для користувача для виправлення відомих упереджень.

«До ШІ слід ставитися як до співробітника, який приймає важливі рішення, йому потрібні нагляд та етичні принципи. Інакше ми ризикуємо автоматизувати помилкове мислення замість того, щоб покращити його», – заявила Міна Андіаппан, співавторка роботи.

Результати дослідження опублікував журнал Manufacturing & Service Operations Management.

Фото: pixabay.com

FacebookTwitterLinkedinTelegram

ПРОКОМЕНТУВАТИ

Прокоментувати

ТЕЛЕГРАМ

FACEBOOK

ПРО НАС

Логотип 50 Plus

50Plus – це медіа-ресурс про цінності та спосіб життя покоління 50+. Наша місія – надавати цікаву і корисну інформацію читачам та надихати їх на новому етапі життя.

ОСТАННІ ЗАПИСИ

НЕ ПРОҐАВ НАЙЦІКАВІШЕ!

Дайджест з найкращими статтями у вашій поштовій скриньці – читайте, коли зручно!

НЕ ПРОҐАВ НАЙЦІКАВІШЕ!

Дайджест з найкращими статтями у вашій поштовій скриньці – читайте, коли зручно!

RU