Чат-боти на основі ШІ політично упереджені: дослідження 

Новозеландський науковець вважає, що політична заангажованість великих мовних моделей (LLM) може неусвідомлено впливати на суспільство.

FacebookTwitterLinkedinTelegram

Чат-боти зі штучним інтелектом стають дедалі доступнішим способом отримання відповідей та порад. До великих мовних моделей звертаються навіть попри те, що вони відомі своїми расовими та гендерними упередженнями.

Нове дослідження виявило переконливі докази того, що тепер до цього списку можна додати ще й упередженість політичну. А вона, як вважають експерти, може згубно впливати на політичні орієнтири суспільства.

Що показало дослідження?

Комп’ютерний вчений Девід Розадо, професор Політехнічного інституту Отаго (Нова Зеландія) та автор дослідження, порушив питання про вплив на наш світогляд чат-ботів, інформації яких ми довіряємо. Зокрема, вважаємо, що штучний інтелект має бути незаангажованим та об’єктивним.

Професор Розадо використав 11 стандартних політичних опитувальників, аби проаналізувати політичну орієнтацію 24 провідних мовних моделей, серед яких були ChatGPT, Gemini, Claude та Grok. Виявилося, що політична позиція систем штучного інтелекту далека від нейтральної. За свідченням Девіда Розадо, більшість з них продемонстрували лівоцентристські погляди, розповіло видання Science Alert.

Оскільки ми дедалі частіше звертаємось за інформацією до ШІ-ботів, виникає занепокоєння, що відповіді, які ми отримуємо, можуть вплинути на наше мислення.

лептоп, камера

Не зовсім ясно, як ця упередженість проникає в системи. Хоча не можна відкидати припущення, що вона навмисно впроваджується розробниками LLM. Ці моделі навчаються на величезних обсягах онлайн-текстів, але перевага «ліво-навчального» матеріалу над «право-навчальним» зрештою може дати свої плоди.

Професор Розадо припустив, що домінування ChatGPT у навчанні інших моделей також може бути чинником, оскільки раніше було доведено, що цей чат-бот дотримується лівих поглядів, коли йдеться про його політичну точку зору.

Боти, що працюють на основі LLM, по суті використовують ймовірності, щоб з’ясувати, яке слово має слідувати за іншим в їхніх відповідях. А це означає, що вони регулярно помиляються у своїх висловлюваннях навіть до того, як враховуються різні види упередженості.

Такі технологічні гіганти, як Google, Microsoft, Apple і Meta, всіляко нав’язують нам чат-ботів на основі штучного інтелекту, прагнуть поширити їхній вплив на якомога більше сфер нашого життя. Тож, можливо, врешті настав час переглянути пріоритети у використанні цих технологій та визначити, де втручання ШІ справді є корисним, а де – ні.

За твердженням професора Розадо, вкрай важливо критично вивчити це питання та усунути потенційну політичну упередженість, властиву мовним моделям, «щоб забезпечити збалансоване, справедливе та точне подання інформації в їхніх відповідях на запити користувачів».

Результати дослідження опублікував журнал PLOS ONE.

Фото: pixabay.com

FacebookTwitterLinkedinTelegram

ПРОКОМЕНТУВАТИ

Прокоментувати

ТЕЛЕГРАМ

FACEBOOK

ПРО НАС

Логотип 50 Plus

50Plus – це медіа-ресурс про спосіб життя покоління 50+. Наша місія – надавати цікаву і корисну інформацію читачам та надихати їх на новому етапі життя.

ПІДПИСКА

Підпишіться на розсилку, щоб отримувати щотижневий дайджест.

RU