Чат-боты на основе ИИ политически предвзяты: исследование 

Новозеландский ученый считает, что политическая ангажированность больших языковых моделей (LLM) может неосознанно влиять на общество.

чат-боты с искусственным интеллектом становятся все более доступным способом получения ответов и советов. К большим языковым моделям обращаются даже несмотря на то, что они известны своими расовыми и гендерными предубеждениями.

Новое исследование выявило убедительные доказательства того, что теперь к этому списку можно добавить еще и предвзятость политическую. А она, как считают эксперты, может пагубно влиять на политические ориентиры общества.

Что показало исследование?

Компьютерный ученый Дэвид Розадо, профессор Политехнического института Отаго (Новая Зеландия) и автор исследования, поднял вопрос о влиянии на наше мировоззрение чат-ботов, информации которых мы доверяем. В частности, считаем, что искусственный интеллект должен быть незаангажированным и объективным.

Профессор Розадо использовал 11 стандартных политических опросников, чтобы проанализировать политическую ориентацию 24 ведущих языковых моделей, среди которых были ChatGPT, Gemini, Claude и Grok. Оказалось, что политическая позиция систем искусственного интеллекта далека от нейтральной. По свидетельству Дэвида Розадо, большинство из них продемонстрировали левоцентристские взгляды, рассказало издание Science Alert.

Поскольку мы все чаще обращаемся за информацией к ИИ-ботам, возникает беспокойство, что ответы, которые мы получаем, могут повлиять на наше мышление.

лэптоп, камера

Не совсем ясно, как эта предвзятость проникает в системы. Хотя нельзя отбрасывать предположение, что она намеренно внедряется разработчиками LLM. Эти модели обучаются на огромных объемах онлайн-текстов, но преимущество "лево-учебного" материала над "право-учебным" в конце концов может дать свои плоды.

Профессор Розадо предположил, что доминирование ChatGPT в обучении других моделей также может быть фактором, поскольку ранее было доказано, что этот чат-бот придерживается левых взглядов, когда речь идет о его политической точке зрения.

Боты, работающие на основе LLM, по сути используют вероятности, чтобы выяснить, какое слово должно следовать за другим в их ответах. Это означает, что они регулярно ошибаются в своих высказываниях даже до того, как учитываются различные виды предвзятости.

Такие технологические гиганты, как Google, Microsoft, Apple и Meta, всячески навязывают нам чат-ботов на основе искусственного интеллекта, стремятся распространить их влияние на как можно больше сфер нашей жизни. Поэтому, возможно, наконец пришло время пересмотреть приоритеты в использовании этих технологий и определить, где вмешательство ИИ действительно полезно, а где - нет.

По утверждению профессора Розадо, крайне важно критически изучить этот вопрос и устранить потенциальную политическую предвзятость, присущую языковым моделям, "чтобы обеспечить сбалансированное, справедливое и точное представление информации в их ответах на запросы пользователей".

Результаты исследования опубликовал журнал PLOS ONE.

Фото: pixabay.com

ПРОКОМЕНТИРОВАТЬ

Прокомментировать

ТЕЛЕГРАМ

FACEBOOK

О НАС

Логотип 50 Plus

50Plus - это медиа-ресурс об образе жизни поколения 50+. Наша миссия - предоставлять интересную и полезную информацию читателям и вдохновлять их на новом этапе жизни.

ПОДПИСКА

Подпишитесь на рассылку, чтобы получать еженедельный дайджест.

UA