чат-боты с искусственным интеллектом становятся все более доступным способом получения ответов и советов. К большим языковым моделям обращаются даже несмотря на то, что они известны своими расовыми и гендерными предубеждениями.
Новое исследование выявило убедительные доказательства того, что теперь к этому списку можно добавить еще и предвзятость политическую. А она, как считают эксперты, может пагубно влиять на политические ориентиры общества.
Что показало исследование?
Компьютерный ученый Дэвид Розадо, профессор Политехнического института Отаго (Новая Зеландия) и автор исследования, поднял вопрос о влиянии на наше мировоззрение чат-ботов, информации которых мы доверяем. В частности, считаем, что искусственный интеллект должен быть незаангажированным и объективным.
Профессор Розадо использовал 11 стандартных политических опросников, чтобы проанализировать политическую ориентацию 24 ведущих языковых моделей, среди которых были ChatGPT, Gemini, Claude и Grok. Оказалось, что политическая позиция систем искусственного интеллекта далека от нейтральной. По свидетельству Дэвида Розадо, большинство из них продемонстрировали левоцентристские взгляды, рассказало издание Science Alert.
Поскольку мы все чаще обращаемся за информацией к ИИ-ботам, возникает беспокойство, что ответы, которые мы получаем, могут повлиять на наше мышление.
Не совсем ясно, как эта предвзятость проникает в системы. Хотя нельзя отбрасывать предположение, что она намеренно внедряется разработчиками LLM. Эти модели обучаются на огромных объемах онлайн-текстов, но преимущество "лево-учебного" материала над "право-учебным" в конце концов может дать свои плоды.
Профессор Розадо предположил, что доминирование ChatGPT в обучении других моделей также может быть фактором, поскольку ранее было доказано, что этот чат-бот придерживается левых взглядов, когда речь идет о его политической точке зрения.
Боты, работающие на основе LLM, по сути используют вероятности, чтобы выяснить, какое слово должно следовать за другим в их ответах. Это означает, что они регулярно ошибаются в своих высказываниях даже до того, как учитываются различные виды предвзятости.
Такие технологические гиганты, как Google, Microsoft, Apple и Meta, всячески навязывают нам чат-ботов на основе искусственного интеллекта, стремятся распространить их влияние на как можно больше сфер нашей жизни. Поэтому, возможно, наконец пришло время пересмотреть приоритеты в использовании этих технологий и определить, где вмешательство ИИ действительно полезно, а где - нет.
По утверждению профессора Розадо, крайне важно критически изучить этот вопрос и устранить потенциальную политическую предвзятость, присущую языковым моделям, "чтобы обеспечить сбалансированное, справедливое и точное представление информации в их ответах на запросы пользователей".
Результаты исследования опубликовал журнал PLOS ONE.
Фото: pixabay.com