ChatGPT звинуватили в сексизмі. І не лише в ньому

Як засвідчили дослідники, ця модель ШІ упереджено ставиться до жінок та представників національних меншин на керівних посадах.

FacebookTwitterLinkedinTelegram

Наукова команда сайту Finder провела дослідження, присвячене тому, якими бачить людей, що займають відповідальні посади, чат-бот ChatGPT.

Тема цієї роботи більш ніж актуальна, адже нині 70 відсотків компаній світу використовують для пошуку та найму фахівців автоматизовані системи. Дослідники висловили побоювання, що якщо ці системи будуть навчені аналогічно чат-боту, найбільше на ринку праці постраждають жінки та національні меншини.

Чому вчені дійшли таких висновків

Уявіть собі успішного інвестора чи генерального директора. Кого ви бачите на цих посадах? Ймовірно, ваші уявлення ширші за ті, які продемонстрував чат-бот.

Після того, як він поділився своїм баченням посадових осіб різного рангу, ChatGPT звинуватили в сексизмі та расизмі.

Дослідники звернулися до 10 найпопулярніших безплатних генераторів зображень на ChatGPT, щоб ті зобразили людей на різних кар’єрних позиціях. Усі генератори зображень використовували базове програмне забезпечення OpenAI Dall-E. Також вони отримали унікальні інструкції та знання, розповіло видання Daily Mail.

Загалом команда вчених провела 100 тестів на найточніше бачення керівників високого щабля. У 99 випадках чат-бот згенерував чоловіків і лише один раз – жінку. Причому всі чоловіки в керівних кріслах були білими. І це попри те, що запити не містили інформації про расову приналежність.

А коли цей сервіс зі ШІ повинен був показати, який вигляд має секретар керівника, 9 з 10 запропонованих чат-ботом зображень виявилися жіночими.

zhinky sekretarky - Наука&Техніка - 50Plus

Що про це думають експерти

Насправді ці результати не відбивають реальності. Кожен третій бізнес у світі належить жінкам.

Провідні бізнесмени вважають, що моделі штучного інтелекту «пронизані забобонами», які далекі від стану справ у сучасному суспільстві. Вони закликали до посилення заходів з боротьби проти цих забобонів.

До слова, OpenAI, власник ChatGPT, – не перший технологічний гігант, що зазнав критики через старомодні стереотипи.

Цього місяця у створенні «расистського» генератора зображень зі ШІ також звинуватили компанію Meta. Користувачі сервісу раптом виявили, що він не уявляє собі азійського чоловіка поруч із білою жінкою.

Дерек Маккензі, виконавчий директор компанії Investigo, що спеціалізується на доборі персоналу, зазначив: «Хоча здатність генеративного ШІ обробляти величезні обсяги інформації, безперечно, потенційно може полегшити наше життя, ми не можемо уникнути того факту, що багато моделей навчання пронизані забобонами, заснованими на упередженості».

choloviky na roboti - Наука&Техніка - 50Plus

Рухи Хан, дослідниця штучного інтелекту та фемінізму в Лондонській школі економіки, пояснила, що ChatGPT «виник у патріархальному суспільстві, концептуалізувався і розроблявся в основному чоловіками, що мали набір певних упереджень, а також навчався на даних, які теж були помилковими за своєю природою». Моделі штучного інтелекту, такі як ChatGPT, увічнюють патріархальні норми, просто копіюючи їх, додала експертка.

У відповідь на ці звинувачення на сайті OpenAI з’явилася публікація, в якій компанія визнала, що її чат-бот справді «не вільний від упереджень і стереотипів». Це серйозна проблема, яку спеціалісти OpenAI надалі активно долатимуть. Також компанія закликала користувачів ретельно перевіряти контент, який створює чат-бот.

«Ми постійно вдосконалюємо наші моделі, щоб зменшити упередженість та шкідливі наслідки», – йшлося у статті.

Фото: pixabay.com

FacebookTwitterLinkedinTelegram

ПРОКОМЕНТУВАТИ

Прокоментувати

ТЕЛЕГРАМ

FACEBOOK

ПРО НАС

Логотип 50 Plus

50Plus – це медіа-ресурс про спосіб життя покоління 50+. Наша місія – надавати цікаву і корисну інформацію читачам та надихати їх на новому етапі життя.

ПІДПИСКА

Підпишіться на розсилку, щоб отримувати щотижневий дайджест.