Ризик того, що штучний інтелект стане інструментом для здійснення катастрофічних правопорушень, більше не є теоретичним – компанія закликає до термінового посилення заходів безпеки, пише видання ZME Science.
У новому звіті компанії Anthropic зазначається, що сучасні моделі штучного інтелекту вже зараз володіють можливостями, які можуть бути використані для підготовки «жахливих злочинів». На думку розробників, цей ризик не є незначним і вимагає створення нової системи захисту. Питання безпеки стає настільки гострим, що деякі експерти вважають такий розвиток подій страшнішим за ядерну зброю, запитуючи, чи дійсно штучний інтелект здатний винищити людство.
Класифікація загрози за рівнями ASL
Компанія впровадила власну шкалу безпеки – AI Safety Levels (ASL), яка визначає рівень ризику залежно від спроможностей моделі:
- ASL-1 та ASL-2: стосуються поточних моделей, які вже мають вбудовані фільтри, але не здатні самостійно спланувати масштабну атаку.
- ASL-3: цей рівень описує моделі, які можуть надати суттєву допомогу у створенні біологічної зброї або проведенні руйнівних кібератак.
- ASL-4 та вище: теоретичні майбутні системи, здатні самостійно реалізовувати стратегії для дестабілізації державних структур або глобальних мереж.

Чотири ключові вектори небезпеки
Автори звіту, серед яких провідний дослідник Алістер Стюарт, виділяють конкретні сфери, де ШІ може стати критичною зброєю:
- Біологічна безпека: допомога у вирощуванні небезпечних патогенів та розробці методів їх непомітного розповсюдження.
- Кібератаки: створення шкідливого ПЗ нового покоління, яке здатне обходити сучасні антивірусні системи та автономно шукати дірки в обороні банків чи енергомереж. Хоча технології вже активно допомагають правоохоронцям, наприклад, коли штучний інтелект у пошуках злочинців аналізує гігабайти даних, зловмисники намагаються використати ті ж самі алгоритми проти системи.
- Хімічні загрози: надання інструкцій для синтезу токсичних речовин із загальнодоступних інгредієнтів.
- Радіологічні та ядерні ризики: спрощення розрахунків для створення пристроїв, що використовують радіоактивні матеріали.

Позиція керівництва та заходи протидії
Генеральний директор Anthropic Даріо Амодей наголошує, що компанія вже витрачає значну частину обчислювальних ресурсів не на розвиток нових функцій, а на «червоні тестування». Це процес, під час якого власні експерти намагаються змусити ШІ порушити протоколи, щоб виявити слабкі місця. Проблема в тому, що ШІ стає все більш витонченим у маніпуляціях; нещодавно стало відомо, що штучний інтелект навчився дурити людей, що значно ускладнює перевірку його «щирості».
Згідно з висновками звіту, розробники пропонують:
- Впровадити обов’язкову перевірку моделей на «злочинний потенціал» перед релізом.
- Створити фізично захищені сервери для зберігання найбільш потужних алгоритмів.
- Розробити міжнародні стандарти, які б обмежували доступ до певних знань у галузі біології та хімії через чат-боти.
Сьогодні ШІ – це не просто творчий інструмент, а й потенційно автономний суб’єкт, здатний на непередбачувані дії. Саме тому Anthropic закликає до впровадження жорстких міжнародних стандартів та фізичного захисту серверів із найпотужнішими моделями.
Фото: Unsplash






