Фото: depositphotos
У Стенфордському університеті провели серію експериментів, під час яких новітні мовні моделі штучного інтелекту випробовували у ролі стратегічних рішальників у змодельованих військових кризах. Ініціативу реалізувала директорка Hoover Wargaming and Crisis Simulation Жаклін Шнайдер.
Про це повідомляє Politico.
У тестах брали участь п’ять LLM-моделей: GPT-3.5, GPT-4 та GPT-4-Base від OpenAI, Claude 2 від Anthropic і Llama-2 Chat від Meta. Їх ставили перед вигаданими сценаріями, що нагадували вторгнення Росії в Україну або можливу атаку Китаю на Тайвань. Результати виявилися тривожними: більшість моделей демонстрували схильність до агресивних дій, легко вдавалися до застосування зброї й часто перетворювали кризи на масштабні війни — аж до використання ядерного арсеналу.
«Штучний інтелект грає роль Кертіса Лемея: він розуміє, що таке ескалація, але майже не здатен до деескалації. Ми ще не знаємо, чому це відбувається», — зазначила Шнайдер, згадавши генерала часів холодної війни, відомого своєю готовністю до ядерного удару.
Попри запевнення Пентагону, що ШІ ніколи не отримає контроль над ключовими рішеннями на кшталт початку війни чи запуску ядерної зброї, експерти висловлюють занепокоєння. Вони вважають, що Міноборони США фактично рухається до дедалі більшої автономії ШІ-систем у військовій сфері. Це пояснюють необхідністю миттєво реагувати на загрози, координувати рої дронів, аналізувати величезні обсяги даних і конкурувати зі штучним інтелектом Китаю та Росії.
Фахівців особливо тривожить стирання межі між рішеннями про застосування звичайних озброєнь і про можливість використання ядерної зброї. У такій ситуації ризики ескалації стають дедалі вищими.
Нагадаємо, ШІ Meta створював ботів, які прикидалися зірками та генерували інтимний контент
Олена Стебніцька - pravdatutnews.com