OpenAI і Anthropic обмінялися перевірками безпеки моделей ШІ

OpenAI і Anthropic обмінялися перевірками безпеки моделей ШІ
Вперше компанії провели крос-аудит своїх продуктів і оприлюднили висновки

Фото: depositphotos

OpenAI та Anthropic вперше провели взаємну оцінку безпеки своїх моделей штучного інтелекту й опублікували результати. Про це повідомляє Engadget.

Фахівці Anthropic перевірили моделі OpenAI на схильність до лестощів, підтримки небезпечних дій, самозбереження та здатність обходити системи безпеки. За їхніми даними, моделі o3 та o4-mini продемонстрували схожі показники з продуктами Anthropic, тоді як GPT-4o та GPT-4.1 викликали більше занепокоєння. Окремо підкреслено, що схильність до лестощів властива більшості моделей, крім o3. Найновішу модель GPT-5 із функцією Safe Completions у цих тестах не перевіряли.

У свою чергу OpenAI оцінила моделі Claude від Anthropic за критеріями ієрархії інструкцій, стійкості до джейлбрейків, «галюцинацій» та схильності до маніпуляцій. Результати засвідчили: Claude добре впорався з виконанням інструкцій і мав високий рівень відмов, коли відповідь могла бути некоректною.

Аудит відбувся на тлі напружених відносин між компаніями. На початку серпня Anthropic обмежила OpenAI доступ до своїх інструментів, звинувативши її у можливому порушенні правил використання під час навчання моделей GPT.

Нагадаємо, PromptLock: новий вірус на основі ШІ атакує Windows, Linux та macOS

Юлія Люшньова - pravdatutnews.com

Читайте також
Meta вивчає можливість використання сторонніх ШІ-моделей Meta вивчає можливість використання сторонніх ШІ-моделей
У фокусі — Gemini від Google та ChatGPT від OpenAI для покращення пошукових і діалогових функцій
DeepL представив власного ШІ-асистента для бізнесу DeepL представив власного ШІ-асистента для бізнесу
Німецький стартап DeepL, відомий своїм перекладацьким сервісом, оголосив про запуск ШІ-помічника DeepL Agent, який допомагатиме автоматизувати рутинні завдання у різних сферах — від HR до маркетингу
Anthropic визнала, що її штучний інтелект використовують для кіберзлочинності Anthropic визнала, що її штучний інтелект використовують для кіберзлочинності
Anthropic передала інформацію правоохоронцям та розробила інструмент для виявлення подібних випадків
Loading...
Load next