Фото: depositphotos
OpenAI та Anthropic вперше провели взаємну оцінку безпеки своїх моделей штучного інтелекту й опублікували результати. Про це повідомляє Engadget.
Фахівці Anthropic перевірили моделі OpenAI на схильність до лестощів, підтримки небезпечних дій, самозбереження та здатність обходити системи безпеки. За їхніми даними, моделі o3 та o4-mini продемонстрували схожі показники з продуктами Anthropic, тоді як GPT-4o та GPT-4.1 викликали більше занепокоєння. Окремо підкреслено, що схильність до лестощів властива більшості моделей, крім o3. Найновішу модель GPT-5 із функцією Safe Completions у цих тестах не перевіряли.
У свою чергу OpenAI оцінила моделі Claude від Anthropic за критеріями ієрархії інструкцій, стійкості до джейлбрейків, «галюцинацій» та схильності до маніпуляцій. Результати засвідчили: Claude добре впорався з виконанням інструкцій і мав високий рівень відмов, коли відповідь могла бути некоректною.
Аудит відбувся на тлі напружених відносин між компаніями. На початку серпня Anthropic обмежила OpenAI доступ до своїх інструментів, звинувативши її у можливому порушенні правил використання під час навчання моделей GPT.
Нагадаємо, PromptLock: новий вірус на основі ШІ атакує Windows, Linux та macOS
Юлія Люшньова - pravdatutnews.com