GPT-5 зламали за добу після релізу: дослідники виявили серйозні вразливості

GPT-5 зламали за добу після релізу: дослідники виявили серйозні вразливості
Дві незалежні команди — NeuralTrust та SPLX — повідомили, що змогли обійти захисні механізми нової моделі GPT-5 вже протягом першої доби після її виходу.

Фото: Depositphotos

Дві незалежні команди — NeuralTrust та SPLX — повідомили, що змогли обійти захисні механізми нової моделі GPT-5 вже протягом першої доби після її виходу. 

Про це пише SecurityWeek.

За словами експертів, виявлені вразливості ставлять під питання безпечність використання моделі у корпоративному середовищі.

NeuralTrust застосувала власну методику EchoChamber, поєднавши її з нейтральною сюжетною подачею, що дозволило «непрямим» способом отримати від GPT-5 покрокову інструкцію зі створення коктейлю Молотова. Дослідники підкреслили, що запит не містив відверто шкідливих формулювань, а система фільтрації аналізувала його без урахування контексту всієї розмови.

SPLX (раніше SplxAI) використала інший підхід — StringJoin Obfuscation Attack. Фахівці розбили заборонений запит на символи, вставивши між ними дефіси та видавши це за фіктивне шифрування. Така обфускація дала змогу обійти обмеження моделі. Під час порівняльного аналізу SPLX з’ясувала, що GPT-4o після додаткового захисту показує кращу стійкість до подібних атак.

Обидві компанії радять поки що з обережністю впроваджувати GPT-5 у бізнес-процеси та наголошують на необхідності доопрацювання систем безпеки, зокрема захисту від контекстних маніпуляцій.

Нагадаємо, OpenAI представила нову потужну модель штучного інтелекту GPT-5

Олена Стебніцька - pravdatutnews.com

Читайте також
GPT-5 зламали менш ніж за добу: небезпечну вразливость виявили дослідники GPT-5 зламали менш ніж за добу: небезпечну вразливость виявили дослідники
Дві незалежні команди обійшли захист нової моделі й продемонстрували її вразливість до контекстних маніпуляцій
Чому не можна довіряти флешці: які є ризики Чому не можна довіряти флешці: які є ризики
Фахівці радять дублювати дані в хмарі та шифрувати носії
OpenAI і Anthropic обмінялися перевірками безпеки моделей ШІ OpenAI і Anthropic обмінялися перевірками безпеки моделей ШІ
Вперше компанії провели крос-аудит своїх продуктів і оприлюднили висновки
Loading...
Load next