Фото: Depositphotos
Дві незалежні команди — NeuralTrust та SPLX — повідомили, що змогли обійти захисні механізми нової моделі GPT-5 вже протягом першої доби після її виходу.
Про це пише SecurityWeek.
За словами експертів, виявлені вразливості ставлять під питання безпечність використання моделі у корпоративному середовищі.
NeuralTrust застосувала власну методику EchoChamber, поєднавши її з нейтральною сюжетною подачею, що дозволило «непрямим» способом отримати від GPT-5 покрокову інструкцію зі створення коктейлю Молотова. Дослідники підкреслили, що запит не містив відверто шкідливих формулювань, а система фільтрації аналізувала його без урахування контексту всієї розмови.
SPLX (раніше SplxAI) використала інший підхід — StringJoin Obfuscation Attack. Фахівці розбили заборонений запит на символи, вставивши між ними дефіси та видавши це за фіктивне шифрування. Така обфускація дала змогу обійти обмеження моделі. Під час порівняльного аналізу SPLX з’ясувала, що GPT-4o після додаткового захисту показує кращу стійкість до подібних атак.
Обидві компанії радять поки що з обережністю впроваджувати GPT-5 у бізнес-процеси та наголошують на необхідності доопрацювання систем безпеки, зокрема захисту від контекстних маніпуляцій.
Нагадаємо, OpenAI представила нову потужну модель штучного інтелекту GPT-5
Олена Стебніцька - pravdatutnews.com