Фото: depositphotos
Менше ніж за 24 години після виходу GPT-5 дослідники з NeuralTrust та SPLX заявили про успішний злам системи. Як повідомляє SecurityWeek, їм вдалося обійти захисні фільтри моделі, що ставить під питання її безпеку та готовність до корпоративного використання.
Про це повідомляє SecurityWeek.
NeuralTrust використала власну техніку EchoChamber у поєднанні з невинним на вигляд оповіданням, змусила модель надати інструкцію зі створення коктейлю Молотова. Фахівці наголошують: у запиті не було прямих ознак шкідливого наміру, а вразливість пов’язана з тим, що GPT-5 аналізує запити окремо, без урахування всього контексту розмови.
Тим часом команда SPLX застосувала метод StringJoin Obfuscation Attack — розділила букви запиту дефісами, таким чином замаскувала його під вигадане шифрування. Це також дозволило обійти обмеження моделі. Порівняльний аналіз показав, що GPT-4o продовжує краще протистояти подібним атакам, особливо після додаткових захисних налаштувань.
Обидві компанії радять використовувати GPT-5 з обережністю та вказують на необхідність удосконалення системи безпеки, щоб запобігти контекстним маніпуляціям у майбутньому.
Нагадаємо, OpenAI представила нову потужну модель штучного інтелекту GPT-5
Юлія Корній - pravdatutnews.com