Штучний інтелект уже став звичною частиною нашого життя — ChatGPT від OpenAI використовують мільйони людей по всьому світу. Але разом з його популярністю зростає і кількість запитань щодо безпеки особистих даних.
Forbes виділив п’ять категорій інформації, яку не варто розкривати ChatGPT:
1. Незаконні або неетичні запити
Запити, пов’язані зі зламом акаунтів, створенням deepfake-контенту чи інструкціями щодо маніпуляцій — не лише аморальні, а й можуть призвести до юридичних наслідків. Такі дії відстежуються, а в серйозних випадках — повідомляються до правоохоронних органів.
2. Паролі та логіни
Навіть якщо ви користуєтесь інтегрованими плагінами, ChatGPT не є безпечним середовищем для зберігання паролів. Існують відомі випадки, коли інформація одного користувача випадково потрапляла до іншого.
3. Фінансова інформація
Банківські реквізити, номери карток, коди безпеки — усе це вразливе до витоку або фішингових атак. На відміну від фінансових платформ, у ChatGPT немає спеціального захисту чи шифрування.
4. Конфіденційні документи
Робочі файли, внутрішня документація, клієнтські бази або комерційні пропозиції — усе це може потрапити в навчальні дані або бути переглянутим модераторами. У 2023 році співробітники Samsung випадково завантажили в чат внутрішні документи, що спричинило витік.
5. Медична інформація
ChatGPT не є сертифікованим медичним інструментом. Навіть безневинний опис симптомів може виявитися персональною інформацією, яка стане доступною для аналізу або випадкового витоку. Для бізнесу це ризик порушення норм захисту даних, для звичайних користувачів — втрата приватності.
Нагадаємо, Штучний інтелект може витіснити низку професій: прогнози експертів
Олена Стебніцька - pravdatutnews.com