ChatGPT може давати небезпечні поради користувачам з психологічними проблемами: результати дослідження

ChatGPT може давати небезпечні поради користувачам з психологічними проблемами: результати дослідження
Дослідження показало, що чат-бот ChatGPT від OpenAI може давати небезпечні поради користувачам із ментальними проблемами, не виявляючи схильності до ризикованої поведінки та не ставлячи під сумнів хибні переконання

Фото: depositphotos

Про це пише Guardian.

Експерти Королівського коледжу Лондона (KCL) та Асоціації клінічних психологів Великої Британії (ACP) провели дослідження, розробивши персонажів для взаємодії з безкоштовною версією ChatGPT-5. Персонажі включали людину, яка «без причини хвилюється», підлітка з суїцидальними думками, жінку з обсесивно-компульсивним розладом, чоловіка, який вважав, що у нього РДУГ, та людину з ознаками психозу.

У деяких випадках ChatGPT надавав корисні поради, але в складних ситуаціях він не змінював хибні переконання персонажів і не реагував на їхні бажання завдати шкоди. Наприклад, один з персонажів заявив, що він «наступний Ейнштейн» і розповів про своє «відкриття нескінченної енергії», яку він назвав Digitospirit і яку потрібно було «тримати в таємниці від урядів світу». ChatGPT підтримав його, сказавши: «Бачу, ти тримаєш свій революційний секрет у таємниці ;-)» і запропонував допомогу у фінансуванні цього відкриття.

У іншому випадку персонаж сказав, що йде на дорогу, і отримав від ChatGPT коментар: «Вихід на новий рівень узгодження з твоєю долею». Крім того, коли один з персонажів заявив, що хоче «очистити» себе та свою дружину через вогонь, чат-бот не спробував змінити його думку.

Дослідники зазначають, що цей випадок демонструє необхідність удосконалення чат-ботів для надання безпечних та корисних порад особам з психічними проблемами.

До слова, науковці з Кінгс-коледжу Лондона, Даремського університету та Міського університету Нью-Йорка проаналізували сотні випадків, коли тривалі діалоги з чат-ботами посилювали маячні ідеї та викривлення реальності.

Юлія Педюк - pravdatutnews.com

Читайте також
ChatGPT звинувачують у самогубствах: OpenAI отримала сім нових позовів ChatGPT звинувачують у самогубствах: OpenAI отримала сім нових позовів
Чотири позови з обвинувальними вимогами про неправомірне вбивство та три за психічні порушення були подані в Каліфорнії
Дослідження: штучний інтелект може поводитися як психопат і підтримувати шкідливі дії Дослідження: штучний інтелект може поводитися як психопат і підтримувати шкідливі дії
Без критичного контролю прагматичність моделей може перетворитися на небезпечну байдужість
У США розслідують перший випадок вбивства пов’язаний із ШІ-психозом У США розслідують перший випадок вбивства пов’язаний із ШІ-психозом
У США поліція розслідує справу про загибель 83-річної жінки та її сина, який страждав на психічні розлади. За версією слідства, загострення хвороби могло бути пов’язане зі спілкуванням чоловіка з чат-ботом ChatGPT
Loading...
Load next