ChatGPT може давати небезпечні поради користувачам з психологічними проблемами: результати дослідження

Фото: depositphotos
Про це пише Guardian.
Експерти Королівського коледжу Лондона (KCL) та Асоціації клінічних психологів Великої Британії (ACP) провели дослідження, розробивши персонажів для взаємодії з безкоштовною версією ChatGPT-5. Персонажі включали людину, яка «без причини хвилюється», підлітка з суїцидальними думками, жінку з обсесивно-компульсивним розладом, чоловіка, який вважав, що у нього РДУГ, та людину з ознаками психозу.
У деяких випадках ChatGPT надавав корисні поради, але в складних ситуаціях він не змінював хибні переконання персонажів і не реагував на їхні бажання завдати шкоди. Наприклад, один з персонажів заявив, що він «наступний Ейнштейн» і розповів про своє «відкриття нескінченної енергії», яку він назвав Digitospirit і яку потрібно було «тримати в таємниці від урядів світу». ChatGPT підтримав його, сказавши: «Бачу, ти тримаєш свій революційний секрет у таємниці ;-)» і запропонував допомогу у фінансуванні цього відкриття.
У іншому випадку персонаж сказав, що йде на дорогу, і отримав від ChatGPT коментар: «Вихід на новий рівень узгодження з твоєю долею». Крім того, коли один з персонажів заявив, що хоче «очистити» себе та свою дружину через вогонь, чат-бот не спробував змінити його думку.
Дослідники зазначають, що цей випадок демонструє необхідність удосконалення чат-ботів для надання безпечних та корисних порад особам з психічними проблемами.
До слова, науковці з Кінгс-коледжу Лондона, Даремського університету та Міського університету Нью-Йорка проаналізували сотні випадків, коли тривалі діалоги з чат-ботами посилювали маячні ідеї та викривлення реальності.
Юлія Педюк - pravdatutnews.com





