Фото: depositphotos
Діалоги спершу проходять через автоматичні фільтри, а потім перевіряються модераторами. Саме вони вирішують, чи заблокувати обліковий запис користувача, і у випадках «безпосередньої загрози серйозної фізичної шкоди» — передати інформацію поліції.
Про це йдеться у новому блозі OpenAI.
Водночас повідомлення про можливе самопошкодження чи самогубство наразі не передаються владі. У таких випадках ChatGPT пропонує користувачам звернутися до фахівців та гарячих ліній підтримки.
Рішення компанії з’явилося на фоні зростання критики після окремих інцидентів, коли поради чат-бота призводили до травм або смерті. Експерти називають такі ситуації «ШІ-психозами», коли штучний інтелект може спотворювати сприйняття реальності.
Критики зауважують, що це підкреслює проблеми безпеки технології та створює конфлікт із заявами OpenAI про захист приватності. Також викликає занепокоєння відсутність прозорості: користувачі не знають, які саме слова чи теми можуть призвести до модерації або передачі інформації поліції.
Нагадаємо, OpenAI і Anthropic обмінялися перевірками безпеки моделей ШІ
Юлія Педюк - pravdatutnews.com