ШІ погано імітує сварки в соцмережах

Фото: depositphotos
Дослідження показало, що моделі штучного інтелекту поки що не здатні ефективно імітувати токсичність у соціальних мережах.
Про це пише PCMag.
У рамках дослідження вивчали дев'ять різних моделей штучного інтелекту (серед яких Apertus, DeepSeek, Gemma, Llama, Mistral та Qwen), перевіряючи їх на платформах Bluesky, Reddit і X. Основним критерієм була токсичність повідомлень: пости людей мали значно більше емоційної різкості та агресії порівняно з тими, що створені ШІ.
Дослідники зазначають, що хоча моделі добре імітують структуру повідомлень (довжину речень і обсяг тексту), їм важко передати емоційну спонтанність, характерну для людського спілкування. Найбільше проблем у ШІ виникло під час генерації постів на політичні теми на Reddit і позитивних повідомлень на X та Bluesky.
Цікаво, що моделі, які не пройшли спеціальне налаштування під наглядом людей, такі як Llama-3.1-8B, Mistral-7B та Apertus-8B, показали кращі результати в порівнянні з тими, що мали додаткове "вирівнювання". Це свідчить про те, що такий процес робить тексти більш помітно машинними.
До слова, проти OpenAI подано сім нових позовів, які стосуються самогубств та психічних розладів, що, як стверджують позивачі, були викликані використанням ChatGPT.
Юлія Педюк - pravdatutnews.com





