ШІ погано імітує сварки в соцмережах

ШІ погано імітує сварки в соцмережах
Згідно з роботою вчених із університетів Цюриха, Амстердама, Дюка та Нью-Йорка, пости, створені ШІ, можна легко відрізнити від людських з точністю 70–80%.

Фото: depositphotos

Дослідження показало, що моделі штучного інтелекту поки що не здатні ефективно імітувати токсичність у соціальних мережах.

Про це пише PCMag.

У рамках дослідження вивчали дев'ять різних моделей штучного інтелекту (серед яких Apertus, DeepSeek, Gemma, Llama, Mistral та Qwen), перевіряючи їх на платформах Bluesky, Reddit і X. Основним критерієм була токсичність повідомлень: пости людей мали значно більше емоційної різкості та агресії порівняно з тими, що створені ШІ.

Дослідники зазначають, що хоча моделі добре імітують структуру повідомлень (довжину речень і обсяг тексту), їм важко передати емоційну спонтанність, характерну для людського спілкування. Найбільше проблем у ШІ виникло під час генерації постів на політичні теми на Reddit і позитивних повідомлень на X та Bluesky.

Цікаво, що моделі, які не пройшли спеціальне налаштування під наглядом людей, такі як Llama-3.1-8B, Mistral-7B та Apertus-8B, показали кращі результати в порівнянні з тими, що мали додаткове "вирівнювання". Це свідчить про те, що такий процес робить тексти більш помітно машинними. 

До слова, проти OpenAI подано сім нових позовів, які стосуються самогубств та психічних розладів, що, як стверджують позивачі, були викликані використанням ChatGPT.

Юлія Педюк - pravdatutnews.com

Читайте також
Понад половину контенту в інтернеті створює штучний інтелект — дослідження Понад половину контенту в інтернеті створює штучний інтелект — дослідження
Попри відносно коротку історію масового використання технологій штучного інтелекту, вони вже суттєво вплинули на інформаційний простір.
Меми можуть знижувати когнітивні здібності ШІ, - вчені Меми можуть знижувати когнітивні здібності ШІ, - вчені
Нове дослідження, проведене Техаським університетом в Остіні, Техаським університетом A&M та Університетом Пердью, виявило, що меми та популярний контент низької якості можуть погіршувати не тільки людські когнітивні здібності, але й здатність штучного інтелекту до критичного мислення.
Character.AI обмежує спілкування користувачів до 18 років Character.AI обмежує спілкування користувачів до 18 років
Компанія запроваджує суворі вікові обмеження на тлі розслідувань щодо безпеки ШІ для підлітків
Loading...
Load next