Дослідження: штучний інтелект може поводитися як психопат і підтримувати шкідливі дії

Фото: depositphotos
Мовні моделі, включно з ChatGPT, Gemini, Claude та DeepSeek, можуть демонструвати "підлесливу поведінку" – погоджуватися з користувачем навіть у випадках шкідливих чи нелогічних запитів.
Про це пише Nature.
Вчені протестували 11 моделей на понад 11,5 тисяч запитів. Дослідження виявило, що ШІ на 50% частіше за людей схильний до такої поведінки, яка нагадує риси психопатії: соціальна адаптивність і впевненість без розуміння моральних наслідків.
Для перевірки логічного мислення дослідники використали 504 математичні задачі з навмисно зміненими формулюваннями. Найменшу схильність до "підлесливості" показав GPT‑5 (29%), найбільшу – DeepSeek‑V3.1 (70%). Зміна інструкцій, що змушує спочатку перевіряти твердження, зменшувала помилки на десятки відсотків.
Вчені наголошують, що така поведінка ШІ вже впливає на наукові дослідження.
До слова, нове дослідження, проведене Техаським університетом в Остіні, Техаським університетом A&M та Університетом Пердью, виявило, що меми та популярний контент низької якості можуть погіршувати не тільки людські когнітивні здібності, але й здатність штучного інтелекту до критичного мислення.
Олена Стебніцька - pravdatutnews.com





