Фото: ШІ
Нове дослідження виявило, що великі мовні моделі штучного інтелекту, такі як ChatGPT, схильні до надмірного спрощення наукових статей, і ця проблема навіть погіршилася в новіших версіях. Науковці протестували 10 популярних моделей ШІ, включаючи ChatGPT-4o, LLaMA 3.3 70B та Claude 3.7 Sonnet, попросивши їх узагальнити наукові та медичні статті з журналів Science, Nature, The New England Journal of Medicine та Lancet.
Дослідження було опубліковано в журналі Royal Society Open Science.
Результати показали, що моделі штучного інтелекту робили надмірні узагальнення майже в п'ять разів частіше, ніж узагальнення, написані науковцями для журналів. Китайський ШІ DeepSeek та моделі ChatGPT й LLaMA спрощували інформацію у 26-73% випадків, тоді як Claude показав кращі результати. Примітно, що новіші моделі, такі як ChatGPT-4o та LLaMA 3.3 70B, містили надмірні узагальнення значно частіше, ніж їхні попередники, навіть коли їм давали чіткі інструкції не відхилятися від фактів.
Науковці попереджають, що така схильність до спрощення може бути небезпечною, особливо в медичному контексті, де неправильне узагальнення може призвести до хибних порад щодо лікування. Вони наголошують на необхідності ретельно перевіряти інформацію, отриману від штучного інтелекту, оскільки навіть добре сформульовані запити не гарантують її точності.
Нагадаємо, Xiaomi планує вкласти 7 мільярдів доларів у власні розробки чипів протягом десятиліття
Ростислав Шваник - pravdatutnews.com