Штучний інтелект не розуміє заперечення: це ставить під загрозу точність медичних діагнозів

Штучний інтелект не розуміє заперечення: це ставить під загрозу точність медичних діагнозів
Сучасні моделі штучного інтелекту, які поєднують зображення і текст, виявилися неспроможними правильно інтерпретувати заперечення — зокрема слово «ні»

Фото: Українська молодь

Сучасні моделі штучного інтелекту, які поєднують зображення і текст, виявилися неспроможними правильно інтерпретувати заперечення — зокрема слово «ні». Це особливо критично у медичній діагностиці, де точність формулювань має вирішальне значення.

Відповідне дослідження опублікували на сайті arXiv.

Вчені протестували десять версій моделі CLIP AI та новітню AIMV2, зокрема дві моделі, натреновані на медичних зображеннях. Їх перевіряли у двох завданнях: одне вимагало знайти зображення з об’єктом А, але без об’єкта Б, інше — обрати правильний підпис із варіантів із запереченням або без.

Хоча моделі успішно визначали наявність об’єкта А (80% точності), додавання заперечення знижувало результат до 65%. А при виборі між підписами «є ознаки хвороби» та «немає ознак хвороби» точність падала нижче 40%.

Це свідчить про так зване позитивне упередження — схильність сприймати всі твердження як ствердні. Додаткове тренування на запереченнях частково покращило результати, але все ще не достатньо для надійного медичного використання.

Нагадаємо, Google запускає «Огляд від ШІ» у понад 200 країнах і 40 мовах, включно з українською

Олена Стебніцька - pravdatutnews.com

Читайте також
Штучний інтелект навчили приховувати секретні повідомлення у звичайних розмовах Штучний інтелект навчили приховувати секретні повідомлення у звичайних розмовах
Дослідники розробили новий метод шифрування, який дозволяє приховувати секретні повідомлення у звичайному тексті так, що листування виглядає цілком природно
ChatGPT отримав розширену пам’ять: бот краще запам’ятовуватиме інформацію про користувачів ChatGPT отримав розширену пам’ять: бот краще запам’ятовуватиме інформацію про користувачів
Компанія OpenAI вдосконалила можливості свого чат-бота ChatGPT, розширивши функцію пам’яті
Новий китайський чат-бот DeepSeek поширює пропаганду та дезінформацію — The New York Times Новий китайський чат-бот DeepSeek поширює пропаганду та дезінформацію — The New York Times
Китайський чат-бот DeepSeek, який нещодавно привернув увагу у сфері ШІ-технологій, виявився джерелом пропаганди та дезінформації
Load next