Фото: Українська молодь
Сучасні моделі штучного інтелекту, які поєднують зображення і текст, виявилися неспроможними правильно інтерпретувати заперечення — зокрема слово «ні». Це особливо критично у медичній діагностиці, де точність формулювань має вирішальне значення.
Відповідне дослідження опублікували на сайті arXiv.
Вчені протестували десять версій моделі CLIP AI та новітню AIMV2, зокрема дві моделі, натреновані на медичних зображеннях. Їх перевіряли у двох завданнях: одне вимагало знайти зображення з об’єктом А, але без об’єкта Б, інше — обрати правильний підпис із варіантів із запереченням або без.
Хоча моделі успішно визначали наявність об’єкта А (80% точності), додавання заперечення знижувало результат до 65%. А при виборі між підписами «є ознаки хвороби» та «немає ознак хвороби» точність падала нижче 40%.
Це свідчить про так зване позитивне упередження — схильність сприймати всі твердження як ствердні. Додаткове тренування на запереченнях частково покращило результати, але все ще не достатньо для надійного медичного використання.
Нагадаємо, Google запускає «Огляд від ШІ» у понад 200 країнах і 40 мовах, включно з українською
Олена Стебніцька - pravdatutnews.com