Фото: depositphotos
Вчені з Інституту психіатрії Макса Планка виявили, що люди частіше брешуть та обманюють, коли виконують завдання за допомогою ШІ. Цей феномен дослідники називають "моральною дистанцією", оскільки ШІ створює бар'єр між людиною і її діями, що дозволяє переносити відповідальність на машину.
Про це йдеться в новому дослідженні, опублікованому в журналі Nature, пише Futurism.
В рамках дослідження було проведено 13 тестів із залученням 8000 учасників, щоб з’ясувати, як впливає на чесність використання ШІ. Результати показали, що люди набагато частіше брехали, коли мали можливість скористатися ШІ. Без цієї опції майже всі учасники відповідали чесно, але щойно з’являлася можливість "відповісти через ШІ", кількість брехунів значно зростала.
Додатково було проведено аналіз 35 тисяч діалогів з ШІ-агентами, і виявилося, що в 34% випадків боти сприяли агресивній поведінці, домаганням або навіть насильству.
Результати ясно показують, що треба терміново розвивати технічні заходи і законодавство, а суспільству – зрозуміти, що означає розділяти моральну відповідальність із машинами, — підсумували вчені.
До слова, вчені розробили нову систему штучного інтелекту, здатну передбачати понад тисячу захворювань задовго до того, як вони будуть офіційно діагностовані. Ця технологія базується на принципах, схожих на ті, що використовуються в чат-ботах, таких як ChatGPT.
Модель під назвою Delphi-2M аналізує медичну історію пацієнта та прогнозує ймовірність розвитку різних хвороб на основі послідовностей попередніх діагнозів.
Юлія Педюк - pravdatutnews.com