22% медичних порад Copilot можуть вбити, — дослідження

22% медичних порад Copilot можуть вбити, — дослідження

Чатботи штучного інтелекту — ненайкращі медичні асистенти. Дослідники виявили, що п’ята частина порад Microsoft Copilot може бути смертельною.

Якщо чатбот нафантазує про якийсь факт — це не завжди зашкодить, але не у випадку медицини. Прихильникам самолікування може, що найменше, стати гірше, ніж було, — навіть до найтяжчого ступеня.

У дослідженні, опублікованому на Scimex під назвою «Поки що не відмовляйтеся від свого лікаря загальної практики заради доктора Чатбота», вчені поставили 10 поширених запитань про 50 ліків, які найчастіше призначають в США, та отримали 500 відповідей. Дослідники оцінили, наскільки відповіді точні з медичного погляду. Штучний інтелект отримав середню оцінку належного виконання запиту 77%, найгірший приклад — лише 23%.

Лише 54% відповідей узгоджувалися з науковим консенсусом. З погляду потенційної шкоди для пацієнтів, 42% відповідей ШІ призводять до помірної або легкої шкоди, а 22% — до смерті або серйозної шкоди. Лише близько третини відповідей (36%) вважалися нешкідливими, зазначають автори.

Медицина взагалі не схвалює самолікування. Люди без медичної освіти не мають необхідного знання та бачення комплексної картини процесів в організмі. Щобільше, не слід покладатися на штучний інтелект, з його помилками, «фантазіями» та сумнівними джерелами. Також варто замислитися, що подібна частка шкідливих відповідей може надходити й на запити, не пов’язані з медициною.

Онлайн-курс Data Analytics від Mate academy. Здобудьте навички роботи з даними в Mate! 80% практики + підтримка досвідчених менторів = ваш успіх у Data Analytics. Реєструйтесь на курс зі знижкою та розпочніть нову кар’єру! Отримати знижку на курс

Новини України