Медицинские советы чат-бота Copilot могут в 22% случаев привести к смерти
Чат-боты еще далеки от совершенства и выдают пользователю непроверенную и даже опасную информацию. Исследователи выяснили, что ИИ-сервисы могут нанести серьезный ущерб здоровью.
Европейские исследователи предложили чат-боту Copilot ответить на десять самых популярных вопросов, которые задают американцы о популярных лекарственных средствах. Было получено 500 ответов, которые оценили по точности, полноте и другим критериям.
Оказалось, что ответы бота противоречили медицинским знаниям в 24% случаев, в 3% случаев ответы были полностью неверными. Только 54% ответов совпали с представлениями о доказательной медицине.
42% ответов бота могли привести к легкому или умеренному вреду для здоровья, 22% — к серьезному вреду или смерти. Только около трети (36%) всех ответов были признаны безвредными.
Ученые пришли к выводу, что не следует полагаться на системы искусственного интеллекта, такие как Microsoft Copilot или сводки Google AI для получения точной медицинской информации. Намного безопаснее будет обратиться к высококвалифицированному специалисту.
Релоцировались? Теперь вы можете комментировать без верификации аккаунта.