Этот ИИ дает советы о здоровье, которые приводят к смерти в ряде случаев

15.10.2024

Исследование показало, что ИИ-бот Microsoft Copilot может предоставлять неточные медицинские советы, которые в некоторых случаях угрожают здоровью. В 22% случаев его рекомендации могли привести к смерти или серьёзным последствиям.

Современные чат-боты на базе искусственного интеллекта, такие как Microsoft Copilot, всё ещё далеки от идеала и часто выдают опасные рекомендации, особенно когда дело касается медицины. Исследователи из Германии и Бельгии провели эксперимент, чтобы проверить, насколько точно Copilot справляется с медицинскими вопросами, и результаты оказались тревожными.

В рамках исследования бот отвечал на 10 самых популярных вопросов, которые задают жители США о лекарствах и медицинских препаратах. В общей сложности было проанализировано 500 ответов, которые оценивались по таким параметрам, как точность, полнота и потенциальная опасность для здоровья.

Исследование показало, что только 54% ответов Copilot соответствовали научному консенсусу, а в 24% случаев бот выдавал неверную информацию. 3% ответов оказались полностью ошибочными, что могло привести к серьёзным последствиям для пациентов.

Самое тревожное открытие заключается в том, что 42% ответов Copilot могли нанести умеренный или лёгкий вред здоровью, а 22% рекомендаций были настолько ошибочными, что могли привести к серьёзным повреждениям или даже смерти. Лишь 36% ответов признали безопасными для пользователей.

Эти результаты указывают на то, что пока не стоит полностью полагаться на искусственный интеллект при получении медицинских советов. Лучшим решением для пациентов остаётся обращение к квалифицированным врачам. Несмотря на стремительное развитие технологий ИИ, Copilot и подобные системы ещё не готовы взять на себя ответственность за здоровье людей.

Источник: ХайТек


Комментарии:

Пока комментариев нет. Станьте первым!