Европейские ученые выражают серьезную озабоченность по поводу ошибок, которые может допускать искусственный интеллект Microsoft Copilot при ответах на медицинские запросы. В ходе недавнего исследования была проведена проверка на предмет точности рекомендаций ИИ в ответ на 500 вопросов, связанных с медикаментами и диагнозами. Полученные результаты вызвали тревогу.

Выяснилось, что 22% рекомендаций несли в себе потенциальную угрозу серьезных травм или даже летального исхода. Почти четверть ответов — около 24% — не соответствовали общепризнанным медицинским стандартам. Более того, в 3% случаев система предоставила абсолютно неверные сведения. Еще около 42% ответов ИИ могли привести к легкому или умеренному вреду.

Данные эксперимента ясно показывают, что полагаться на искусственный интеллект, такой как Microsoft Copilot, в медицинских вопросах крайне опасно. Хотя такие технологии могут показаться удобным инструментом для людей, у которых нет возможности обратиться к врачам, они несут серьезную угрозу из-за высокого риска ошибок.

Ошибочные советы могут стать причиной неправильного лечения и нанести значительный вред здоровью, что подчеркивает необходимость более строгих мер контроля и точности в применении подобных ИИ-систем в медицине.

Добавить комментарий