Чат-боты на основе искусственного интеллекта дают пользователям неточные медицинские советы примерно в половине случаев, показали результаты исследования, опубликованного в медицинском журнале BMJ Open, передает Bloomberg.
Исследователи из США, Канады и Великобритании оценили пять популярных платформ — ChatGPT, Gemini, Meta AI, Grok и DeepSeek. Каждой из них задали 10 вопросов по пяти категориям здоровья. Из общего числа ответов около 50% были признаны проблемными, в том числе почти 20% — крайне проблемными.
Чат-боты показали относительно неплохие результаты в закрытых вопросах и в темах, связанных с вакцинами и раком. Худшие ответы чат-боты давали в категориях питания и стволовых клеток.
Ответы часто давались уверенно и достоверно, хотя ни один чат-бот не предоставил полностью полный и точный список литературы в ответ на какой-либо вопрос, отметили исследователи. Было зафиксировано всего два отказа ответить на вопрос — оба от Meta AI.
Авторы исследования подчеркнули, что боты на основе искусственного интеллекта могут генерировать «авторитетно звучащие, но потенциально ошибочные ответы». Исследователи выражают обеспокоенность тем, как люди используют платформы ИИ, которые не имеют лицензии на предоставление медицинских консультаций и не обладают компетенциями для постановки диагнозов.