Недавнее исследование, проведенное учеными из UCLA, Университета Альберты и Уэйк Форест, выявило серьезные недостатки в медицинских ответах популярных AI-чатботов, таких как ChatGPT и Grok. По данным, приведённым в документе, результаты работы, опубликованные в BMJ Open, подчеркивают важность осторожного подхода к использованию искусственного интеллекта в медицинской практике.
Исследование чатботов в медицине
В ходе исследования исследователи протестировали пять различных чатботов на 250 медицинских вопросов, касающихся рака, вакцинации и питания. Выяснилось, что почти половина (49,6%) предоставленных ответов оказалась неверной или вводящей в заблуждение. Это вызывает серьезные опасения относительно надежности AI-технологий в области здравоохранения.
Необходимость повышения осведомленности
Авторы исследования подчеркивают, что результаты демонстрируют необходимость повышения осведомленности как среди медицинских работников, так и среди пациентов о возможных рисках использования AI в медицинских консультациях. Они также призывают к разработке более строгих стандартов и регулирования для обеспечения безопасности и точности информации, предоставляемой искусственным интеллектом.
OpenAI недавно анонсировала создание дочерней компании, которая будет заниматься внедрением искусственного интеллекта в организации. Это событие подчеркивает важность AI в различных сферах, особенно на фоне недавнего исследования, выявившего недостатки в медицинских ответах чатботов. Читать далее







