Новые исследования показывают, что ChatGPT ненадежен в качестве инструмента для запросов по урологии

Блог

ДомДом / Блог / Новые исследования показывают, что ChatGPT ненадежен в качестве инструмента для запросов по урологии

Aug 10, 2023

Новые исследования показывают, что ChatGPT ненадежен в качестве инструмента для запросов по урологии

Хотя новые исследования продолжают рекламировать успехи искусственного интеллекта в интерпретации медицинских данных и предоставлении советов, похоже, что ему не хватает по крайней мере одной медицинской категории, важной для

Хотя новые исследования продолжают рекламировать успехи искусственного интеллекта в интерпретации медицинских данных и предоставлении советов, похоже, что ему не хватает по крайней мере одной медицинской категории, важной для пожилых людей: урологии.

Когда пациенты задавали общие медицинские вопросы, они могли спросить врача об осложнениях мочеиспускания, популярный чат-бот ChatGPT далеко не соответствовал клиническим стандартам, и во многих случаях предоставляемая им информация была вообще неточной.

Исследователи утверждают, что впервые ChatGPT оценивается специально для урологии.

Но возможность того, что ИИ будет предлагать неточную или предвзятую медицинскую информацию, вызывает серьезную обеспокоенность с тех пор, как в начале этого года использование этой технологии резко возросло.

Возможно, именно поэтому пациенты по-прежнему обеспокоены клиническим применением ИИ.

Некоторые из наиболее распространенных заболеваний у пожилых людей, которые приводят к осложнениям мочеиспускания, включают увеличение простаты (симптомы присутствуют примерно у половины мужчин в возрасте 75 лет и старше) и деменцию. Сами по себе инфекции мочевыводящих путей также могут привести к дальнейшим осложнениям у пожилых людей, таким как бред или нарушение сердечного ритма.

В урологическом исследовании, которое проводилось на факультете урологии Университета Флориды в Гейнсвилле, ChatGPT не только часто предоставлял неточную информацию, например, неверные рекомендации по лечению, но и делал это с «уверенностью», заявили исследователи.

Другие результаты были не менее ужасающими: чат-бот предлагал ответы, которые исследователи считали «подходящими», только в 60% случаев.

«ChatGPT неверно интерпретирует рекомендации по клиническому лечению, игнорирует важную контекстную информацию, скрывает ее источники и предоставляет неуместные ссылки», — заключили исследователи.