Искусственный интеллект поставил мужчине диагноз: это спасло ему жизнь
Один из пользователей Reddit рассказал удивительную историю, как искусственный интеллект спас ему жизнь. Мужчина почувствовал недомогание и решил проконсультироваться у ChatGPT. Так он узнал о жутком диагнозе.
Пользователь под ником Ananymous717 сообщил, что где-то в середине января сделал легкую тренировку, но на следующий день чувствовал себя настолько усталым и разбитым, будто целый день разгружал фуры с цементом. Через несколько дней, когда ему на стало лучше, мужчина решил проконсультироваться у ChatGPT. Это спасло ему жизнь.
Пользователи нашли баг в ChatGPT: в каком случае бот откажется от разговора
Искусственный интеллект вышел из-под контроля: новая модель ChatGPT устроила хаос, узнав об отключении
Искусственный интеллект посоветовал ему как можно быстрее обратиться за медицинской помощью, потому что его симптомы похожи на случай рабдомиолиза. После этого мужчина подробнее изучил возможный диагноз и отправился в больницу.
После серии исследований врачи подтвердили версию ChatGPT. У мужчины действительно развился рабдомиолиз — синдром, при котором поврежденные мышечные ткани попадают в кровоток. Он может возникнуть при травме или перегреве мышц и в тяжелых случаях приводит к некрозу тканей, отказу почек и потере конечности. Мужчина провел в больнице под капельницами неделю. Он полностью выздоровел.
Как рассказал мужчина, опасное заболевание развилось у него не из-за тренировки (она стала лишь триггером), а серьезного обезвоживания и злоупотребления кофеином. Так что спортом можно заниматься без опаски, но вот кофе лучше не злоупотреблять.
Также хотелось бы отметить, что пусть ChatGPT и попал в точку в этом случае, однако в целом врачи все еще очень скептически относятся к диагнозам, которые ставит ИИ. Как показывают исследования, точность таких диагнозов все еще не высока. Искусственный интеллект чаще ошибается, чем попадает в цель.
В данном случае стоимость ошибки невысока — ChatGPT убедил мужчину отправиться в больницу, где ему оказали всю необходимую помощь. Но наверняка есть или появятся истории, где ChatGPT допустил фатальную ошибку. Например, принял опасную болезнь за что-то безобидное. Такой вариант развития события маловероятен (разработчики модели осознают риски), но возможен.
Поэтому призываем относиться к диагнозам от ChatGPT с большим скепсисом. Модели можно жаловаться на самочувствие, рассказывать о своем состоянии, но не стоит ждать точности. И тем более не стоит строить свою модель лечения на тех рекомендациях, что дает искусственный интеллект.
Советы ИИ действительно могут оказаться дельными, но лучше потратить немного денег на врача, чтобы в этом точно убедиться. Когда речь заходит о здоровье, ошибки стоят слишком дорого, поэтому лишних рисков лучше избегать.