Семья отравилась грибами из-за книги, написанной ИИ: опасный совет неопытные грибники получили от ChatGPT
Сразу несколько членов одной семьи в Великобритании были госпитализированы с отравлением после употребления в пищу грибов. Пожалуй, привычная история этого лета, которая повторяется из год в год. Если бы не один нюанс.
Как сообщает издание The Guardian, грибы, которыми отравились британцы, были собраны согласно рекомендациям книги, написанной с помощью искусственного интеллекта (ИИ), а конкретно нейросетью ChatGPT.
Глава семьи рассказал журналистам, что руководствовался информацией из книги, приобретенной на Amazon. Книга позиционировалась как пособие для начинающих грибников и содержала описания и фотографии различных видов грибов. Однако, как выяснилось позже, информация в книге была недостоверной, а изображения некоторых грибов были сгенерированы искусственным интеллектом и не соответствовали действительности. В частности, книга рекомендовала употребление сморчков с августа по конец лета, однако под видом съедобных грибов на самом деле были ядовитые.
После того, как история получила огласку, журналисты издания The Guardian провели собственное расследование. Они обнаружили на Amazon еще несколько подозрительных книг о грибах с названиями типа «Кулинарная книга по диким грибам: от леса до изысканной тарелки» и «Полевой путеводитель по грибным местам Юго-Запада Англии», которые, судя по всему, также были написаны чат-ботами. Эксперты проанализировали содержание этих книг и подтвердили, что они содержат неточности и опасные советы, в частности, предлагают определять ядовитые грибы по вкусу и запаху.
Представители Amazon уже заявили, что компания изучает данный вопрос и предпринимает меры для обеспечения безопасности покупателей. Платформа попросила семью вернуть книгу в обмен на денежную компенсацию.
После этого инцидента эксперты снова подняли вопрос о потенциальных рисках, связанных с использованием ИИ для создания контента, особенно в областях, где неточности могут иметь серьезные последствия для здоровья и безопасности.
Тем более, это не первый случай, когда информация, сгенерированная ИИ, приводит к негативным последствиям.
Так, например, в июне этого года нейросеть Gemini от Google на просьбу пользователя улучшить оливковую заправку чесноком без нагрева предоставила развернутую рекомендацию, которая в итоге привела к созданию биотоксина. Пользователь действовал по инструкции нейросети и в итоге вырастил культуру с опасными для здоровья бактериями, которые могут заразить человека ботулизм.
«Никакого доверия к ChatGPT» — Эдвард Сноуден обрушился с критикой на OpenAI. Что его так возмутило?
Довериться машине: 5 приложений, которые дают полезные советы о здоровье