Семья отравилась грибами из-за книги, написанной ИИ: опасный совет неопытные грибники получили от ChatGPT

В интернете нашли книги о грибах, которые написаны нейросетью. Проблема в том, что они содержат смертельные советы.
Семья отравилась грибами из-за книги, написанной ИИ: опасный совет неопытные грибники получили от ChatGPT
Unsplash

Сразу несколько членов одной семьи в Великобритании были госпитализированы с отравлением после употребления в пищу грибов. Пожалуй, привычная история этого лета, которая повторяется из год в год. Если бы не один нюанс.

РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ

Как сообщает издание The Guardian, грибы, которыми отравились британцы, были собраны согласно рекомендациям книги, написанной с помощью искусственного интеллекта (ИИ), а конкретно нейросетью ChatGPT.

Книги о грибах, написанные нейросетью, содержат ошибки, опасные для здоровья
Книги о грибах, написанные нейросетью, содержат ошибки, опасные для здоровья
Соцсети
РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ

Глава семьи рассказал журналистам, что руководствовался информацией из книги, приобретенной на Amazon. Книга позиционировалась как пособие для начинающих грибников и содержала описания и фотографии различных видов грибов. Однако, как выяснилось позже, информация в книге была недостоверной, а изображения некоторых грибов были сгенерированы искусственным интеллектом и не соответствовали действительности. В частности, книга рекомендовала употребление сморчков с августа по конец лета, однако под видом съедобных грибов на самом деле были ядовитые.

РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ

После того, как история получила огласку, журналисты издания The Guardian провели собственное расследование. Они обнаружили на Amazon еще несколько подозрительных книг о грибах с названиями типа «Кулинарная книга по диким грибам: от леса до изысканной тарелки» и «Полевой путеводитель по грибным местам Юго-Запада Англии», которые, судя по всему, также были написаны чат-ботами. Эксперты проанализировали содержание этих книг и подтвердили, что они содержат неточности и опасные советы, в частности, предлагают определять ядовитые грибы по вкусу и запаху.

РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ

Представители Amazon уже заявили, что компания изучает данный вопрос и предпринимает меры для обеспечения безопасности покупателей. Платформа попросила семью вернуть книгу в обмен на денежную компенсацию.

После этого инцидента эксперты снова подняли вопрос о потенциальных рисках, связанных с использованием ИИ для создания контента, особенно в областях, где неточности могут иметь серьезные последствия для здоровья и безопасности.

Unsplash
РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ

Тем более, это не первый случай, когда информация, сгенерированная ИИ, приводит к негативным последствиям.

Так, например, в июне этого года нейросеть Gemini от Google на просьбу пользователя улучшить оливковую заправку чесноком без нагрева предоставила развернутую рекомендацию, которая в итоге привела к созданию биотоксина. Пользователь действовал по инструкции нейросети и в итоге вырастил культуру с опасными для здоровья бактериями, которые могут заразить человека ботулизм.