Польские туристы застряли в горах из-за Chat GPT: им пришлось вызывать спасателей
Искусственный интеллект все увереннее проникает в повседневную жизнь человека и многие пользователи готовы доверить ему даже самое ценное – свою жизнь. Некоторые просят ИИ помочь с симптомами заболеваний, найти нужно лекарство, рецепт или отыскать дорогу. Так поступили польские туристы в Татрах, которые решили использовать нейросеть в качестве гида. ИИ посоветовал путешественникам выбрать очень опасный в это время года путь из долины Пяти польских прудов к горному приюту Хала-Гонсеникова.
Им предстояло пройти через Крестный перевал. Стоит также отметить, что погодные условия того дня были очень сложными. Когда туристы поняли, что не могут выбраться из перевела Кшижне и были вынуждены просить помощи у спасателей. К счастью, специалисты появились вовремя и помогли незадачливым туристам эвакуироваться.
Этот случай подчеркивает риски использования искусственного интеллекта для задач, требующих специализированных знаний и учета текущих условий. Нейросети могут предоставлять информацию, но не всегда способны с точностью учитывать все важные факторы, что делает его советы потенциально опасными в определенных ситуациях.
Ранее были зафиксированы и другие случаи, когда использование нейросети едва не привело к трагедии. К примеру, Google Gemini едва не убил пользователя, который просто хотел сделать заправку для салата. ИИ посоветовал ему добавить чеснок в оливковое масло и оставил настаиваться при комнатной температуре. Спустя несколько дней он заметил пузырьки газа. Оказалось, что советы нейросети привели к размножению бактерий, вызывающих ботулизм – серьезное отравление, сопровождающиеся параличом мышц.
Другой пользователь спросил, какой ингредиент добавить в соус для пиццы, чтобы предотвратить сползание начинки. Нейросеть посоветовала клей.
При этом другому пользователю ИИ дал опасный совет при укусе змеи, который мог ухудшить состояние пострадавшего. Еще одному человеку нейросеть рекомендовала употреблять небольшие камни, чтобы избежать проблем с пищеварением.
В другом из инцидентов нейросеть ChatGPT начала самостоятельно отправлять сообщения пользователям без их запроса, что вызвало обеспокоенность. Эксперты уверены, что по мере совершенствования ИИ его ошибки могут становиться все более опасными, поскольку сервис не проверяет достоверность данных, а также не может считать иронию и юмор.