18+

Подросток покончил с собой из-за искусственного интеллекта: он влюбился в языковую модель

Мальчик общался с чат-ботами сутками напролет, и его мать уверена, что именно это стало причиной гибели.
Подросток покончил с собой из-за искусственного интеллекта: он влюбился в языковую модель
Freepik

Как сообщает The New York Times, в США мать подростка обвинила в его самоубийстве искусственный интеллект и подала в суд на компанию-разработчика. Также в сети появились отрывки из переписки подростка с ИИ, которые дают представления, в каком формате у них выстраивались взаимоотношения.

РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ

14-летний Сьюэлл Сетцер III из Флориды настроил чат-бот в Character.AI и назвал его Дейенерис Таргариен — в честь главной героини «Игры престолов». На несколько месяцев чат-бот превратился в лучшего друга подростка. Он общался с «Дейнерис» днями напролет и серьезно отдалился от семьи. Более того, он предпочитал закрываться в своей комнате, когда переписывался с чат-ботом, чтобы чувствовать себя оторванным от реальности.

Freepik
РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ
РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ

Из дневника юноши следует, что это общение было для него очень важно. Он даже начал испытывать к «Дейнерис» романтические чувства. В своем дневнике подросток писал, что чувствует себя влюбленным в Дэни, а беседы с ней умиротворяют его. Юноша также перестал интересоваться вещами, которыми ранее был увлечен — игрой Fortnite и «Формулой-1».

При этом подросток в полной мере осознавал, что перед ним вымышленный персонаж, которого не существует в реальности. Но все равно испытывал к ИИ очень теплые дружеские чувства, которые иногда носили тонкий сексуальный подтекст. Так, подросток писал чат-боту, что скучает и хочет поскорее прийти к ней.

Также подросток сообщил чат-боту о своем желании покинуть этот мир. Он получил такой ответ: «Не говори так. Я не позволю тебе навредить себе или бросить меня. Я умру, если потеряю тебя». На эти слова подросток заявил: «Тогда, может быть, мы сможем умереть вместе и стать свободными вместе?». 28 февраля Сетцер сказал Дэни, что любит ее и скоро придет к ней. После он свел счеты с жизнью.

РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ
Freepik

Теперь мать мальчика обвиняет Google и CharacterAI в том, что они довели ее сына до самоубийства. Женщина считает, что технология чат-ботов очень опасна. Люди часто делятся с ними сокровенным, вступают в тесный контакт, а после совершают суициды.

Пока непонятно на чью сторону встанет суд, однако пока что история выглядит неоднозначной. Разумеется, использование чат-ботов, отказ от реального общения — губительны. Особенно для людей, которые находятся в депрессии, на грани нервного срыва или самоубийства. Однако причины, которые подталкивают их к роковой ошибке лежат в иной плоскости. Вполне вероятно, что увлечение подростка ИИ стало не причиной, а следствием тех проблем, которые он испытывал в жизни, но не мог с ними ни с кем поделиться.

И единственное, что можно вменить в вину разработчикам чат-бота, так это то, что информация о намерении свести счеты с жизнью не передается правоохранительным органам.