«Википедию» атакуют выдуманными статьями: чушь от ИИ продолжает наполнять популярный ресурс

Искусственный интеллект создал редакторский кризис в популярной онлайн-библиотеке
«Википедию» атакуют выдуманными статьями: чушь от ИИ продолжает наполнять популярный ресурс
Legion-Media
Содержание статьи

ИИ постепенно захватывает человечество, проникая во все сферы жизнедеятельности – от машиностроения и инженерии до базовых задач в школе вроде написания контрольных работ. Недавно с напастью ИИ столкнулась и Википедия. Что произошло и как теперь отличить статью, написанную человеком от материала ИИ.

РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ

Что произошло?

Зарубежные СМИ твердят о тяжелом кризисе Википедии. Пользователи стали заполнять сайт бессмысленными статьями, придуманными ChatGPT и прочими языковыми моделями. Редакторы энциклопедии заявляют, что речь идет не только о новых статьях, но и о дополнениях к старым.

«Некоторые из нас заметили отрывки, написанные неестественным языком. Мы обратили внимание на необычный стиль письма, который явно не принадлежал человеку, и смогли воспроизвести эти фразы с помощью ChatGPT. Обнаружив характерные обороты и выражения, мы идентифицировали наиболее вопиющие примеры сгенерированных статей», – сказал Techspot один из основателей команды по очистке Википедии Ильяс Леблю.

Например, недавно в энциклопедии появилась статья об османской крепости Амберлисихар, которая была построена в 1400-х годах. В тексте объемом 2000 символов подробно были описаны местоположение и история строительства объекта. Проблема в том, что крепости «Амберлисихар» никогда не существовало. Статья была полностью придумана ИИ.

РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ
РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ

Для борьбы со сгенерированным контентом редакторы энциклопедии запустили целый проект AI Cleanup. Волонтеры вручную ищут ИИ-фейки, редактируют и удаляют ложную информацию, которую в энциклопедию добавили с помощью чат-ботов.

Legion-Media

Почему это происходит?

По мнению команды по очистке, есть три основные причины, по которым ИИ заполоняют Википедию.

РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ

«Основные причины, побуждающие редакторов добавлять контент, созданный с помощью ИИ: самореклама, преднамеренная мистификация и введение в заблуждение, заставляющее думать, что созданный контент является точным и конструктивным», — сказал Лебле.

Еще одна проблема, о которой все знают давно – сама модель Википедии, где редактором может стать абсолютно любой человек. Еще до популяризации ИИ были случаи, когда профессоры специально вносили ложные правки в статьи перед тем, как студенты сдавали рефераты или доклады, таким образом проверяя, откуда ученики берут информацию и как тщательно они ее проверяют.

Заключительной причиной Лебле является злоупотребление людьми инструментов ИИ. Для примера он приводит бот Tay от Microsoft, который был заблокирован менее чем через сутки за публикации расистских и вульгарных постов в социальных сетях. Распространение дипфейков, книг-обманок на Kindle он считает «бичом» современного интернета.

«Всякий раз, когда общественности предоставляется практически неограниченный доступ к чему-либо, можно ожидать, что небольшой процент пользователей будет этим злоупотреблять. Когда речь идет о 100 людях, это может быть не так уж важно, но когда речь идет о миллионах, у вас возникнут проблемы», – объясняет Лебле нынешнее затруднительное положение Википедии.