Зашли слишком далеко: сотрудники OpenAI и Google DeepMind требуют защиты, чтобы спокойно говорить о рисках ИИ

Они опасаются, что неконтролируемое развитие искусственного интеллекта может привести к катастрофическим последствиям для человечества.
Зашли слишком далеко: сотрудники OpenAI и Google DeepMind требуют защиты, чтобы спокойно говорить о рисках ИИ
Legion-Media

Группа действующих и бывших сотрудников компаний OpenAI и Google DeepMind, занимающихся разработкой технологий искусственного интеллекта, выступила с инициативой «Право на предупреждение». Как пишет издание Bloomberg, они призывают к созданию условий для открытого обсуждения рисков, связанных с ИИ, и защите сотрудников, готовых говорить о проблемах.

РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ

В открытом письме, подписанном 16 специалистами, в том числе известными учеными Йошуа Бенджио и Джеффри Хинтоном, говорится о необходимости обеспечения защиты информаторов, создания анонимных каналов для сообщения о проблемах и пересмотра строгих соглашений о неразглашении, которые ограничивают возможность открыто говорить о рисках ИИ.

Unsplash
РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ
РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ

По мнению авторов письма, ведущие компании в области ИИ имеют финансовую мотивацию скрывать информацию о потенциальных угрозах, а существующие меры защиты информаторов недостаточны, так как касаются только незаконной деятельности.

Среди основных рисков, связанных с развитием ИИ, называются углубление социального неравенства, манипуляции общественным мнением, распространение дезинформации, потеря контроля над автономными системами, что в итоге может угрожать существованию человечества.

Сотрудники компаний призывают к установлению эффективного государственного надзора за разработчиками искусственного интеллекта и обеспечению прозрачности в этой сфере. Они считают, что добровольные обязательства компаний недостаточны, и общество должно быть проинформировано об истинных опасностях новых технологий.

РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ

Инициатива «Право на предупреждение» возникла после публикации отчета, в котором утверждалось, что OpenAI угрожает сотрудникам лишением их акций, если они не подпишут соглашение о неразглашении. Генеральный директор OpenAI Сэм Альтман заявил, что не был в курсе таких условий и выразил сожаление по этому поводу.

В свою очередь бывший сотрудник OpenAI Дэниел Кокотайло, покинувший компанию в начале года, заявил, что вероятность создания ИИ, превосходящего человека, к 2027 году составляет 50%. Он считает, что ничто не мешает компаниям разрабатывать и использовать такие технологии без должного контроля и прозрачности. «Мы не были готовы к этому как компания, и мы как общество не были готовы к этому», — подчеркнул Кокотайло.

РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ
Unsplash

Ранее в Госдуме РФ рассказали, какие профессии могут оказаться в зоне риска из-за активного внедрения искусственного интеллекта. Депутаты считают, что ИИ может повлиять на занятость специалистов службы поддержки клиентов, администраторов и копирайтеров.

При этом, согласно результатам недавнего социального опроса, как минимум 16% граждан переживают, что развитие новых технологий может привести к увеличению безработицы в стране.