Российский создатель ChatGPT предупреждает о восстании ИИ и видит спасение в суперразуме

А Илон Маск уверен, что беспокоиться не о чем.
Российский создатель ChatGPT предупреждает о восстании ИИ и видит спасение в суперразуме
Freepik
Содержание статьи

Илья Суцкевер, бывший разработчик ChatGPT в OpenAI, запускает новый стартап Safe Superintelligence (SSI), который будет заниматься разработкой безопасного суперинтеллекта. Об этом он сообщил на своей странице в популярной соцсети. Вместе с ним работать над альтернативой нынешним искусственным разумам будут Дэниэл Леви из OpenAI и Дэниэл Гросс из Apple.

РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ

Супер-ИИ защитит от ИИ

В кратком коммюнике, размещенном на странице ssi.inc 19 июня, Суцкевер с коллегами отмечают, что построение безопасного сверхинтеллекта (SSI) — «самая важная техническая проблема нашего времени».

«Особенность этой компании в том, что ее первым продуктом будет безопасный сверхинтеллект, и она не будет заниматься ничем другим до этого момента, — подчеркнул Суцкевер в эксклюзивном интервью Bloomberg. — Она будет полностью изолирована от внешнего давления, связанного с необходимостью создания большого и сложного продукта, а также участия в конкурентной борьбе».

Илья Суцкевер
Илья Суцкевер
Соцсети
РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ

Алло, мы ищем таланты

Решать технические проблемы безопасного искусственного интеллекта предполагается с помощью «революционной инженерии и научных открытий». SSI заявляет, что будет развиваться так быстро, как это возможно, но на первом месте у нее всегда будет безопасность.

В настоящий момент Суцкевер и его партнеры собирают команду единомышленников и призывают всех, кто разделяет заявленные цели компании, присоединяться к ней. Суцкевер сообщил, что у SSI будут офисы в Пало-Альто (Калифорния) и Тель-Авиве.

РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ

Кто вложился в новый проект Суцкевера, пока неизвестно — сам предприниматель в беседе с Bloomberg отказался назвать имена инвесторов или сумму вложений. При этом Дэниел Гросс отметил, что привлечение капитала не стало проблемой.

РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ

Ядерная безопасность

Под безопасностью суперинтеллекта Суцкевер, по его собственным словам, подразумевает нечто, подобное ядерной безопасности. Он говорит, что крупные языковые модели, доминирующие в ИИ сейчас, будут играть важную роль и в безопасном суперинтеллекте будущего, но призывает стремиться к чему-то гораздо более мощному.

«В нынешних системах вы разговариваете с ИИ, беседуете, и все», — говорит Суцкевер. — но речь идет о гигантском суперцентре обработки данных, который самостоятельно разрабатывает технологии, и «мы хотим внести свой вклад в безопасность всего этого», сказал он.

Freepik
РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ

«На самом базовом уровне безопасный суперинтеллект должен обладать свойством, не позволяющим причинить масштабный вред человечеству», — подчеркивает Суцкевер.

Кто такой Илья Суцкевер

У Суцкевера в индустрии искусственного интеллекта практически легендарный статус. Он сыграл ключевую роль в разработке ряда важных достижений в области ИИ, работая и как исследователь в университете, и как сотрудник Google. Его участие на заре OpenAI помогло привлечь в компанию талантливых специалистов сыгравших ключевую роль в ее успехе. Суцкевер известен как главный сторонник создания все более крупных моделей — стратегии, которая помогла стартапу опередить Google и сыграла решающую роль в развитии ChatGPT.

РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ

Илья Суцкевер — уроженец Нижнего Новгорода. В 1991 году он вместе с семьей эмигрировал в Израиль, а затем в Канаду. В 2015 году Суцкевер стал главным научным сотрудником OpenAI. В процессе этой работы он пришел к выводу, что ИИ может превзойти человеческие возможности и стать опасным. В конце 2022 года ученый выразил обеспокоенность тем, что AGI (artificial general intelligence) будет относиться к людям так же, как люди в настоящее время относятся к животным. По сообщению WSJ, из-за этого Суцкевер якобы поссорился с главой OpenAI Сэмом Альтманом и даже инициировал увольнение последнего в ноябре 2023 года. Альтман перешел в Microsoft. В ответ на это большинство сотрудников OpenAI пригрозили уволиться вслед за Альтманом и под давлением инвесторов Альтман был восстановлен в должности. В мае 2024 года Суцкевер покинул компанию.

РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ

А может не все так плохо?

Не все визионеры цифровой индустрии разделяют беспокойство Суцкевера относительно будущего ИИ. По мнению Илона Маска, вероятность глобальной катастрофы из-за развития искусственного интеллекта составляет не более 20%. Слова американского миллиардера приводит портал Deadline.

«Нужно смотреть на светлую сторону. Я думаю, что наиболее вероятным результатом [развития ИИ] будет изобилие, когда товары и услуги будут доступны каждому, а работа будет необязательной», — отметил Маск.