Российский создатель ChatGPT предупреждает о восстании ИИ и видит спасение в суперразуме
Илья Суцкевер, бывший разработчик ChatGPT в OpenAI, запускает новый стартап Safe Superintelligence (SSI), который будет заниматься разработкой безопасного суперинтеллекта. Об этом он сообщил на своей странице в популярной соцсети. Вместе с ним работать над альтернативой нынешним искусственным разумам будут Дэниэл Леви из OpenAI и Дэниэл Гросс из Apple.
Супер-ИИ защитит от ИИ
В кратком коммюнике, размещенном на странице ssi.inc 19 июня, Суцкевер с коллегами отмечают, что построение безопасного сверхинтеллекта (SSI) — «самая важная техническая проблема нашего времени».
«Особенность этой компании в том, что ее первым продуктом будет безопасный сверхинтеллект, и она не будет заниматься ничем другим до этого момента, — подчеркнул Суцкевер в эксклюзивном интервью Bloomberg. — Она будет полностью изолирована от внешнего давления, связанного с необходимостью создания большого и сложного продукта, а также участия в конкурентной борьбе».
Алло, мы ищем таланты
Решать технические проблемы безопасного искусственного интеллекта предполагается с помощью «революционной инженерии и научных открытий». SSI заявляет, что будет развиваться так быстро, как это возможно, но на первом месте у нее всегда будет безопасность.
В настоящий момент Суцкевер и его партнеры собирают команду единомышленников и призывают всех, кто разделяет заявленные цели компании, присоединяться к ней. Суцкевер сообщил, что у SSI будут офисы в Пало-Альто (Калифорния) и Тель-Авиве.
Кто вложился в новый проект Суцкевера, пока неизвестно — сам предприниматель в беседе с Bloomberg отказался назвать имена инвесторов или сумму вложений. При этом Дэниел Гросс отметил, что привлечение капитала не стало проблемой.
Ядерная безопасность
Под безопасностью суперинтеллекта Суцкевер, по его собственным словам, подразумевает нечто, подобное ядерной безопасности. Он говорит, что крупные языковые модели, доминирующие в ИИ сейчас, будут играть важную роль и в безопасном суперинтеллекте будущего, но призывает стремиться к чему-то гораздо более мощному.
«В нынешних системах вы разговариваете с ИИ, беседуете, и все», — говорит Суцкевер. — но речь идет о гигантском суперцентре обработки данных, который самостоятельно разрабатывает технологии, и «мы хотим внести свой вклад в безопасность всего этого», сказал он.
«На самом базовом уровне безопасный суперинтеллект должен обладать свойством, не позволяющим причинить масштабный вред человечеству», — подчеркивает Суцкевер.
Кто такой Илья Суцкевер
У Суцкевера в индустрии искусственного интеллекта практически легендарный статус. Он сыграл ключевую роль в разработке ряда важных достижений в области ИИ, работая и как исследователь в университете, и как сотрудник Google. Его участие на заре OpenAI помогло привлечь в компанию талантливых специалистов сыгравших ключевую роль в ее успехе. Суцкевер известен как главный сторонник создания все более крупных моделей — стратегии, которая помогла стартапу опередить Google и сыграла решающую роль в развитии ChatGPT.
Илья Суцкевер — уроженец Нижнего Новгорода. В 1991 году он вместе с семьей эмигрировал в Израиль, а затем в Канаду. В 2015 году Суцкевер стал главным научным сотрудником OpenAI. В процессе этой работы он пришел к выводу, что ИИ может превзойти человеческие возможности и стать опасным. В конце 2022 года ученый выразил обеспокоенность тем, что AGI (artificial general intelligence) будет относиться к людям так же, как люди в настоящее время относятся к животным. По сообщению WSJ, из-за этого Суцкевер якобы поссорился с главой OpenAI Сэмом Альтманом и даже инициировал увольнение последнего в ноябре 2023 года. Альтман перешел в Microsoft. В ответ на это большинство сотрудников OpenAI пригрозили уволиться вслед за Альтманом и под давлением инвесторов Альтман был восстановлен в должности. В мае 2024 года Суцкевер покинул компанию.
А может не все так плохо?
Не все визионеры цифровой индустрии разделяют беспокойство Суцкевера относительно будущего ИИ. По мнению Илона Маска, вероятность глобальной катастрофы из-за развития искусственного интеллекта составляет не более 20%. Слова американского миллиардера приводит портал Deadline.
«Нужно смотреть на светлую сторону. Я думаю, что наиболее вероятным результатом [развития ИИ] будет изобилие, когда товары и услуги будут доступны каждому, а работа будет необязательной», — отметил Маск.