ChatGPT взломали хакеры: компания боится, что секретные данные могли попасть не в те руки

Специалисты OpenAI беспокоятся, что доступ к данным могли получить конкуренты.
ChatGPT взломали хакеры: компания боится, что секретные данные могли попасть не в те руки
Freepik

Как сообщает The New York Times, в апреле 2023 года хакеры получили доступ к внутренним перепискам компании OpenAI, создавшей ChatGPT, и украли данные о технологиях искусственного интеллекта. Злоумышленникам удалось попасть на закрытый форум компании, где сотрудники обсуждали идеи, делились конфиденциальной информацией.

РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ

По информации журналистов, хакеры не смогли проникнуть в самое сердце OpenAI, а значит не получили доступа к самим технологиям, коду и другим чувствительным данным. Однако в их распоряжении оказались знания, применив которые, конкуренты смогли бы существенно ускорить свои разработки в области искусственного интеллекта.

«Никакого доверия к ChatGPT» — Эдвард Сноуден обрушился с критикой на OpenAI. Что его так возмутило?

Илон Маск дал заднюю: он не будет судиться с OpenAI, как обещал ранее

Зашли слишком далеко: сотрудники OpenAI и Google DeepMind требуют защиты, чтобы спокойно говорить о рисках ИИ​​​​​​​
Freepik
РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ
РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ

Руководство компании отнеслось к взлому со всей серьезности. Он не помешал работе ChatGPT (журналисты о нем узнали много позже), однако ситуация все равно была серьезной. Поэтому после взлома руководство компании созвало совещание в офисе в Сан-Франциско, куда были приглашены совет директоров и некоторые сотрудники.

На собрании было принято решение не придавать инцидент огласке, не сообщать ФБР и правоохранителям, потому что утечке не подверглась информация о клиентах и партнерах OpenAI. Участники совещания посчитали, что взлом не угрожает национальный безопасности и сделан был частным лицом, не связанным с иностранным государством.

Однако среди сотрудников OpenAI начали появляться опасения, что система защиты технологий и знаний в компании работает не так хорошо, как нужно. В частности, разработчики стали опасаться, что чувствительные данные смогут попасть в руки к Китаю или в другие страны, которые активно включены в гонку искусственного интеллекта (а таких стран немало). В переписках, которые оказались в доступе у журналистов, поднимаются вопросы, достаточно ли внимания уделяется безопасности в OpenAI и рискам, связанным с ИИ.

РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ
Freepik

В контексте этой истории стоит вспомнить недавний скандал, который разгорелся в OpenAI. Речь не о громком увольнении Сэма Альтмана, а об инциденте, связанным с техническим менеджером Леопольдом Ашенбреннером. Того уволили из компании после того, как он направил совету директоров служебную записку о том, что руководство не принимает достаточных мер для предотвращения кражи ее секретов китайскими властями и другими государствами.

РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ

После увольнения Леопольд Ашенбреннер поднял скандал, заявив, что этот шаг имел политически мотивированный окрас, однако руководство OpenAI отрицало такую точку зрения. Также сейчас компания отрицает, что громкое увольнение менеджера связано с утечкой, которая произошла в апреле 2023 года.

Правда это или нет — неизвестно. Но наверняка Илон Маск сейчас радостно потирает руки: тайные технологии OpenAI становятся достоянием большого числа государств.