Почему китайскую модель искусственного интеллекта DeepSeek называют убийцей ChatGPT, но относятся к ней с опаской
Еще один чат-бот
DeepSeek — одно из новых названий, которое вы могли часто видеть в заголовках за последние несколько месяцев. Принято считать, что эта модель станет альтернативой ChatGPT. Однако публицист Крис Смит, исследующий актуальные технологии, говорит, что DeepSeek — это не то, чему можно доверять на сто процентов. Чем же взволнован Смит?
DeepSeek — это чат-бот на основе искусственного интеллекта, предлагающий функции, похожие на ChatGPT от OpenAI. Например, его последние итерации предлагают возможности рассуждения, похожие на ChatGPT o1. Эта модель с открытым исходным кодом активно упоминалась в СМИ и социальных сетях в конце 2024 года после выхода ее крупных обновлений рассуждения.
Смит отмечает естественные тренды рынка: чем больше конкуренции в сфере ИИ, тем лучше для всей отрасли. Конкуренты давят друг на друга, чтобы выпустить новые, лучшие модели, которые, как мы надеемся, будут еще и безопаснее. Однако, предупреждает эксперт, если вы уже пробовали ChatGPT, Gemini или Claude, вам стоит дважды подумать, прежде чем углубиться в DeepSeek.
Почему DeepSeek — это темная лошадка
Это немного тонкая грань, но больше всего Криса Смита волнует то, что модель создана и управляется китайской компанией. Он оговаривается, что нет никаких проблем в том, чтобы использовать разработки КНР, и TikTok с его мировой популярностью — хороший пример. Однако добавление китайскому программному обеспечению фактора искусственного интеллекта заставляет эксперта «с осторожностью относиться к использованию его для работы или личных задач».
DeepSeek-R1 — новейшая модель искусственного интеллекта, предлагаемая владельцами. В компании утверждают, что R1 лучше, чем ChatGPT o1, в различных задачах, включая кодирование и математику. Кроме того, R1 может быть дешевле, чем o1 и даже другие ИИ-модели из Китая. Это дает конкурентное преимущество, но уже сейчас существуют противоречия, о которых стоит знать перед тестированием.
DeepSeek решил, что он ChatGPT
В конце декабря 2024 года DeepSeek идентифицировал себя как ChatGPT. Модель DeepSeek V3 сообщила пользователям, что это версия модели OpenAI GPT-4. Эксперты объяснили причину этого тем, как обучается китайский чат-бот. Вероятнее всего, искусственный интеллект был подвержен тексту, сгенерированному с помощью ChatGPT, и, возможно, просто имитировал его.
Если бы DeepSeek подвергся воздействию галлюцинаций ChatGPT, он бы предоставил ту же самую вводящую в заблуждение информацию или еще больше испортил ее собственными галлюцинациями.
Кроме того, существует вопрос согласия на использование данных других ИИ... С другой стороны, остальные компании без разбора хватали интернет-контент, не всегда беспокоясь об авторских правах и согласии.
Остерегайтесь цензуры
Более проблематичным, по мнению эксперта, является тот факт, что технологические компании в Китае должны придерживаться местных законов, которые включают много цензуры. Поэтому DeepSeek может не предлагать пользователям в западных странах сбалансированный, объективный взгляд на такие вещи, как мировые события.
Поэтому вы не можете доверять тому, что DeepSeek скажет вам. Кроме того, вы не сможете изменить его настройки по умолчанию и обойти цензуру. Это не тот ИИ-опыт, который человечество ожидает от чат-ботов.
Конфиденциальность пользователей DeepSeek
Учитывая все это, эксперт задает еще один серьезный вопрос — о конфиденциальности пользователей. Вряд ли кто-то хочет, чтобы их переписки с чат-ботом были доступны другим, даже если речь идет об обучении будущих моделей. Кроме того, любые данные должны храниться безопасно и как можно кратко на собственных серверах. Это одна из причин, почему Apple Intelligence будет привлекателен, как только у компании появится собственный чат-бот.
Вывод Криса Смита лаконичен, но звучит как приговор. Он советует с осторожностью относиться к использованию DeepSeek в работе, исследованиях или развлечениях. Впрочем, это же касается любых других чат-ботов из Китая.