OpenAI предложила запретить языковые модели DeepSeek в США
Как это часто бывает с передовыми для Китая технологиями, разработки DeepSeek быстро нашли недоброжелателей за его пределами. Конкурирующая американская OpenAI выступила с предложением запретить в США использование языковых моделей не только DeepSeek, но и всех компаний, пользующихся поддержкой КНР или иных недружественных стран.
Это предложение, как отмечает TechCrunch, было направлено руководством OpenAI властям США в рамках обсуждения так называемого «Плана действий в сфере ИИ» (AI Action Plan), который должен стать американской национальной инициативой на данном направлении.
OpenAI утверждает, что языковые модели DeepSeek не являются безопасными для США по причине их соответствия требованиям китайских властей к обработке пользовательских данных.
Одновременно звучит призыв к запрету всех языковых моделей из недружественных к США стран, поскольку это позволит сохранить конфиденциальность данных и устранить риски, связанные с безопасностью, включая кражу интеллектуальной собственности.
Пока сложно сказать, какая часть разработок DeepSeek действительно может попасть под запрет в США. Китайский разработчик придерживается стратегии использования моделей с открытым кодом, но это не значит, что использующие их третьи лица автоматически рискуют конфиденциальностью своих данных.
У корпоративных пользователей таких моделей есть все возможности обеспечивать конфиденциальность информации. По сути, условный риск представляют только обращения к программному интерфейсу DeepSeek, который обрабатывает запросы на стороне собственной инфраструктуры компании.