
Блог Tele2
Наш путеводитель по миру девайсов, гаджетов и аксессуаров. Рекомендации, обзоры и сравнения устройств, а также полезные советы и прочие актуальные темы!

Блог Tele2

Искусственный интеллект становится геополитическим фактором XXI столетия – не только с технологической, но также с экономической и стратегической точки зрения. При этом Европейский Союз, США и Китай по-разному трактуют такие важные понятия, как данные, регулирование и инновации.
ЕС: медлительный гигант, следующий букве закона
Закон ЕС об искусственном интеллекте был принят еще в мае прошлого года, но его основные положения частично вступили в силу только сейчас, а остальные – начнут действовать лишь в следующем году. Речь идет о первой в мире всеобъемлющей рамочной программе, которая устанавливает стандарты прозрачности, подотчетности и безопасности использования AI.
ЕС классифицирует системы искусственного интеллекта по уровням риска. К запрещенным «неприемлемым рискам» отнесены, например: социальная оценка и распознавание эмоций в трудовой и образовательной сфере. Биометрическая идентификация в реальном времени в публичном пространстве разрешена, но только в качестве редких исключений, которые предусмотрены законодательством. Системы AI с высоким уровнем риска тоже не запрещены, но их использование на рынке требует строгого контроля и сертификации.
В докладе отечественного Центра мониторинга развития отмечается, что европейский подход базируется на гуманных ценностях и защищает людей. Однако есть вероятность, что внедрение инноваций может быть перенесено на другие континенты – в страны с более гибким регулированием. При этом у Европы остается бесспорное преимущество, которое заключается в доверии и суверенитете данных: согласно принципу, провозглашенному ЕС, данные европейских граждан не должны рассматриваться только в качестве сырьевых источников для глобальных платформ.
США: оперативность и рыночная логика
Развитие искусственного интеллекта в США происходит намного быстрее, но там отсутствует единая нормативная база. На федеральном уровне до сих пор не разработан всеобъемлющий закон об AI, а в каждом отдельном штате – свои правила и структуры надзора. В Калифорнии, например, действует Transparency in Frontier Artificial Intelligence Act (Закон о прозрачности в передовых технологиях искусственного интеллекта), который обязывает разработчиков крупных языковых моделей раскрывать протоколы безопасности и сообщать о потенциальных рисках. В штате Юта был принят Artificial Intelligence Policy Act (Закон о политике в сфере искусственного интеллекта), обязывающий предприятия и публичные учреждения информировать людей в случае, когда они взаимодействуют с AI, а не с человеком.
Система США более гибкая, чем регулирование ЕС. Рынок и венчурный капитал создают благоприятные условия для быстрого роста: американские предприятия могут тестировать, масштабировать свои решения и выходить с ними на рынок еще до того, как законодатели скажут свое слово. Всё это оказало содействие созданию ChatGPT и других моделей генеративного искусственного интеллекта, которые сейчас в значительной мере способствуют развитию экономики и фондовых рынков США.
Однако быстрое развитие в США происходит за счет нарушения приватности. Данные пользователей перемещаются между разными платформами, но мало кто может сказать, как они используются на самом деле. Отсутствие прозрачности и подотчетности привело к кризису доверия. К тому же инновации, а значит, и власть над данными сосредоточены в руках крупных технологических гигантов, которые предпочитают инвестировать в те регионы, где действует наиболее удобное для них законодательное регулирование.
Китай: общественный контроль как двигатель инноваций
Китай, напротив, выбрал путь, по которому технологический прогресс и государственный контроль идут рука об руку. Еще в 2017 году искусственный интеллект был объявлен в Китае национальным приоритетом. С тех пор правительство, научные учреждения и частный сектор целенаправленно движутся в этом направлении, руководствуясь принципами централизованной стратегии, а не свободного рынка.
Научно-промышленная экосистема Китая плотно интегрирована в структуру, связанную с разработкой и применением AI, где значительную роль играют такие технологические гиганты, как Baidu, Huawei и SenseTime. Huawei, например, лидирует по поставкам сетевой инфраструктуры и технологий центрам обработки данных, а также разрабатывает совместно с другими китайскими компаниями интеллектуальную сеть «Xinghe Intelligent Fabric» – эта оптимизированная инфраструктура AI повышает эффективность обучения искусственного интеллекта и снижает сопутствующие энергозатраты.
Недостатком пути, выбранного Китаем, является полное подчинение частной жизни и персональных данных государственным интересам. Центр мониторинга развития страны публично заявляет, что китайская экономика данных опирается на систему массовой слежки, с помощью которой создается единая архитектура цифрового контроля – от социальных рейтингов до поведенческой аналитики.
Какие модели могут выйти на рынок, а какие – нет, определяет Государственный орган по надзору за кибербезопасностью. Реестром алгоритмов AI управляет Cyberspace Administration of China (Управление по вопросам киберпространства Китая), которое одновременно является и техническим, и политическим инструментом, отвечая за соответствие моделей AI информационной политике партии и ее идеологическим ограничениям.
Эксперты предупреждают: подобная политика в сфере AI не ограничивается внутренним рынком Китая. Китайские технологии проникают в 5G-сети, облачные сервисы, другие энергетические системы – и это целенаправленная стратегия, направленная на создание устойчивой зависимости.
Китай стремится не только разработать конкурентоспособный искусственный интеллект, но и сформировать среду, в которой китайскую экосистему AI невозможно будет заменить западными аналогами.
Глобальное сотрудничество и регулирование
Международное сообщество уже сделало ряд шагов в направлении согласованной разработки этических и безопасных стандартов для искусственного интеллекта. Принципы AI, разработанные Организацией экономического сотрудничества и развития, а также Предложения ООН по управлению AI могут стать основой для создания глобальных норм, которые укрепят прозрачность, подотчетность и инновации, ориентированные на человека.
Стратегия искусственного интеллекта на 2025 год, разработанная администрацией президента США Дональда Трампа, на первое место ставит технологическое превосходство, которое может быть обеспечено благодаря свободе рынка и политике безопасности. Данная стратегия поддерживает государственно-частное сотрудничество в рамках крупных проектов, связанных с AI, а также инвестиции в исследования и разработку AI. Речь идет о важной составляющей глобального взаимодействия, которая формирует геополитику искусственного интеллекта.
Сотрудничество между ЕС и США в этой области приобретает всё более важное значение. Так, целью трансатлантического договора о данных является создание свода правил безопасного обмена данными с эквивалентными стандартами конфиденциальности, которые должны укрепить конкурентоспособность и технологическую независимость обеих сторон.
Новая геополитика данных
Искусственный интеллект перенес наш мир в новую реальность, где данные, подобно энергии или сырью, являются стратегическим ресурсом. Европа опирается на ценностно-ориентированный подход, Америка – на свободу рынка, а Китай – на контроль. У каждого подхода своя логика, но успех Китая показывает, что скорость развития технологий и политический аспект могут обеспечить преимущество в краткосрочной перспективе.
Но это вовсе не означает, что Запад должен пренебрегать мерами предосторожности. Регулирование – не всегда тормоз, если осуществляется разумно. Преимущество Европы заключается в способности обеспечить доверие – технологии сами по себе не могут вызывать это основополагающее чувство. Если Европа объединит свои этические принципы с гибкостью рынка, то будет действовать не только в роли регулятора, но и сможет занять позиции глобального рыночного игрока, который определяет пути развития.
Юрген Ялакас, руководитель подразделения бизнес-клиентов Tele2
Статья была впервые опубликована 03.11.25 в издании Postimees.