Junior consultant
GDPR DPP, GDPR DPM
Регулирование искусственного интеллекта в Китае
- 15 мая, 2024
- AI
В последние годы искусственный интеллект (ИИ) стал ключевым фактором в технологическом прогрессе, оказывая глубокое влияние на различные сферы человеческой жизни. Китай, будучи в числе лидеров в области разработки и применения ИИ, активно работает над созданием инновационных решений и ускорением своего технологического развития. Однако, с ростом возможностей ИИ возникают и риски, связанные с его использованием. В свете этого Китай внедряет стратегии и механизмы регулирования ИИ, с целью обеспечить этичное, безопасное и ответственное развитие этой технологии.
Содержание
Введение
Становление Китая в качестве кибердержавы было обозначено как одно из направлений государственного развития. Ключевым стало намерение правительства установить собственные правила в киберпространстве и использование возможностей цифровых технологий для достижения экономических и социальных целей.
Помимо принятия трех ключевых актов (PIPL, CSL и DSL), по крайней мере с 2017 года, КПК сделала регулирование ИИ одним из приоритетных направлений. С течением времени выделились три разных этапа развития законодательства. Периоду с 2015 по 2020 год характерно саморегулирование отрасли и, так называемое, рыночное, экономические «регулирование». Затем в Китае перешли к принятию национальных стандартов, стимулирующих участие технологических компаний и закладывающих основу для будущих законодательных актов. Наконец, в последние годы китайские регулирующие органы (во главе с CAC) обнародовали ряд специальных правил, направленных на конкретные отрасли и технологии. Ожидается, что последний этап ознаменуется принятием общего закона об ИИ.
Подкаст "Про Приватность"
Открытая площадка, где прайваси-эксперты обсуждают актуальные вопросы из сферы приватности.
Яндекс.Музыка | Spotify | Google Podcasts | Castbox | Mave
Развитие ИИ в Китае
Регулирование бывает не только прямым, непосредственно затрагивающим явление или объект (например, ИИ), но и косвенным – например, торговые барьеры на рынке галлия, чипов и GPU, которые необходимы для развития и функционирования ИИ. В данной статье подобные косвенные примеры останутся за рамками исследования.
Как уже отмечалось, план развития искусственного интеллекта нового поколения, реализуемый в настоящее время в Китае, разделен на три этапа. Каждому из этапов характерны соответствующие законодательные инициативы.
Первый этап был связан с завоеванием Китаем конкурентных позиций на мировом рынке (до 2020 года) и отличался высокой степенью саморегулирования. Второй этап предполагает прорыв в теоретических разработках и активным внедрением ИИ в различные сегменты китайской экономики (до 2025 года) – переход от программных документов, гайдлайнов, к созданию законодательной базы. Третий этап связан с достижением Китаем глобального лидерства в индустрии искусственного интеллекта (до 2030 года).
В 2018 году правительство Китая поручило Китайской ассоциации искусственного интеллекта (CAAI) разработать этические рекомендации для искусственного интеллекта. Уже в мае 2019 года были опубликованы «Пекинские принципы искусственного интеллекта». Среди принципов: приватность, уважение чести и достоинства, безопасность ИИ, открытость, поддержка международного сотрудничества, долгосрочное планирование и др.
Стоит также отметить Регламент по управлению алгоритмическими рекомендациями в информационных сервисах. Цель этого документа – предотвратить монопольное поведение платформ искусственного интеллекта. Регламент требует особой осторожности для удовлетворения потребностей пожилых пользователей (в том числе для предотвращения мошенничества) и запрещает алгоритмическое создание фейковых новостей, использование дискриминационных или предвзятых пользовательских тегов в алгоритмических рекомендательных системах, а также использование алгоритмов для участия в монополистических действиях или неправомерной конкуренции.
25 ноября 2022 года было опубликовано Положение об администрировании информационных интернет-сервисов глубокого синтеза (иногда называемое Положением о глубоком синтезе).
Этапы развития регулирования ИИ в Китае
Первый этап
Более подробно первый этап представлял собой создание рамок, очертаний предстоящего регулирования и являлся скорее работой политической нежели правовой. Приоритетом было создание базы, на которой китайская индустрия ИИ могла бы развиваться без жестких регуляторных барьеров. Надо отметить, что такой подход в целом свойственен китайскому законодателю – максимальный простор развития новой отрасли для создания конкуренции и лишь последующее поступательное зарегулирование.
Среди наиболее важных инициатив этого периода можно выделить план развития Next-Gen AI на 2017 год. Данный документ был скорее дополнением к более широкой программе развития больших данных 2015 года, а также тринадцатой «пятилетке» (2016–2020 годы). Для реализации Плана 2017 года под эгидой Министерства науки и технологий были созданы два учреждения: Стратегический консультативный комитет (Комитет) по ИИ и Управление по планированию и продвижению ИИ. В 2019 году Комитет создал спецорган для укрепления исследований по правовым, этическим и социальным вопросам, связанным с ИИ нового поколения, а также для углубления международного сотрудничества.
Из-за отсутствия обязательных норм некоторые технологические компании формировали собственные внутренние правила, сотрудничали с другими игроками на рынке ИИ для разработки отраслевых стандартов. Например, в 2019 году Шэньчжэньская ассоциация индустрии ИИ выпустила «конвенцию» о регулировании индустрии ИИ нового поколения.
Второй и третий этапы
Второй этап и третий этапы стали периодом оформления КПК добровольных инициатив и лучших практик в обязательные правила. В августе 2020 года CAC и Министерство промышленности и информационных технологий совместно выпустили Руководство по созданию национальной системы стандартов ИИ нового поколения. Цель этого руководства – подготовить технические комитеты КПК к созданию отраслевых стандарты «снизу вверх». Следуя этим рекомендациям, Национальный технический комитет по стандартизации информационной безопасности (TC260) разработал несколько национальных стандартов по машинному обучению и этике алгоритмов. Кроме того, отдельный орган по стандартизации TC28 (Национальный технический комитет по стандартизации информационных технологий) разработал свои собственные стандарты, связанные с ИИ, включая кодекс практики (GB/T 42755–2023) по маркировке и аннотированию входных данных в моделях машинного обучения.
Узкоспециализированные стандарты
После нескольких лет саморегулирования появились первые узкоспециализи-рованные стандарты по алгоритмическим технологиям и технологиям глубокого машинного обучения. Эти стандарты положили начало новому этапу регулирования ИИ.
Отсутствие общего регулятивного надзора на этом этапе можно объяснить тем, что в то время законодатель уделял первостепенное внимание доработке и обновлению ключевых законов Китая о защите данных, включая Закон о защите персональной информации 2021 года (2021 PIPL) и Закон о безопасности данных 2021 года, дополняющий Закон о кибербезопасности 2016 года (вступил в силу 1 июня 2017 года).
Важной отличительной чертой этого этапа является индивидуальный, точечный подход к технологиям ИИ. Например, Положения о рекомендательных алгоритмах 2021 года применяются к сервисам, которые распространяют контент или дают рекомендации пользователям с помощью алгоритмов, а Меры генеративного ИИ 2023 года направлены на сервисы, которые могут автоматически создавать человекоподобный текст.
Еще одна характерная черта – растущее число нормативных документов по ИИ, разработанных правительствами на местном уровне. Лидируют в этом смысле уже упомянутые Шэньчжэнь и Шанхай. Вступившие в силу в 2022 году Шанхайские правила содействия развитию ИИ и Правила специальной экономической зоны Шэньчжэня по содействию развитию индустрии ИИ предусматривают создание комитетов по этике, проведение аудита и оценки рисков, а также развития «экономических зон» с упрощенными правилами продажи учебных данных для ИИ.
Кроме того, ведомства, играющие важную роль на втором этапе, начали разрабатывать стандарты для облегчения реализации мер по генеративному ИИ 2023 года. Например, 29 февраля 2024 года TC260 выпустил стандарт TC260-003 «Основные требования безопасности для генеративного сервиса искусственного интеллекта», предоставляющий предприятиям практическое руководство по соблюдению мер генеративного ИИ 2023 года в таких аспектах, как безопасность данных обучения, безопасность модели, внутренние меры, а также инструкции по проведению оценки безопасности
В отличие от необязательных стандартов TC260 и TC28, CAC за последние несколько лет ввел в действие обязательные правила по конкретным технологиям, которые радикально изменили ландшафт регулирования ИИ в Китае. Помимо упомянутых выше стандартов, в 2023 году были опубликованы Меры по генеративному ИИ.
Основные положения данного акта таковы:
📎 Поставщики услуг Gen-AI, влияющими на общественное мнение или способные к «социальной мобилизации», должны проводить оценку безопасности.
📎 Обязанные лица должны соблюдать законы, общественную мораль и этику, избегать манипулирования информацией и общественным мнением. При разработке алгоритмов, отборе данных, создании и обучении моделей, а также при оказании услуг должны применяться эффективные меры по предотвращению дискриминации.
📎 Провайдеры должны выполнять обязательства по соблюдению конфиденциальности в отношении информации, вводимой пользователями.
📎 Публикация контента запрещена, если он противоречит «Основным социалистическим ценностям» или иным образом угрожает национальной безопасности. Провайдеры несут ответственность за законность создаваемого и распространяемого контента, а также за своевременное прекращение предоставления услуг и исправление незаконного контента.
📎 Права интеллектуальной собственности должны быть защищены, а преимущества, добываемые с помощью ИИ, не должны использоваться для монополии или недобросовестной конкуренции.
📎 Наказания за несоблюдение требований включают предупреждения, предписание об исправлении и корректировке, приостановку предоставления услуг, а также гражданское и уголовное преследование в соответствующих случаях.
В августе 2023 года регулятор интернета страны объявил об ограничении использования технологии распознавания лиц при наличии подходящих альтернатив для проверки личности. В конце ноября 2023 года Пекинский суд вынес решение по делу об авторских правах на использование изображений, сгенерированных искусственным интеллектом. Согласно решению, изображения отвечали требованиям «оригинальности» и отражали оригинальные интеллектуальные инвестиции человека, что позволило им попасть под защиту авторского права как произведениям искусства.
Защита персональных данных и AI в Китае
По сравнению с управлением контентом, зарождающаяся система управления ИИ в Китае лишь вскользь затрагивает вопросы защиты персональных данных, оставляя большую часть этой сферы на усмотрение действующих положений закона 2021 года PIPL и других соответствующих нормативных актов. PIPL 2021 года широко регулирует деятельность обработчиков персональной информации, а под эту категорию подпадают все поставщики услуг ИИ, если они обрабатывают персональные данные. Следовательно, на компании, предоставляющие услуги ИИ, будут распространяться обязанности, предусмотренные этим законом, включая необходимость наличия законного основания и получения согласия на обработку персональных данных в случае необходимости (например, входных, учебных и выходных данных моделей ИИ), обязательства по отчетности, положения, касающиеся автоматизированного принятия решений и прав субъектов данных, а также обработки чувствительных данных (например, лицевой, голосовой или другой биометрической информации). Положения о защите данных, содержащиеся в действующих в настоящее время нормативных актах по ИИ, по сути, являются повторением положений, содержащихся в PIPL 2021 года. Например, в Положениях о глубоком синтезе 2022 года напрямую указывается, что на обучающие данные будет распространяться действие Закона о защите персональных данных 2021 года и что компаниям может потребоваться отдельное согласие при предоставлении функций, редактирующих информацию о лице, голосе или слухе (статья 14).
Меры по генеративному ИИ 2023 года также устанавливают требования к согласию и отчетности в отношении обучения и входных данных моделей машинного обучения (статья 7 GDPR), а Положения о рекомендательных алгоритмах 2021 года устанавливают специальные требования к использованию персональных данных в целях поведенческой и целевой рекламы (статьи 17—21 GDPR).
Несмотря на это, защита данных ни в коем случае не станет менее важным аспектом регулирования ИИ в Китае. В самом деле, отсылка к PIPL 2021 года указывает на то, что политики уже предусмотрели множество требований к соблюдению закона, который будет применяться именно к услугам ИИ. Чтобы не вступать в противоречие с существующим законодательством, китайское регулирование ИИ будет более целенаправленным и сфокусированным на различных типах продуктов и услуг, предлагаемых предприятиям и потребителям.
Рассмотренные выше акты отражают растущий консенсус среди регулирующих органов в отношении того, что риски, создаваемые ИИ, заслуживают особого регулятивного надзора и что саморегулирование отрасли недостаточно для борьбы с основными социальными и экономическими проблемами, возникающими в связи с цифровыми рынками и технологиями.
Регулирование ИИ
Действительно, появление отдельной парадигмы управления ИИ в Китае следует за укреплением режима управления данными в стране за последние годы и должно рассматриваться как связанное, но отдельное продолжение этой системы. В связи с этим китайские политики в плане законодательной работы Госсовета на 2023 год указали, что в ближайшие годы они сформулируют общий закон об ИИ.
Одной из особенностей китайского регулирования ИИ является большое внимание на сам контент, нежели только на технологию ИИ.
Три основных направления регулирования контента, произведенного ИИ:
📎 Модерация. В отношении контента, созданного ИИ (например, выходного текста LLM), регулирующие органы будут уделять первостепенное внимание отслеживанию и подлинности контента, чтобы ограничить распространение информации, которая нарушает устоявшиеся правила предоставления информационных услуг. Одна из интерпретаций этой цели заключается в том, что любой контент, созданный с помощью инструмента ИИ, должен отслеживаться правоохранительными органами как на этапе создания, так и при распространении..
📎 Законность. Эти требования основаны на других недавно принятых законах и нормативных актах, направленных на то, чтобы компании-платформы соблюдали социальные и моральные нормы, определяли политические направления и не способствовали распространению нежелательной информации. Так, недавние правоприменительные акты и руководящие принципы CAC указывают на то, что это включает, например, необоснованные слухи, ложную информацию, которая может вызвать общественную панику, порнографию и другой контент, не подходящий для детей, а также сообщения в социальных сетях, которые способствуют развитию зависимости или небезопасных привычек потребления (Статья 7, Положения о регулировании сетевого информационного контента Ecolog 2019). В соответствии с Мерами по генеративному ИИ на 2023 год, провайдеры, обнаружившие такую информацию, должны сообщить о ней властям и ограничить пользователей от ее создания или распространения (статья 14).
📎 Услуги высокого риска. Модерация контента также является ключевой темой в недавней концепции сервисов с «атрибутами общественного мнения или возможностями социальной мобилизации». Этот термин используется в каждом из ключевых нормативных актов по ИИ и обозначает класс поставщиков услуг, на которых распространяются повышенные обязательства по соблюдению нормативных требований в связи с их способностью распространять информацию среди большой группы людей. Такие сервисы должны не только выполнять специальные требования к подаче заявок на свои рекомендательные алгоритмы, но и проходить оценку безопасности в CAC, если они запускают генеративные ИИ-сервисы (см. статью 3 «Положения об оценке безопасности информационных интернет-сервисов, способных создавать общественное мнение или социальную мобилизацию 2018 года» и другие статьи этой серии).
И наконец, хотя и управление контентом, и защита данных подразумевают использование алгоритмов, китайская система управления ИИ выделяет управление алгоритмами в отдельный нормативный компонент.
Ключевым моментом здесь является необходимость для организаций обеспечивать безопасность, этичность и ясность алгоритмов, которые они создают и обучают.
Кроме этого, указывается на необходимость приведения алгоритмов в соответствие с четко определенными этическими нормами. На сегодняшний день требования в этой области обычно сводятся к тому, совпадают и следуют ли услуги «общественному порядку и морали». Например, CAC запрещает использование ИИ для создания любого дискриминационного контента или принятия решений на основе расы, этнической принадлежности, убеждений, национальности, региона, пола, возраста, профессии и состояния здоровья (Статья 4(2), Меры по генеративному ИИ 2023 года). Кроме того, использование определенных алгоритмов должно защищать уязвимые группы населения, такие как пожилые люди и рабочие (статьи 19–20, 2021 г. Положения о рекомендательных алгоритмах). Несколько ведомств, во главе с MOST, разработали Меры по этической экспертизе науки и технологий, требующие от предприятий искусственного интеллекта создания комитетов по этике науки и технологий и проведения этических экспертиз.
Еще одной целью регулирования алгоритмов в Китае является предоставление компаниями четкой и прозрачной информации о своих услугах, включая рекламу и рекомендуемый контент. Это можно рассматривать в двух контекстах. Во-первых, регулирующие органы подчеркивают необходимость создания платформами и другими компаниями публичных внешних правил относительно того, как и почему конкретный пользователь получает контент (статья 15 Положения об управлении сетевым информационным контентом Ecolog 2019). Это даже распространилось на то, как влиятельные лица, создатели контента и стримеры взаимодействуют с платформами и какие продукты и материалы они продают пользователям. Во-вторых, сервисы ИИ, генерирующие человекоподобный контент (текстовый, визуальный или слуховой), должны представлять четкие, конкретные и применимые правила аннотирования и четко указывать, что контент был создан с использованием ИИ (статьи 8 и 12, Меры по генеративному ИИ 2023 года).