Искусственный интеллект: регулирование, основы управления рисками, персональные данные

На курсе вы получите необходимые знания о регулировании ИИ, включая новый Регламент ЕС по искусственному интеллекту (EU AI Act), а также узнаете, как эффективно оценивать и управлять рисками на практике.

По запросу

Старт

1050 EUR

Стоимость

10 занятий

по 2,5 часа

Курс предоставляет обширное погружение в мир искусственного интеллекта (ИИ) и его регулирования

Курс подробно рассматривает нормативные определения и классификации, проводя сравнительный анализ между различными нормативными документами и стандартами, включая рекомендации ОЭСР, требования ЕС, нормы НИСТ и ИСО. Это поможет вам лучше понять, что именно регулируется в контексте ИИ и почему.

В разделе «Классификация, методы и основные области применения искусственного интеллекта», вы узнаете о различных типах ИИ, включая сильный и слабый ИИ, а также основные методы и области его применения.

Фокус на вызовах и угрозах

С фокусом на вызовах и угрозах на разных уровнях — от личности до экосистем — курс предоставляет подробные рекомендации и методы преодоления этих вызовов, включая ключевые характеристики надежных ИИ-систем и процессы для их ответственного применения. Курс также охватывает региональные и национальные регуляторные фреймворки, фреймворки управления рисками, а также взаимосвязь регулирования персональных данных и ИИ, включая принципы обработки персональных данных и риски автоматизированного принятия решений в отношении граждан.

Почему это важно?

В настоящее время мы наблюдаем не только первое в мире комплексное регулирование ИИ, предложенное в ЕС, но и отдельные законопроекты или вступившие в силу акты в США, Канаде, Объединенных Арабских Эмиратах, Саудовской Аравии и других странах. Это создает сложную международную картину, которая требует от компаний, создающих или эксплуатирующих системы ИИ, не только соблюдения различных стандартов, но и гибкости в адаптации к разнообразному регулированию.

Несоблюдение норм может повлечь за собой штрафы (порой исчисляемые от оборота, как в ЕС) и убытки для компании, что, в свою очередь, может значительно снизить ее финансовую стабильность. В случае систематических нарушений компания-разработчик или эксплуатант может столкнуться с риском потери бизнеса целиком или в отдельно взятом регионе.

Отсутствие ясности и прозрачности в использовании данных клиентов, несоблюдение этических и правовых норм при эксплуатации систем искусственного интеллекта может быть негативно воспринято обществественностью, что в результате нанесет сильный ущерб репутации разработчиков и эксплуатантов систем ИИ. Проактивное внимание к этическим и регуляторным аспектам на ранних этапах концептуализации и разработки систем ИИ способствует укреплению рыночных позиций компании в долгосрочной перспективе.

Ответственное отношение к разработке и использованию искусственного интеллекта играет большую роль в построении привлекательности бренда и доверия клиентов.

Большая подборка полезных материалов по AI (Artificial Intelligence)

Чтобы вы не потерялись в большом количестве информации и ресурсов по теме AI и приватности, собрали в одном месте и структурировали полезные материалы по этой теме: подкасты, статьи, вебинары, инфографики и многое другое. К слову, подборка будет периодически пополняться.

Почему важно пройти обучение?

Риски AI

Специалистам по защите данных необходимо понимать, какие риски связаны с использованием ИИ и как они могут повлиять на безопасность субъектов данных и их права, а также какие последствия могут иметь для бизнеса.

Защита данных

ИИ может стать источником нарушений и утечек данных. Важно знать, какие данные собираются и обрабатываются алгоритмами искусственного интеллекта, и как обеспечивать их защиту.

Новые регламенты

Знание основных положений законодательств в области регулирования AI позволит эффективно управлять рисками, обеспечивать соблюдение требований по обработке данных и сохранять права пользователей.

Доверие клиентов

Все больше людей осведомлены о рисках, связанных с использованием искусственного интеллекта. DPO могут помочь компаниям построить доверительные отношения с клиентами, объясняя, как используются и защищаются их данные в контексте ИИ.

Развитие и инновации

Изучение искусственного интеллекта помогает специалистам по защите данных обнаружить новые возможности и преимущества для компаний, а также разработать стратегии внедрения с учетом приватности и безопасности данных.

Тренеры

Денис Садовников

Денис Садовников

CIPM, CIPP/E, FIP, GDPR DPP, DPM
AI and privacy lawyer, Data Protection Officer
Денис специализируется на вопросах, которые связаны с защитой персональных данных, а также искусственным интеллектом. Помимо выполнения функций privacy-юриста в крупной технологической компании Денис ведет спецкурсы, посвященные трансграничной передаче персональных данных (GDPR и др.), защите персональных данных по UAE PDPL, а также регулированию AI.
Александр Тюльканов

Александр Тюльканов

LL. M., CIPP/E, FIAAIS
AI, Data & Digital Policy Counsel
Александр специализируется на вопросах цифровой политики и цифрового регулирования, регуляторного комплаенса и корпоративного управления при работе с данными и разработке и эксплуатации систем искусственного интеллекта. Его опыт включает должности специального советника по цифровому развитию Совета Европы и старшего менеджера по правовому сопровождению технологических проектов в Deloitte Legal.

На чем будем держать фокус?

Рассмотрим, когда и в каких случаях к деятельности вашей компании или клиентов применяются нормы в области регулирования искусственного интеллекта, а также определим, что следует учесть в этом контексте.

Обсудим необходимые шаги для оценки всех рисков и эффективного управления процессами, связанными с созданием или использованием систем ИИ, в том числе в контексте обработки персональных данных — как на стадии разработки этих систем, так и на стадии эксплуатации.

Изучим различия в подходе к регулированию искусственного интеллекта в разных странах, с фокусом на Европейский Союз. Обсудим стратегии действий для компаний, работающих в различных юрисдикциях.

Программа

1.1.    Классификация, методы и основные области применения искусственного интеллекта.

– ИИ “сильный” и “слабый”, общего назначения и специализированный.

– Системы, основанные на правилах, и машинное обучение.

– Предиктивный и генеративный ИИ.

– Большие языковые и мультимодальные модели.

1.2.    Нормативные определения и классификации.

– Сравнительный анализ (ОЭСР, НИСТ, ЕС, Совет Европы, др.): общие элементы определений и расхождения.

– Что в контексте ИИ регулируют и почему (системы ИИ повышенной опасности, системы, требующие прозрачности).

2.1. Основные вызовы и угрозы на уровнях:

– Личности (гражданские права, экономические возможности, безопасность)

– Социальных групп (дискриминация)

– Общества (демократические процессы, общественное доверие к государственным институтам, образование и рабочие места)

– Компаний и организаций (репутация, культура, прибыльность, конкуренция, устойчивый рост и развитие)

– Экосистем.

2.2. Преодоление вызовов и угроз через характеристики систем и процессов вокруг них.

– Основные характеристики надёжных ИИ-систем (точность, робастность, безопасность и т. д.).

–  Процессы для ответственного применения ИИ, включая эффективный человеческий контроль и эффективные средства правовой защиты.

3.1. Региональные и национальные регуляторные фреймворки (НПА), с фокусом на Регламент ЕС по ИИ.

– Требования Регламента ЕС по ИИ.

– Рекомендательные сервисы, требования DSA.

– Конвенция СЕ.

– Своды этических рекомендаций.

3.2. Фреймворки управления рисками (ISO 31000 + ISO 23894, NIST AI RMF, ForHumanity RMF)

3.3. Фреймворки для менеджмента — интеграция в бизнес-процессы процедур и средств контроля за разработкой и эксплуатацией ИИ-систем (ISO 42001 AI Management System).

4.1. Пересечение регулирования персональных данных и AI:

– Использование персональных данных в жизненном цикле AI, в частности, для обучения моделей

– Воздействие AI на права субъектов персональных данных

4.2. AI и принципы обработки персональных данных:

– AI и законность, справедливость и прозрачность обработки (lawfulness, fairness and transparency)

– Принцип справедливости обработки данных и предвзятость алгоритмов (AI bias)

– Объяснимость (explainability) AI и алгоритмическая прозрачность (algorithmic transparency)

– AI и ограничение обработки целью (purpose limitation): Вторичное использование данных (Data reuse), Тест на совместимость целей (Test de compatibilité)

– AI и точность данных (accuracy)

– AI целостность и неприкосновенность данных (integrity and confidentiality)

4.3. Автоматизированное принятие решений (Automated decision-making) и AI

4.4. AI и DPIA (Data Protection Impact Assessment, оценка воздействия на права субъектов персональных данных), HRIA (Human Rights Impact Assessment, оценка воздействия на права человека), оценка соответствия AI (Compatibility assessment)

Записаться на курс

Мы готовы ответить на все ваши вопросы!

Заполните форму, и мы свяжемся с вами в течение ближайшего времени для уточнения деталей.

Заполните форму, и наши менеджеры свяжутся с вами в ближайшее время.

Регистрация на курс