Любую технологию можно использовать как во благо, так и во вред. ИИ не исключение. В этом ключе логично обсудить угрозы в сфере приватности, которые возникли из-за столько широкого использования “технологии будущего”.
Возьмем хотя бы систему распознавания лиц, которая встречается практически на каждом шагу. Ее можно использовать как для разблокировки смартфона, так и шпионажа. Многочисленные случаи из практики показывают, что государственные органы и частные компании реализуют системы распознавания, пренебрегая оценкой возможных последствий и влияния на права, свободы и законные интересы отдельного человека и всего общества. Более того, внедрение технологий ИИ опережает не только правовое регулирование, но и формирование этических норм.
А еще по мнению McKinsey, одной из наиболее перспективных ИИ-технологий станет гиперперсонализация — алгоритмы, которые позволят максимально точно определить потребности клиентов и предложить им более подходящие товары или услуги. Это можно использовать как в маркетинге, так и в продажах: например, банковских кредитов, одежды или обуви. Но также и для слежки за человеком.
Наибольшее беспокойство по поводу применения ИИ выражает ЕС. Европейский парламент в своей Резолюции от 6 октября 2021 г.1 подчеркивает:
Люди не только имеют право на правильную идентификацию, но и право не быть идентифицированными вообще, за исключением случаев, когда этого требует закон в силу непреодолимых и законных общественных интересов (п. 8).
Китай, который известен своими практиками массового наблюдения, постепенно устанавливает законодательные ограничения для использования технологий ИИ. Согласно ст. 26 Закона КНР о защите персональной информации (PIPL) сбор персональных изображений и отличительных идентификационных признаков может осуществляться только для целей национальной безопасности, и не может осуществляться для иных целей, за исключением отдельного согласия субъекта данных.
Выражением мирового тренда на ограничение технологий распознавания является, в частности, упомянутый доклад Верховного комиссара ООН по правам человека. Мишель Башеле (Michelle Bachelet) заявила, что приветствует недавние шаги по ограничению или запрету технологий биометрического распознавания в режиме реального времени.

Еще одной загвоздкой является то, что “ИИ не может ошибаться”. Исследователи из Кембриджа утверждают, что машина свято верит в свою непогрешимость и никогда не признает, что ошиблась. Этот изъян вызван фундаментальными законами математики, а не белыми пятнами в программе. В нем просто нет самокритики. А когда речь идет о защите прав и свобод граждан, то эта “недоработка” может сыграть очень злую шутку.
Приведем пример. Журналисты Bayerischer Rundfunk решили проверить, насколько хорошо работает ИИ-система, которую уже используют в подборе персонала Люфтганза, BMW и другие крупные компании. Оказалось, что программа существенно меняет оценку одного и того же человека в зависимости от наличия очков или головного убора, а также заднего фона. Кандидат на фоне книжного шкафа оценивался как более открытый и прилежный, чем он же, но на другом фоне. Более того, на оценку повлияло и качество освещения.
Профессор Катарина Цвайг в этом контексте отмечает: «ИИ, в целом, отличный инструмент, и нам следует его использовать. Но не для анализа человеческого поведения — тут возникают проблемы». Похожего мнения придерживается и Джулия Энгвин, журналист, изучающий влияние технологий на общество: «Идея о том, что черты лица могут хоть что-то сказать о ваших профессиональных качествах — научно не обоснована». Однако все это не важно для ИИ-технологии, ведь она “не может ошибаться”.
По мнению Дениса Садовникова, юриста по искусственному интеллекту и приватности, CIPP/E, GDPR DPP, DPM, главная угроза, связанная с ИИ, состоит в том, что люди все больше полагаются на решения, предлагаемые машинами. Постепенно это может привести к снижению их способности принимать самостоятельные решения, критически оценивать факты и события, а также те варианты, которые предлагает тот же AI. К сожалению, эта тенденция уже прослеживается. Как было сказано в одном интернет-меме: «Меня беспокоит не рост искусственного интеллекта, а упадок естественного».