Биометрическая слежка, искусственный интеллект и иллюзия согласия в праве ЕС

AI, Biometric Surveillance and the Illusion of Consent under EU Law

Что такое биометрия и почему это важно?

Мы уже писали материал на эту тему, его можно почитать здесь: распознавание лиц, но для того, чтобы не отвлекаться, дадим определение ниже.

Биометрия – это уникальные физические характеристики человека: черты лица, отпечатки пальцев, рисунок радужки глаза, походка и т.п. Когда система фотографирует ваше лицо и переводит его в математическую модель – набор цифр, описывающих расстояния между чертами лица, – она создаёт ваши биометрические данные.

Особенность биометрии в том, что её нельзя изменить. Пароль можно поменять, номер телефона – тоже. Лицо – нет (технически можно сделать пластическую операцию, но речь о менее инвазивных способах). Именно поэтому в большинстве стран биометрические данные относятся к особо охраняемой категории персональных данных – то есть информации, по которой можно идентифицировать конкретного человека. По умолчанию их сбор и обработка запрещены без явного согласия или иных чётких правовых оснований. Однако не всё так просто.

Что такое согласие и почему оно не работает?

Согласие на обработку персональных данных – это требование закона: вы должны знать, что именно собирается, зачем, кем и как долго хранится. И главное – вы должны добровольно это разрешить, с возможностью в любой момент отозвать разрешение.

Тем не менее, на практике согласие давно превратилось в ритуал, который люди мало того, что не замечают, но даже не осознают. Правовед Даниэль Солов назвал его «в значительной степени набором фикций»: чтобы дать осмысленное согласие на обработку биометрии, человеку пришлось бы изучить внутренние договоры компании о передаче данных, расспросить инженеров,  увидеть схему потоков данных и т.д. Разумеется, этого не делает никто (Solove, «Murky Consent», 104 BU L. Rev. 593, 2024).

С биометрией проблема острее, чем с «куки-баннерами» (это то самое назойливое предупреждение о сборе и анализе cookie-файлов и пр. при заходе если не на каждый, то на многие сайты). От баннера можно отказаться и всё равно попасть на страницу. Отказаться от сканирования лица и всё равно пройти паспортный контроль нельзя. Аэропорт, граница, вход в офис… По сути, выбор не предоставляется – либо соглашаешься, либо не проходишь. Это структурная асимметрия – ситуация, когда у человека нет реального выбора, а значит, нет и реального согласия.

Регуляторы сами это признают. EDPB – Европейский совет по защите данных, орган, объединяющий надзорные ведомства всех стран ЕС, – прямо написал в своих рекомендациях: «Проблема того, как должным образом информировать людей об этой обработке, до сих пор не решена» (EDPB Guidelines 05/2022 on Facial Recognition in Law Enforcement).

Среди известных дел можно назвать дело испанского сервиса проверки возраста Yoti в марте 2026 года (с решением можно ознакомиться здесь). Испанский аналог Роскомнадзора оштрафовал Yoti на 950 тысяч евро. Т.е. даже компания, занимавшаяся вполне легитимным делом, не смогла обеспечить валидное согласие. Часть штрафа была за «преднажатые галочки», то есть галочки, которые уже стояли по умолчанию: закон прямо запрещает считать их согласием.

Ещё одна проблема: данные начинают использовать не так, как планировалось

Отдельная опасность – функциональный крип (от английского function creep, «расползание функций»): когда система, созданная для одной цели, постепенно начинает использоваться для совершенно другой. Вместе с ним появляется и профайлинг – автоматическое составление «цифрового портрета» человека на основе накопленных данных: где он бывает, с кем общается, в какое время; какой он расы, какого возраста и т.д.

Журналисты Bloomberg раскрыли наглядный случай в 2018 году. Один из крупнейших банков США, JPMorgan Chase, внедрил аналитическую платформу Palantir для защиты от внутренних утечек: автоматически собирались письма сотрудников, GPS-данные корпоративных телефонов, записи звонков. Со временем руководитель отдела безопасности Питер Кавичча начал применять ту же систему для слежки за самим руководством банка. Ни банк, ни разработчик платформы не выставили никаких ограничений. Сотрудники проверяли это специально: писали в письмах заведомо ложные сведения – и Кавичча упоминал их на совещаниях (Waldman et al., Bloomberg Businessweek, 19.04.2018). Если контроль не работает там, где есть письменный контракт и корпоративная ответственность, то в публичном пространстве он тем более иллюзорен.

Что ответило европейское право

С 2 февраля 2025 года в ЕС действует блок прямых запретов в рамках Регламента об искусственном интеллекте (EU AI Act, Регламент ЕС 2024/1689) – первого в мире акта, специально регулирующего системы искусственного интеллекта. Среди запрещённого:

– идентификация людей в режиме реального времени в публичных местах для полицейских нужд;

– массовый скрейпинг фотографий (то есть автоматический сбор миллионов снимков с сайтов, видеокамер и из социальных сетей) для построения баз данных распознавания лиц. Именно так работала американская компания Clearview AI, собравшая более 60 миллиардов биометрических профилей;

– биометрическая «сортировка» людей по расе, политическим взглядам или сексуальной ориентации.

Параллельно работает GDPR (Общий регламент о защите данных, Регламент ЕС 2016/679) – основной европейский закон о персональных данных: биометрические данные для идентификации человека здесь относятся к «особой категории», обработка которой по умолчанию запрещена. Помимо этого, в ЕС действует Директива о правоохранительной деятельности (сокр. LED, 2016/680) – отдельный закон для полиции и прокуратуры. Он устанавливает еще более жёсткий стандарт: строгая необходимость (strictly necessary). Любое вмешательство должно быть минимальным из всех возможных. И что принципиально: в полицейском контексте согласие вообще не является законным основанием для обработки данных. Логика проста: когда вас останавливает сотрудник полиции, сложно говорить о добровольности.

Правоприменение есть – но с оговорками

Clearview AI получила совокупно около 115 миллионов евро штрафов от регуляторов – надзорных органов по защите данных – пяти стран ЕС. Тут стоит упомянуть, что Clearview AI, судя по всему, не платит эти штрафы, оспаривая их, затягивая исполнение и т.д. И это лишь малая часть проблем. Регуляторы Франции, Италии, Нидерландов и Австрии прямо предписали Clearview удалить все данные европейских граждан и прекратить их сбор. Clearview проигнорировала эти предписания.

Впрочем, там, где у компании есть реальное присутствие в Европе, механизм работает иначе. Испанский регулятор оштрафовал сеть супермаркетов Mercadona на 2,5 миллиона евро за системы распознавания лиц на кассах, признав согласие покупателей недействительным.

Наиболее развёрнутое судебное решение вынес Федеральный конституционный суд Германии в феврале 2023 года (1 BvR 1547/19; 1 BvR 2634/20). Гессенская полиция использовала платформу Palantir, которая автоматически агрегировала (то есть объединяла в один профиль) информацию из разных баз данных одновременно. Суд признал это неконституционным: когда разрозненные сведения автоматически объединяются в единый портрет человека, это создаёт качественно новое вмешательство в его права. При этом суд систему не запретил – он потребовал надлежащей правовой рамки.

Примечательно, что сам Palantir в конце 2025 года перечислил в своём официальном блоге практики, запрещённые европейским законодательством,  включая предсказание склонности к преступлению, скрейпинг для баз FRT (facial recognition technology – технология распознавания лиц) и биометрическую сортировку,  признав, что они запрещены «из-за способности причинять значительный вред» (blog.palantir.com, 26.11.2025). Когда крупнейший разработчик таких платформ сам публикует список своих ограничений – это признак, что правовая рамка реально давит на рынок.

Но проблемы остаются: компании игнорируют предписания судов, а к марту 2026 года только 3 из 27 государств ЕС назначили регуляторов, необходимых для применения AI Act.

Что происходит там, где правил нет

В России СОРМ (система оперативно-розыскных мероприятий)  предоставляет ФСБ прямой доступ к телекоммуникационной инфраструктуре: переговорам, переписке, интернет-трафику. При этом ФСБ не обязана предъявлять судебную санкцию оператору связи. Московский Единый центр хранения и обработки данных (ЕЦХД) интегрировал около 160 тысяч камер видеонаблюдения с системами распознавания лиц – при полном отсутствии специального закона, регулирующего эту технологию. По данным правозащитных организаций, за 2021–2022 годы зафиксировано 595 случаев применения распознавания лиц против участников протестов; 141 человек задержан превентивно – то есть ещё до того, как акция или правонарушение состоялись.

В нашем материале про распознавание лиц мы рассказывали, что московские суды в этих случаях встали встали на сторону правительства.

В 2023 году Европейский суд по правам человека впервые вынес решение непосредственно о распознавании лиц – дело Глухина против России (жалоба № 11519/20, ЕСПЧ, 04.07.2023). Художника Алексея Глухина опознали по фото из социальных сетей и задержали в московском метро за одиночный мирный пикет. Суд назвал технологию «крайне интрузивной» и констатировал, что её применение против мирного протестующего «несовместимо с идеалами и ценностями демократического общества».

В США, хотя и в другом контексте, произошёл  структурно схожий случай. 

Есть знаменитая история про Капоне, которого арестовали не за его «гангстерские» поступки, а за уклонение от налогов. Вот это похоже, но значительно страшнее.

Полиция Лос-Анджелеса в рамках программы Operation Laser использовала Palantir для составления списков «хронических нарушителей». Алгоритм выделял людей, которых, по его расчётам, стоило проверить, а патрульные останавливали их под любым бытовым предлогом – нарушение ПДД, переход улицы в неположенном месте. Факт использования алгоритма при этом умышленно скрывался в материалах дел. Исследователи Илиадис и Акер назвали это «отмыванием доказательств»: подлинный источник идентификации – алгоритм, но в протоколе фигурирует остановка из-за сломанного стоп-сигнала (Iliadis & Acker, The Information Society, Vol. 38:5, 2022). По данным ACLU (Американский союз защиты гражданских свобод, правозащитная организация США), в 2024–2025 годах зафиксировано не менее девяти ошибочных арестов, основанных исключительно на показаниях систем распознавания лиц. 

Когда биометрия всё-таки полезна

Из всего вышесказанного не следует, что технология опасна сама по себе. В 2018 году полиция Нью-Дели провела экспериментальное тестирование: система распознавания лиц сверила фотографии около 45 тысяч детей из городских детских домов с государственной базой данных пропавших детей TrackChild и за четыре дня (6–10 апреля 2018 года) нашла совпадения для 2930 из них, что позволило начать процесс воссоединения с семьями (World Economic Forum / Science Alert, май 2018).

Расследование преступлений – самый очевидный и наиболее доказательно подкреплённый случай. Раскрытие квартирных краж по видео с камер, раскрытие мошенничества с поддельными документами при покупке автомобилей, идентификация человека, инсценировавшего собственную смерть и жившего под именем умершего брата – всё это реальные задокументированные дела американских полицейских департаментов (Facial Recognition Success Stories Showcase Positive Use Cases of the Technology). При этом стоит учитывать, что здесь технология используется по ограниченному запросу, а не в режиме массовой слежки.

Немецкий суд в 2023 году именно поэтому не запрещал аналитические платформы вообще – а требовал надлежащей рамки. Что же входит в эту рамку?

– конкретная, идентифицируемая угроза в каждом случае – а не «на всякий случай»;

– судебная санкция до применения технологии, а не задним числом;

– независимый орган контроля с реальными полномочиями;

– право человека узнать, что о нём собрано, и оспорить это;

абсолютные запреты на то, что недопустимо при любых условиях: массовая идентификация на митингах, скрейпинг для баз данных, биометрическая сортировка по политическим взглядам.

Технология – инструмент. Критичен режим контроля над ней.

Выводы

Европейский союз создал детальную правовую систему в области биометрического наблюдения. Её главный, неожиданный вывод сформулировали сами регуляторы: в масштабе биометрических систем согласие является фикцией. Реальная защита достигается не через него, а через прямые запреты и процессуальные гарантии.

При этом дело Clearview AI показывает, что и таких мер недостаточно. Пять европейских регуляторов выписали штрафы, приказали удалить данные, назначили пени за каждый день просрочки – а компания всё проигнорировала. Причина структурная: у Clearview AI нет ни офиса, ни активов в ЕС, а международного механизма принудительного исполнения таких решений не существует. Хорошие правила на бумаге бессильны без инструмента их исполнения.

Примеры России и США показывают другое: там правил нет вовсе – и те же проблемы воспроизводятся по умолчанию.

2 августа 2026 года требования AI Act к высокорисковым системам ИИ станут обязательными для всего ЕС. На сегодняшний день (март 2026 года) большинство государств-членов ещё не назначили необходимых регуляторов. Это двойной тест: смогут ли страны ЕС выстроить работающий надзор внутри – и найдётся ли политическая воля создать механизм, который действует и за их пределами.

Источники

1. Регламент ЕС 2024/1689 (AI Act). https://eur-lex.europa.eu/eli/reg/2024/1689/oj

2. Регламент ЕС 2016/679 (GDPR). https://eur-lex.europa.eu/eli/reg/2016/679/oj

3. Директива ЕС 2016/680 (LED). https://eur-lex.europa.eu/eli/dir/2016/680/oj

4. EDPB Guidelines 05/2022 on Facial Recognition in Law Enforcement (v.2.0, 2023). https://www.edpb.europa.eu/

5. BVerfG, решение от 16.02.2023 (1 BvR 1547/19; 1 BvR 2634/20) – дело Palantir/HessenDATA.

6. ЕСПЧ, Glukhin v. Russia, жалоба № 11519/20, 04.07.2023. https://hudoc.echr.coe.int/

7. Daniel Solove, «Murky Consent», 104 BU L. Rev. 593 (2024). https://www.bu.edu/bulawreview/files/2024/04/SOLOVE.pdf

8. Andrew Iliadis & Amelia Acker, «The seer and the seen: Surveying Palantir’s surveillance platform», The Information Society, Vol. 38:5, pp. 334–363 (2022). DOI: 10.1080/01972243.2022.2100851. Open access: https://papers.ssrn.com/sol3/papers.cfm?abstract_id=4129583

9. Peter Waldman, Lizette Chapman, Jordan Robertson, «Palantir Knows Everything About You», Bloomberg Businessweek, 19.04.2018. https://www.bloomberg.com/features/2018-palantir-peter-thiel/

10. Palantir Technologies, «A Palantir Primer on the EU AI Act», blog.palantir.com, 26.11.2025. https://blog.palantir.com/a‑palantir-primer-on-the-eu-ai-act-f8fad2ec8f93

11. AEPD, решение по делу Yoti, март 2026, штраф €950 000.

12. «India is using facial-recognition to reunite missing children with their families», World Economic Forum, 11.05.2018. https://www.weforum.org/stories/2018/05/india-facial-recognition-technology-find-missing-children-lion/ ; Science Alert, 01.05.2018: https://www.sciencealert.com/thousands-of-vanished-children-in-india-identified-by-facial-recognition-technology-delhi-trackchild

13. «Palantir and WFP partner to help transform global humanitarian delivery», WFP.org, 05.02.2019. https://www.wfp.org/news/palantir-and-wfp-partner-help-transform-global-humanitarian-delivery