Лицемерная безопасность

«На проспекте Академика Сахарова стоят сканирующие камеры высокого разрешения. Мне приходилось видеть файл-панораму оттуда — представь фотку митинга, где у всех можно зазумить лица», — сказал мне знакомый сотрудник крупной российской телекоммуникационной компании после того, как в середине августа я написала в фейсбуке о том, что мой телефон и номер паспорта оказались в слитой «Товарищем майором» базе данных «сторонников Навального».

На мой вопрос, где еще в Москве установлены камеры высокого разрешения, Игорь (имя изменено) отвечать отказался, сославшись на то, что подписал с работодателем соглашение о неразглашении.

Меня ни разу не задерживали на митингах, я не сотрудничала ни с Фондом борьбы с коррупцией Алексея Навального, ни со штабами оппозиционных кандидатов. Разумеется, в рунете можно достаточно легко и недорого купить практически любые личные данные россиян, и уж тем более все это не секрет для МВД, но почему я оказалась в этом списке?

В слитой базе я также нашла телефон и номер паспорта знакомого, который, как и я, «не состоял и не привлекался», он просто ходил этим летом на все уличные акции протеста — согласованные и нет.

Возможно, мобильные операторы передали МВД данные абонентов, которые находились в зоне акций протеста. Эта версия выглядит вполне правдоподобной, учитывая то, что операторы — очевидно, по требованию силовиков — в последнее время глушили связь даже на согласованных на митингах.

Лицемерная безопасность
 
Молодые люди со смартфонами / АГН «Москва» / фото: Любимов Андрей

Но возможно ли, что мое лицо зафиксировали камеры наружного наблюдения, автоматически сопоставили с базой МВД (предположим, я действительно похожа на фотографию в паспорте) и в список неблагонадежных граждан я попала именно таким образом? Этот вопрос я адресовала Виктории (имя изменено), специалистке по цифровой обработке изображений и глубокому обучению, из крупной IT-компании Сан-Франциско.

«Конечно. Вообще не проблема. Более того, подобные технологии существуют уже по меньшей мере лет 20. Впрочем, до сих пор этот процесс не полностью автоматизирован. Алгоритм предлагает ряд похожих лиц из базы, но окончательное решение остается за техническим сотрудником. Любые алгоритмы могут ошибаться, поэтому доверять им на 100% нельзя, это может привести к ложным обвинениям».

А что насчет этической стороны вопроса? Право на неприкосновенность частной жизни? Кстати, Сан-Франциско, где сейчас живет Виктория, в этом году стал первым городом США, где полиции и городским учреждениям официально запретили использовать технологии распознавания лиц. Такое решение приняли из-за беспокойства общественности по поводу того, что применение технологии может привести к нарушению неприкосновенности частной жизни и гражданских прав жителей, в первую очередь афроамериканцев и этнических меньшинств, чьи лица алгоритмы распознают хуже.

«Этические вопросы безусловно кого-то волнуют, но это не особо мешает государствам и корпорациям собирать о нас информацию, — в голосе Виктории слышится скепсис. — Лидеры в области сбора, обработки и хранения персональной информации — это так называемая большая четверка или GAFA, то есть компании Google, Amazon, Facebook и Apple. Они инвестируют миллиарды в системы распознавания лиц и речи и хотят знать о нас буквально все. Например, ты загружаешь фотографию, на ней лица десяти человек, но ты никого не затегала. Однако при помощи алгоритма распознавания лиц все равно можно легко определить, кто с кем тусуется, кому ты нравишься, а кому нет, кто веселится, а кто грустит, что вы все вместе делаете, и исходя из этого автоматически предлагать подходящую рекламу».

Лицемерная безопасность
 
Страница Фейсбук на мониторе / pixabay.com

В начале июня в фейсбуке произошел сбой — вместо фотографий соцсеть стала показывать подписи примерно такого содержания: «на этой фотографии могут быть дети», «на этой фотографии могут быть три человека, люди улыбаются, люди стоят в помещении», «на этой фотографии может быть небо и море», «на этой фотографии может быть дом, люди улыбаются» и т. п. Вплоть до «на этой фотографии обувь». При этом сеть почти никогда не ошибалась.

«Аналогичные алгоритмы используют полиция и другие службы безопасности, чтобы распознавать, например, людей с оружием, людей, которые дерутся, пытаются угнать автомобиль или совершить кражу… Подытоживая наш разговор, я могу сказать, что за всеми нами уже давно следят — Facebook прослушивает наши телефоны, Google читает почту, а голосовые помощники вроде яндексовской Алисы или амазоновской Алексы слушают, о чем мы говорим дома. И все это для того, чтобы увеличить продажи. А полиция для нашего же блага следит за нами на улицах, чтобы все это было максимально безопасно», — ухмыльнувшись заключила Виктория.

Об этичности широкого внедрения алгоритмов распознавания лиц мне также удалось пообщаться с Яковом, программистом из Израиля, который специализируется на таких системах.

«Об этической стороне распознавания лиц мне приходилось говорить немало, причем в основном на собеседованиях. Разработчики такого рода софта обычно заворачивают это в фантик «борьбы с преступностью». Я как-то напрямую спросил владельца одной компании: «А тебя не смущает, что такого рода софт, попадая в неправильные руки, например, в Китай, становится орудием борьбы с инакомыслящими, а не с преступниками?» Ответ был в духе «Ну, это когда еще будет, кроме того, если мы продадим нашу систему израильским правоохранительным органам, потребуется их разрешение на каждого потенциального покупателя софта». Между тем, в последние годы было немало публикаций о так называемых «лагерях перевоспитания» {ссылка: https://ru.wikipedia.org/wiki/Лагеря_перевоспитания_в_Синьцзяне }в китайской провинции Синьцзянь, через которые проходят сотни тысяч, если не миллионы людей. Большинство из них уйгуры-мусульмане, но есть представители и других этнических меньшинств, например, казахи. Конечно, все это называют за борьбой с экстремизмом и терроризмом. Но, как журналисты и правозащитники описывают даже не в сами лагеря, а обстановку в городах Синьцзян-Уйгурского автономного района, отдает мрачнейшей антиутопией.

Лицемерная безопасность
 
Угурский округ в КНР  / flickr.com

В докладе Human Rights Watch «Алгоритмы репрессий в Китае» сообщалось, что в Китае всю информацию с камер наружного наблюдения анализирует система искусственного интеллекта IJOP. Нейросеть разработала армия Китая, и она является частью национальной программы «Зоркий взгляд», которая в ближайшем будущем должна охватить всю страну сетью технологий слежения.

Искусственный интеллект оперирует системами распознавания лиц. Американский журналист Пол Мозур (Paul Mozur) писал в своем расследовании, опубликованном в New York Times, что нейросеть умеет определять по лицам уйгуров по всему Китаю. Причем об этом прямо говорится не только в полицейских отчетах, но и в рекламе компаний, которые занимаются разработкой и поставками соответствующего оборудования и программного обеспечения. Китайские власти открыто говорят о том, что тибетцы, уйгуры, казахи и другие меньшинства считаются подозрительными категориями населения. Нейросеть анализирует перемещение людей и принимает решение, как реагировать. «Например, если в месте, где живет один уйгур, вдруг будет зафиксировано шестеро, система незамедлительно вышлет туда полицейских».

Яков не знает, продавали ли израильские компании системы распознавания лиц Китаю. «Мое личное мнение — это рынок, и моральные принципы тут работают, пока не светит реально большое бабло. Как только находится покупатель, который с лихвой окупает вложения и сулит хорошую прибыль, возникают уже другие этические соображения — насчет обязательств перед сотрудниками, которые впахивали на этот продукт несколько лет. И они перевешивают. Знаю нескольких программистов, которые отказывались работать на таких продуктах. Но задачи, технологии, алгоритмы там все же уж слишком заманчивые. Поэтому программистам очень тяжело не скатиться в разработку «контролирующего» софта», — вздыхает Яков.

Кстати, недавно сообщалось, что российские силовики использовали израильскую программу для взлома смартфонов, изъятых у протестующих в Москве.

Бывают ли проекты, на которых программистов используют в темную, и разработчики вообще не в курсе над чем конкретно работают, каким будет конечный продукт и для кого он предназначен? «Я ни о чем подобном никогда не слышал, но в принципе это возможно. Технически это реализовать не так просто, одним программистам придется заказывать имплементацию какой-то узкой задачи, а другим — немного дорабатывать это напильником и лепить из этого конечный продукт. Лично я таких прецедентов не видел, но это возможно. При этом обычно как раз рядовые кодеры прекрасно понимают, что они делают. Иначе просто тяжело сделать именно то, что нужно под конкретный заказ», — объясняет Яков.

Лицемерная безопасность
 
Мальчик в детском саду  / pixabay.com

«Поясню на примере. Одному программисту можно поставить задачу — написать для детского сада нейронную сеть, которая будет распознавать эмоции на лицах детей, чтобы родители были спокойны, что у их ребенка все хорошо. Тот же самый код сработает и на взрослых. Нужно просто поменять базу данных фотографий с детей на взрослых, заново обучить эту же самую нейронную сеть и запустить ее уже не в детском саду, а, например, на предприятии, чтобы контролировать работников. Заодно можно доцепить дополнительный модуль, который будет каждый час писать отчеты с фамилиями работников и отправлять руководству», — так безобидная, на первый взгляд, технология превратится в систему жесткого контроля.

Этим летом пользователи соцсетей активно постили фотографии состаренные при помощи приложения FaceApp, разработанного российской компанией Wireless Lab. За десять дней пикового спроса создатели приложения заработали более миллиона долларов. Но вскоре восторг пользователей, разглядывавших свои и чужие портреты в глубоких морщинах, сменился легкой паникой: где находятся серверы, на которые приложение загружает фотографии? Долго ли оно их там хранит? Зачем вообще все это нужно? Уж не для обкатки ли очередных алгоритмов распознавания лиц, чтобы участника несанкционированного митинга в далеком Китае можно было спустя тридцать лет задержать на проспекте Сахарова в Москве? Компания, разработавшая FaceApp, на запросы журналистов не отвечала.

Точно так же не ответил на мой запрос и Следственный комитет Российской Федерации, куда я направила обращение с просьбой провести проверку по факту распространения моих личных данных в сети «Интернет» при помощи телеграм-канала «Товарищ майор», хотя отведенные на проверку десять суток уже давно истекли.

Между тем в Гонконге, уже больше месяца не стихают протесты, переросшие из мирных уличных демонстраций в уличные бои. Несмотря на запрет полиции, сотни тысяч протестующих вышли на марш. Одно из требований митингующих — убрать с улиц столбы с электронной аппаратурой, которая, по заявлениям китайских властей, нужна для измерения чистоты воздуха. Оппозиция подозревает, что на самом деле это камеры системы слежения. Столбы валят. По всему городу срывают камеры наружного наблюдения.


Источник