Gilles Sabri/Washington Post
Gilles Sabri/Washington Post

'The Economist': Enganando o Big Brother

Conforme a tecnologia de reconhecimento facial se dissemina, ocorre o mesmo com as ideias para subvertê-la

The Economist, O Estado de S.Paulo

18 de agosto de 2019 | 03h00

Funcionam porque a visão da máquina e a visão humana são diferentes. Potencializados pelos avanços em inteligência artificial (IA), os sistemas de reconhecimento facial estão se disseminando como pragas sem controle. O Facebook, uma rede social, usa tal tecnologia para rotular as pessoas nas fotos enviadas. Smartphones modernos podem ser desbloqueados com ela. Alguns bancos a empregam para verificar transações. Os supermercados vigiam os menores de idade que compram bebidas. Painéis publicitários avaliam as reações dos consumidores ao seu conteúdo. O Departamento de Segurança Interna dos Estados Unidos estima que o reconhecimento facial examinará minuciosamente 97% dos passageiros de companhias aéreas até 2023. Redes de câmeras de reconhecimento facial fazem parte do estado policial que a China construiu em Xinjiang, no extremo oeste do país. E várias forças policiais britânicas testaram a tecnologia como uma ferramenta de vigilância em massa em julgamentos destinados a identificar criminosos nas ruas.

Mas há uma reação germinando. As autoridades em várias cidades americanas, incluindo São Francisco e Oakland, proibiram agências, como a polícia, de adotar a tecnologia. Na Grã-Bretanha, membros do parlamento pediram, até agora sem sucesso, a proibição dos testes policiais. Quem é contra isso também pode resolver os problemas com as próprias mãos, tentando esconder seus rostos das câmeras ou, como aconteceu recentemente durante os protestos em Hong Kong, apontando lasers portáteis contra as câmeras de circuito interno para ofuscá-las. Enquanto isso, há um pequeno, mas crescente, grupo de ativistas e acadêmicos defensores da privacidade buscando formas de subverter diretamente a tecnologia subjacente.

O reconhecimento facial depende do aprendizado de máquina, um subcampo de IA no qual os computadores ensinam a si próprios como realizar tarefas que os programadores não conseguem repassar explicitamente. Primeiro, um sistema é treinado em milhares de exemplos de rostos. Ao recompensá-lo quando identifica corretamente um rosto e penalizá-lo quando não o faz, pode-se ensinar a distinguir imagens que contenham faces daquelas que não as contêm. Uma vez que ele tenha uma ideia de como é um rosto, o sistema pode então começar a distinguir um do outro. As especificidades variam, dependendo do algoritmo, mas geralmente envolvem uma representação matemática de vários pontos anatômicos cruciais, como a localização do nariz em relação a outras características faciais ou a distância entre os olhos.

Em testes de laboratório, tais sistemas podem ser extremamente precisos. Pesquisa feita pelo Instituto Nacional de Padrões e Tecnologia (Nist, na sigla em inglês) – um órgão de definição de normas dos Estados Unidos – descobriu que, entre 2014 e 2018, a capacidade do software de reconhecimento facial em reconhecer a imagem de uma pessoa conhecida com a imagem daquela pessoa em um banco de dados melhorou de 96% para 99,8%. Mas, como as máquinas aprenderam sozinhas, os sistemas visuais que elas criaram são personalizados. E isso pode fornecer muitas fissuras na armadura de algoritmo.

Em 2010, como parte de uma tese de mestrado na Universidade de Nova York, o pesquisador e artista americano Adam Harvey criou a “camuflagem para visão de computador”, um estilo de maquiagem projetado para enganar os equipamentos de reconhecimento facial. Ele usa cores brilhantes, alto contraste, sombreamento graduado e estilos assimétricos para confundir as suposições de um algoritmo sobre o aspecto de um rosto. Para um ser humano, o resultado ainda é claramente um rosto. Mas um computador – ou pelo menos o algoritmo específico que Harvey buscava – fica perplexo com a imagem.

É provável que a maquiagem dramática atraia mais atenção de outras pessoas do que se desviar das máquinas. HyperFace é um novo projeto de Harvey. Onde o CV Dazzle pretende alterar rostos, o HyperFace pretende escondê-los entre dezenas de falsificações. Ele usa padrões de blocos semi-abstratos e de aparência comparativamente inocente, projetados para atrair o mais fortemente possível, para enfrentar os classificadores. A ideia é disfarçar a coisa real entre um mar de falsos positivos. Roupas com o padrão, que apresentam linhas e conjuntos de manchas escuras que lembram vagamente bocas e pares de olhos, já estão disponíveis.

Boné com dispositivos

Uma ideia ainda mais sutil foi proposta por pesquisadores da Universidade Chinesa de Hong Kong, da Universidade de Indiana em Bloomington e da Alibaba, a grande empresa chinesa de tecnologia da informação, em documento publicado em 2018. Trata-se de um boné de beisebol com minúsculos dispositivos emissores de luz que projetam pontos infravermelhos no rosto do usuário. Em testes com o FaceNet, um sistema de reconhecimento de rostos desenvolvido pelo Google, os pesquisadores descobriram que a quantidade correta de iluminação infravermelha poderia impedir um computador de reconhecer que estava olhando para um rosto. Ataques mais sofisticados também foram possíveis. Ao procurar por rostos que eram matematicamente semelhantes aos de um dos seus colegas, e aplicando controle fino aos dispositivos, os pesquisadores persuadiram o FaceNet, em 70% das tentativas, que o colega em questão era realmente alguém diferente.

Treinar um algoritmo para enganar outro é conhecido como aprendizado de máquina adversarial. Um artigo publicado em 2016 por pesquisadores da Universidade Carnegie Mellon, em Pittsburgh, e da Universidade da Carolina do Norte mostrou como padrões abstratos de aparência inócua, impressos em papel e presos à armação de um par de óculos, muitas vezes convenceram um sistema de visão por computador que um pesquisador de IA masculino era de fato Milla Jovovich, uma atriz.

Felizmente, diz Harvey, embora o reconhecimento facial esteja se espalhando, ainda não é onipresente – ou perfeito. Estudo da Universidade de Essex descobriu que, embora uma pesquisa da polícia em Londres tenha marcado 42 possíveis correspondências, apenas 8 se mostraram precisas. Mesmo na China, diz Harvey, só uma fração das câmeras de circuito fechado capta imagens suficientemente nítidas para que o reconhecimento facial funcione. Abordagens de baixa tecnologia também podem ajudar. “Mesmo pequenas coisas – como usar camisas de gola alta ou óculos escuros e olhar para o telefone (e, portanto, não para as câmeras) –, juntas, têm algum efeito protetor.” / TRADUÇÃO DE CLAUDIA BOZZO 

© 2018 THE ECONOMIST NEWSPAPER LIMITED. DIREITOS RESERVADOS. PUBLICADO SOB LICENÇA. O TEXTO ORIGINAL EM INGLÊS ESTÁ EM WWW.ECONOMIST.COM

Encontrou algum erro? Entre em contato

Tendências:

O Estadão deixou de dar suporte ao Internet Explorer 9 ou anterior. Clique aqui e saiba mais.