- Jessica Mudditt
- BBC Future
Se uma pessoa no Estado da Austrália Ocidental contrair covid-19, ela deve permanecer em quarentena domiciliar pelos próximos sete dias — assim como seus contatos próximos.
A polícia checa seu paradeiro mandando mensagens de texto periódicas e exige que uma selfie seja enviada em 15 minutos.
A tecnologia de reconhecimento facial e o rastreamento por GPS são usados para determinar se a pessoa que tirou a selfie está de fato em casa.
Se não estiver, eles rapidamente batem à sua porta com uma multa potencialmente pesada.
O aplicativo G2G, da startup de tecnologia local Genvis, foi usado por mais de 150 mil pessoas no Estado desde que foi lançado em setembro de 2020.
A mesma tecnologia, fornecida por empresas diferentes, foi testada nos Estados de Nova Gales do Sul, Vitória, Austrália do Sul e Tasmânia.
A Austrália se destaca como a única democracia a usar a tecnologia de reconhecimento facial para ajudar nas medidas de contenção da covid-19, enquanto outros países rejeitam este tipo de vigilância.
San Francisco foi a primeira cidade dos EUA a introduzir uma moratória contra o uso do reconhecimento facial pela polícia em maio de 2019. Foi seguida rapidamente por Oakland, também na Califórnia, e Somerville, em Massachusetts.
A Amazon, a Microsoft, a IBM e o Google declararam que não vão vender seus algoritmos de reconhecimento facial para órgãos de segurança pública até que haja uma lei federal em vigor.
Em novembro de 2021, a Meta anunciou que o Facebook excluiria 1 bilhão de “identidades faciais” de usuários e deixaria de usar a tecnologia para marcar pessoas em fotos.
A Comissão Australiana de Direitos Humanos pediu uma moratória para o uso da tecnologia até que o país tenha uma lei específica para regular seu uso.
Ativistas de direitos humanos dizem que há potencial para que os dados pessoais obtidos sejam usados para fins secundários e que esse é um caminho para se tornar um estado de vigilância.
Grupos como a Anistia Internacional alertam ainda que o uso do reconhecimento facial leva à discriminação racial.
“A pandemia criou todas estas novas justificativas para o uso da tecnologia de reconhecimento facial”, diz Mark Andrejevic, professor de estudos de mídia da Universidade Monash, em Melbourne, e autor do livro Facial Recognition, em vias de ser lançado.
“Tudo ficou online, e as organizações estavam tentando fazer as coisas funcionarem muito rápido. Mas não se pensou nas implicações. Queremos viver em um mundo onde tudo é digitalizado e não há espaços privados? Isso cria um nível totalmente novo de estresse que não leva a uma sociedade saudável.”
O consentimento é necessário para que o aplicativo G2G seja usado, e também foi necessário após os incêndios florestais do verão de 2020 na Austrália, quando aqueles que perderam seus documentos de identificação usaram o reconhecimento facial para receber ajuda financeira do governo.
Mas houve ocasiões em que a tecnologia de reconhecimento facial foi usada de forma velada.
Em outubro, foi descoberto que o grupo de lojas de conveniência 7-Eleven violou a privacidade de seus consumidores ao coletar a identificação facial de 1,6 milhão de clientes australianos quando os mesmos completaram pesquisas de satisfação.
As identificações faciais foram obtidas supostamente para obter perfis demográficos do público e impedir que os funcionários manipulassem as pesquisas para aumentar suas avaliações. A empresa não foi multada.
O Departamento de Assuntos Internos da Austrália começou a construir um banco de dados nacional de reconhecimento facial em 2016 — e parece pronto para implementá-lo.
Em janeiro, lançou uma licitação para uma empresa “construir e implantar” os dados.
“O reconhecimento facial está à beira de uma implantação relativamente ampla”, diz Andrejevic.
“A Austrália está se preparando para usar o reconhecimento facial para permitir o acesso a serviços governamentais. E entre os órgãos de segurança pública, há definitivamente um desejo de ter acesso a essas ferramentas”.
A maioria dos governos estaduais forneceu as carteiras de motorista de seus moradores ao banco de dados central, que também armazena fotos de vistos e passaportes.
Em 2019, foi proposta uma lei para regulamentar a tecnologia de reconhecimento facial – arquivada depois que uma revisão do comitê parlamentar descobriu que não havia proteções de privacidade adequadas.
Entre seus críticos mais ferrenhos, estava o então comissário de direitos humanos australiano, Edward Santow.
“Estamos agora na pior de todas as situações, como não há uma lei específica, estamos lidando com algumas proteções fragmentadas que não são completamente eficazes e certamente não são abrangentes”, afirma Santow.
“Mas a tecnologia continua a ser implantada.”
Santow está trabalhando com sua equipe da Universidade de Tecnologia de Sydney em maneiras de tornar as disposições de privacidade mais sólidas.
Uma resposta global variada
Parte do projeto consiste em analisar as tentativas de outros países de regular as tecnologias de reconhecimento facial.
Há abordagens totalmente diferentes em todo o mundo. O mais comum é contar com um punhado de proteções de privacidade limitadas que, segundo Santow, não resolvem adequadamente o problema, como é o caso da Austrália.
“Nenhum país do mundo acertou”, diz ele.
“Se [as proteções de privacidade fossem adequadas], este projeto seria realmente simples.”
Leila Nashashibi é ativista do grupo de defesa Fight for the Future, com sede nos EUA, que está se esforçando para obter uma proibição federal do reconhecimento facial e outras formas de identificadores biométricos.
“Assim como a energia nuclear e as armas biológicas, o reconhecimento facial representa uma ameaça à sociedade humana e às nossas liberdades básicas que supera em muito qualquer benefício em potencial”, adverte.
“O reconhecimento facial é diferente de qualquer outra forma de vigilância porque permite o monitoramento automatizado e onipresente de populações inteiras, e pode ser quase impossível de evitar. À medida que se espalhar, as pessoas vão ter muito medo de participar de movimentos sociais e manifestações políticas. A liberdade de expressão vai ser arrefecida.”
Em busca de impressões faciais nas redes sociais
A provedora de tecnologia de reconhecimento facial mais conhecida, a empresa americana Clearview AI, parece não ser dissuadida pelos processos e multas pesadas que está acumulando em uma variedade de jurisdições
A tecnologia da companhia atraiu a atenção da imprensa pela primeira vez quando um bilionário recorreu a ela para identificar a pessoa com quem a filha ia jantar, e atualmente está sendo usada pelo governo ucraniano para identificar soldados russos mortos.
As famílias das vítimas são notificadas pelas redes sociais, com as fotos às vezes enviadas como anexo.
A empresa também está tentando que sua tecnologia seja usada em escolas nos Estados Unidos como um “sistema de gerenciamento de visitantes”, que eles acreditam que poderia ajudar a prevenir ataques a tiros ao reconhecer os rostos de alunos expulsos, por exemplo.
A tecnologia de reconhecimento facial já foi testada em várias escolas por diferentes fornecedores, assim como a de reconhecimento de objetos, que seria capaz de identificar uma arma escondida.
“A Clearview AI está explorando o terror e o trauma das pessoas ao dizer que vigilância e policiamento são a resposta”, avalia Nashashibi.
O CEO e fundador australiano da Clearview AI, Hoan Ton-That, discorda.
Ele diz que a tecnologia de reconhecimento facial tem um grande potencial para a prevenção do crime, uma vez que pode garantir que apenas pessoas autorizadas tenham acesso a um prédio como uma escola.
“Vimos nossa tecnologia ser usada com grande sucesso pelas forças de segurança pública para impedir o tráfico de armas, e esperamos que nossa tecnologia possa ser usada para ajudar a prevenir crimes trágicos com armas no futuro”, afirma.
Na Austrália, a tecnologia de reconhecimento facial está sendo usada em vários estádios para impedir a entrada de suspeitos de terrorismo ou hooligans do futebol que tenham sido vetados.
Andrejevic acredita que o uso do reconhecimento facial como medida de segurança é um avanço significativo na vigilância e requer uma consideração cuidadosa.
“A CCTV (rede de câmeras de monitoramento) é frequentemente criticada por oferecer apenas evidências após o fato, enquanto o reconhecimento facial gera informações úteis em tempo real para prevenir o crime”, diz ele.
“É uma concepção muito diferente de segurança.”
O reconhecimento facial em tempo real já é usado por algumas forças policiais em todo o mundo.
A Polícia Metropolitana de Londres, por exemplo, usa para monitorar áreas específicas em busca de criminosos procurados ou pessoas que possam representar um risco para o público.
A Clearview criou um banco de dados de busca de 20 bilhões de imagens faciais, em grande parte pegando fotos das redes sociais sem consentimento.
Ton-That afirma que a companhia não vai trabalhar com governos autoritários como os da China, Coreia do Norte e Irã. Mas encontrou problemas em algumas democracias.
Foi proibida no Canadá e na Austrália e, em 24 de maio, o Gabinete do Comissário de Informação do Reino Unido (ICO, na sigla em inglês) a multou em mais de £ 7,5 milhões (R$ 47,4 milhões), após uma investigação conjunta com o respectivo órgão australiano.
A empresa foi ordenada a excluir os dados dos residentes britânicos de seus sistemas.
Em dezembro de 2021, o órgão de vigilância da privacidade da França descobriu que a Clearview violou o Regulamento Geral de Proteção de Dados da Europa (GDPR, na sigla em inglês).
Santow afirma que o objetivo na Austrália é desenvolver uma abordagem diferenciada que encoraje o uso de aplicações positivas e imponha proteções para evitar danos.
O pior cenário seria replicar o sistema de “crédito social” da China, onde indivíduos e organizações são rastreados pelo governo para determinar sua “confiabilidade”.
“Ao determinar se um uso é benéfico ou prejudicial, nos referimos à estrutura internacional básica de direitos humanos que existe em quase todas as jurisdições do mundo”, explica Santow.
Por exemplo, a lei exigiria o consentimento livre e informado para utilizar o reconhecimento facial.
No entanto, se a tecnologia estivesse causando discriminação por sua imprecisão em relação a determinados grupos, o consentimento se tornaria irrelevante. Como diz Santow:
“Você não pode consentir ser discriminado”.
Cada vez mais sofisticado e poderoso
“Nos próximos dois anos, vamos ver uma grande mudança em relação ao uso de senhas, que são totalmente inseguras. A biometria vai se tornar o padrão”, diz O’Hara.
O reconhecimento facial funciona dividindo o rosto em uma série de formas geométricas e mapeando as distâncias entre seus “pontos de referência”, como o nariz, os olhos e a boca.
Estas distâncias são comparadas com outros rostos e transformadas em um código único chamado marcador biométrico.
“Quando você usa um aplicativo de reconhecimento facial para abrir seu telefone, não é uma foto do seu rosto que seu telefone armazena”, explica Garrett O’Hara, chefe de segurança da empresa de segurança Mimecast.
“Ele armazena uma derivação algorítmica do que seu rosto é matematicamente. Parece um longo código de letras e números.”
O reconhecimento facial percorreu um longo caminho desde que foi desenvolvido pela primeira vez na década de 1960, embora a taxa de erro varie significativamente entre os diferentes sistemas usados hoje.
No início, não era capaz de distinguir irmãos ou mudanças no rosto de uma pessoa à medida que envelhecia.
Agora é tão sofisticado que pode identificar alguém usando máscara ou óculos escuro, e pode fazer isso a mais de um quilômetro de distância.
O melhor algoritmo de identificação facial tem uma taxa de erro de apenas 0,08%, de acordo com testes do Instituto Nacional de Padrões e Tecnologia dos EUA.
No entanto, este nível de precisão só é possível em condições ideais, em que os traços faciais são claros e não estão obscurecidos, a iluminação é boa, e o indivíduo está de frente para a câmera.
A taxa de erro para indivíduos capturados ao acaso pode chegar a 9,3%.
“É uma tecnologia incrivelmente útil. Mas se alguém nos perguntasse há 20 anos, quando a internet mundial estava começando, se queríamos viver em um mundo onde nossas interações e atividades fossem coletadas e rastreadas, a maioria de nós provavelmente teria dito que soava assustador”, observa O’Hara.
“Agora estamos replicando o rastreamento do espaço online para incluir também o espaço físico. E não estamos fazendo as perguntas que deveríamos fazer.”
Um dos aspectos mais problemáticos é o potencial de discriminação e preconceito racial.
A maioria dos aplicativos de reconhecimento facial foi inicialmente treinada usando conjuntos de dados que não representavam toda a amplitude da comunidade.
“No início, os conjuntos de dados usados eram todos de homens brancos ou pessoas brancas em geral”, explica O’Hara.
“E isso, claramente, leva a problemas quando você tem pessoas não-brancas ou de diferentes etnias ou origens que não coincidem com os modelos de treinamento. No fim das contas, é apenas matemática. Este é o problema.”
Como resultado, os sistemas de reconhecimento facial são propensos a cometer erros ao tentar reconhecer aqueles que pertencem a um grupo étnico minoritário, mulheres, pessoas com deficiência e idosos.
Seu uso resultou em prisões por engano e outras consequências que mexem com a vida das pessoas, lembra Nashashibi.
Deepfakes levam a fraude a novos patamares
Quer se trate de uma impressão digital, de um escaneamento da íris, de uma análise da forma de caminhar ou uma leitura capilar, nenhuma forma de biometria é infalível.
À medida que a tecnologia se torna mais sofisticada, o mesmo acontece com as tentativas dos hackers de manipulá-la para seu próprio benefício.
Os deepfakes surgiram como uma evolução das técnicas de fraude, particularmente em relação ao reconhecimento facial digital (ou seja, as fotos).
“Costumava levar várias horas para criar um deepfake usando ferramentas de animação — agora leva alguns minutos”, diz Francesco Cavalli, cofundador da Sensity AI em Amsterdã.
“Tudo o que você precisa é de uma foto para criar um deepfake em 3D. Isso significa que os fraudadores podem expandir suas operações, e os ataques estão disparando. Você nem precisa ser desenvolvedor ou engenheiro. Você pode fazer isso sozinho. Existem toneladas de aplicativos que permitem replicar o rosto de qualquer pessoa.”
A Sensity AI ajuda governos, instituições financeiras e até sites de relacionamento a identificar aplicativos fraudulentos, seja para obter pagamentos de auxílios relativos à covid-19, armazenar dinheiro lavado em uma conta bancária ou chantagear alguém no Tinder.
Um teste com infravermelho verifica temperatura corporal e piscadas quando alguém tira uma foto online, o que significa que a foto de uma pessoa “sintética” será detectada.
“Em algum momento, os fraudadores descobrem como enganar nossos diferentes modelos, por isso precisamos desenvolver novas técnicas continuamente”, diz ele.
Apesar dos desafios a caminho da regulamentação, Santow está otimista de que a Austrália possa se tornar líder mundial na regulamentação do reconhecimento facial.
“Não posso falar em nome dos governos federal e estadual. Mas sei que eles entendem que há fortes preocupações da comunidade e que é necessário gerar confiança na tecnologia”.
“A Austrália pode fornecer um bom modelo por várias razões”, acrescenta.
“Temos um forte respeito institucional e corporativo pelos direitos humanos. Pode não ser perfeito, mas é fundamental para o que somos como país. Também somos um desenvolvedor e usuário de tecnologia sofisticado.”
“Percebo que o maior desafio não é elaborar uma lei infalível, mas garantir que a própria lei não seja ignorada.”
Já assistiu aos nossos novos vídeos no YouTube? Inscreva-se no nosso canal!
Você precisa fazer login para comentar.