Quem vê caras, vê identidades

A China é um dos países onde o reconhecimento facial está implantado nas ruas mais extensamente

As câmaras estão nos aeroportos, nos nossos telemóveis, nas ruas. A tecnologia de reconhecimento facial encontra-se em franca expansão, à boleia dos avanços na inteligência artificial. Apesar disso, continua a haver duas questões essenciais por resolver: uma técnica - a fiabilidade - e outra ética - a privacidade.

O reconhecimento facial tem indiscutivelmente muitos benefícios. Uns mais prosaicos, como eliminar filas nos aeroportos; outros muito relevantes, como encontrar pessoas desaparecidas ou vítimas de tráfico humano. Mas há outros exemplos que expõem as suas fragilidades. Primeiro: os sistemas de visão computacional tinham, até há pouco tempo, dificuldades de distinguir um bolinho de passas do focinho de um chihuahua. Segundo: na China, o reconhecimento facial parece estar a ser usado, entre outros, para perseguir minorias religiosas e étnicas. Ou seja, a tecnologia levanta questões de fiabilidade e éticas.

Mas, afinal, como funciona esse sistema que é olhado com entusiasmo por uns e com desconfiança por outros? Henrique Santos, professor associado da Universidade do Minho em áreas como Segurança em Sistemas de Informação e Presidente da Associação Portuguesa de Proteção de Dados, explica-o assim em traços largos: obtêm-se imagens da face de cada sujeito, identificando alguns pontos característicos e relações geométricas entre eles – os chamados padrões biométricos; essa informação é armazenada associando-lhe a identidade da pessoa e, posteriormente, quando uma nova imagem da face é adquirida, são analisados os mesmos padrões, que são comparados com os que estão armazenados. “A diferença entre eles é avaliada e devolve um ‘score’ que traduz a semelhança, se estiver acima de um limite definido, o resultado é considerado como uma verificação positiva. Atualmente, as funções de comparação de padrões podem usar técnicas de Inteligência Artificial, como as redes neuronais”, completa o especialista.

Existem duas grandes aplicações desta tecnologia: a autenticação e a identificação. “Na autenticação, o sujeito indica a identidade, sendo o reconhecimento facial usado para a validar, numa comparação de um para um”, especifica. Esta é, por exemplo, a tecnologia que é hoje usada em muitos aeroportos. Se o objetivo for a identificação, “é feita uma recolha da imagem da face de um sujeito não identificado, sendo extraídos os padrões biométricos que são comparados com todos os que estão numa base de dados, numa comparação de um para muitos. O resultado dessa comparação é, normalmente, um grupo de sujeitos cujo ‘score’ de comparação está acima de um determinado valor e com esse grupo aplicam-se então processos manuais de verificação complementares”, continua Henrique Santos.

A letra da lei

Os reguladores têm um papel difícil: não podem colocar de parte uma tecnologia que poderá ter muitas utilizações benéficas, mas têm, simultaneamente, de garantir a privacidade e a proteção das pessoas. E há uma disparidade de lhe dificulta o trabalho, como realça a eurodeputada Maria Manuel Leitão Marques, vice-presidente da Comissão do Mercado Interno e da Proteção dos Consumidores. “A velocidade a que hoje a tecnologia avança é incomparavelmente maior do que aquela a que se fazem as leis, em especial na União Europeia. E, nestas matérias, para sermos eficazes, a legislação tem de ser europeia. Não há fronteiras no mundo digital.”

Em janeiro deste ano, saíram algumas notícias que davam conta que a Comissão Europeia estaria a considerar uma moratória de três a cinco anos a mecanismos de inteligência artificial no espaço europeu, o que não se veio a verificar a 19 de fevereiro, quando foram apresentados os documentos estratégicos para o digital, dados e inteligência artificial. “Na Inteligência Artificial, a Comissão compromete-se apenas a lançar um debate alargado a nível europeu sobre as condições específicas em que esta tecnologia pode ser usada em lugares públicos e com que salvaguardas”, prossegue Maria Manuel Leitão Marques. No entanto, a eurodeputada ressalva que o documento é apenas uma estratégia que está aberta à discussão pública, sendo que a regulação só deve começar a ser proposta no final do ano.

“Para sermos eficazes, a legislação tem de ser europeia. Não há fronteiras no mundo digital” Maria Manuel Leitão Marques, eurodeputada e vice-presidente da Comissão do Mercado Interno e da Proteção dos Consumidores

Por agora, o Regulamento Geral da Proteção de Dados (RGPD), que entrou em vigor em 2018, é o regulamento do direito europeu sobre privacidade e proteção de dados pessoais, aplicável a todos os estados e indivíduos na União Europeia. E, como lembra a eurodeputada, “os artigos 6.º e 9.º referem que uma pessoa precisa obrigatoriamente de dar consentimento para que os seus dados pessoais (incluindo dados biométricos) possam ser processados para um propósito específico”. Maria Manuel Leitão Marques frisa que, tratando-se de um regulamento, e não de uma diretiva, “a lei portuguesa (Lei 58/19, de 8 de agosto), tal como as restantes dos 27 Estados-Membros, limita-se a criar as condições de aplicação do Regulamento, que nunca pode contrariar”.

O advogado, professor universitário e investigador Alexandre Sousa Pinheiro assinala que isto não significa que não haja legislação muito diferenciada entre os estados, quer no domínio da segurança, quer no domínio laboral. Apesar disso, defende, a relação entre a tecnologia e o direito, no domínio da proteção de dados, baseia-se hoje “numa lógica de ‘privacy by design’ ou ‘privacy by default’ – privacidade desde a conceção ou privacidade por defeito – para que não tenhamos um tratamento de dados pessoais que ofende a legislação e põe em causa direitos fundamentais”.

A segurança é uma exceção

A China é um dos países onde o reconhecimento facial está implantado nas ruas mais extensamente. Desde o final do ano passado, por exemplo, uma nova lei tornou o reconhecimento facial obrigatório para quem comprar um novo cartão de telemóvel e recentemente, em resposta ao pedido da província de Hubei – depois da escalada nos casos de covid-19 – os sistemas foram aperfeiçoados de modo a possibilitar a identificação uma pessoa com máscara cirúrgica colocada.

Já nos Estados Unidos da América, rebentou recentemente o escândalo e a indignação contra a empresa Clearview AI, cuja tecnologia de reconhecimento facial está a ser usada, entre outros, pelo departamento da Polícia de Chicago e cuja base de dados de rostos – com mais de três mil milhões de fotografias – é retirada de sites e páginas de redes sociais como Facebook, Instagram, Twitter e YouTube. Apesar dos processos de violação de privacidade dos utilizadores que as próprias redes sociais lhe têm movido, o CEO da Clearview AI continua a afirmar que a empresa tem o direito de usar fotografias publicadas na internet. Mas, apesar da polémica no país, há muito tempo que nos EUA o reconhecimento facial é considerado como uma ferramenta fundamental para a segurança pública, como recorda Henrique Santos. “De acordo com um relatório de 2018, o FBI terá acesso a uma base de dados de cerca de 412 milhões de sujeitos, pois é obrigatória a sua recolha nas fronteiras, nomeadamente nos aeroportos.”

Por fim, bem mais perto de nós, no Reino Unido, após vários testes que vinham a ser feitos na capital desde 2016 – com resultados fracos e muitas falhas -, a Polícia Metropolitana de Londres avançou com a implementação oficial de câmaras com tecnologia de reconhecimento facial na cidade em janeiro, ainda que sob protestos de muitos ativistas pelos direitos civis.

“Segundo dados de 2018, o FBI terá acesso a uma base de dados de cerca de 412 milhões de sujeitos” Henrique Santos, presidente da Associação Portuguesa de Proteção de Dados

Em Portugal estamos longe desses cenários. Não por falta de tentativa de os implementar, mas por falta de autorização. Recentemente, a Comissão Nacional de Proteção de Dados (CNPD) rejeitou dois pedidos da Polícia de Segurança Pública para a instalação de sistemas de videovigilância com inteligência artificial nas cidades de Leiria e Portimão. Henrique Santos, presidente da Associação Portuguesa de Proteção de Dados, explica o que está em causa. “Falamos de algoritmos com capacidade para identificar e aprender a identificar pessoas e objetos pessoais – ligados à identidade de pessoas (…) além de identificar situações anómalas ou comportamentos indevidos.”

O também professor associado da Universidade do Minho considera este chumbo legítimo e perfeitamente compreensível, dada a capacidade global desse tipo de algoritmo. “Se num projeto de videovigilância alguém usa o termo ‘inteligência artificial’, está obviamente a englobar toda a sua potencialidade. Assim, tendo em conta a regulamentação atual, em particular o RGPD, o projeto deve descrever objetiva e inequivocamente que dados vão ser extraídos, para que finalidade e durante quanto tempo serão armazenados”, pormenoriza o especialista. Todas essas precauções se justificam, destaca, porque atualmente “a informação é um recurso muito crítico, de enorme valor, sendo fácil cair na armadilha de adquirir um objeto para uma função, que pode cumprir uma outra, de uma forma dissimulada”.

“Quando uma aplicação é grátis, mas exige o acesso a dados do telemóvel, nada há de gratuito nisto” Alexandre Sousa Pinheiro, advogado e professor universitário

Considerando o enquadramento legal, o advogado Alexandre Sousa Pinheiro lembra que em matérias de segurança aplica-se a diretiva relativa ao tratamento de dados para fins de segurança pública, pelo que o uso desses sistemas tem sempre de ser pensado do ponto de vista da finalidade. “O que sucede é que esta captação de imagens não tinha como finalidade apenas o combate ou prevenção criminal, mas também elementos referentes a comportamentos que revelassem incivilidades. E não me parece que possa considerar isto uma questão de segurança, pelo que é manifestamente excessivo usar um mecanismo tão intrusivo com esse fim.”

A sua cara é a sua password

A Agência para a Modernização Administrativa (AMA), responsável pela Chave Móvel Digital – que já permite ao cidadão autenticar-se nos portais e sítios na internet de entidades públicas através da associação ao número de telemóvel – lançou em dezembro um concurso público para desenvolvimento da tecnologia de reconhecimento facial, no acesso a serviço do Estado. Mas essa é uma possível modernização que não é pacífica. Ricardo Chaves, especialista em segurança eletrónica e professor no Departamento de Informática do Instituto Superior Técnico (IST), consultou o caderno de encargos do concurso público e não ficou descansado com o que leu.

“Não há menção alguma acerca do dispositivo que adquire a imagem. O que é que impede um atacante de o estar a filmar e fazer a autenticação por si? E, em relação às figuras públicas, que são constantemente filmadas para a televisão e fazem selfies e vídeos com fãs, como garantimos que não é este tipo de imagem que está a ser injetada no sistema?”, observa Ricardo Chaves.

“O que impede um atacante de o estar a filmar e fazer a autenticação por si?” Ricardo Chaves, professor universitário e especialista em segurança eletrónica

O problema não é necessariamente a imagem em si ou o processamento – pese embora esses sistemas ainda tenham muitos falsos-positivos ou falsos-negativos. A questão é quem adquiriu essa imagem e em que terminal. O especialista alega que isto é muito diferente de fazer uma autenticação com dados biométricos nos dispositivos pessoais. “Não é mais seguro do que com uma password, é mais prático. Mas o dispositivo está na posse do proprietário, ou seja, o sujeito identifica-se perante o dispositivo.” Aqui não é esse o caso. “Numa identificação remota com dados biométricos não há sistemas relativamente fiáveis: qualquer sistema pode ser adulterado. Quem controla o canal? Quem adquiriu o sinal?”, questiona.

Também o advogado Alexandre Sousa Pinheiro tem dificuldade em ver a legitimidade do sistema, lembrando que, numa altura em que na União Europeia se reflete sobre a limitação do sistema para controlo securitário, “levanta muitas dúvidas utilizá-lo na relação do cidadão com a administração pública para finalidades administrativas”. E, por falar em dispositivos pessoais, muito cuidado com as aplicações gratuitas que descarrega para o telemóvel, por exemplo, as que permitem aplicar filtros a fotografia e vídeo: ‘não há almoços grátis’, como mostram casos como o da Cambridge Analytica. Alexandre Sousa Pinheiro, também professor universitário e investigador, alerta: é importante que as pessoas leiam bem as letras pequeninas dos termos e condições de utilização. “Quando uma aplicação é grátis, mas exige o acesso a dados do telemóvel, como a lista telefónica, a agenda ou a nossa galeria de fotos, nada há de gratuito nisto. O que há é uma nova forma de pagamento.”