Tecnologias de reconhecimento facial são usadas em 37 cidades no País, na segurança pública, transporte e controle de fronteiras

 

Jonas Valente – Agência Brasil * – São Paulo – O Brasil tem 37 iniciativas em cidades adotando, de alguma maneira, tecnologias de reconhecimento facial. Mais da metade, 19, foram lançados no período de 2018 a 2019. Essas soluções, em geral, são empregadas nas áreas de segurança pública, transporte e controle de fronteiras. O levantamento foi realizado pelo Instituto Igarapé e apresentado nesta quinta-feira (19/09) no 10º Seminário de Proteção à Privacidade e aos Dados Pessoais, evento organizado pelo Comitê Gestor da Internet no Brasil. O estudo mapeou iniciativas desde 2011, em todo o país.

O tema vem suscitando intensas polêmicas. Autoridades vêm apostando no reconhecimento facial como um instrumento sofisticado das formas de controle em políticas públicas. Por outro lado, essas ferramentas também são objeto de fortes questionamentos, já tendo sido proibidas em cidades dos Estados Unidos, como San Francisco e Oakland. Para além de governos e organizações da sociedade civil, até mesmo empresas de tecnologia, como a Microsfot, já defenderam a regulação dessa prática.

A pesquisadora do instituto autor do levantamento Louise Marie Hurel ressaltou que a opção por essas formas de identificação não é nova. Em 2004, um projeto de lei do então deputado Eduardo Paes, ex-prefeito do Rio de Janeiro, já buscava regulamentar a utilização de biometria facial para autenticar acesso a dados tributários. No início desta década, cidades começaram a recorrer à tecnologia.

Projetos

Os primeiros projetos foram fundamentalmente na área de transporte, de empresas intermunicipais que colocavam o reconhecimento como condição para o acesso a serviços. Esse setor foi responsável por 21 projetos mapeados pelo estudo. Nos últimos anos, ganhou força fundamentalmente em aplicações na segurança pública, como para o acesso a locais e monitoramento por meio de câmeras. Outras 13 iniciativas identificadas no documento têm essas finalidades.

Não somente governos mas empresas também implementaram a tecnologia. A concessionária de uma das linhas do Metrô de São Paulo instalou câmeras para analisar os sentimentos dos passageiros por meio de suas expressões faciais e subsidiar os anúncios nos vagões. A Hering, indústria especializada em vestuário, colocou sistemas semelhantes em uma loja da capital paulista com o intuito de examinar as atitudes dos consumidores, interesses e práticas como elemento a ser considerado em estratégias de marketing.

Projetos de lei

Juntamente com a disseminação desse recurso, vêm também a preocupação das autoridades. O levantamento identificou dois projetos de lei no Congresso Nacional e 21 em assembleias legislativas sobre o tema, sendo oito no Rio de Janeiro e dois em São Paulo. “O reconhecimento facial é colocado como uma espécie de bala de prata para segurança pública”, observou a pesquisadora Marie Hurel.

O Projeto de Lei 9.736, de 2018, do deputado Júlio Lopes (PP/RS), por exemplo, obriga o reconhecimento facial em presídios. O PL 11.140 de 2018, do líder do PSL, Delegado Waldir (GO), vai além, e determina registros não somente aos detidos, mas também a funcionários e até mesmo advogados que ingressem na unidades de internação.

Riscos

O professor da Faculdade de Direito da Universidade de São Paulo (USP) Rafael Mafei salientou os riscos associados a essa tecnologia. O primeiro é o do viés que gera discriminação, que, segundo o professor, pode ser uma consequência tanto da lógica de funcionamento de um sistema quanto resultante dos registros utilizados para alimentá-lo. Quanto menor a diversidade dos dados inseridos, menor a capacidade do programa de identificar adequadamente determinados tipos de face, disse Mafei.

O docente citou estudos cujas conclusões revelaram margens de erros maiores para mulheres, para negros e para mulheres negras. Em algumas empresas, o nível de erro na análise de uma imagem chegava a mais de 30%. O problema é que esses “falsos positivos” podem gerar prejuízos graves, como uma prisão de alguém inocente.

“Tecnologia que objetiva o reconhecimento com margens de erros arbitrárias e a depender de como a régua é modificada, as consequências são graves. O reconhecimento facial é tão perigoso quando mal usado que não vale o risco disso ser popularizado. Seria a tecnologia dos sonhos de governos autoritários”, disse Mafei.

Idec

A advogada do Instituto Brasileiro de Defesa do Consumidor (Idec) Bárbara Simão lembrou que pesquisas realizadas por diferentes institutos de pesquisa em países como Estados Unidos e Reino Unido mostraram um baixo nível de confiança das pessoas nesse tipo de tecnologia. Em uma dessas sondagens, apenas 7% concordaram com tecnologias voltadas ao rastreamento de seus comportamentos e direcionamento de publicidade.

Na opinião de Simão, a decisão de uma empresa por essa solução técnica deve levar em consideração uma série de critérios. O primeiro envolve considerar se ela de fato agrega algo, ou se a identificação poderia ser realizada por outros meios. A segunda diz respeito à transparência nessa operação, com relatórios de impacto. A terceira presume o direito da escolha da pessoa, e não adotar o reconhecimento facial como imposição. Por fim, são necessárias medidas antidiscriminação para impedir esse tipo de problema.

Como funciona

O reconhecimento facial começa com a coleta da imagem de um indivíduo. Um filtro verifica se o elemento em questão é uma face ou não. Em seguida, é realizada uma “normalização”, na qual as pessoas são classificadas em padrões.

No próximo passo, os traços e características do rosto são transformados em “pontos de referência”, que são analisados. Esse conjunto de informações é trabalhado como um identificador associado àquela pessoa. Em um serviço de autenticação, por exemplo, a câmera filma ou registra uma imagem e o sistema busca no banco de dados se há alguma face com determinado nível de semelhança.

_______________________

Proteção de dados pessoais precisa ser ampliada, defende pesquisadora

 

As ideias de privacidade e proteção de dados foram historicamente construídas com foco no indivíduo e no direito de determinar como suas informações serão disponibilizadas. Mas com o ascenso de uma sociedade em que a coleta e tratamento de dados cresce vertiginosamente, é preciso ampliar essa noção para que tais garantias sejam efetivamente respeitadas.

A proposta foi apresentada pela professora de direito da Escola de Economia e Ciência Política de Londres (LSE) Orla Lynksey, em conferência no 10º Seminário de Proteção à Privacidade e aos Dados Pessoais do Comitê Gestor da Internet no Brasil (CGI.Br). O evento é o principal encontro do país na área e reúne hoje e amanhã (18 e 19), em São Paulo, pesquisadores, empresas, reguladores e entidades da sociedade civil para discutir os desafios no tema.

Segundo a professora, as leis de proteção de dados avançaram na definição de alguns direitos dos titulares dos dados, como autodeterminação informativa (controle pelo usuário do que será acessado por outros, segurança (não ter informações acessadas por terceiros indevidamente), estabelecimento de bases legais para o tratamento, a coleta para propósitos específicos, a possibilidade de acesso pelo usuário aos registros de posse de um controlador e a alternativa de retificação destes.

Esses pressupostos estão presentes em legislações como o Regulamento Geral Europeu (GDPR, na sigla em inglês) ou na Lei Geral de Proteção de Dados brasileira (LGPD, Lei Nº 13.709), aprovada em 2018, alterada por uma medida provisória este ano e que entrará em vigor em agosto de 2020 após um período de transição.

Contudo, a ampliação das formas de tratamento e das implicações sociais destas (impactando mercados e processos democráticos) coloca novo desafios. Grandes plataformas, como Facebook e Google, ganharam importância que, muitas vezes, as torna inescapáveis. Solicitam consentimento, mas o fazem como imposição para acesso aos serviços, com os usuários aceitando sem ler para conseguir fazer uso.

Diante do novo cenário, Lynksey destacou a importância de novos direitos, como apagar a informação coletada, fazer a portabilidade dos dados ou proteções relacionadas a decisões automatizadas (como concessão de “notas” para crédito e outros serviços e direcionamento de conteúdos como publicações e publicidade).

Ela argumentou pela necessidade de “recalibrar” a abordagem da proteção de dados. Respeitados os direitos dos titulares, o foco do exercício dessas garantias não deveria estar nas pessoas, mas na responsabilidade dos controladores de respeitar as obrigações legais.

“Princípios de proteção de dados continuam importantes, mas estão sendo colocados em pressão dado o crescimento de processamento de dados. Somos enfrentados em um tsunami de dados. Não se reconhecem direitos coletivos. Temos que olhar para além do indivíduo e adotar mecanismos mais sistêmicos e coletivos”, defendeu.

Dados e concorrência

A professora também destacou que, em um cenário de grandes companhias coletando e gerindo grandes quantidades de dados, um dos impactos fundamentais do controle dessas informações é na concorrência nesses mercados.

O abuso de poder de mercado pela administração de quantidades excessivas de dados deve ser considerado na análise de fusões, recomendou a professoara, que citou como exemplo a compra do WhatsApp pelo Facebook em 2014. Na Europa, as autoridades concorrenciais entenderam que não haveria problema pelo fato de as redes sociais supostamente não concorrerem entre si.

Para Orla Lynksey, o exame dessas aquisições deveria incluir a consideração de aspectos relacionados a dados. “As autoridades não entenderam que o ponto chave eram os dados. Inicialmente, o Facebook falou que não seria possível integrá-los, mas depois integrou. Olhando para essas fusões em uma perspectiva concorrencial pura, estamos perdendo a história”. alertou.

Riscos

A diretora do Centro de Direito, Internet e Sociedade do Instituto de Direito Público de Brasília, Laura Schertel Mendes, também argumentou pela relevância de adotar uma perspectiva mais ampliada sobre a proteção de dados.

O consentimento para a obtenção de uma informação, embora fundamental, seria insuficiente pois define apenas um aspecto da coleta, sem assegurar a proteção no momento tratamento. Uma pessoa pode ter autorizado uma coleta, mas sem saber que a aplicação da informação sobre si poderia prejudicá-la, como em práticas discriminatórias. Por isso, a docente assinalou a pertinência de tratar os riscos envolvidos em determinada coleta e tratamento de dados e compreender essas práticas dentro do seu contexto.

Na avaliação da professora, essa concepção mais ampliada já estaria coberta pela legislação brasileira, mas passaria por uma aplicação com base na interpretação dos princípios da Lei Geral, bem como de outros diplomas legais. “Pensar privacidade mais contextual e evitar riscos, seja pelos princípios que a lei me traz, mas também de outras legislações específicas que podem aparecer quando o legislador se deparar com riscos específicos”, observou. (JN / AB)

O repórter viajou a convite do Comitê Gestor da Internet no Brasil (CGI.br) e do Núcleo de Informação e Coordenação do Ponto BR (NIC.br)