Os grandes irmãos: o uso de tecnologias de reconhecimento facial para persecução penal
Estudante de direito da UnB, pesquisadora do LAPIN, pesquisadora do Observatório da LGPD/UnB e CEDIS/IDP.
Facial recognition and public safety: how to ensure the protection of personal data and avoid the risks of technology
Data de recbimento: 07/10/2020 Data de Aprovação: 07/04/2021
DOI: 10.31060/rbsp.2022.v16.n2.1377
Atualmente, estamos vivendo em uma sociedade da informação, onde as
pessoas estão imersas em um ambiente de uso contínuo de diferentes
tecnologias que estão em constante desenvolvimento. Nesse sentido, para
que as pessoas possuam acesso a espaços e serviços digitais, elas,
continuamente, disponibilizam seus dados pessoais e “deixam rastros” no
mundo
Como consequência dessa realidade, percebeu-se a relevância de uma lei que tutelasse o direito de privacidade e de proteção de dados dos cidadãos. Por isso, em 2018, o Congresso Nacional brasileiro sancionou a Lei Geral de Proteção de Dados (LGPD), que garante o tratamento de informações de forma responsável e em observância aos princípios da proteção de dados em diversos contextos.
No entanto, a LGPD não se aplica inteiramente aos casos de tratamento de dados pessoais para fins exclusivamente de segurança pública (art. 4º, III, “a”). Ela prevê que a legislação específica a ser criada deverá observar os princípios gerais de proteção de dados, os direitos do titular e o devido processo legal. Ainda, essa futura lei deverá prever medidas proporcionais e estritamente necessárias ao atendimento do interesse público (art. 4º, § 1º). Dessa forma, por mais que a tecnologia avance, é necessária regulação específica sobre o uso de inovações aplicadas ao contexto de segurança pública a fim de evitar o grande potencial de uso abusivo.
Assim, o governo brasileiro tem se movimentado para pensar em estratégias de regulamentação do uso da tecnologia de Reconhecimento Facial. A Câmara dos Deputados, em abril de 2019, realizou audiência pública na Comissão de Ciência e Tecnologia, Comunicação e Informática com participação de diversos setores da sociedade para discutir a aplicação de reconhecimento facial para manutenção da segurança pública (CÂMARA DOS DEPUTADOS, 2019). As posições defendidas foram controversas; destaca-se a preocupação de organizações da sociedade civil com a privacidade e a acurácia do sistema. Além disso, em novembro de 2019, a Câmara dos Deputados instituiu uma comissão de juristas para elaborar anteprojeto de legislação específica para o tratamento de dados pessoais no âmbito da segurança pública (JÚNIOR, 2019).
Diante do exposto, nota-se que o Estado também é entidade que utiliza
e decide como utilizar as informações pessoais dos cidadãos, isto é,
exerce função de controlador de dados. Ainda, busca utilizar informações
dos cidadãos para promoção da segurança pública em vista do cenário de
elevada violência no Brasil
O uso de instrumentos tecnológicos para auxiliar a segurança pública
tem aplicações concretas já praticadas pelas autoridades estatais, como
as escutas telefônicas, o uso de câmeras de vigilância
CCTV
O uso de câmeras no carnaval do Rio de Janeiro, em 2019, com a tecnologia de reconhecimento de objetos possibilitou a recuperação de um veículo roubado. Ainda, no mesmo evento, o uso de câmeras com a tecnologia de RF deu causa à prisão de quatro pessoas que possuíam mandado de prisão em aberto (LISBOA, 2019). Em Salvador, no carnaval de 2019, um homem procurado pela polícia foi preso depois de ser identificado pelo sistema de reconhecimento facial utilizado pela polícia local (LAVADO, 2020). Outro exemplo é o da Companhia do Metropolitano de São Paulo, que publicou, em 2019, edital de licitação para implementação de um sistema de câmeras com RF para algumas linhas de metrô da cidade (METRÔ, 2019). No entanto, existem diversas controvérsias sobre a aplicação do RF que serão evidenciadas neste artigo.
No exterior, a polícia metropolitana de Londres (MET) utilizou por
meses duas câmeras com RF no
Diante do exposto, vários questionamentos são suscitados sobre se o RF é uma tecnologia adequada a espaços democráticos diante da iminente possibilidade de violações de direitos fundamentais. Sendo possível a implementação de RF no âmbito da segurança pública, surge um debate sobre as maneiras de regular o RF de forma a ser uma tecnologia útil e que sua implementação esteja direcionada para a proteção de dados pessoais dos titulares que cometeram crimes ou não.
Neste artigo, estudou-se o tratamento de imagem de câmeras com
tecnologia de RF em tempo real para fins de identificação de pessoas
envolvidas em investigações criminais e instruções processuais
penais.
No Brasil, o tema da segurança pública está inserido em um cenário mais amplo e, por isso, é necessário reconhecer alguns aspectos peculiares das políticas públicas criminais e do sistema penitenciário do país. Schneider e Miranda (2020, p. 4) afirmam que o Estado brasileiro, “para executar o controle social, adota uma política de segurança pública segregacionista e preconceituosa”. Com isso, pensar em formas eficientes para manutenção da segurança pública perpassa pelo problema brasileiro em que há um grupo social o qual deve ser reprimido com coerção física e policial e um outro o qual deve ser protegido. Sobre essa questão, Alessandro Baratta afirma a existência de, em regra, duas classes: a classe dominante e a subalterna. A primeira “está interessada na contenção do desvio em limites que não prejudiquem a funcionalidade do sistema econômico-social e os próprios interesses e, por conseqüência, na manutenção da própria hegemonia no processo seletivo de definição e perseguição da criminalidade” (BARATTA, 2002, p. 197). Já a classe subalterna é aquela selecionada pelos mecanismos de criminalização. Em suma, o sistema penal brasileiro é muito similar ao descrito por Baratta, em que
o sistema das imunidades e da criminalização seletiva incide em medida correspondente sobre o estado das relações de poder entre as classes, de modo a oferecer um salvo-conduto mais ou menos amplo para as práticas ilegais dos grupos dominantes, no ataque aos direitos das classes subalternas. (BARATTA, 2002, p. 198).
Ainda, é necessário refletir que temas relacionados à segurança pública, inegavelmente, remetem às questões sobre as políticas criminais adotadas pelo governo brasileiro e ao sistema penal seletivo que vigora no país. Assim, “qualquer tecnologia pensada para melhorar a segurança pública, além de considerar aspectos técnicos, precisa atentar para as variáveis de raça que perpassarão a sua utilização” (DA SILVA; DA SILVA, 2019, p. 7). Logo, a aplicação da tecnologia de RF, vista como prioridade para muitas autoridades brasileiras, possui mais uma peculiaridade diante de um sistema criminal falho e segregacionista que passa a lidar com dados delicados dos cidadãos.
O reconhecimento facial é o resultado do uso de um algoritmo baseado
em visão computacional (
O RF é um método de identificação de pessoas por meio de rostos
capturados em vídeos, fotos ou imagens coletadas em tempo real.
Majoritariamente, os sistemas de RF capturam e tratam dados considerados
relevantes e únicos, como a distância entre os olhos ou o formato do
queixo. Assim, à medida que as pessoas se movimentam por espaços
públicos que possuem câmeras de vigilância com RF, a tecnologia isola
imagens faciais e extrai dados contidos nelas. Esses dados são tratados
e convertidos em representações matemáticas conhecidas como
O resultado do tratamento dos dados faciais é representado por uma
porcentagem de características semelhantes entre as duas assinaturas,
essa correspondência indica a probabilidade de a pessoa que passa por
uma câmera de vigilância ser ou não uma das pessoas que possuem
assinatura facial contida no banco de dados. Por isso, o resultado do
tratamento de dados pela tecnologia de RF não é binário, isto é, não
responde: sim, o rosto capturado corresponde ao
Ainda, quando a tecnologia é imprecisa na identificação da pessoa e o
resultado apresentado pelo RF é incorreto, ele se classifica em (i)
falsos negativos ou (ii) falsos positivos. Aqueles ocorrem quando o
sistema de RF falha na correspondência entre um rosto e uma assinatura
facial que, de fato, está contida em um banco de dados. Ou seja, o
sistema retornará erroneamente zero resultados em resposta a uma
consulta, sendo que existe um resultado válido. Já um falso positivo
ocorre quando o sistema reconhece a compatibilidade entre o
É relevante notar que a existência de falsos negativos e falsos positivos possui consequências relevantes para aplicação na segurança pública. Por exemplo, no uso de RF, a incidência de falsos positivos causam danos às pessoas não culpáveis, visto que a identificação errônea de um inocente como uma pessoa que cometeu crime pode acarretar na prisão da pessoa errada e, possivelmente, na condenação de um sujeito que não cometeu nenhum crime. Não obstante, em caso de incidência de falsos negativos, o prejuízo é o da não identificação de uma pessoa que cometeu um crime.
A informação tratada pelo RF é dado biométrico, isto significa que a tecnologia permite a identificação e a autenticação de pessoas baseada em um conjunto de informações únicas e específicas para cada pessoa (THALES, 2020). Nesse sentido, a informação facial é um dado personalíssimo e singular a cada pessoa, como as digitais dos dedos, a íris do olho e o DNA. De acordo com a LGPD, um dado biométrico, quando vinculado a uma pessoa natural, é um dado sensível (art. 5º, II). Com isso, a legislação destaca o tratamento de dados pessoais sensíveis, já que caso esses “sejam conhecidos e submetidos a tratamento, podem se prestar a uma potencial utilização discriminatória ou lesiva e que apresentariam maiores riscos potenciais do que outros tipos de informação” (DONEDA, 2019, p. 143).
Não é uníssona a possibilidade de uso de tecnologias de RF para a
manutenção de segurança pública. Como evidenciado no exemplo de São
Francisco (EUA), algumas autoridades e instituições entendem que os
riscos e os possíveis prejuízos do tratamento de dados sensíveis são
superiores aos benefícios trazidos pelo RF utilizado no âmbito da
segurança.
Nessa perspectiva, o impacto do tratamento indevido de dados faciais
de uma pessoa é significativo e os riscos de violação de direitos e
liberdade individuais são elevados. Ainda, o mau uso dos dados, quando
as finalidades do processamento estão no âmbito da segurança pública,
geram efeitos mais gravosos, já que o direito penal é
Em 2016, o parlamento europeu e o conselho da UE estabeleceram a Diretiva 2016/680 para regulamentar a proteção das pessoas físicas no que diz respeito ao tratamento de dados pessoais pelas autoridades para efeitos de segurança pública. A diretiva explicita os princípios orientadores do tratamento de dados, como o princípio da segurança e integridade da informação, da qualidade dos dados, da finalidade, da necessidade e da transparência (art. 4º, nº 1). Estes três últimos serão tratados de forma mais específica neste artigo porque interferem diretamente no modo de uso do RF no âmbito da segurança pública, devem ser respeitados por serem princípios de proteção de dados elencados na LGPD e a observância deles está diretamente ligada com a garantia dos direitos fundamentais. Em suma, a Diretiva 2016/680 da UE busca assegurar o tratamento de informações pessoais para fins de segurança pública de forma responsável diante da proteção de dados.
Um dos princípios norteadores da diretiva é o princípio da finalidade
(art. 4º, 1, b).
Assim, as informações pessoais coletadas por câmeras de vigilância para manutenção da segurança pública não poderão ser utilizadas para qualquer outro fim. Ou seja, se a motivação para o uso da tecnologia é segurança pública, o instrumento ou os dados coletados por ele não poderão ser utilizados para outra finalidade. Alguns exemplos do uso de câmeras em espaços públicos que não visam a segurança são: o mapeamento de regiões populosas, a análise de horários em que o trânsito está sobrecarregado ou o rastreamento de ônibus para informar aos passageiros que a linha está atrasada. A coleta de dados para os fins anteriormente citados não estão em conformidade com a segurança pública, com isso, não é possível processar essas informações, ainda mais em caso de dados sensíveis no contexto de RF autonomizado e em tempo real. Além disso, o caminho inverso também é verdadeiro, os dados coletados para fins de segurança não podem ser tratados para outras finalidades.
Com isso, nota-se que o princípio da finalidade é balizador de
algumas práticas no uso do RF para segurança pública, uma delas versa
sobre a finalidade do armazenamento de dados. Para efetivação do RF, é
necessário coletar informações das pessoas que se movimentam em espaços
públicos para que essas sejam comparadas com
Em um estudo sobre o impacto do RF no Reino Unido, o
Sobre essa questão, o ICO analisou dois casos de uso de RF por duas
organizações policiais diferentes, a Metropolitan Police Service (MPS) e
a South Wales Police (SWP). Ambas deletaram os registros resultantes do
uso da tecnologia de RF após o processamento, exceto nos casos em que o
sistema encontrou correspondência entre o rosto analisado
instantaneamente e os
Por fim, nota-se que nem todo uso de RF é autorizado para atender a qualquer finalidade específica que vise alcançar a segurança pública. Por exemplo, o fim de preservar a segurança não é alcançado quando o RF é usado para determinar a dosimetria de pena a um indivíduo no sistema de justiça criminal (BUOLAMWINI; GEBRU, 2018, p. 1). Finalidades similares à segurança são atingidas apenas para identificar pessoas que estão na lista de interesse da polícia e que poderão enfrentar um processo judicial segundo o devido processo legal.
Para efetivação do princípio da necessidade, preza-se pela limitação do tratamento ao mínimo necessário para a realização de suas finalidades (GOV.BR, 2020, p. 14). Para adequada utilização de dados biométricos na manutenção da segurança pública, é fundamental a observância do ciclo de vida do dado pessoal. Em regra, este possui cinco fases: coleta, retenção, processamento, compartilhamento e eliminação (GOV.BR, 2020, p. 41). Todas essas fases merecem cuidado específico no uso da tecnologia de RF. Em conformidade com o ciclo e o princípio da necessidade, frisa-se a relevância da fase de eliminação do dado. E regra, os dados devem ser processados até servirem à finalidade específica para a qual foram coletados, e quando não forem mais necessários devem ser excluídos.
Segundo o ICO (2019, p. 29), os dados processados para fins de
aplicação da lei devem estar sujeitos aos cronogramas de retenção, ser
revisados periodicamente e excluídos quando não for mais necessário
mantê-los.
Além disso, o Grupo de Trabalho do Artigo 29º para a proteção de dados (Article 29), grupo europeu independente que lidou com as questões relacionadas à proteção de dados e à privacidade antes da aplicação do GDPR, emitiu parecer sobre a Diretiva 2016/680. Nele, afirma-se que deve haver previsão de “critérios claros e transparentes para a avaliação da necessidade de conservar [...] dados pessoais, bem como de requisitos processuais, [...] com vista a evitar eventuais abusos” (ARTICLE 29, 2017, p. 4).
Como consequência, compreende-se que manter o
O princípio da transparência, conhecido também como princípio da
publicidade, é uma das formas de combater o uso abusivo de informações e
de permitir prestação de contas (
Um dos pontos mais controversos é sobre a definição de qual banco de
dados deve ser explorado e utilizado como referência para comparação de
Portanto, um dos pontos-chave para o bom funcionamento do RF é a
composição da lista de sujeitos de interesse (banco de dados ou
No entanto, usar as imagens de custódia como banco de dados para o RF
é complexo, já que uma grande parte das pessoas que são presas e têm uma
imagem de custódia obtida nunca é acusada ou condenada por nenhum crime.
No caso do Reino Unido, a organização
Segundo a ICO (2019, p. 17), as organizações policiais devem garantir que os dados constantes no banco de dados não sejam excessivos e que sejam utilizados somente quando estritamente necessário. Assim, nota-se que as salvaguardas da proteção de dados e dos direitos humanos apenas são cumpridas quando as forças policiais formam cuidadosamente a lista de sujeitos de interesse. Ou seja, buscam minimizar o número de pessoas em cada banco de dados e a quantidade de informações pessoais de cada pessoa e asseguram que a inclusão de novas pessoas seja feita com base no necessário para atender às finalidades do tratamento de dados.
No Brasil, a situação do sistema penal é peculiar pois há poucas
informações sobre o funcionamento da burocracia penal. Por exemplo, até
2018, o número de presos apenas era estimado e o juiz de direito era
pouco informado sobre a custódia do preso (CNJ, 2018, p. 9). Ainda, a
superlotação dos presídios é uma realidade em todo o país: em 2019,
existiam 441.147 vagas ocupadas por 733.460 pessoas (CNMP, 2020). Ainda
nesse sentido, “em 2016, o Supremo Tribunal Federal declarou o estado de
coisas inconstitucional em que estava o sistema penitenciário e
determinou providências administrativas” (CNJ, 2018, p. 9) e, no
julgamento do Recurso Extraordinário Nº 641.320/RS, foi indicado a
criação de um cadastro nacional de presos pelo Conselho Nacional da
Justiça.
Dessa forma, o CNJ estabeleceu o Banco Nacional de Monitoramento de
Prisões, em que “toda pessoa que passar pelo sistema prisional será
cadastrada no Banco e ganhará um registro nacional chamado RJI (Registro
Judicial Individual)” (CNJ, 2018, p. 22). Esse cadastro compila dados
pessoais do preso, como fotografia, cópia de documentos e outros dados
gerais. No contexto de implementação de RF, esse banco de dados se
assemelha ao modelo do Reino Unido, no qual, a fim de reconhecer o
indivíduo que passa por câmeras de vigilância, essa pessoa tem seu
Não obstante a necessidade de medidas que assegurem a proteção de
dados aos cidadãos e a transparência no uso da tecnologia, essa não foi
a realidade do caso de uso de câmeras com RF no carnaval de 2019 do Rio
de Janeiro. Neste exemplo, as imagens coletadas em 28 câmeras espalhadas
por Copacabana foram compiladas e transmitidas para o Centro Integrado
de Comando e Controle, onde houve a comparação dos
Quanto ao que deve ser informado e registrado pelo responsável do tratamento de dados, a Diretiva 2016/680, em seu art. 13º, assegura que informe-se ao titular alguns comunicados. O sujeito de dados deve saber sobre a finalidade do tratamento a que os dados pessoais se destinam e sobre o direito de solicitar a retificação de um dado pessoal que esteja incorreto. Ainda, para que haja transparência no processamento de dados, cabe ao responsável informar o fundamento jurídico do tratamento e o prazo de conservação dos dados ou, no mínimo, os critérios para definição desse período e os possíveis destinatários desses dados (art. 13º, nº 2). Logo, busca-se nitidez na relação entre o titular e o responsável pelo tratamento.
Além disso, o princípio da transparência é efetivado também por meio
do desenvolvimento de um relatório de impacto do uso da tecnologia no
âmbito da segurança pública. A diretiva europeia prevê essa avaliação, o
Diante do exposto, nota-se que a diretiva europeia prevê uma nova arquitetura de direitos aos titulares de dados e de atividades a serem cumpridas pelas autoridades estatais por conta do uso de novas tecnologias para efeitos de segurança pública. Assim, para que haja proteção aos dados dos titulares de forma similar ao exemplo europeu, recomenda-se que o processamento de dados sensíveis seja previsto e regulado em lei.
O uso do RF para finalidades que visem a garantia da segurança pública apresenta riscos para os direitos fundamentais do indivíduo, como a liberdade, a privacidade, a inviolabilidade da vida íntima, dentre outros aspectos. Esses riscos apontam para a possibilidade de violação de valores muito caros à sociedade moderna, a exemplo do direito de ir e vir e da garantia de igualdade entre os cidadãos. Para algumas autoridades estatais, como as da cidade de São Francisco (EUA), os riscos da tecnologia são maiores que os benefícios (CONGER; FAUSSET; KOVALESKI, 2019). Logo, é relevante pontuar essas possíveis ameaças para que sejam implementados mecanismos efetivos de mitigação desses riscos e de proteção de dados pessoais, ainda mais quando os objetos de tratamento são dados biométricos. Por isso, dentre vários riscos, analisou-se os riscos do RF que estão ligados com a não concretização dos princípios de finalidade e necessidade, que geram (i) vigilância massiva, e de transparência, que podem acarretar em (ii) erros de acurácia e (iii) existência de viés no algoritmo.
Em uma sociedade da informação, as pessoas constantemente informam seus dados e registram suas atividades em redes sociais e em plataformas de serviços como Netflix, Google Maps e Whatsapp. Por isso, algumas empresas possuem informações pessoais de milhares de usuários ao redor do mundo e, com o cruzamento de dados, é possível identificar padrões comportamentais e áreas de interesses individuais. Esse movimento também ocorre no setor público, em que o Estado processa dados dos cidadãos para diversas finalidades; uma delas é para a manutenção da segurança pública.
Assim, sob o fundamento de garantir segurança, “instituições governamentais armazenam e analisam dados, [...] gerenciando populações inteiras. Esta nova estruturação digital trouxe consigo a possibilidade de armazenar uma quantidade inimaginável de dados” (SCHNEIDER; MIRANDA, 2020, p. 6). Frisa-se que as consequências de tratamento de dados pessoais para segurança pública são de alto risco e podem acarretar na vigilância de toda uma população e, ainda, na prisão de pessoas. O uso indiscriminado do RF em câmeras no espaço público permite o estabelecimento de uma vigilância massiva em que o Estado é informado sobre o local o qual as pessoas frequentam, o tempo que passam em cada espaço e com quem se relacionam.
Nesse sentido, Bigo (2006, p. 47) percebeu a existência de um sistema
de vigilância no contexto pós 11 de setembro, em que se criou a sensação
de ameaça à segurança constante; o autor chamou esse conceito teórico de
O uso descontrolado de RF possibilita que as forças policiais identifiquem todas as pessoas que transitam em espaços públicos, como em marchas, eventos religiosos públicos, reuniões políticas, protestos ou manifestações públicas. Além disso, com o desenvolvimento da tecnologia, esses dados podem facilmente ser cruzados com outras informações pessoais presentes na internet (PRIVACY INTERNATIONAL, 2019). A exemplo: as pessoas que se relacionam com aquela identificada em redes sociais, os registros de saúde, as informações presentes nos bancos de dados de proteção ao crédito, o endereço de residência ou as preferências sexuais. Para ilustrar, os manifestantes que participaram dos protestos de Hong Kong em 2019 tiveram a preocupação de evitar que câmeras de RF funcionassem naquele contexto por meio do uso de laser, visto que isso permitiria identificação das pessoas no contexto político (TREVISAN, 2019).
Com a permanente vigilância e supervisão do Estado sob o pretexto de segurança, cria-se uma condição em que parte da liberdade das pessoas encontra-se ferida. Não há mais ampla autonomia para desenvolvimento da personalidade e para autodeterminar-se, visto que as pessoas estão sendo constantemente observadas. Além disso, os direitos de privacidade e inviolabilidade da intimidade, mesmo que exercidos em espaços públicos, são violados e, por isso, constrói-se um entendimento de que os dados pessoais, como as informações biométricas de uma pessoa, não estão mais sob os poderes do sujeito de dados, mas sob o controle do Estado, que decide livremente a forma de tratar essas informações.
Além disso, a vigilância exercida pelo uso da RF é potencializada, visto que é possível identificar uma pessoa independente de contato físico ou autorização prévia. Anteriormente, a pessoa identificada tinha conhecimento de estar sendo identificada e da finalidade à qual aquele dado estava sendo usado, como em pontos de fiscalização no trânsito ou na migração em um país. Porém, com o RF, é possível saber onde a pessoa se encontra sem ela saber que está sendo observada. Dessa forma, cada vez mais as pessoas estão sujeitas ao tratamento de dados biométricos e às verificações de identidade sem nem sequer estarem cientes disso. A falta de regulação e de determinação de uma finalidade específica para uso da tecnologia e o uso indevido de câmeras criam um estado de vigilância massiva.
Diante da falta de regulação, o ICO (2019, p. 3) evidencia os riscos do uso da tecnologia de RF para fins de segurança: o potencial de permitir a vigilância em larga escala e o impacto que isso tem sobre os direitos humanos e os direitos de informação das pessoas. O BBW (2018, p. 13) aponta que o uso indiscriminado de RF é uma ameaça à privacidade, porquanto câmeras com RF podem atuar como postos de controle para identificação biométrica. Esse tipo de uso da tecnologia não visa à manutenção da segurança pública, já que coleta informações não necessariamente úteis. Ainda, mesmo que a coleta fosse apenas de pessoas que cometeram crimes, é fundamental observar as devidas formas de tratamento em respeito à proteção de dados. A liberdade de expressão e o direito de realizar atividades diárias sem perturbações de autoridades estatais, ir aonde quiser e com quem quiser, e participar de eventos e manifestações são mitigados quando o uso de RF não é regulamentado (BBW, 2018, p. 13).
Quanto à vigilância massiva, a China desenvolveu um sistema próprio
de classificação dos cidadãos, o
A inexistência de um regulamento para proteger a privacidade dos cidadãos é uma das razões pela qual a China talvez tenha a maior quantidade de dados pessoais disponíveis e a mais avançada tecnologia em inteligência artificial habilitada para vigilância (MAURTVEDT, 2017, p. 19). Nesse sentido, o SCS reforça os princípios e os fundamentos da vigilância, induzindo os cidadãos chineses a um estado de vigilância permanente que garante a execução das funções do poder. No caso chinês, o poder detido pelo Estado é derivado da capacidade não juridicamente regulada de tratar informações e extrair conhecimentos de dados sobre os sujeitos, e, ainda, da possibilidade de restringir o acesso aos bens e serviços comuns (MAURTVEDT, 2017, p. 50).
Outro problema no uso da tecnologia de RF é o nível de inacurácia do sistema, ou seja, a porcentagem de vezes em que o RF falha, seja quando identifica uma pessoa errada ou não identifica sujeitos que eram procurados. Nota-se que um sistema com baixa acurácia produz resultados prejudiciais à população, ainda mais quando o uso dos dados está no âmbito da segurança.
Um relatório do BBW (2018, p. 3) indica que, no Reino Unido, 95% de
correspondências feitas por RF resultaram em identificação incorreta de
pessoas inocentes. Ou seja, do total de pessoas reconhecidas pelo
sistema como um
No Rio de Janeiro em 2019, uma mulher inocente foi confundida pelo sistema de RF com uma mulher que cometeu crimes; ela teve de ser conduzida à delegacia e só depois foi liberada. Neste caso, ainda um erro na formação do banco de dados da polícia foi evidenciado, pois a mulher que realmente estava sendo procurada já estava presa desde 2015, mas mesmo assim constava na lista de sujeitos de interesse da polícia (CORREIO, 2019). Com isso, a inacurácia do sistema é um erro que precisa ser endereçado.
Para evitar as consequências da inacurácia, é argumentado que a
pessoa a qual verifica a correspondência entre a face e o
Sobre aspectos técnicos, algumas características da imagem podem atrapalhar no bom funcionamento do RF, as principais são: iluminação, enquadramento do rosto, expressão facial, qualidade de imagem e envelhecimento facial. Além disso, alguns estudos apontam que grupos demográficos específicos de etnia, gênero e idade são mais susceptíveis a sofrerem erros no processo de RF (BUOLAMWINI; GEBRU, 2018, p. 1).
As entidades que lidam com RF sinalizam os aspectos discriminatórios
na forma de concepção da tecnologia. O desempenho dos algoritmos de RF
são prejudicados se os dados utilizados para treinamento da tecnologia,
os
Foi realizado um estudo com diferentes algoritmos de classificação de
gênero, idade e etnia diante de rostos para analisar se os algoritmos de
RF exibem vieses demográficos quando utilizados em grupos específicos
(KLARE
Portanto, treinar sistemas de RF em banco de dados demograficamente
bem distribuídos é fundamental para reduzir a vulnerabilidade de certos
grupos sociais diante de taxas de inacurácia elevada se comparada à
tentativa de reconhecer pessoas em um grupo de homens brancos. Outra
conclusão é que o desempenho do RF em grupos étnicos e de idade
específicos melhora quando o sistema é treinado exclusivamente para esse
grupo demográfico (KLARE
Da perspectiva do reconhecimento facial automatizado, o teste
realizado pelo
Ainda, uma pesquisa conduzida pelo
A principal explicação para a atuação diferente do RF em relação à cor de pele está no processo de treinamento do algoritmo de RF. Será mais fácil de reconhecer alguém do grupo de faces em que um algoritmo é treinado, pois ele possui familiaridade com os atributos faciais daquele grupo. Porém, quando esses grupos de rostos representam uma etnia de forma desproporcional, um algoritmo otimiza sua precisão para esse grupo em detrimento de outros (GARVIE; BEDOYA; FRANKLE, 2016). Portanto, as pesquisas evidenciam menor acurácia quando o RF é usado para identificar uma diversidade maior de pessoas, especificamente mulheres negras, visto que possuem atributos faciais distintos de homens brancos. Diante disso, é fundamental o estabelecimento de relatórios rigorosos sobre as métricas de desempenho da tecnologia para que haja transparência no funcionamento do algoritmo e possa haver debates sobre o uso ético do RF.
O tópico da discriminação, diante da existência de viés no algoritmo, ligada ao uso do RF é ainda mais sensível quando a tecnologia é usada para auxiliar a segurança pública de um país com diversas etnias e com um sistema penal racista. Um grupo demográfico sub-representado no conjunto de dados de referência do algoritmo de RF pode estar sujeito à identificação errônea frequente. Assim, é fundamental analisar as consequências do aumento da representação fenotípica e demográfica em conjuntos de dados faciais e na avaliação algorítmica.
Em suma, a atuação policial e o uso de novas tecnologias no âmbito do direito penal só serão legítimos e constitucionais se regulamentados em conformidade com os direitos constitucionais do devido processo legal, da privacidade e da proteção de dados do titular. Com isso, garante-se que, por mais relevante que a segurança pública, em sentido amplo, e o interesse público sejam, os direitos individuais não serão violados e não será instaurada situação de vigilância massiva e constante dos cidadãos. Nesse sentido, nota-se que a tecnologia de RF pode ser vista como instrumento conveniente, no entanto é primordial pensar nos novos desafios advindos pela utilização da tecnologia e na preservação de direitos fundamentais e de valores sociais relevantes, como a privacidade e o direito de ir e vir.
No contexto do RF, restou evidente que o uso dessa tecnologia expõe as pessoas a riscos elevados e peculiares, podendo ser identificadas mesmo sem aviso ou consentimento prévio. Esses riscos são ainda mais manifestos quando a tecnologia é utilizada para finalidades similares à segurança pública, já que essencialmente o direito penal é intrusivo, excepcional e possui papel de balizar e limitar o poder punitivo do Estado. Porém, se não houver regulamento adequado e direcionado para a proteção de dados, existe o risco iminente de a regra ser a vigilância digital, o controle e a penalização dos cidadãos. Não obstante o RF já estar sendo utilizado pelas forças policiais brasileiras, é fundamental a promulgação de uma legislação que proíba o uso da tecnologia nesse contexto ou, ao menos, que coíba o uso abusivo.
Diante do exposto, qualquer forma de regulamentação escolhida deve prever salvaguardas, especialmente sobre o princípio da finalidade, da necessidade e da transparência. O princípio da finalidade tem função específica de delinear as motivações legítimas de uso da tecnologia para aplicação na segurança e, de certa forma, minimizar a quantidade de dados coletados, armazenados e tratados pelo Estado. Quanto à necessidade, as informações pessoais devem ser atualizadas e tratadas apenas quando necessário e, quando não mais úteis, devem ser apagadas. O princípio da transparência garante que sejam assegurados os direitos dos titulares de dados, a atuação legal das forças policiais e a possibilidade de supervisão, e o controle do uso da tecnologia pela sociedade.
Como consequência, se uma lei autorizar o uso dos sistemas de RF na segurança pública, ela deve explicitar balizas de aplicação dos princípios de proteção de dados. Com isso, seria possível que a tecnologia fosse utilizada apenas para uma finalidade específica em um caso concreto determinado, nunca para atender uma motivação vaga ou imprecisa. Assim, a autoridade que utilizasse a tecnologia apenas faria tratamento de dados pessoais de pessoas de interesse por tempo em que houvesse necessidade, e nada além disso. Ainda, todo esse processo de utilização da tecnologia pelas autoridades policiais seria seguida de ampla transparência com todos os cidadãos para que pudesse haver escrutínio público sobre a proporcionalidade e a utilidade da tecnologia de reconhecimento facial.
Além disso, a observação de regulamentos específicos e da proteção de dados pessoais também tem como finalidade mitigar os riscos advindos pelo uso da tecnologia. A ameaça de concretização desses riscos põe em perigo direitos fundamentais previstos na Constituição brasileira e a liberdade básica do indivíduo. Os três principais riscos endereçados neste artigo são: a vigilância massiva, os erros de acurácia e a existência de viés no algoritmo. A vigilância potencializada pela desregulação no uso de RF coloca todos os cidadãos em um sistema de observação em que todos são suspeitos. Isso vai de encontro com garantias fundamentais e direitos de privacidade. Diante dos riscos do RF, é fundamental garantir uma frequência dos testes de acurácia e de precisão da tecnologia por meio de testes padronizados e independentes para analisar as taxas de erro diante de tendências étnicas e de gênero. Ainda, a falta de acurácia e a existência de, em regra, bases de dados de treinamento enviesadas possuem como consequência a discriminação de grupos que são mais prováveis de serem identificados erroneamente pelo RF. Logo, tecnologias que possuem esse viés não deveriam ser utilizadas de qualquer forma pelo poder público. Este apontamento se agrava diante do sistema criminal racista do Brasil.
Portanto, as consequências do uso do RF para a segurança são reconhecidas e devem ser melhor analisadas para que se entenda a possibilidade ou não de aplicação dessa tecnologia no âmbito da segurança pública no Brasil, país que possui sistema penal falho e segregacionista. No entanto, os efeitos do RF só serão devidamente alcançados se o uso for proporcional e se houver equilíbrio entre a privacidade dos indivíduos e a aplicação da lei. Não é desejável que se escolha um tema em detrimento do outro, como a segurança pública frente às liberdades humanas que possibilitam desenvolvimento autônomo da personalidade, visto que os malefícios dessa escolha atingem os valores de uma sociedade democrática e são de difícil compensação.
ARTICLE 29.
BARATTA, A.
BBC EARTH LAB.
BBW – Big Brother Watch.
BIGO, D. Security, Exception, Ban and Surveillance.
BITENCOURT, C. R.
BRASIL.
BUOLAMWINI, J.; GEBRU; T. Gender Shades: Intersectional Accuracy
Disparities in Commercial Gender Classification.
CÂMARA DOS DEPUTADOS. Comissão de Ciência e Tecnologia, Comunicação e
Informática.
CNJ – Conselho Nacional de Justiça.
CNMP – Conselho Nacional do Ministério Público.
CONGER, K.; FAUSSET, R.; KOVALESKI, S.
CORREIO. Inocente é confundida com criminosa por câmera de
reconhecimento facial no Rio.
DA SILVA, R. L.; DA SILVA, F. dos S. R. Reconhecimento facial e
segurança pública: os perigos do uso da tecnologia do sistema penal
seletivo brasileiro.
DONEDA, D.
EFF – Electronic Fontier Foudation.
GARVIE, C.; BEDOYA, A.; FRANKLE, J. The Perpetual Line-up.
Unregulated police face recognition in America.
GOOGLE CLOUD TECH.
GOV.BR.
ICO – Information Comissioner’s Office.
IPE - Instituto de Pesquisa Econômica Aplicada.
JIAQUAN, Z. Drones, facial recognition and a social credit system: 10
ways China watches its citizens.
JÚNIOR, J. Maia cria comissão de juristas para propor lei sobre uso
de dados pessoais em investigações.
KLARE, B. F.; BURGE, M. J.; KLONTZ, J. C.; BRUEGGE, R. W. V.; JAIN,
A. K
KRISHNA, A.
LAVADO, T. Aumento do uso de reconhecimento facial pelo poder público
no Brasil levanta debate sobre limites da tecnologia.
LISBOA, V. Câmeras de reconhecimento facial levam a prisões no
carnaval do Rio.
MA, A. China has started ranking citizens with a creepy 'social
credit' system — here's what you can do wrong, and the embarrassing,
demeaning ways they can punish you.
MANN, M.; SMITH, M. Automated Facial Recognition Technology: recent
developments and approaches to oversight.
MATSAKIS, L. How the West Got China's Social Credit System Wrong.
MAURTVEDT, M..
MENDES, L. S.
NIS - National Institute of Standards and Technology.
METRÔ. Metrô compra sistema de monitoramento eletrônico com
reconhecimento facial.
MOBIDEV.
PRIVACY INTERNATIONAL.
ROUSE, M.
SABBAGH, D. Facial recognition row: police gave King's Cross owner
images of seven people.
SCHNEIDER, C. B.; MIRANDA, P. F. M. Vigilância Digital como
instrumento de promoção da segurança pública.
THALES. Biometrics: authentication & identification (definition,
trends, use cases, laws and latest news) – 2020 Review.
TREVISAN, B. Manifestantes usam laser contra câmeras de
reconhecimento facial.
UNIÃO EUROPEIA. Diretiva (UE) 2016/680 do Parlamento Europeu e do
Conselho, de 27 de abril de 2016.
VETTORAZZO, L.; PITOMBO, J. P. Rio e Salvador terão sistema de
reconhecimento facial no Carnaval.
No Brasil, a Lei Nº 13.444/2017 criou o programa Identificação Civil Nacional que visa criar meios para a emissão do Documento Nacional de Identidade (DNI) digital para todos os brasileiros; essa identidade substitui outras formas de identificação que deram origem ao DNI ou nele foram mencionados.
O IPEA, órgão que registra dados sobre a violência no Brasil,
aponta que, em 2017, houve 65.602 homicídios. Ainda , em 2017, 75,5%
das vítimas de homicídios foram indivíduos negros, sendo que a taxa
de homicídios por 100 mil negros foi de 43,1. Para mais informações,
acesse:
CCTV, cujo significado é
Assim, está fora do escopo deste artigo os casos de tratamento posterior de um vídeo ou uma foto ao acontecimento de um ilícito ou algum crime, estas situações são diferentes do uso de RF para identificação de pessoas em tempo real.
Destaca-se o
A área penal “deve ser a
A característica de
O Considerando 29 da Diretiva 2016/680 afirma que “os dados pessoais deverão ser recolhidos para finalidades determinadas, explícitas e legítimas abrangidas pelo âmbito de aplicação da diretiva e não deverão ser tratados para fins incompatíveis com os da prevenção, investigação, deteção e repressão de infrações penais ou execução de sanções penais”.
Ainda que o tratamento de dados pessoais com técnicas de reconhecimento facial para fins de prevenção de crimes não seja escopo deste artigo, a questão de saber se certos dados cumpriram seus objetivos e não são mais necessários surge quando o armazenamento de dados é permitido para fim preventivo, em que deve haver uma avaliação de risco relativa desse tratamento.
No entanto, ainda questiona-se sobre a necessidade e a operabilidade de um banco de dados centralizado de forma nacional, visto que o sistema penitenciário brasileiro é significante e, por isso, trata informações pessoais de milhares de pessoas que estão em prisões por toda extensão do país.