<?xml version="1.0" encoding="utf-8" ?>
<!DOCTYPE article PUBLIC "-//NLM//DTD JATS (Z39.96) Journal Archiving and Interchange DTD v1.2 20190208//EN"
                  "JATS-archivearticle1.dtd">
<article xmlns:mml="http://www.w3.org/1998/Math/MathML" xmlns:xlink="http://www.w3.org/1999/xlink" dtd-version="1.2" article-type="other">
<front>
<journal-meta>
<journal-title-group>
</journal-title-group>
<publisher>
<publisher-name></publisher-name>
</publisher>
</journal-meta>
<article-meta>
</article-meta>
</front>
<body>
<p>Os grandes irmãos: o uso de tecnologias de reconhecimento facial para
persecução penal</p>
<p></p>
<p><bold>Eduarda Costa Almeida</bold></p>
<p>Estudante de direito da UnB, pesquisadora do LAPIN, pesquisadora do
Observatório da LGPD/UnB e CEDIS/IDP.</p>
<p><bold>País:</bold> Brasil <bold>Estado:</bold> Distrito Federal
<bold>Cidade:</bold> Brasília</p>
<p><bold>Email:</bold> <email>itseduardacosta@gmail.com</email>
<bold>Orcid:</bold> https://orcid.org/ 0000-0002-0575-611X</p>
<p></p>
<p><bold>Resumo</bold>: Este artigo analisa o uso de câmeras de
vigilância com a tecnologia de reconhecimento facial (RF) automatizado e
em tempo real para tratamento de dados na segurança pública e na
persecução penal. As ferramentas de RF estão cada vez mais sendo usadas
para auxiliar as atividades policiais, por isso é fundamental analisar
os parâmetros mínimos para um uso legítimo da tecnologia. Por meio da
análise de doutrinas, legislações, relatórios de casos concretos e
recomendações de autoridades de proteção de dados, este estudo busca
compreender o funcionamento do RF no âmbito da segurança pública, em
sentido amplo, e mapear os princípios a serem observados para mitigar
danos no uso do RF nessa área específica. A Diretiva 2016/680 da União
Europeia e os princípios nela elencados são direcionamentos relevantes
para uma possível regulamentação brasileira do uso de dados no âmbito da
segurança pública. Por fim, frisa-se os principais riscos do uso
indevido do RF e os danos já causados para que a legislação brasileira
se atente a esses erros.</p>
<p><bold>Palavras-chave</bold>: Segurança pública. Reconhecimento facial
em tempo real. Proteção de dados. Riscos. Viés algorítmico.</p>
<p>Facial recognition and public safety: how to ensure the protection of
personal data and avoid the risks of technology</p>
<p><bold>Abstract:</bold> This article analyzed the use of surveillance
cameras with automated and live facial recognition (FR) technology for
data processing within the scope of public security. RF tools are
increasingly being used to assist police activities, so it is essential
to analyze the minimum parameters for legitimate use of the technology.
Through reading doctrines, legislation, case reports and recommendations
from personal data protection authorities, this study sought to
understand the functioning of the FR and map the principles to be
observed to mitigate damage in the use of FR in public security. The
Directive 2016/680 of the European Union and the principles listed
therein are relevant directions for a possible Brazilian regulation of
the use of data in the scope of public security. Finally, the main risks
of the misuse of the FR and the damage already caused were stressed so
that Brazilian legislation can pay attention to these errors.</p>
<p><bold>Key-words:</bold> Public Security. Real-Time Facial
Recognition. Data Protection. Risks. Bias in the algorithm</p>
<p>Data de recbimento: 07/10/2020 Data de Aprovação: 07/04/2021</p>
<p>DOI: 10.31060/rbsp.2022.v16.n2.1377</p>
<p><bold>Introdução</bold></p>
<p>Atualmente, estamos vivendo em uma sociedade da informação, onde as
pessoas estão imersas em um ambiente de uso contínuo de diferentes
tecnologias que estão em constante desenvolvimento. Nesse sentido, para
que as pessoas possuam acesso a espaços e serviços digitais, elas,
continuamente, disponibilizam seus dados pessoais e “deixam rastros” no
mundo <italic>online</italic>. Nessa perspectiva, nota-se que esses
dados pessoais têm sido utilizados por empresas e governos para diversas
finalidades, a exemplo do marketing direcionado, das identidades
digitais<xref ref-type="fn" rid="fn1">1</xref> e da segurança pública,
em sentido amplo, que abarca tanto a persecução penal, atividade de
investigação, quanto a segurança pública em sentido estrito, atividade
de prevenção de crime.</p>
<p>Como consequência dessa realidade, percebeu-se a relevância de uma
lei que tutelasse o direito de privacidade e de proteção de dados dos
cidadãos. Por isso, em 2018, o Congresso Nacional brasileiro sancionou a
Lei Geral de Proteção de Dados (LGPD), que garante o tratamento de
informações de forma responsável e em observância aos princípios da
proteção de dados em diversos contextos.</p>
<p>No entanto, a LGPD não se aplica inteiramente aos casos de tratamento
de dados pessoais para fins exclusivamente de segurança pública (art.
4º, III, “a”). Ela prevê que a legislação específica a ser criada deverá
observar os princípios gerais de proteção de dados, os direitos do
titular e o devido processo legal. Ainda, essa futura lei deverá prever
medidas proporcionais e estritamente necessárias ao atendimento do
interesse público (art. 4º, § 1º). Dessa forma, por mais que a
tecnologia avance, é necessária regulação específica sobre o uso de
inovações aplicadas ao contexto de segurança pública a fim de evitar o
grande potencial de uso abusivo.</p>
<p>Assim, o governo brasileiro tem se movimentado para pensar em
estratégias de regulamentação do uso da tecnologia de Reconhecimento
Facial. A Câmara dos Deputados, em abril de 2019, realizou audiência
pública na Comissão de Ciência e Tecnologia, Comunicação e Informática
com participação de diversos setores da sociedade para discutir a
aplicação de reconhecimento facial para manutenção da segurança pública
(CÂMARA DOS DEPUTADOS, 2019). As posições defendidas foram controversas;
destaca-se a preocupação de organizações da sociedade civil com a
privacidade e a acurácia do sistema. Além disso, em novembro de 2019, a
Câmara dos Deputados instituiu uma comissão de juristas para elaborar
anteprojeto de legislação específica para o tratamento de dados pessoais
no âmbito da segurança pública (JÚNIOR, 2019).</p>
<p>Diante do exposto, nota-se que o Estado também é entidade que utiliza
e decide como utilizar as informações pessoais dos cidadãos, isto é,
exerce função de controlador de dados. Ainda, busca utilizar informações
dos cidadãos para promoção da segurança pública em vista do cenário de
elevada violência no Brasil<xref ref-type="fn" rid="fn2">2</xref> e da
relevância do tema para sociedade. Porém, esbarra-se na peculiaridade de
ser um tratamento de dados pessoais para prevenção, investigação,
deteção ou repressão de infrações penais ou execução de sanções
penais.</p>
<p>O uso de instrumentos tecnológicos para auxiliar a segurança pública
tem aplicações concretas já praticadas pelas autoridades estatais, como
as escutas telefônicas, o uso de câmeras de vigilância
CCTV<xref ref-type="fn" rid="fn3">3</xref> e o estudo estatístico para
atuação policial mais eficiente em áreas e horários específicos. Além
dessas ferramentas, também está em debate o uso da tecnologia de RF e se
ela é um instrumento válido para complementação da atividade
policial.</p>
<p>O uso de câmeras no carnaval do Rio de Janeiro, em 2019, com a
tecnologia de reconhecimento de objetos possibilitou a recuperação de um
veículo roubado. Ainda, no mesmo evento, o uso de câmeras com a
tecnologia de RF deu causa à prisão de quatro pessoas que possuíam
mandado de prisão em aberto (LISBOA, 2019). Em Salvador, no carnaval de
2019, um homem procurado pela polícia foi preso depois de ser
identificado pelo sistema de reconhecimento facial utilizado pela
polícia local (LAVADO, 2020). Outro exemplo é o da Companhia do
Metropolitano de São Paulo, que publicou, em 2019, edital de licitação
para implementação de um sistema de câmeras com RF para algumas linhas
de metrô da cidade (METRÔ, 2019). No entanto, existem diversas
controvérsias sobre a aplicação do RF que serão evidenciadas neste
artigo.</p>
<p>No exterior, a polícia metropolitana de Londres (MET) utilizou por
meses duas câmeras com RF no <italic>King’s Cross Central</italic>, um
dos locais mais visitados em Londres, sem informar às pessoas que
passavam pelo local e que tiveram seus dados coletados (SABBAGH, 2019).
Essa atuação levantou questionamentos que serão melhor explorados a
seguir. Em São Francisco, nos Estados Unidos, o órgão governamental
competente, <italic>The Board of Supervisors</italic>, baniu a
tecnologia de RF por oito votos contra um, visto o seu alto potencial de
uso abusivo e a consequência de uma vigilância opressiva e massiva
(CONGER; FAUSSET; KOVALESKI, 2019). Ainda, a IBM, uma das maiores
empresas de tecnologia do mundo, anunciou que deixará de investir em
tecnologias de RF, já que, segundo a empresa, esse instrumento está
sendo usado, majoritariamente, para controle social e opressão pelas
forças policiais (KRISHNA, 2020).</p>
<p>Diante do exposto, vários questionamentos são suscitados sobre se o
RF é uma tecnologia adequada a espaços democráticos diante da iminente
possibilidade de violações de direitos fundamentais. Sendo possível a
implementação de RF no âmbito da segurança pública, surge um debate
sobre as maneiras de regular o RF de forma a ser uma tecnologia útil e
que sua implementação esteja direcionada para a proteção de dados
pessoais dos titulares que cometeram crimes ou não.</p>
<p>Neste artigo, estudou-se o tratamento de imagem de câmeras com
tecnologia de RF em tempo real para fins de identificação de pessoas
envolvidas em investigações criminais e instruções processuais
penais.<xref ref-type="fn" rid="fn4">4</xref> Isso se diferencia do uso
do sistema de RF para finalidade de identificação de uma pessoa por meio
de imagem ou vídeo gravado, que não é verificado de forma instantânea,
ou seja, em tempo real. A fim de analisar criticamente a aplicação dos
princípios de proteção de dados e mapear os riscos diante do uso de
tecnologia de RF, utilizou-se metodologia de revisão bibliográfica
nacional e internacional sobre os desafios da tecnologia no âmbito
criminal já apresentados nas escassas informações divulgadas sobre o
assunto no Brasil. Assim, este artigo limitou-se a analisar os
princípios da finalidade, da necessidade e da transparência, já que são
basilares para a Diretiva 2016/680 da UE e são os que impactam
concretamente a forma de uso do RF na segurança pública. Com isso, serão
desenvolvidos estes três princípios, além dos três riscos associados a
não observância dessas medidas.</p>
<p><bold>Segurança pública no Brasil</bold></p>
<p>No Brasil, o tema da segurança pública está inserido em um cenário
mais amplo e, por isso, é necessário reconhecer alguns aspectos
peculiares das políticas públicas criminais e do sistema penitenciário
do país. Schneider e Miranda (2020, p. 4) afirmam que o Estado
brasileiro, “para executar o controle social, adota uma política de
segurança pública segregacionista e preconceituosa”. Com isso, pensar em
formas eficientes para manutenção da segurança pública perpassa pelo
problema brasileiro em que há um grupo social o qual deve ser reprimido
com coerção física e policial e um outro o qual deve ser protegido.
Sobre essa questão, Alessandro Baratta afirma a existência de, em regra,
duas classes: a classe dominante e a subalterna. A primeira “está
interessada na contenção do desvio em limites que não prejudiquem a
funcionalidade do sistema econômico-social e os próprios interesses e,
por conseqüência, na manutenção da própria hegemonia no processo
seletivo de definição e perseguição da criminalidade” (BARATTA, 2002, p.
197). Já a classe subalterna é aquela selecionada pelos mecanismos de
criminalização. Em suma, o sistema penal brasileiro é muito similar ao
descrito por Baratta, em que</p>
<disp-quote>
  <p>o sistema das imunidades e da criminalização seletiva incide em
  medida correspondente sobre o estado das relações de poder entre as
  classes, de modo a oferecer um salvo-conduto mais ou menos amplo para
  as práticas ilegais dos grupos dominantes, no ataque aos direitos das
  classes subalternas. (BARATTA, 2002, p. 198).</p>
</disp-quote>
<p>Ainda, é necessário refletir que temas relacionados à segurança
pública, inegavelmente, remetem às questões sobre as políticas criminais
adotadas pelo governo brasileiro e ao sistema penal seletivo que vigora
no país. Assim, “qualquer tecnologia pensada para melhorar a segurança
pública, além de considerar aspectos técnicos, precisa atentar para as
variáveis de raça que perpassarão a sua utilização” (DA SILVA; DA SILVA,
2019, p. 7). Logo, a aplicação da tecnologia de RF, vista como
prioridade para muitas autoridades brasileiras, possui mais uma
peculiaridade diante de um sistema criminal falho e segregacionista que
passa a lidar com dados delicados dos cidadãos.</p>
<p><bold>Aspectos técnicos do Reconhecimento Facial</bold></p>
<p>O reconhecimento facial é o resultado do uso de um algoritmo baseado
em visão computacional (<italic>computer vision</italic>) e aprendizado
de máquinas (<italic>machine learning</italic>), separado em dois
momentos (GOOGLE CLOUD TECH, 2018) que completam o processo de RF: o
reconhecimento do rosto humano, <italic>stricto sensu</italic>, e a
identificação da pessoa (MOBIDEV, 2019). Por meio de uma ramificação do
<italic>machine learning</italic>, o <italic>deep learning</italic>, a
capacidade de processamento de imagens foi desenvolvida a ponto de
possibilitar o RF automatizado em tempo real (BBC EARTH LAB, 2015).</p>
<p>O RF é um método de identificação de pessoas por meio de rostos
capturados em vídeos, fotos ou imagens coletadas em tempo real.
Majoritariamente, os sistemas de RF capturam e tratam dados considerados
relevantes e únicos, como a distância entre os olhos ou o formato do
queixo. Assim, à medida que as pessoas se movimentam por espaços
públicos que possuem câmeras de vigilância com RF, a tecnologia isola
imagens faciais e extrai dados contidos nelas. Esses dados são tratados
e convertidos em representações matemáticas conhecidas como <italic>face
template</italic>, uma assinatura facial. Essa assinatura, resultante de
tratamento de uma imagem capturada em tempo real, é comparada com outras
assinaturas disponíveis em uma base de dados de assinaturas faciais
(EFF, 2017). Essa base de dados é uma lista de
<italic>templates</italic> de pessoas que podem ser identificadas. No
contexto da segurança pública, esse banco de dados é preenchido com
assinaturas faciais de sujeitos de interesse.</p>
<p>O resultado do tratamento dos dados faciais é representado por uma
porcentagem de características semelhantes entre as duas assinaturas,
essa correspondência indica a probabilidade de a pessoa que passa por
uma câmera de vigilância ser ou não uma das pessoas que possuem
assinatura facial contida no banco de dados. Por isso, o resultado do
tratamento de dados pela tecnologia de RF não é binário, isto é, não
responde: sim, o rosto capturado corresponde ao
<italic>template</italic> existente no banco de dados; ou não, o
<italic>template</italic> do rosto capturado pela câmera não é similar a
nenhuma das assinaturas faciais contidas no banco de dados (BBW, 2018,
p. 6).</p>
<p>Ainda, quando a tecnologia é imprecisa na identificação da pessoa e o
resultado apresentado pelo RF é incorreto, ele se classifica em (i)
falsos negativos ou (ii) falsos positivos. Aqueles ocorrem quando o
sistema de RF falha na correspondência entre um rosto e uma assinatura
facial que, de fato, está contida em um banco de dados. Ou seja, o
sistema retornará erroneamente zero resultados em resposta a uma
consulta, sendo que existe um resultado válido. Já um falso positivo
ocorre quando o sistema reconhece a compatibilidade entre o
<italic>template</italic> de uma pessoa capturada em tempo real e um
<italic>template</italic> contido no banco de dados, mas a pessoa que
passou pela câmera de vigilância não é quem o sistema diz que ela é
(EFF, 2017).</p>
<p>É relevante notar que a existência de falsos negativos e falsos
positivos possui consequências relevantes para aplicação na segurança
pública. Por exemplo, no uso de RF, a incidência de falsos positivos
causam danos às pessoas não culpáveis, visto que a identificação errônea
de um inocente como uma pessoa que cometeu crime pode acarretar na
prisão da pessoa errada e, possivelmente, na condenação de um sujeito
que não cometeu nenhum crime. Não obstante, em caso de incidência de
falsos negativos, o prejuízo é o da não identificação de uma pessoa que
cometeu um crime.</p>
<p><bold>A natureza do dado tratado e a necessidade de
regulamentação</bold></p>
<p>A informação tratada pelo RF é dado biométrico, isto significa que a
tecnologia permite a identificação e a autenticação de pessoas baseada
em um conjunto de informações únicas e específicas para cada pessoa
(THALES, 2020). Nesse sentido, a informação facial é um dado
personalíssimo e singular a cada pessoa, como as digitais dos dedos, a
íris do olho e o DNA. De acordo com a LGPD, um dado biométrico, quando
vinculado a uma pessoa natural, é um dado sensível (art. 5º, II). Com
isso, a legislação destaca o tratamento de dados pessoais sensíveis, já
que caso esses “sejam conhecidos e submetidos a tratamento, podem se
prestar a uma potencial utilização discriminatória ou lesiva e que
apresentariam maiores riscos potenciais do que outros tipos de
informação” (DONEDA, 2019, p. 143).</p>
<p>Não é uníssona a possibilidade de uso de tecnologias de RF para a
manutenção de segurança pública. Como evidenciado no exemplo de São
Francisco (EUA), algumas autoridades e instituições entendem que os
riscos e os possíveis prejuízos do tratamento de dados sensíveis são
superiores aos benefícios trazidos pelo RF utilizado no âmbito da
segurança.<xref ref-type="fn" rid="fn5">5</xref> Não obstante, havendo a
possibilidade de usar RF, devem ser tomadas algumas medidas de precaução
e deve haver um marco regulatório que regulamente o uso de tecnologias
aplicáveis à segurança pública.</p>
<p>Nessa perspectiva, o impacto do tratamento indevido de dados faciais
de uma pessoa é significativo e os riscos de violação de direitos e
liberdade individuais são elevados. Ainda, o mau uso dos dados, quando
as finalidades do processamento estão no âmbito da segurança pública,
geram efeitos mais gravosos, já que o direito penal é <italic>ultima
ratio</italic><xref ref-type="fn" rid="fn6">6</xref> e é prerrogativa do
Estado contra atitudes extremas dos
cidadãos.<xref ref-type="fn" rid="fn7">7</xref> Desse modo, salvaguardas
específicas para o processamento de dados biométricos pelo Estado são
fundamentais. Assim, no contexto europeu, a Diretiva 2016/680 prevê as
peculiaridades a serem observadas no tratamento de dados pessoais para
finalidades de segurança pública (art. 3º, 13 e art. 10º, Diretiva
2016/680).</p>
<p><bold>A Diretiva 2016/680 da União Europeia</bold></p>
<p>Em 2016, o parlamento europeu e o conselho da UE estabeleceram a
Diretiva 2016/680 para regulamentar a proteção das pessoas físicas no
que diz respeito ao tratamento de dados pessoais pelas autoridades para
efeitos de segurança pública. A diretiva explicita os princípios
orientadores do tratamento de dados, como o princípio da segurança e
integridade da informação, da qualidade dos dados, da finalidade, da
necessidade e da transparência (art. 4º, nº 1). Estes três últimos serão
tratados de forma mais específica neste artigo porque interferem
diretamente no modo de uso do RF no âmbito da segurança pública, devem
ser respeitados por serem princípios de proteção de dados elencados na
LGPD e a observância deles está diretamente ligada com a garantia dos
direitos fundamentais. Em suma, a Diretiva 2016/680 da UE busca
assegurar o tratamento de informações pessoais para fins de segurança
pública de forma responsável diante da proteção de dados.</p>
<p><bold>Princípio da finalidade</bold></p>
<p>Um dos princípios norteadores da diretiva é o princípio da finalidade
(art. 4º, 1, b).<xref ref-type="fn" rid="fn8">8</xref> Este determina
que a coleta de dados pessoais deve ser feita para atingir finalidades
determinadas, explícitas e legítimas diante do escopo da segurança
pública. Em suma, as finalidades de tratamento de dados pessoais
autorizadas pela diretiva para se atingir a segurança pública são:
prevenção, investigação, deteção ou repressão de infrações penais ou
execução de sanções penais, incluindo a salvaguarda e a prevenção de
ameaças à segurança pública (art. 1º, nº 1).</p>
<p>Assim, as informações pessoais coletadas por câmeras de vigilância
para manutenção da segurança pública não poderão ser utilizadas para
qualquer outro fim. Ou seja, se a motivação para o uso da tecnologia é
segurança pública, o instrumento ou os dados coletados por ele não
poderão ser utilizados para outra finalidade. Alguns exemplos do uso de
câmeras em espaços públicos que não visam a segurança são: o mapeamento
de regiões populosas, a análise de horários em que o trânsito está
sobrecarregado ou o rastreamento de ônibus para informar aos passageiros
que a linha está atrasada. A coleta de dados para os fins anteriormente
citados não estão em conformidade com a segurança pública, com isso, não
é possível processar essas informações, ainda mais em caso de dados
sensíveis no contexto de RF autonomizado e em tempo real. Além disso, o
caminho inverso também é verdadeiro, os dados coletados para fins de
segurança não podem ser tratados para outras finalidades.</p>
<p>Com isso, nota-se que o princípio da finalidade é balizador de
algumas práticas no uso do RF para segurança pública, uma delas versa
sobre a finalidade do armazenamento de dados. Para efetivação do RF, é
necessário coletar informações das pessoas que se movimentam em espaços
públicos para que essas sejam comparadas com <italic>templates</italic>
de um banco de dados. Nesse sentido, são suscitados alguns
questionamentos sobre a necessidade de armazenamento e retenção dos
dados de todas as pessoas que circulam no local e, por isso, têm seus
dados coletados, inclusive daquelas que não cometeram crimes.</p>
<p>Em um estudo sobre o impacto do RF no Reino Unido, o
<italic>Information Commissioner’s Office</italic> (ICO), órgão inglês
para defensa dos direitos à informação, afirma que os dados pessoais
processados ​​para qualquer uma das finalidades de aplicação da lei, a
exemplo do tratamento para segurança pública, devem ser mantidos por não
mais do que o necessário para atingir a finalidade do processamento
(ICO, 2019, p. 29). Consequentemente, torna-se necessário identificar o
período de tempo em que forças policiais devem armazenar dados das
pessoas que passaram por um determinado local.</p>
<p>Sobre essa questão, o ICO analisou dois casos de uso de RF por duas
organizações policiais diferentes, a Metropolitan Police Service (MPS) e
a South Wales Police (SWP). Ambas deletaram os registros resultantes do
uso da tecnologia de RF após o processamento, exceto nos casos em que o
sistema encontrou correspondência entre o rosto analisado
instantaneamente e os <italic>templates</italic> contidos no banco de
dados da polícia. No caso da SWP, foram excluídos todos os registros no
final da implantação do RF, incluindo a imagem das pessoas reconhecidas,
a imagem dos falsos positivos e, ainda, os dados da lista de observação.
Já a MPS manteve registros por 30 dias, incluindo falsos positivos (ICO,
2019, p. 29). Esse cuidado de excluir os dados não usados evidencia que
o interesse para a segurança pública em manter imagens ou
<italic>templates</italic> de pessoas identificadas ou não como sujeitos
de interesse é injustificável e desproporcional.</p>
<p>Por fim, nota-se que nem todo uso de RF é autorizado para atender a
qualquer finalidade específica que vise alcançar a segurança pública.
Por exemplo, o fim de preservar a segurança não é alcançado quando o RF
é usado para determinar a dosimetria de pena a um indivíduo no sistema
de justiça criminal (BUOLAMWINI; GEBRU, 2018, p. 1). Finalidades
similares à segurança são atingidas apenas para identificar pessoas que
estão na lista de interesse da polícia e que poderão enfrentar um
processo judicial segundo o devido processo legal.</p>
<p><bold>Princípio da necessidade</bold></p>
<p>Para efetivação do princípio da necessidade, preza-se pela limitação
do tratamento ao mínimo necessário para a realização de suas finalidades
(GOV.BR, 2020, p. 14). Para adequada utilização de dados biométricos na
manutenção da segurança pública, é fundamental a observância do ciclo de
vida do dado pessoal. Em regra, este possui cinco fases: coleta,
retenção, processamento, compartilhamento e eliminação (GOV.BR, 2020, p.
41). Todas essas fases merecem cuidado específico no uso da tecnologia
de RF. Em conformidade com o ciclo e o princípio da necessidade,
frisa-se a relevância da fase de eliminação do dado. E regra, os dados
devem ser processados ​​até servirem à finalidade específica para a qual
foram coletados, e quando não forem mais necessários devem ser
excluídos.</p>
<p>Segundo o ICO (2019, p. 29), os dados processados ​​para fins de
aplicação da lei devem estar sujeitos aos cronogramas de retenção, ser
revisados periodicamente ​​e excluídos quando não for mais necessário
mantê-los.<xref ref-type="fn" rid="fn9">9</xref> A necessidade de
exclusão das informações pessoais é reconhecida também pela diretiva da
UE, esta determina que deve-se prever “prazos adequados para o
apagamento dos dados pessoais ou para a avaliação periódica da
necessidade de os conservar” (art. 5º, Diretiva 2016/680).</p>
<p>Além disso, o Grupo de Trabalho do Artigo 29º para a proteção de
dados (Article 29), grupo europeu independente que lidou com as questões
relacionadas à proteção de dados e à privacidade antes da aplicação do
GDPR, emitiu parecer sobre a Diretiva 2016/680. Nele, afirma-se que deve
haver previsão de “critérios claros e transparentes para a avaliação da
necessidade de conservar [...] dados pessoais, bem como de requisitos
processuais, [...] com vista a evitar eventuais abusos” (ARTICLE 29,
2017, p. 4).</p>
<p>Como consequência, compreende-se que manter o
<italic>template</italic> do rosto de uma pessoa que cometeu crime só é
relevante para fins de reconhecimento facial até o momento em que essa
pessoa está cumprindo sanção penal, já que após esse período, armazenar
o <italic>template</italic> não é mais útil ou necessário e o risco de
vazamento, compartilhamento ou uso indevido do dado é alto. Nesse
sentido, o Article 29 (2017, p. 6) propõe um sistema de exclusão
automática das informações pessoais quando o período máximo de
conservação expirar e de avaliação periódica para atender a proteção de
dados desde a conceção e o princípio da necessidade.</p>
<p><bold>Princípio da transparência</bold></p>
<p>O princípio da transparência, conhecido também como princípio da
publicidade, é uma das formas de combater o uso abusivo de informações e
de permitir prestação de contas (<italic>accountability</italic>) aos
titulares na construção de bancos de dados (MENDES, 2014, p. 71). Nesse
sentido, a aplicação desse princípio no contexto de uso do RF para
segurança pública implica a determinação de alguns parâmetros para
atuação policial. Com isso, as questões que serão analisadas neste
artigo são: (i) qual o banco de dados está sendo explorado pela polícia;
(ii) o que o responsável pelo tratamento deve informar e registrar; e
(iii) qual a necessidade de desenvolvimento de um relatório de impacto
pela uso da tecnologia de RF.</p>
<p>Um dos pontos mais controversos é sobre a definição de qual banco de
dados deve ser explorado e utilizado como referência para comparação de
<italic>templates</italic> faciais. Questiona-se se o banco de dados
adequado é o formado por todos os procurados pela polícia ou apenas por
sujeitos que cometeram crimes mais graves, ainda questiona-se se os não
condenados deveriam compor esse banco para RF. A extensão desse banco de
dados e como ele é constituído produz inferências relevantes para os
direitos de privacidade e proteção de dados. Primeiramente, se o
<italic>template</italic> de uma pessoa não está contido no banco de
dados da polícia, ela não poderá ser reconhecida mesmo que passe na rua
e tenha seus dados faciais tratados, visto que não haverá
correspondência entre o seu rosto e os <italic>templates</italic> do
banco de dados.</p>
<p>Portanto, um dos pontos-chave para o bom funcionamento do RF é a
composição da lista de sujeitos de interesse (banco de dados ou
<italic>watchlist</italic>) formada pelo <italic>template</italic>
biométrico dessas pessoas. No Reino Unido, as pessoas que compõem esse
banco de dados são aquelas detidas pela polícia. Nesse país, a Seção 64A
da Lei de Polícia e Evidência Penal de 1984 (PACE) fornece à polícia o
poder de tirar fotografias faciais de quem é detido após a prisão,
chamadas de imagens de custódia. Com isso, as forças policiais podem
fazer <italic>upload</italic> de imagens de custódia dos sistemas locais
para o banco de dados nacional da polícia, o <italic>Police National
Database</italic>.</p>
<p>No entanto, usar as imagens de custódia como banco de dados para o RF
é complexo, já que uma grande parte das pessoas que são presas e têm uma
imagem de custódia obtida nunca é acusada ou condenada por nenhum crime.
No caso do Reino Unido, a organização <italic>Big Brother Watch</italic>
(BBW) afirma que as forças policiais locais não sabem determinar quantas
pessoas estão na base de dados de imagens de custódia mas são inocentes
(BBW, 2018, p. 4). Por isso, a regulação brasileira para uso de
tecnologias na segurança pública deve se atentar a dois pontos.
Primeiro, deve ser determinado um procedimento para que a pessoa que
suspeita ter sua imagem mantida ilegalmente no banco de dados da polícia
possa solicitar a exclusão da imagem ou do <italic>template</italic>.
Segundo, deve haver mecanismos que possibilitem a exclusão automática
dos dados pessoais quando a pessoa que teve seus dados tratados não for
acusada ou condenada por nenhum crime.</p>
<p>Segundo a ICO (2019, p. 17), as organizações policiais devem garantir
que os dados constantes no banco de dados não sejam excessivos e que
sejam utilizados somente quando estritamente necessário. Assim, nota-se
que as salvaguardas da proteção de dados e dos direitos humanos apenas
são cumpridas quando as forças policiais formam cuidadosamente a lista
de sujeitos de interesse. Ou seja, buscam minimizar o número de pessoas
em cada banco de dados e a quantidade de informações pessoais de cada
pessoa e asseguram que a inclusão de novas pessoas seja feita com base
no necessário para atender às finalidades do tratamento de dados.</p>
<p>No Brasil, a situação do sistema penal é peculiar pois há poucas
informações sobre o funcionamento da burocracia penal. Por exemplo, até
2018, o número de presos apenas era estimado e o juiz de direito era
pouco informado sobre a custódia do preso (CNJ, 2018, p. 9). Ainda, a
superlotação dos presídios é uma realidade em todo o país: em 2019,
existiam 441.147 vagas ocupadas por 733.460 pessoas (CNMP, 2020). Ainda
nesse sentido, “em 2016, o Supremo Tribunal Federal declarou o estado de
coisas inconstitucional em que estava o sistema penitenciário e
determinou providências administrativas” (CNJ, 2018, p. 9) e, no
julgamento do Recurso Extraordinário Nº 641.320/RS, foi indicado a
criação de um cadastro nacional de presos pelo Conselho Nacional da
Justiça.<xref ref-type="fn" rid="fn10">10</xref></p>
<p>Dessa forma, o CNJ estabeleceu o Banco Nacional de Monitoramento de
Prisões, em que “toda pessoa que passar pelo sistema prisional será
cadastrada no Banco e ganhará um registro nacional chamado RJI (Registro
Judicial Individual)” (CNJ, 2018, p. 22). Esse cadastro compila dados
pessoais do preso, como fotografia, cópia de documentos e outros dados
gerais. No contexto de implementação de RF, esse banco de dados se
assemelha ao modelo do Reino Unido, no qual, a fim de reconhecer o
indivíduo que passa por câmeras de vigilância, essa pessoa tem seu
<italic>template</italic> comparado com o de uma pessoa que teve prisão
determinada.</p>
<p>Não obstante a necessidade de medidas que assegurem a proteção de
dados aos cidadãos e a transparência no uso da tecnologia, essa não foi
a realidade do caso de uso de câmeras com RF no carnaval de 2019 do Rio
de Janeiro. Neste exemplo, as imagens coletadas em 28 câmeras espalhadas
por Copacabana foram compiladas e transmitidas para o Centro Integrado
de Comando e Controle, onde houve a comparação dos
<italic>templates</italic> faciais com o banco de dados da Polícia Civil
e do Detran (VETTORAZZO; PITOMBO, 2019). Este órgão possui informações
fotográficas de todos os condutores de veículos do Estado, inclusive de
pessoas inocentes e que poderiam ter sido reconhecidas mesmo sem serem
sujeitos procurados pela polícia.</p>
<p>Quanto ao que deve ser informado e registrado pelo responsável do
tratamento de dados, a Diretiva 2016/680, em seu art. 13º, assegura que
informe-se ao titular alguns comunicados. O sujeito de dados deve saber
sobre a finalidade do tratamento a que os dados pessoais se destinam e
sobre o direito de solicitar a retificação de um dado pessoal que esteja
incorreto. Ainda, para que haja transparência no processamento de dados,
cabe ao responsável informar o fundamento jurídico do tratamento e o
prazo de conservação dos dados ou, no mínimo, os critérios para
definição desse período e os possíveis destinatários desses dados (art.
13º, nº 2). Logo, busca-se nitidez na relação entre o titular e o
responsável pelo tratamento.</p>
<p>Além disso, o princípio da transparência é efetivado também por meio
do desenvolvimento de um relatório de impacto do uso da tecnologia no
âmbito da segurança pública. A diretiva europeia prevê essa avaliação, o
<italic>Data Protection Impact Assessment.</italic> Ela indica que
deve-se descrever as operações no tratamento dos dados pessoais e
apresentar (i) os riscos para os direitos e para as liberdades dos
titulares dos dados; (ii) as medidas previstas para fazer face a esses
riscos; (iii) as garantias dos sujeitos previstas em lei; (iv) as
medidas de segurança; e (v) os mecanismos para assegurar a proteção dos
dados pessoais (art. 27º). Esse relatório é fundamental para que se
avalie o impacto que qualquer processamento de alto risco terá sobre
indivíduos e, mais importante, como especificamente buscar-se-á
minimizar esses riscos. Ainda, esse documento é essencial para as forças
policiais demonstrarem que o uso do RF está sobre o estritamente
necessário e que os requisitos e os princípios da proteção de dados
estão sendo atendidos (ICO, 2019, p. 23).</p>
<p>Diante do exposto, nota-se que a diretiva europeia prevê uma nova
arquitetura de direitos aos titulares de dados e de atividades a serem
cumpridas pelas autoridades estatais por conta do uso de novas
tecnologias para efeitos de segurança pública. Assim, para que haja
proteção aos dados dos titulares de forma similar ao exemplo europeu,
recomenda-se que o processamento de dados sensíveis seja previsto e
regulado em lei.</p>
<p><bold>Os riscos do RF</bold></p>
<p>O uso do RF para finalidades que visem a garantia da segurança
pública apresenta riscos para os direitos fundamentais do indivíduo,
como a liberdade, a privacidade, a inviolabilidade da vida íntima,
dentre outros aspectos. Esses riscos apontam para a possibilidade de
violação de valores muito caros à sociedade moderna, a exemplo do
direito de ir e vir e da garantia de igualdade entre os cidadãos. Para
algumas autoridades estatais, como as da cidade de São Francisco (EUA),
os riscos da tecnologia são maiores que os benefícios (CONGER; FAUSSET;
KOVALESKI, 2019). Logo, é relevante pontuar essas possíveis ameaças para
que sejam implementados mecanismos efetivos de mitigação desses riscos e
de proteção de dados pessoais, ainda mais quando os objetos de
tratamento são dados biométricos. Por isso, dentre vários riscos,
analisou-se os riscos do RF que estão ligados com a não concretização
dos princípios de finalidade e necessidade, que geram (i) vigilância
massiva, e de transparência, que podem acarretar em (ii) erros de
acurácia e (iii) existência de viés no algoritmo.</p>
<p><bold>Ocorrência de vigilância massiva</bold></p>
<p>Em uma sociedade da informação, as pessoas constantemente informam
seus dados e registram suas atividades em redes sociais e em plataformas
de serviços como Netflix, Google Maps e Whatsapp. Por isso, algumas
empresas possuem informações pessoais de milhares de usuários ao redor
do mundo e, com o cruzamento de dados, é possível identificar padrões
comportamentais e áreas de interesses individuais. Esse movimento também
ocorre no setor público, em que o Estado processa dados dos cidadãos
para diversas finalidades; uma delas é para a manutenção da segurança
pública.</p>
<p>Assim, sob o fundamento de garantir segurança, “instituições
governamentais armazenam e analisam dados, [...] gerenciando populações
inteiras. Esta nova estruturação digital trouxe consigo a possibilidade
de armazenar uma quantidade inimaginável de dados” (SCHNEIDER; MIRANDA,
2020, p. 6). Frisa-se que as consequências de tratamento de dados
pessoais para segurança pública são de alto risco e podem acarretar na
vigilância de toda uma população e, ainda, na prisão de pessoas. O uso
indiscriminado do RF em câmeras no espaço público permite o
estabelecimento de uma vigilância massiva em que o Estado é informado
sobre o local o qual as pessoas frequentam, o tempo que passam em cada
espaço e com quem se relacionam.</p>
<p>Nesse sentido, Bigo (2006, p. 47) percebeu a existência de um sistema
de vigilância no contexto pós 11 de setembro, em que se criou a sensação
de ameaça à segurança constante; o autor chamou esse conceito teórico de
<italic>ban-opticon</italic>. Quando esse sistema utiliza instrumentos
tecnológicos e é amplamente aplicado, se torna uma nova versão do
conceito de panóptico de Foucault. Assim, “fundando-se em [...] dados
biométricos e técnicas digitais de reconhecimento facial, o banóptico é
capaz de realizar o controle social por intermédio da identificação
preventiva de indivíduos” (SCHNEIDER; MIRANDA, 2020, p. 6). Dessa forma,
há uma preocupação do uso do RF trazer demasiada vigilância a ponto de
subtrair as liberdades individuais.</p>
<p>O uso descontrolado de RF possibilita que as forças policiais
identifiquem todas as pessoas que transitam em espaços públicos, como em
marchas, eventos religiosos públicos, reuniões políticas, protestos ou
manifestações públicas. Além disso, com o desenvolvimento da tecnologia,
esses dados podem facilmente ser cruzados com outras informações
pessoais presentes na internet (PRIVACY INTERNATIONAL, 2019). A exemplo:
as pessoas que se relacionam com aquela identificada em redes sociais,
os registros de saúde, as informações presentes nos bancos de dados de
proteção ao crédito, o endereço de residência ou as preferências
sexuais. Para ilustrar, os manifestantes que participaram dos protestos
de Hong Kong em 2019 tiveram a preocupação de evitar que câmeras de RF
funcionassem naquele contexto por meio do uso de laser, visto que isso
permitiria identificação das pessoas no contexto político (TREVISAN,
2019).</p>
<p>Com a permanente vigilância e supervisão do Estado sob o pretexto de
segurança, cria-se uma condição em que parte da liberdade das pessoas
encontra-se ferida. Não há mais ampla autonomia para desenvolvimento da
personalidade e para autodeterminar-se, visto que as pessoas estão sendo
constantemente observadas. Além disso, os direitos de privacidade e
inviolabilidade da intimidade, mesmo que exercidos em espaços públicos,
são violados e, por isso, constrói-se um entendimento de que os dados
pessoais, como as informações biométricas de uma pessoa, não estão mais
sob os poderes do sujeito de dados, mas sob o controle do Estado, que
decide livremente a forma de tratar essas informações.</p>
<p>Além disso, a vigilância exercida pelo uso da RF é potencializada,
visto que é possível identificar uma pessoa independente de contato
físico ou autorização prévia. Anteriormente, a pessoa identificada tinha
conhecimento de estar sendo identificada e da finalidade à qual aquele
dado estava sendo usado, como em pontos de fiscalização no trânsito ou
na migração em um país. Porém, com o RF, é possível saber onde a pessoa
se encontra sem ela saber que está sendo observada. Dessa forma, cada
vez mais as pessoas estão sujeitas ao tratamento de dados biométricos e
às verificações de identidade sem nem sequer estarem cientes disso. A
falta de regulação e de determinação de uma finalidade específica para
uso da tecnologia e o uso indevido de câmeras criam um estado de
vigilância massiva.</p>
<p>Diante da falta de regulação, o ICO (2019, p. 3) evidencia os riscos
do uso da tecnologia de RF para fins de segurança: o potencial de
permitir a vigilância em larga escala e o impacto que isso tem sobre os
direitos humanos e os direitos de informação das pessoas. O BBW (2018,
p. 13) aponta que o uso indiscriminado de RF é uma ameaça à privacidade,
porquanto câmeras com RF podem atuar como postos de controle para
identificação biométrica. Esse tipo de uso da tecnologia não visa à
manutenção da segurança pública, já que coleta informações não
necessariamente úteis. Ainda, mesmo que a coleta fosse apenas de pessoas
que cometeram crimes, é fundamental observar as devidas formas de
tratamento em respeito à proteção de dados. A liberdade de expressão e o
direito de realizar atividades diárias sem perturbações de autoridades
estatais, ir aonde quiser e com quem quiser, e participar de eventos e
manifestações são mitigados quando o uso de RF não é regulamentado (BBW,
2018, p. 13).</p>
<p>Quanto à vigilância massiva, a China desenvolveu um sistema próprio
de classificação dos cidadãos, o <italic>Social Credit System</italic>
(SCS), que possibilita a integração de sistemas de crédito, punição,
recompensa e identidade do indivíduo. Em suma, os indivíduos são
rastreados por câmeras de vigilância e são classificados em quatro
áreas: atividades comerciais, comportamentos sociais, interesse
administrativo e cumprimento das leis (MAURTVEDT, 2017, p. 16). Com
isso, por meio dessas notas, consequências são aplicadas aos cidadãos,
por exemplo, mais de nove milhões de chineses com notas baixas nesse
sistema não puderam comprar passagens em voos domésticos (MA, 2018).
Especificamente sobre o RF, a China está desenvolvendo mecanismos que
comparam, de forma automática e instantânea, rostos com mais de 1,3
bilhões de fotos de identificação em segundos para auxiliar o
rastreamento dos cidadãos (JIAQUAN, 2018). Ainda, o site do SCS já
encoraja os cidadãos a informarem seus dados faciais para o sistema por
meio de fotos do rosto, sendo assim, mais uma informação seria
incorporada ao grande banco de dados chinês (MATSAKIS, 2019).</p>
<p>A inexistência de um regulamento para proteger a privacidade dos
cidadãos é uma das razões pela qual a China talvez tenha a maior
quantidade de dados pessoais disponíveis e a mais avançada tecnologia em
inteligência artificial habilitada para vigilância (MAURTVEDT, 2017, p.
19). Nesse sentido, o SCS reforça os princípios e os fundamentos da
vigilância, induzindo os cidadãos chineses a um estado de vigilância
permanente que garante a execução das funções do poder. No caso chinês,
o poder detido pelo Estado é derivado da capacidade não juridicamente
regulada de tratar informações e extrair conhecimentos de dados sobre os
sujeitos, e, ainda, da possibilidade de restringir o acesso aos bens e
serviços comuns (MAURTVEDT, 2017, p. 50).</p>
<p><bold>Erros de acurácia</bold></p>
<p>Outro problema no uso da tecnologia de RF é o nível de inacurácia do
sistema, ou seja, a porcentagem de vezes em que o RF falha, seja quando
identifica uma pessoa errada ou não identifica sujeitos que eram
procurados. Nota-se que um sistema com baixa acurácia produz resultados
prejudiciais à população, ainda mais quando o uso dos dados está no
âmbito da segurança.</p>
<p>Um relatório do BBW (2018, p. 3) indica que, no Reino Unido, 95% de
correspondências feitas por RF resultaram em identificação incorreta de
pessoas inocentes. Ou seja, do total de pessoas reconhecidas pelo
sistema como um <italic>template</italic> contido na base de dados, 95%
eram falsos positivos. A incidência da baixa acurácia gera efeitos na
atuação policial quanto às questões sobre o princípio da finalidade e
necessidade de armazenamento de fotos das pessoas. Diante da alta
porcentagem de inacurácia, mesmo que as forças policiais apaguem todas
as imagens que não tiveram correspondência no uso de RF, armazenar as
fotos de todas as pessoas que correspondiam com banco de dados não é
suficiente para proteção de dados. Nesse caso, 95% das fotos mantidas
pela polícia não estariam atendendo à finalidade da segurança pública,
visto que os índices de erro do sistema são elevados.</p>
<p>No Rio de Janeiro em 2019, uma mulher inocente foi confundida pelo
sistema de RF com uma mulher que cometeu crimes; ela teve de ser
conduzida à delegacia e só depois foi liberada. Neste caso, ainda um
erro na formação do banco de dados da polícia foi evidenciado, pois a
mulher que realmente estava sendo procurada já estava presa desde 2015,
mas mesmo assim constava na lista de sujeitos de interesse da polícia
(CORREIO, 2019). Com isso, a inacurácia do sistema é um erro que precisa
ser endereçado.</p>
<p>Para evitar as consequências da inacurácia, é argumentado que a
pessoa a qual verifica a correspondência entre a face e o
<italic>template</italic>, majoritariamente policiais, poderia ser
treinada para compreender o sistema de RF em uso e perceber quando
deve-se abordar a pessoa potencialmente identificada. No entanto,
existem no mínimo dois impasses: na maioria das vezes, os templates do
banco de dados não estão associados à fotografia da pessoa procurada,
mas apenas à representação matemática da foto; e as forças policiais não
possuem um treinamento especializado para tomarem melhores decisões com
o RF (EFF, 2017). O ICO (2019, p. 31) frisa a necessidade de revisão de
políticas de privacidade, práticas de governança, procedimentos e
treinamentos da atuação policial, além da necessidade de práticas de
avaliação de risco à proteção de dados pessoais tendo em vista o uso de
novas tecnologias.</p>
<p>Sobre aspectos técnicos, algumas características da imagem podem
atrapalhar no bom funcionamento do RF, as principais são: iluminação,
enquadramento do rosto, expressão facial, qualidade de imagem e
envelhecimento facial. Além disso, alguns estudos apontam que grupos
demográficos específicos de etnia, gênero e idade são mais susceptíveis
a sofrerem erros no processo de RF (BUOLAMWINI; GEBRU, 2018, p. 1).</p>
<p><bold>Existência de viés no algoritmo</bold></p>
<p>As entidades que lidam com RF sinalizam os aspectos discriminatórios
na forma de concepção da tecnologia. O desempenho dos algoritmos de RF
são prejudicados se os dados utilizados para treinamento da tecnologia,
os <italic>templates</italic> faciais, não forem representativos (KLARE
<italic>et al</italic>., 2012, p. 1791). O ICO (2019, p. 33) pontua que
o sistema pode possuir viés se as faces que foram utilizadas no
treinamento do algoritmo não tiverem uma representatividade equilibrada
da população, ou seja, se as variações de cor e etnia não forem
observadas. Logo, a taxa de precisão e acurácia será diferente para
rostos que o sistema não foi treinado e, por isso, não está
familiarizado.</p>
<p>Foi realizado um estudo com diferentes algoritmos de classificação de
gênero, idade e etnia diante de rostos para analisar se os algoritmos de
RF exibem vieses demográficos quando utilizados em grupos específicos
(KLARE <italic>et al</italic>., 2012, p. 1789). Notou-se variações para
pior no desempenho do RF quando exposto a grupos demográficos
representativos, isto é, com grande presença de pessoas variadas, como
mulheres, negros e jovens. Após a avaliação dos diferentes algoritmos de
classificação pelo rosto, confirmou-se que eles não apenas apresentam
desempenho significativamente pior em certos cortes demográficos, como
consistentemente apresentam pior performance nos mesmos grupos, sempre
entre mulheres, negros e indivíduos mais jovens, entre 18 e 31 anos
(KLARE <italic>et al</italic>., 2012, p. 1789).</p>
<p>Portanto, treinar sistemas de RF em banco de dados demograficamente
bem distribuídos é fundamental para reduzir a vulnerabilidade de certos
grupos sociais diante de taxas de inacurácia elevada se comparada à
tentativa de reconhecer pessoas em um grupo de homens brancos. Outra
conclusão é que o desempenho do RF em grupos étnicos e de idade
específicos melhora quando o sistema é treinado exclusivamente para esse
grupo demográfico (KLARE <italic>et al</italic>., 2012, p. 1800).</p>
<p>Da perspectiva do reconhecimento facial automatizado, o teste
realizado pelo <italic>National Institute of Standards and
Technology</italic> (NIST), agência governamental estadunidense sobre
inovação e competitividade tecnológica, (2019, p. 7) apontou que os
algoritmos de RF têm variações na acurácia dependendo do grupo
demográfico de um sujeito. Entre outras descobertas, este estudo
demonstrou que os falsos positivos são entre 2 e 5 vezes maiores em
mulheres que em homens, variando de acordo com o algoritmo, país de
origem e idade (NIST, 2019, p. 7). Este aumento está presente para a
maioria dos algoritmos e conjunto de dados (<italic>datasets</italic>)
testados pelo NIST. Ainda, a menor taxa de falso positivo ocorre com
indivíduos europeus (NIST, 2019, p. 7), que são majoritariamente
brancos.</p>
<p>Ainda, uma pesquisa conduzida pelo <italic>Massachusetts Institute of
Technology</italic> (MIT) aponta que algoritmos comercializados para a
fase de reconhecimento de rostos erram em classificar mulheres negras em
até 34,7%, e homens brancos em, no máximo, 0,8% (BUOLAMWINI; GEBRU,
2018, p. 1). A performance de algoritmos de classificação de gênero foi
melhor em pessoas com cor de pele mais clara. Com exemplo, a taxa de
erro de algoritmos da Microsoft foi de 12,9% em pessoas de pele negra e
0,7% em pessoas de pele clara, já algoritmos da IBM tiveram taxas de
erro superiores a 22% em pessoas de pele negra (BUOLAMWINI; GEBRU, 2018,
p. 10).</p>
<p>A principal explicação para a atuação diferente do RF em relação à
cor de pele está no processo de treinamento do algoritmo de RF. Será
mais fácil de reconhecer alguém do grupo de faces em que um algoritmo é
treinado, pois ele possui familiaridade com os atributos faciais daquele
grupo. Porém, quando esses grupos de rostos representam uma etnia de
forma desproporcional, um algoritmo otimiza sua precisão para esse grupo
em detrimento de outros (GARVIE; BEDOYA; FRANKLE, 2016). Portanto, as
pesquisas evidenciam menor acurácia quando o RF é usado para identificar
uma diversidade maior de pessoas, especificamente mulheres negras, visto
que possuem atributos faciais distintos de homens brancos. Diante disso,
é fundamental o estabelecimento de relatórios rigorosos sobre as
métricas de desempenho da tecnologia para que haja transparência no
funcionamento do algoritmo e possa haver debates sobre o uso ético do
RF.</p>
<p>O tópico da discriminação, diante da existência de viés no algoritmo,
ligada ao uso do RF é ainda mais sensível quando a tecnologia é usada
para auxiliar a segurança pública de um país com diversas etnias e com
um sistema penal racista. Um grupo demográfico sub-representado no
conjunto de dados de referência do algoritmo de RF pode estar sujeito à
identificação errônea frequente. Assim, é fundamental analisar as
consequências do aumento da representação fenotípica e demográfica em
conjuntos de dados faciais e na avaliação algorítmica.</p>
<p><bold>Conclusão</bold></p>
<p>Em suma, a atuação policial e o uso de novas tecnologias no âmbito do
direito penal só serão legítimos e constitucionais se regulamentados em
conformidade com os direitos constitucionais do devido processo legal,
da privacidade e da proteção de dados do titular. Com isso, garante-se
que, por mais relevante que a segurança pública, em sentido amplo, e o
interesse público sejam, os direitos individuais não serão violados e
não será instaurada situação de vigilância massiva e constante dos
cidadãos. Nesse sentido, nota-se que a tecnologia de RF pode ser vista
como instrumento conveniente, no entanto é primordial pensar nos novos
desafios advindos pela utilização da tecnologia e na preservação de
direitos fundamentais e de valores sociais relevantes, como a
privacidade e o direito de ir e vir.</p>
<p>No contexto do RF, restou evidente que o uso dessa tecnologia expõe
as pessoas a riscos elevados e peculiares, podendo ser identificadas
mesmo sem aviso ou consentimento prévio. Esses riscos são ainda mais
manifestos quando a tecnologia é utilizada para finalidades similares à
segurança pública, já que essencialmente o direito penal é intrusivo,
excepcional e possui papel de balizar e limitar o poder punitivo do
Estado. Porém, se não houver regulamento adequado e direcionado para a
proteção de dados, existe o risco iminente de a regra ser a vigilância
digital, o controle e a penalização dos cidadãos. Não obstante o RF já
estar sendo utilizado pelas forças policiais brasileiras, é fundamental
a promulgação de uma legislação que proíba o uso da tecnologia nesse
contexto ou, ao menos, que coíba o uso abusivo.</p>
<p>Diante do exposto, qualquer forma de regulamentação escolhida deve
prever salvaguardas, especialmente sobre o princípio da finalidade, da
necessidade e da transparência. O princípio da finalidade tem função
específica de delinear as motivações legítimas de uso da tecnologia para
aplicação na segurança e, de certa forma, minimizar a quantidade de
dados coletados, armazenados e tratados pelo Estado. Quanto à
necessidade, as informações pessoais devem ser atualizadas e tratadas
apenas quando necessário e, quando não mais úteis, devem ser apagadas. O
princípio da transparência garante que sejam assegurados os direitos dos
titulares de dados, a atuação legal das forças policiais e a
possibilidade de supervisão, e o controle do uso da tecnologia pela
sociedade.</p>
<p>Como consequência, se uma lei autorizar o uso dos sistemas de RF na
segurança pública, ela deve explicitar balizas de aplicação dos
princípios de proteção de dados. Com isso, seria possível que a
tecnologia fosse utilizada apenas para uma finalidade específica em um
caso concreto determinado, nunca para atender uma motivação vaga ou
imprecisa. Assim, a autoridade que utilizasse a tecnologia apenas faria
tratamento de dados pessoais de pessoas de interesse por tempo em que
houvesse necessidade, e nada além disso. Ainda, todo esse processo de
utilização da tecnologia pelas autoridades policiais seria seguida de
ampla transparência com todos os cidadãos para que pudesse haver
escrutínio público sobre a proporcionalidade e a utilidade da tecnologia
de reconhecimento facial.</p>
<p>Além disso, a observação de regulamentos específicos e da proteção de
dados pessoais também tem como finalidade mitigar os riscos advindos
pelo uso da tecnologia. A ameaça de concretização desses riscos põe em
perigo direitos fundamentais previstos na Constituição brasileira e a
liberdade básica do indivíduo. Os três principais riscos endereçados
neste artigo são: a vigilância massiva, os erros de acurácia e a
existência de viés no algoritmo. A vigilância potencializada pela
desregulação no uso de RF coloca todos os cidadãos em um sistema de
observação em que todos são suspeitos. Isso vai de encontro com
garantias fundamentais e direitos de privacidade. Diante dos riscos do
RF, é fundamental garantir uma frequência dos testes de acurácia e de
precisão da tecnologia por meio de testes padronizados e independentes
para analisar as taxas de erro diante de tendências étnicas e de gênero.
Ainda, a falta de acurácia e a existência de, em regra, bases de dados
de treinamento enviesadas possuem como consequência a discriminação de
grupos que são mais prováveis de serem identificados erroneamente pelo
RF. Logo, tecnologias que possuem esse viés não deveriam ser utilizadas
de qualquer forma pelo poder público. Este apontamento se agrava diante
do sistema criminal racista do Brasil.</p>
<p>Portanto, as consequências do uso do RF para a segurança são
reconhecidas e devem ser melhor analisadas para que se entenda a
possibilidade ou não de aplicação dessa tecnologia no âmbito da
segurança pública no Brasil, país que possui sistema penal falho e
segregacionista. No entanto, os efeitos do RF só serão devidamente
alcançados se o uso for proporcional e se houver equilíbrio entre a
privacidade dos indivíduos e a aplicação da lei. Não é desejável que se
escolha um tema em detrimento do outro, como a segurança pública frente
às liberdades humanas que possibilitam desenvolvimento autônomo da
personalidade, visto que os malefícios dessa escolha atingem os valores
de uma sociedade democrática e são de difícil compensação.</p>
<p><bold>REFERÊNCIAS BIBLIOGRÁFICAS</bold></p>
<p>ARTICLE 29. <bold>Parecer sobre algumas questões importantes da
Diretiva relativa à proteção de dados na aplicação da lei (Diretiva [UE]
2016/680)</bold>. 2017. Disponível em:
<ext-link ext-link-type="uri" xlink:href="https://ec.europa.eu/newsroom/article29/item-detail.cfm?item_id=610178">https://ec.europa.eu/newsroom/article29/item-detail.cfm?item_id=610178</ext-link>.
Acesso em: 5 maio 2020.</p>
<p>BARATTA, A. <bold>Criminologia Crítica e Crítica do Direito
Penal</bold>: introdução à sociologia do direito penal. Tradução: Juarez
Cirino dos Santos. 3 ed. Rio de Janeiro: Editora Revan, Instituto
Carioca de Criminologia, 2002.</p>
<p>BBC EARTH LAB. <bold>How Does Facial Recognition Work? | Brit
Lab</bold>. Canal do Youtube, 26 nov. 2015. Disponível em:
<ext-link ext-link-type="uri" xlink:href="https://www.youtube.com/watch?v=1aHub80AHFk">https://www.youtube.com/watch?v=1aHub80AHFk</ext-link>.
Acesso em: 24 jul. 2020.</p>
<p>BBW – Big Brother Watch. <bold>Face Off: the lawless growth of facial
recognition in UK policing</bold>. maio 2018. Disponível em:
<ext-link ext-link-type="uri" xlink:href="https://bigbrotherwatch.org.uk/wp-content/uploads/2018/05/Face-Off-final-digital-1.pdf">https://bigbrotherwatch.org.uk/wp-content/uploads/2018/05/Face-Off-final-digital-1.pdf</ext-link>.
Acesso em: 5 maio 2020.</p>
<p>BIGO, D. Security, Exception, Ban and Surveillance.
<italic>In:</italic> LYON, D. <bold>Theorizing Surveillance</bold>. The
Panopticon and beyond. Reino Unido: Wilan, 2006, p. 46-68.</p>
<p>BITENCOURT, C. R. <bold>Tratado de Direito Penal</bold>: parte geral.
v. 1, 19 ed. São Paulo: Saraiva Educação, 2019.</p>
<p>BRASIL. <bold>Lei Nº 13.444</bold>, de 11 de maio de 2017. Dispõe
sobre a Identificação Civil Nacional (ICN). Disponível em:
<ext-link ext-link-type="uri" xlink:href="http://www.planalto.gov.br/ccivil_03/_ato2015-2018/2017/lei/l13444.htm">http://www.planalto.gov.br/ccivil_03/_ato2015-2018/2017/lei/l13444.htm</ext-link>.
5 maio 2021.</p>
<p>BUOLAMWINI, J.; GEBRU; T. Gender Shades: Intersectional Accuracy
Disparities in Commercial Gender Classification. <bold>Conference on
Fairness, Accountability, and Transparency</bold>, Proceedings of
Machine Learning Research, v. 81, p. 1-15, 2018.</p>
<p>CÂMARA DOS DEPUTADOS. Comissão de Ciência e Tecnologia, Comunicação e
Informática. <bold>Audiência Pública Ordinária 03/04/2019</bold>.
Disponível em:
<ext-link ext-link-type="uri" xlink:href="https://www.camara.leg.br/evento-legislativo/54893">https://www.camara.leg.br/evento-legislativo/54893</ext-link>.
Acesso em: 5 maio 2020.</p>
<p>CNJ – Conselho Nacional de Justiça. <bold>Banco Nacional de
Monitoramento de Prisões</bold> – BNMP 2.0: Cadastro Nacional de Presos.
Brasília: CNJ, ago. 2018. Disponível em:
<ext-link ext-link-type="uri" xlink:href="https://www.cnj.jus.br/wp-content/uploads/2018/01/57412abdb54eba909b3e1819fc4c3ef4.pdf">https://www.cnj.jus.br/wp-content/uploads/2018/01/57412abdb54eba909b3e1819fc4c3ef4.pdf</ext-link>.
Acesso em: 7 maio 2020.</p>
<p>CNMP – Conselho Nacional do Ministério Público. <bold>Sistema
Prisional em números</bold>. 2020. Disponível em:
<ext-link ext-link-type="uri" xlink:href="https://www.cnmp.mp.br/portal/relatoriosbi/sistema-prisional-em-numeros">https://www.cnmp.mp.br/portal/relatoriosbi/sistema-prisional-em-numeros</ext-link>.
Acesso em: 15 maio 2020.</p>
<p>CONGER, K.; FAUSSET, R.; KOVALESKI, S. <bold>San Francisco Bans
Facial Recognition Technology</bold>. The New Yorl Times, 14 maio 2019.
Disponível em:
<ext-link ext-link-type="uri" xlink:href="https://www.nytimes.com/2019/05/14/us/facial-recognition-ban-san-francisco.html">https://www.nytimes.com/2019/05/14/us/facial-recognition-ban-san-francisco.html</ext-link>.
Acesso em: 5 maio 2020.</p>
<p>CORREIO. Inocente é confundida com criminosa por câmera de
reconhecimento facial no Rio. <bold>Correio</bold>, Da redação, 11 jul.
2019. Disponível em:
<ext-link ext-link-type="uri" xlink:href="https://www.correio24horas.com.br/noticia/nid/inocente-e-confundida-com-criminosa-por-camera-de-reconhecimento-facial-no-rio/">https://www.correio24horas.com.br/noticia/nid/inocente-e-confundida-com-criminosa-por-camera-de-reconhecimento-facial-no-rio/</ext-link>.
Acesso em: 8 maio 2020.</p>
<p>DA SILVA, R. L.; DA SILVA, F. dos S. R. Reconhecimento facial e
segurança pública: os perigos do uso da tecnologia do sistema penal
seletivo brasileiro. <bold>Anais do 5º Congresso Internacional de
Direito e Contemporaneidade</bold>: Mídias e Direitos da Sociedade em
Rede. Santa Maria/RS, 2019.</p>
<p>DONEDA, D. <bold>Da privacidade à proteção de dados pessoais</bold>:
elementos da formação da Lei geral de proteção de dados. 2 ed. São
Paulo: Thomson Reuters Brasil, 2019.</p>
<p>EFF – Electronic Fontier Foudation. <bold>Face Recognition</bold>.
2017. Disponível em:
<ext-link ext-link-type="uri" xlink:href="https://www.eff.org/pages/face-recognition">https://www.eff.org/pages/face-recognition</ext-link>.
Acesso em: 5 maio 2020.</p>
<p>GARVIE, C.; BEDOYA, A.; FRANKLE, J. The Perpetual Line-up.
Unregulated police face recognition in America. <bold>Center on Privacy
&amp; Technology at Georgetown Law</bold>, 18 out. 2016. Disponível em:
<ext-link ext-link-type="uri" xlink:href="https://www.perpetuallineup.org/findings/racial-bias#footnote223_i485k1t">https://www.perpetuallineup.org/findings/racial-bias#footnote223_i485k1t</ext-link>.
Acesso em: 12 maio 2020.</p>
<p>GOOGLE CLOUD TECH. <bold>How Computer Vision Works</bold>. Canal do
Youtube, 19 abr. 2018 Disponível em:
<ext-link ext-link-type="uri" xlink:href="https://www.youtube.com/watch?v=OcycT1Jwsns&amp;t=32s">https://www.youtube.com/watch?v=OcycT1Jwsns&amp;t=32s</ext-link>.
Acesso em: 24 jul. 2020.</p>
<p>GOV.BR. <bold>Guia de Boas Práticas</bold> – Lei Geral de Proteção de
Dados (LGPD). ago. 2020. Disponível em:
<ext-link ext-link-type="uri" xlink:href="https://www.gov.br/governodigital/pt-br/governanca-de-dados/guia-lgpd.pdf">https://www.gov.br/governodigital/pt-br/governanca-de-dados/guia-lgpd.pdf</ext-link>.
Acesso em: 6 maio 2020.</p>
<p>ICO – Information Comissioner’s Office. <bold>ICO investigation into
how the police use facial recognition technology in public
places</bold>. 31 out. 2019. Disponível em:
<ext-link ext-link-type="uri" xlink:href="https://ico.org.uk/media/about-the-ico/documents/2616185/live-frt-law-enforcement-report-20191031.pdf">https://ico.org.uk/media/about-the-ico/documents/2616185/live-frt-law-enforcement-report-20191031.pdf</ext-link>.
Acesso: 6 maio 2020.</p>
<p>IPE - Instituto de Pesquisa Econômica Aplicada. <bold>Atlas da
Violência,</bold> v. 2.7. 2019. Disponível em:
<ext-link ext-link-type="uri" xlink:href="https://www.ipea.gov.br/atlasviolencia/download/19/atlas-da-violencia-2019">https://www.ipea.gov.br/atlasviolencia/download/19/atlas-da-violencia-2019</ext-link>.
Acesso em: 8 maio 2021.</p>
<p>JIAQUAN, Z. Drones, facial recognition and a social credit system: 10
ways China watches its citizens. <bold>South China Morning Post, People
&amp; Culture</bold>, 4 ago. 2018. Disponível em:
<ext-link ext-link-type="uri" xlink:href="https://www.scmp.com/news/china/society/article/2157883/drones-facial-recognition-and-social-credit-system-10-ways-china">https://www.scmp.com/news/china/society/article/2157883/drones-facial-recognition-and-social-credit-system-10-ways-china</ext-link>.
Acesso em: 8 maio 2020.</p>
<p>JÚNIOR, J. Maia cria comissão de juristas para propor lei sobre uso
de dados pessoais em investigações. <bold>Portal da Câmara dos
Deputados</bold>, Notícias, 27 nov. 2019. Disponível em:
<ext-link ext-link-type="uri" xlink:href="https://www.camara.leg.br/noticias/618483-maia-cria-comissao-de-juristas-para-propor-lei-sobre-uso-de-dados-pessoais-em-investigacoes/">https://www.camara.leg.br/noticias/618483-maia-cria-comissao-de-juristas-para-propor-lei-sobre-uso-de-dados-pessoais-em-investigacoes/</ext-link>.
Acesso em: 25 jul. 2020.</p>
<p>KLARE, B. F.; BURGE, M. J.; KLONTZ, J. C.; BRUEGGE, R. W. V.; JAIN,
A. K<italic>.</italic> Face Recognition Performance: Role of Demographic
Information. <bold>IEEE Transactions on Information Forensics and
Security</bold>, v. 7, n. 6, p. 1789-1801, dez. 2012.</p>
<p>KRISHNA, A. <bold>IBM CEO’s Letter to Congress on Racial Justice
Reform</bold>. IBM, 8 jun. 2020. Disponível em:
<ext-link ext-link-type="uri" xlink:href="https://www.ibm.com/blogs/policy/facial-recognition-sunset-racial-justice-reforms/">https://www.ibm.com/blogs/policy/facial-recognition-sunset-racial-justice-reforms/</ext-link>.
Acesso em: 5 set. 2020.</p>
<p>LAVADO, T. Aumento do uso de reconhecimento facial pelo poder público
no Brasil levanta debate sobre limites da tecnologia. <bold>G1</bold>,
Economia, Tecnologia, 21 fev. 2020. Disponível em:
<ext-link ext-link-type="uri" xlink:href="https://g1.globo.com/economia/tecnologia/noticia/2020/02/21/aumento-do-uso-de-reconhecimento-facial-pelo-poder-publico-no-brasil-levanta-debate-sobre-limites-da-tecnologia.ghtml">https://g1.globo.com/economia/tecnologia/noticia/2020/02/21/aumento-do-uso-de-reconhecimento-facial-pelo-poder-publico-no-brasil-levanta-debate-sobre-limites-da-tecnologia.ghtml</ext-link>.
Acesso em: 5 maio 2020.</p>
<p>LISBOA, V. Câmeras de reconhecimento facial levam a prisões no
carnaval do Rio. <bold>Agência Brasil</bold>, Rio de Janeiro, 8 mar.
2019. Disponível em:
<ext-link ext-link-type="uri" xlink:href="https://agenciabrasil.ebc.com.br/geral/noticia/2019-03/cameras-de-reconhecimento-facial-levam-4-prisoes-no-carnaval-do-rio">https://agenciabrasil.ebc.com.br/geral/noticia/2019-03/cameras-de-reconhecimento-facial-levam-4-prisoes-no-carnaval-do-rio</ext-link>.
Acesso em: 5 maio 2020.</p>
<p>MA, A. China has started ranking citizens with a creepy 'social
credit' system — here's what you can do wrong, and the embarrassing,
demeaning ways they can punish you. <bold>Business Insider</bold>,
Internationaal, 30 out. 2018. Disponível em:
<ext-link ext-link-type="uri" xlink:href="https://www.businessinsider.com/china-social-credit-system-punishments-and-rewards-explained-2018-4">https://www.businessinsider.com/china-social-credit-system-punishments-and-rewards-explained-2018-4</ext-link>.
Acesso em: 8 maio 2020.</p>
<p>MANN, M.; SMITH, M. Automated Facial Recognition Technology: recent
developments and approaches to oversight. <bold>UNSW Law Journal</bold>,
v. 40, n. 1, p. 121-145, 2017.</p>
<p>MATSAKIS, L. How the West Got China's Social Credit System Wrong.
<bold>Wired</bold>, Security, 29 jul. 2019. Disponível em:
<ext-link ext-link-type="uri" xlink:href="https://www.wired.com/story/china-social-credit-score-system/">https://www.wired.com/story/china-social-credit-score-system/</ext-link>.
Acesso em: 8 maio 2020.</p>
<p>MAURTVEDT, M.. <bold>The Chinese Social Credit System</bold>.
Surveillance and Social Manipulation: A Solution to “Moral Decay”?. Tese
(Doutorado em Sociedade e Política Chinesa) – Department of Culture
Studies and Oriental Languages, University of Oslo, Norway, 2017.</p>
<p>MENDES, L. S. <bold>Privacidade, proteção de dados e defesa do
consumidor</bold>: linhas gerais de um novo direito fundamental. São
Paulo: Saraiva, 2014, cap. 1, p. 23 -78.</p>
<p>NIS - National Institute of Standards and Technology. <bold>Face
Recognition Vendor Test (FRVT) Part 3: Demographic Effects</bold>. 2019.
Disponível em:
<ext-link ext-link-type="uri" xlink:href="https://nvlpubs.nist.gov/nistpubs/ir/2019/NIST.IR.8280.pdf">https://nvlpubs.nist.gov/nistpubs/ir/2019/NIST.IR.8280.pdf</ext-link>.
Acesso em: 5 maio 2021.</p>
<p>METRÔ. Metrô compra sistema de monitoramento eletrônico com
reconhecimento facial. <bold>Metrô</bold>, Notícias, 2019. Disponível
em:
<ext-link ext-link-type="uri" xlink:href="http://www.metro.sp.gov.br/noticias/28-06-2019-metro-compra-sistema-de-monitoramento-eletronico-com-reconhecimento-facial.fss">http://www.metro.sp.gov.br/noticias/28-06-2019-metro-compra-sistema-de-monitoramento-eletronico-com-reconhecimento-facial.fss</ext-link>.
Acesso em: 5 maio 2020.</p>
<p>MOBIDEV. <bold>Face Detection &amp; Recognition Software based on
Machine Learning</bold>. Canal do Youtube, 22 maio 2019. Disponível em:
<ext-link ext-link-type="uri" xlink:href="https://www.youtube.com/watch?v=X7_ojlEXnWc">https://www.youtube.com/watch?v=X7_ojlEXnWc</ext-link>.
Acesso em: 24 jul. 2020.</p>
<p>PRIVACY INTERNATIONAL. <bold>Protecting Civic Spaces</bold>. 1 maio
2019. Disponível em:
<ext-link ext-link-type="uri" xlink:href="https://privacyinternational.org/long-read/2852/protecting-civic-spaces">https://privacyinternational.org/long-read/2852/protecting-civic-spaces</ext-link>.
Acesso em: 8 maio 2020.</p>
<p>ROUSE, M. <bold>CCTV (closed circuit television)</bold>. WhatIs,
TechTarget, 2012. Disponível em:
<ext-link ext-link-type="uri" xlink:href="https://whatis.techtarget.com/definition/CCTV-closed-circuit-television">https://whatis.techtarget.com/definition/CCTV-closed-circuit-television</ext-link>.
Acesso em: 15 maio 2020.</p>
<p>SABBAGH, D. Facial recognition row: police gave King's Cross owner
images of seven people. <bold>The Guardian</bold>, Technology, 4 out.
2019. Disponível em:
<ext-link ext-link-type="uri" xlink:href="https://www.theguardian.com/technology/2019/oct/04/facial-recognition-row-police-gave-kings-cross-owner-images-seven-people">https://www.theguardian.com/technology/2019/oct/04/facial-recognition-row-police-gave-kings-cross-owner-images-seven-people</ext-link>.
Acesso em: 11 out. 2019.</p>
<p>SCHNEIDER, C. B.; MIRANDA, P. F. M. Vigilância Digital como
instrumento de promoção da segurança pública. <bold>Publicatio UEPG –
Ciências Sociais Aplicadas</bold>, Ponta Grossa/RS, v. 28, p. 1-14,
2020.</p>
<p>THALES. Biometrics: authentication &amp; identification (definition,
trends, use cases, laws and latest news) – 2020 Review.
<bold>Thales</bold>, 2020. Disponível em:
<ext-link ext-link-type="uri" xlink:href="https://www.thalesgroup.com/en/markets/digital-identity-and-security/government/inspired/biometrics">https://www.thalesgroup.com/en/markets/digital-identity-and-security/government/inspired/biometrics</ext-link>.
Acesso em: 5 maio 2020.</p>
<p>TREVISAN, B. Manifestantes usam laser contra câmeras de
reconhecimento facial. <bold>Olhar Digital</bold>, Notícias, 1 ago.
2019. Disponível em:
<ext-link ext-link-type="uri" xlink:href="https://olhardigital.com.br/noticia/manifestantes-usam-laser-contra-cameras-de-reconhecimento-facial/88677">https://olhardigital.com.br/noticia/manifestantes-usam-laser-contra-cameras-de-reconhecimento-facial/88677</ext-link>.
Acesso em: 25 jul. 2020.</p>
<p>UNIÃO EUROPEIA. Diretiva (UE) 2016/680 do Parlamento Europeu e do
Conselho, de 27 de abril de 2016. <bold>Jornal Oficial da União
Europeia</bold>, 4 maio 2016. Disponível em:
<ext-link ext-link-type="uri" xlink:href="https://eur-lex.europa.eu/legal-content/PT/TXT/PDF/?uri=CELEX:32016L0680&amp;from=EN">https://eur-lex.europa.eu/legal-content/PT/TXT/PDF/?uri=CELEX:32016L0680&amp;from=EN</ext-link>.
Acesso em: 6 maio 2020.</p>
<p>VETTORAZZO, L.; PITOMBO, J. P. Rio e Salvador terão sistema de
reconhecimento facial no Carnaval. <bold>Folha de S. Paulo</bold>,
Cotidiano, 27 fev. 2019. Disponível em:
<ext-link ext-link-type="uri" xlink:href="https://www1.folha.uol.com.br/cotidiano/2019/02/rio-e-salvador-terao-sistema-de-reconhecimento-facial-no-carnaval.shtml">https://www1.folha.uol.com.br/cotidiano/2019/02/rio-e-salvador-terao-sistema-de-reconhecimento-facial-no-carnaval.shtml</ext-link>.
Acesso em: 7 maio 2020.</p>
</body>
<back>
<fn-group>
  <fn id="fn1">
    <p>No Brasil, a Lei Nº 13.444/2017 criou o programa Identificação
    Civil Nacional que visa criar meios para a emissão do Documento
    Nacional de Identidade (DNI) digital para todos os brasileiros; essa
    identidade substitui outras formas de identificação que deram origem
    ao DNI ou nele foram mencionados.</p>
  </fn>
  <fn id="fn2">
    <p>O IPEA, órgão que registra dados sobre a violência no Brasil,
    aponta que, em 2017, houve 65.602 homicídios. Ainda , em 2017, 75,5%
    das vítimas de homicídios foram indivíduos negros, sendo que a taxa
    de homicídios por 100 mil negros foi de 43,1. Para mais informações,
    acesse:
    <ext-link ext-link-type="uri" xlink:href="https://www.ipea.gov.br/atlasviolencia/download/19/atlas-da-violencia-2019">https://www.ipea.gov.br/atlasviolencia/download/19/atlas-da-violencia-2019</ext-link>.</p>
  </fn>
  <fn id="fn3">
    <p>CCTV, cujo significado é <italic>Closed Circuit
    Television</italic>, é um sistema de câmeras no qual os sinais não
    são distribuídos publicamente, mas são monitorados, principalmente
    para fins de vigilância e segurança. As câmeras de CCTV recebem a
    designação &quot;circuito fechado&quot;, ou seja, o acesso ao seu
    conteúdo é limitado apenas àqueles que podem vê-lo (ROUSE,
    2012).</p>
  </fn>
  <fn id="fn4">
    <p>Assim, está fora do escopo deste artigo os casos de tratamento
    posterior de um vídeo ou uma foto ao acontecimento de um ilícito ou
    algum crime, estas situações são diferentes do uso de RF para
    identificação de pessoas em tempo real.</p>
  </fn>
  <fn id="fn5">
    <p>Destaca-se o <italic>The Board of Supervisors de São
    Francisco</italic> (EUA), a organização britânica <italic>Big
    Brother Watch</italic> e a Rede de Observatórios da Segurança.
    Ainda, algumas pesquisas usadas como referências bibliográficas para
    este estudo apontam para os riscos iminentes do uso indiscriminado
    do reconhecimento facial na área da segurança pública para a
    liberdade dos cidadãos.</p>
  </fn>
  <fn id="fn6">
    <p>A área penal “deve ser a <italic>ultima ratio</italic> do sistema
    normativo, isto é, deve atuar somente quando os demais ramos do
    Direito revelarem-se incapazes de dar a tutela devida aos bens
    relevantes na vida do indivíduo e da própria sociedade.”
    (BITENCOURT, 2019, p. 58). Por isso, o tratamento de dados no âmbito
    da segurança pública também deve ser visto como excepcional.</p>
  </fn>
  <fn id="fn7">
    <p>A característica de <italic>ultima ratio</italic> está em
    conformidade com o princípio da intervenção mínima, isso quer dizer
    que o direito penal possui aspecto de responsabilização subsidiário,
    ele apenas existe nos ambientes em que os outros meios de controle
    social (civil e administrativo) não são suficientes para penalizar o
    sujeito. Então, adota-se medidas excepcionais.</p>
  </fn>
  <fn id="fn8">
    <p>O Considerando 29 da Diretiva 2016/680 afirma que “os dados
    pessoais deverão ser recolhidos para finalidades determinadas,
    explícitas e legítimas abrangidas pelo âmbito de aplicação da
    diretiva e não deverão ser tratados para fins incompatíveis com os
    da prevenção, investigação, deteção e repressão de infrações penais
    ou execução de sanções penais”.</p>
  </fn>
  <fn id="fn9">
    <p>Ainda que o tratamento de dados pessoais com técnicas de
    reconhecimento facial para fins de prevenção de crimes não seja
    escopo deste artigo, a questão de saber se certos dados cumpriram
    seus objetivos e não são mais necessários surge quando o
    armazenamento de dados é permitido para fim preventivo, em que deve
    haver uma avaliação de risco relativa desse tratamento.</p>
  </fn>
  <fn id="fn10">
    <p>No entanto, ainda questiona-se sobre a necessidade e a
    operabilidade de um banco de dados centralizado de forma nacional,
    visto que o sistema penitenciário brasileiro é significante e, por
    isso, trata informações pessoais de milhares de pessoas que estão em
    prisões por toda extensão do país.</p>
  </fn>
</fn-group>
</back>
</article>
