A Prefeitura de São Paulo informou na última semana que retomou a licitação do programa Smart Sampa para a instalação de 20 mil câmeras inteligentes que possuem a tecnologia de reconhecimento facial. Ao menos 2.500 destes equipamentos serão colocados na região central da capital com o objetivo de melhorar a segurança da área.
A estrutura contaria também com uma central de monitoramento, na qual será capaz identificar um cidadão a partir de reconhecimento facial. Seriam utilizados como base de dados as imagens capturadas por instituições no momento da geração de documentos, como, por exemplo, a CNI (Carteira Nacional de Identidade) ou CNH (Carteira Nacional de Habilitação).
Esse cruzamento entre a imagem captada pela câmera na rua e o banco de dados da Prefeitura de São Paulo será feito por um software. Um alerta será disparado quando a tecnologia identificar alguma pessoa com pendências com a Justiça, por exemplo.
O poder executivo municipal afirma que será necessária uma paridade de 90% ou mais para que seja emitido o sinal, que ainda precisaria ser validado por um operador treinado sob "padrões internacionais". Caso confirmado, o agente enviaria as informações de identidade e localização para os órgãos competentes, como a Polícia Militar e Civil.
Especialistas entrevistados pelo R7 alertam para questões de desenvolvimento deste tipo de software, o qual muitas vezes tem dificuldade de diferenciar com precisão traços de grupos rotineiramente marginalizados pela sociedade, como pretos e latinos.
“É muito fácil que o algoritmo seja treinado de forma que tenha um preconceito, já que as pessoas [que desenvolvem estes programas] podem ser preconceituosas”, explica Marcelo Crespo, coordenador do curso de Direito da ESPM e especialista em Direito Digital e Penal. “A grande base de dados precisa ser construída com muita cautela e muita ressalva.”
O TCM (Tribunal de Contas do Município), inclusive, apontou em relatórios preliminares uma preocupação acerca do Smart Sampa, que poderia violar os direitos de negros e da população LBQIA+. A questão também é trazida pela professora associada do Instituto de Computação da UFF (Universidade Federal Fluminense) Aline Paes.
“Importar um software treinado com dados globais, ou de algum grupo sócio demográfico que não represente alguma parcela da população brasileira, é um problema enorme. Isto porque já foi mostrado em diversas pesquisas que os dados de treinamento disponibilizados publicamente possuem vieses de cor e gênero.”
2.500 câmeras serão instaladas no centro de SP
EDU GARCIA/R7 - 19.04.2023Os softwares deste tipo são construídos a partir de modelos de aprendizado. Quanto mais vezes estes programas se depararam com rostos ou características, maior é a capacidade deles de interpretarem diferenças ou similaridades.
A grande questão que envolve este tipo de software para questões de segurança e emissão de chamados é justamente quem os desenvolve. A máquina aprende justamente aquilo para o qual ela é treinada, se tornando uma espécie de extensão de quem a desenvolveu.
“Alguns sistemas confundem pessoas com animais, o que aponta uma exclusão de grupos que por muitas vezes já são excluídos e marginalizados, ainda mais em uma sociedade tão desigual como a brasileira. Assim, o primeiro passo desse processo seria treinar os algoritmos com dados de brasileiros”, reforça Paes.
Outra discussão que existe em relação a este tipo de tecnologia é o monitoramento em massa da sociedade urbana, transformando a cidade em uma espécie de reality show. Crespo explica que os cidadãos podem ir até a Justiça caso se sintam afetados de alguma forma por este tipo de recurso do poder público.
“Em regra, a população poderia recorrer contra abusos no uso das imagens captadas. Em princípio, deveria recorrer até administrativamente à própria prefeitura, caso tomasse conhecimento de uma situação que lhes fosse prejudicial. Em última instância, procurar Defensoria Pública, Ministério Público, enfim, até a imprensa para esse tipo de situação.”
Ainda segundo Crespo, as imagens registradas por essas câmeras, além de deflagrar alertas por mandados abertos no sistema, podem flagrar crimes no momento em que acontecem. Este tipo de material pode ser utilizado, inclusive, em tribunais.
“A rigor, qualquer tipo de prova pode ser utilizada num julgamento, inclusive as imagens obtidas em câmeras do Smart Sampa. Não há nada que proíba isso. Em cada processo, quem faz essa avaliação é o juiz da causa”, conta o especialista em Direito Digital e Penal.
Para Paes, a discussão sobre esse monitoramento ostensivo das autoridades é profundo e complexo. Apesar das câmeras possivelmente coibirem crimes ou alguma prática ilícita, existem pensadores que discutem os efeitos a longo prazo para a sociedade deste monitoramento continuo do espaço público.
“É necessário um debate profundo envolvendo governos, legisladores, judiciário, cientistas, e, principalmente, os cidadãos que poderão ter suas vidas afetadas por essas tecnologias. Um bom resumo disso vem de uma frase dita por Ella Jakubowska, ativista do Direitos Humanos Europeu (Edri, na sigla em inglês): ‘Devemos pensar em como a tecnologia exacerba a distopia em que já vivemos’”, conclui a professora da UFF.
Fonte:R7