Sistema de vigilância em São Paulo é questionado por violar direitos fundamentais

Instituições ligadas à defesa de direitos humanos e à pesquisa em segurança pública apontaram possíveis violações legais no Programa Muralha Paulista, sistema de vigilância adotado pela Secretaria de Segurança Pública de São Paulo. A manifestação técnica foi encaminhada à Autoridade Nacional de Proteção de Dados (ANPD) e reúne críticas ao uso intensivo de tecnologias como reconhecimento facial, geolocalização e integração de grandes bases de dados pessoais sensíveis.

Monitoramento em larga escala e falta de transparência
O documento, assinado pela Defensoria Pública da União (DPU), pelo Centro de Estudos de Segurança e Cidadania (CESeC) e pelo grupo Politicrim, sustenta que o programa realiza coleta e tratamento contínuo de dados em escala massiva, sem apresentar de forma clara como essas informações são processadas, compartilhadas e protegidas. Segundo as entidades, o modelo atual não atende aos princípios constitucionais nem às exigências da Lei Geral de Proteção de Dados (LGPD).

Integração de câmeras e cruzamento de informações
O Muralha Paulista funciona a partir da conexão de câmeras públicas e privadas, aliadas a sistemas de reconhecimento facial e ao cruzamento de múltiplas bases de dados. A estrutura central, conhecida como fusion center, transforma registros de circulação em alertas automáticos em tempo real. Mais de 38 mil câmeras já estariam integradas, com a meta de alcançar todos os municípios paulistas.

Para as instituições, esse desenho amplia a vigilância para além de pessoas investigadas, alcançando toda a população que circula em áreas monitoradas, o que exige critérios rigorosos de necessidade, proporcionalidade e governança — ainda não demonstrados pelo Estado.

Questionamentos sobre governança e acesso à informação
Um dos principais pontos levantados é a limitação de acesso aos documentos da fiscalização. Trechos relevantes dos Relatórios de Impacto à Proteção de Dados teriam sido ocultados sem justificativa, dificultando o controle social e o acompanhamento institucional do processo. As entidades afirmam que essa prática compromete a transparência e viola prerrogativas legais da Defensoria Pública.

Risco de discriminação algorítmica
O manifesto também alerta para o potencial de discriminação algorítmica. Pesquisas indicam que sistemas de reconhecimento facial apresentam índices significativamente maiores de falsos positivos para pessoas negras. Em um contexto marcado por desigualdades estruturais, o uso dessas tecnologias sem auditorias independentes e métricas claras pode aprofundar injustiças e seletividades no sistema penal.

Ausência de comprovação de eficácia
Outro ponto criticado é a falta de evidências concretas de que o programa seja eficaz ou o meio menos invasivo para atingir objetivos como redução da criminalidade ou localização de foragidos. Segundo as instituições, não foram apresentados estudos que comprovem resultados proporcionais ao nível de intrusão na vida privada da população.

Recomendações e pedido de suspensão
Entre as recomendações à ANPD estão a liberação integral dos autos à DPU, a revisão detalhada dos relatórios de impacto, a definição clara de responsabilidades entre órgãos públicos e parceiros privados, além da criação de políticas transparentes de retenção e descarte de dados. As entidades defendem ainda salvaguardas específicas para grupos vulnerabilizados e auditorias independentes.

O documento sustenta que, diante das falhas estruturais, a medida mais adequada seria a suspensão cautelar do programa até que sejam adotadas garantias compatíveis com a Constituição, a LGPD e padrões internacionais de uso de tecnologias de alto risco na segurança pública. Com informações da Agência Brasil

Portal GRNEWS © Todos os direitos reservados.

PUBLICIDADE
[wp_bannerize_pro id="valenoticias"]
Don`t copy text!