11 mar Consulta pública da CIDH sobre IA recebe contribuições do Aláfia Lab, Conectas e CESeC
O Aláfia Lab, em parceria com a Conectas Direitos Humanos e o Centro de Estudos de Segurança e Cidadania (CESeC), enviou contribuições à consulta pública aberta pela Comissão Interamericana de Direitos Humanos (CIDH) sobre o impacto da inteligência artificial (IA) nos direitos humanos nas Américas. A iniciativa é conduzida pela Relatoria Especial para a Liberdade de Expressão e resultará em um relatório temático que abordará os desafios da IA nas Américas.
O documento reúne evidências e análises sobre o cenário brasileiro e aborda três eixos principais: (1) o uso de reconhecimento facial na segurança pública; (2) os impactos da IA generativa na integridade da informação e no debate público; e (3) as lacunas regulatórias e as disputas legislativas em torno do tema no país.
IA na segurança pública: vigilância, vieses e falta de transparência
O primeiro bloco da contribuição examina a expansão de sistemas de reconhecimento facial no Brasil, especialmente na segurança pública. O texto reúne dados e casos concretos que evidenciam erros de identificação, vieses raciais e ausência de transparência na contratação e no funcionamento dessas tecnologias pelo Estado.
A análise aponta riscos à privacidade, à liberdade de associação e reunião, à presunção de inocência e ao devido processo legal, além de destacar a falta de avaliação de impacto em direitos humanos antes da implementação desses sistemas.
IA, eleições e integridade da informação
O segundo eixo trata dos impactos da IA generativa no debate público e nos processos eleitorais. Foram destacados casos de violação de direitos humanos achados pelo Observatório de IA nas Eleições, iniciativa desenvolvida pelo laboratório em colaboração com a Data Privacy Brasil.
A partir do monitoramento realizado nas eleições municipais de 2024 e retomado em 2025, o Observatório identificou os seguintes usos de IA que foram abordados na consulta pública:
- geração de informações falsas ou desatualizadas por sistemas conversacionais;
- inconsistências na aplicação de políticas anunciadas por plataformas digitais;
- circulação de deepfakes e deepnudes com impacto direto sobre mulheres candidatas;
- compartilhamento de conteúdo sintético preconceituoso em relação figuras políticas femininas de diferentes espectros políticos e da comunidade LGBTQIAPN+;
- amplificação de campanhas de desinformação com potencial de afetar a igualdade de condições entre candidaturas.
A contribuição destaca que a IA não apenas acelera a produção e disseminação de desinformação, mas também pode intensificar a violência política de gênero e a revitimização de grupos historicamente vulnerabilizados. O texto também chama atenção para a dimensão coletiva da liberdade de expressão, especialmente o direito da sociedade de acessar informações confiáveis.
Regulação e lacunas normativas
Por fim, analisamos o cenário regulatório brasileiro, marcado por avanços pontuais e lacunas significativas. O documento aborda o debate legislativo sobre o Projeto de Lei de Inteligência Artificial (PL 2.338/2023), as resoluções do Tribunal Superior Eleitoral sobre o uso de IA em campanhas e as pressões exercidas por empresas de tecnologia no processo legislativo.
A contribuição defende que uma resposta regulatória orientada por direitos humanos deve incluir limites claros ao reconhecimento facial em espaços públicos e avaliações obrigatórias de impacto em direitos humanos, além de transparência ativa sobre bases de dados, taxas de erro e contratos, supervisão independente e mecanismos acessíveis de reparação e rotulagem e rastreabilidade de conteúdo sintético. Destaca-se também a necessidade de medidas específicas de proteção contra violência política de gênero e a integração da dimensão socioambiental da IA, incluindo impactos de data centers.
Próximos passos
A consulta da CIDH integra um processo regional mais amplo de reflexão sobre inteligência artificial, democracia e direitos fundamentais. Ao contribuir com evidências empíricas e análises produzidas no Brasil, em colaboração com organizações de referência na sociedade civil nacional, o Aláfia Lab reforça seu compromisso com uma governança da IA baseada em necessidade, proporcionalidade, transparência e participação social.