Artigos

Inteligência Artificial na Administração Pública Brasileira e a Portaria CADE como Indicador de Tendência Regulatória

Por Márcia Ferreira Publicado em 24/04/2026 às 15:52
Márcia Ferreira Divulgação

Avaliando a Portaria CADE nº 110/2026, que institui o Projeto Defesa Econômica com Inteligência Artificial (D.E.I.A.), sob a ótica da privacidade, proteção de dados e governança algorítmica, entendo que a iniciativa reflete, de fato, uma tendência consolidada e irreversível na Administração Pública brasileira para os próximos anos.

A portaria do CADE é estrategicamente acertada ao delimitar o uso da Inteligência Artificial (IA) em caráter exclusivamente auxiliar, vedando a adoção de decisões administrativas de forma automatizada (Art. 4º). Essa cautela alinha-se perfeitamente aos princípios constitucionais da Administração Pública e às diretrizes do recém-aprovado Marco Regulatório da Inteligência Artificial no Brasil (PL 2.338/2023), que consagra a centralidade do ser humano e exige supervisão humana em sistemas que impactam direitos. A manutenção da autoridade humana na decisão final mitiga significativamente os riscos de responsabilização do órgão por vieses algorítmicos ou decisões automatizadas injustificadas.

Sob a perspectiva da Lei Geral de Proteção de Dados Pessoais (LGPD), o Art. 5º da portaria acerta ao condicionar a execução do projeto à observância da legislação vigente e das normas internas de segurança da informação. Contudo, a implementação prática das fases previstas, especialmente a integração com bases de dados internas e externas (Art. 3º, II e III), exigirá do CADE a adoção rigorosa de medidas de privacy by design. Será fundamental garantir que o cruzamento de grandes volumes de dados ocorra com bases legais adequadas, minimização de dados e transparência, assegurando que o Registro de Atividades de Processamento do órgão esteja devidamente atualizado para refletir essas novas operações.

Observamos movimentos semelhantes e até mais robustos em outros órgãos de controle e fiscalização. A Receita Federal, por exemplo, publicou recentemente uma política de IA pioneira que não apenas exige a decisão humana obrigatória, mas também institui a figura do Curador de IA Generativa e proíbe expressamente o uso de dados tributários de cidadãos para treinamento de modelos comerciais por terceiros. Tais iniciativas demonstram que a adoção de IA no setor público está amadurecendo rapidamente, passando da mera experimentação para a institucionalização de regras claras de governança, accountability e proteção de dados.

Em suma, a iniciativa do CADE é um indicativo claro do futuro próximo da gestão pública. A tendência é que vejamos uma proliferação de normativas semelhantes, buscando equilibrar o ganho de eficiência proporcionado pela automação e análise preditiva com a necessária segurança jurídica, transparência algorítmica e respeito incondicional aos direitos dos titulares de dados.

Márcia Ferreira, advogada e especialista em Direito Digital e Proteção de Dados do Di Blasi, Parente & Associados.