ESTAMOS AO VIVO
Receita Federal apresenta política inédita para uso ético e seguro da Inteligência Artificial
Política de IA do Fisco estabelece controle humano, rigor ético e soberania de dados como pilares para uso responsável da tecnologia
A Receita Federal deu um passo decisivo no debate global sobre o uso responsável da Inteligência Artificial no setor público ao publicar sua nova Política de Inteligência Artificial, um marco regulatório que consolida princípios éticos, jurídicos e técnicos para o uso da tecnologia nas atividades tributárias e aduaneiras. O subsecretário de Gestão Corporativa, auditor-fiscal Juliano Neves, apresentou a nova política na Organização das Nações Unidas (ONU) na última sexta-feira (27/3), durante o 2026 Ecosoc Special Meeting on International Cooperation in Tax Matters.
Alinhada aos principais padrões internacionais, a política brasileira avança ao estabelecer salvaguardas inéditas, reforçando a centralidade do ser humano na tomada de decisões, a soberania dos dados públicos e a responsabilidade individual dos agentes públicos.
Um dos pilares da política é a preservação da autonomia humana. Embora a Inteligência Artificial seja utilizada como ferramenta de apoio, a Receita Federal deixa explícito que decisões administrativas e atos legais são de competência exclusiva de servidores públicos.
A norma estabelece que nenhum sistema de IA pode condicionar, substituir ou vincular o exercício das competências legais da administração tributária e aduaneira. O julgamento crítico, independente e fundamentado do agente público funciona como a última barreira contra decisões automatizadas injustas ou inadequadas.
Em outras palavras, a IA apoia, mas não decide. O controle final permanece sempre com o ser humano, assegurando pleno acesso dos contribuintes aos mecanismos de revisão e defesa administrativa.
Curadoria específica
Outro diferencial da política brasileira é a criação de uma função inédita: o Curador de Inteligência Artificial Generativa.
Enquanto normas internacionais tratam de modelos de uso geral de forma ampla, a Receita Federal instituiu um agente específico responsável por:
- monitorar continuamente erros, vieses e alucinações;
- avaliar a qualidade, a coerência e a precisão das respostas;
- assegurar que os sistemas operem dentro de parâmetros éticos e institucionais.
Essa estrutura garante um nível de supervisão operacional muito mais detalhado e adaptado à natureza probabilística da IA generativa.
Responsabilidades
A política é categórica ao afirmar que o uso inadequado de Inteligência Artificial configura responsabilidade disciplinar individual. O descumprimento das salvaguardas éticas e técnicas previstas não é tratado como falha sistêmica, mas como conduta pessoal do agente público.
Além disso, a Receita Federal proíbe expressamente o uso de IA para manipulação subliminar; pontuação ou classificação social; vigilância em massa.
Essas vedações colocam a política brasileira entre as mais restritivas e protetivas do ponto de vista de direitos fundamentais.
No campo da proteção de dados, a política vai além das exigências tradicionais de privacidade. A Receita Federal proíbe, de forma expressa, que fornecedores ou terceiros utilizem dados tributários de cidadãos brasileiros para treinar, calibrar ou aprimorar modelos comerciais de Inteligência Artificial.
Sempre que possível, a instituição prioriza ambientes tecnológicos sob governança técnica integral, com controle sobre armazenamento, processamento, localização geográfica, infraestrutura e acessos.
O uso de ambientes externos ou não soberanos somente é admitido após análise técnica rigorosa, reforçando a proteção dos dados fiscais e aduaneiros.
Gestão de riscos e segurança em múltiplos níveis
A política estabelece uma estrutura robusta de gestão de riscos para sistemas de IA, exigindo resiliência contra falhas técnicas, ataques cibernéticos e usos indevidos.
Cada iniciativa passa por uma avaliação em três camadas:
- unidade de negócio responsável;
- área de tecnologia da informação;
- comitê de TI institucional.
Esse modelo garante acompanhamento contínuo dos riscos ao longo de todo o ciclo de vida da solução.
Inovação com responsabilidade: o modelo “Fast Track”
Para equilibrar segurança e inovação, a Receita Federal criou um mecanismo ágil para o desenvolvimento de prototipagens e soluções experimentais.
Projetos de baixo risco podem ser desenvolvidos em ambientes controlados sem aprovação prévia do comitê superior, permitindo testes rápidos e aprendizado institucional, sem abrir mão de governança.
Esse modelo traz mais dinamismo do que estruturas excessivamente rígidas observadas em outras jurisdições, especialmente quando comparado a regimes voltados exclusivamente para sistemas de alto risco.
Capacitação contínua e cultura de IA
Reconhecendo que a tecnologia é probabilística e tem limitações, a Receita Federal instituiu um plano permanente de capacitação em Inteligência Artificial. O objetivo é garantir que os servidores compreendam:
- o funcionamento dos modelos;
- seus limites;
- os riscos associados;
- e o papel humano insubstituível na tomada de decisão.
Transparência, explicabilidade e auditabilidade
Por fim, a política reforça o compromisso com a transparência. Os sistemas devem ser capazes de explicar, de forma compreensível, os critérios e processos que conduzem a determinado resultado, priorizando soluções que permitam auditoria técnica e institucional.
A explicabilidade não é tratada como requisito técnico opcional, mas como elemento central da legitimidade do uso da Inteligência Artificial no setor público.
Um modelo de referência internacional
Com essa política, a Receita Federal consolida uma abordagem que combina:
- inovação tecnológica;
- proteção de direitos;
- segurança jurídica;
- responsabilidade individual;
- soberania digital.
O modelo brasileiro se posiciona como referência para administrações tributárias no mundo, mostrando que é possível usar Inteligência Artificial de forma avançada sem abrir mão de ética, controle humano e confiança pública.
Fonte: Agência Gov | via Fazenda