Alto Alegre,

ESTAMOS AO VIVO

Receita Federal apresenta política inédita para uso ético e seguro da Inteligência Artificial
Política de IA do Fisco estabelece controle humano, rigor ético e soberania de dados como pilares para uso responsável da tecnologia

Por Redação
Publicado Há 1 h
A A

A Receita Federal deu um passo decisivo no debate global sobre o uso responsável da Inteligência Artificial no setor público ao publicar sua nova Política de Inteligência Artificial, um marco regulatório que consolida princípios éticos, jurídicos e técnicos para o uso da tecnologia nas atividades tributárias e aduaneiras. O subsecretário de Gestão Corporativa, auditor-fiscal Juliano Neves, apresentou a nova política na Organização das Nações Unidas (ONU) na última sexta-feira (27/3), durante o 2026 Ecosoc Special Meeting on International Cooperation in Tax Matters.

Alinhada aos principais padrões internacionais, a política brasileira avança ao estabelecer salvaguardas inéditas, reforçando a centralidade do ser humano na tomada de decisões, a soberania dos dados públicos e a responsabilidade individual dos agentes públicos.

Um dos pilares da política é a preservação da autonomia humana. Embora a Inteligência Artificial seja utilizada como ferramenta de apoio, a Receita Federal deixa explícito que decisões administrativas e atos legais são de competência exclusiva de servidores públicos.

A norma estabelece que nenhum sistema de IA pode condicionar, substituir ou vincular o exercício das competências legais da administração tributária e aduaneira. O julgamento crítico, independente e fundamentado do agente público funciona como a última barreira contra decisões automatizadas injustas ou inadequadas.

Em outras palavras, a IA apoia, mas não decide. O controle final permanece sempre com o ser humano, assegurando pleno acesso dos contribuintes aos mecanismos de revisão e defesa administrativa.

Curadoria específica

Outro diferencial da política brasileira é a criação de uma função inédita: o Curador de Inteligência Artificial Generativa.

Enquanto normas internacionais tratam de modelos de uso geral de forma ampla, a Receita Federal instituiu um agente específico responsável por:

  • monitorar continuamente erros, vieses e alucinações;
  • avaliar a qualidade, a coerência e a precisão das respostas;
  • assegurar que os sistemas operem dentro de parâmetros éticos e institucionais.

Essa estrutura garante um nível de supervisão operacional muito mais detalhado e adaptado à natureza probabilística da IA generativa.

Responsabilidades

A política é categórica ao afirmar que o uso inadequado de Inteligência Artificial configura responsabilidade disciplinar individual. O descumprimento das salvaguardas éticas e técnicas previstas não é tratado como falha sistêmica, mas como conduta pessoal do agente público.

Além disso, a Receita Federal proíbe expressamente o uso de IA para manipulação subliminar; pontuação ou classificação social; vigilância em massa.

Essas vedações colocam a política brasileira entre as mais restritivas e protetivas do ponto de vista de direitos fundamentais.

No campo da proteção de dados, a política vai além das exigências tradicionais de privacidade. A Receita Federal proíbe, de forma expressa, que fornecedores ou terceiros utilizem dados tributários de cidadãos brasileiros para treinar, calibrar ou aprimorar modelos comerciais de Inteligência Artificial.

Sempre que possível, a instituição prioriza ambientes tecnológicos sob governança técnica integral, com controle sobre armazenamento, processamento, localização geográfica, infraestrutura e acessos.

O uso de ambientes externos ou não soberanos somente é admitido após análise técnica rigorosa, reforçando a proteção dos dados fiscais e aduaneiros.

Gestão de riscos e segurança em múltiplos níveis

A política estabelece uma estrutura robusta de gestão de riscos para sistemas de IA, exigindo resiliência contra falhas técnicas, ataques cibernéticos e usos indevidos.

Cada iniciativa passa por uma avaliação em três camadas:

  • unidade de negócio responsável;
  • área de tecnologia da informação;
  • comitê de TI institucional.

Esse modelo garante acompanhamento contínuo dos riscos ao longo de todo o ciclo de vida da solução.

Inovação com responsabilidade: o modelo “Fast Track”

Para equilibrar segurança e inovação, a Receita Federal criou um mecanismo ágil para o desenvolvimento de prototipagens e soluções experimentais.

Projetos de baixo risco podem ser desenvolvidos em ambientes controlados sem aprovação prévia do comitê superior, permitindo testes rápidos e aprendizado institucional, sem abrir mão de governança.

Esse modelo traz mais dinamismo do que estruturas excessivamente rígidas observadas em outras jurisdições, especialmente quando comparado a regimes voltados exclusivamente para sistemas de alto risco.

Capacitação contínua e cultura de IA

Reconhecendo que a tecnologia é probabilística e tem limitações, a Receita Federal instituiu um plano permanente de capacitação em Inteligência Artificial. O objetivo é garantir que os servidores compreendam:

  • o funcionamento dos modelos;
  • seus limites;
  • os riscos associados;
  • e o papel humano insubstituível na tomada de decisão.

Transparência, explicabilidade e auditabilidade

Por fim, a política reforça o compromisso com a transparência. Os sistemas devem ser capazes de explicar, de forma compreensível, os critérios e processos que conduzem a determinado resultado, priorizando soluções que permitam auditoria técnica e institucional.

A explicabilidade não é tratada como requisito técnico opcional, mas como elemento central da legitimidade do uso da Inteligência Artificial no setor público.

Um modelo de referência internacional

Com essa política, a Receita Federal consolida uma abordagem que combina:

  • inovação tecnológica;
  • proteção de direitos;
  • segurança jurídica;
  • responsabilidade individual;
  • soberania digital.

O modelo brasileiro se posiciona como referência para administrações tributárias no mundo, mostrando que é possível usar Inteligência Artificial de forma avançada sem abrir mão de ética, controle humano e confiança pública.