FRC publica orientações sobre IA generativa e agentiva na auditoria: o que escritórios contábeis devem fazer
Por que isso importa agora
Em 30 de março de 2026 o Financial Reporting Council (FRC) — o regulador contábil do Reino Unido — liberou uma orientação pioneira sobre o uso de IA generativa e agentiva em trabalhos de auditoria. Para escritórios e times de auditoria, isso não é um alerta distante: é um roteiro prático sobre como aproveitar ganho de produtividade sem sacrificar qualidade e responsabilidade profissional.
O que a orientação altera na prática
O documento reconhece benefícios claros — automação de leitura de documentos, sumarização, triagem de exceções e apoio à investigação de riscos — e, ao mesmo tempo, exige clareza sobre controles, documentação e supervisão humana. Em termos práticos, o FRC pede que auditorias que usem ferramentas agentivas e generativas tenham políticas formais, evidência de validação e responsáveis técnicos que respondam pela qualidade.
Dados e sinais recentes
Coberturas da imprensa especializada destacaram o caráter inédito da orientação: é a primeira vez que um órgão auditor nacional publica regras consolidadas sobre agentic AI aplicada à auditoria. Ao mesmo tempo, pesquisas do setor mostram uma adoção acelerada dessas tecnologias — o que aumenta a urgência de práticas que documentem impacto e mitigação de riscos.
O que escritórios contábeis devem fazer esta semana (0–7 dias)
- Inventário de uso: liste onde há ferramentas generativas/agentivas em uso (extração de dados, análise de contratos, revisões de contas). Priorize por criticidade e exposição a decisões de julgamento profissional.
- Responsável técnico: designe um responsável por governança de IA em auditoria — alguém com know‑how técnico e autoridade para emitir aprovações.
- Política mínima: publique uma política interna simples que descreva: ferramentas permitidas, casos de uso, quem pode aprovar uso e requisitos de evidência.
Como adaptar processos (8–45 dias)
1) Validação e testes: documente testes de performance para cada modelo/ferramenta que entra na cadeia de auditoria. Inclua métricas operacionais (acurácia na extração, taxa de falso positivo em flags) e testes de sensibilidade a inputs adversos.
2) Trilhas de evidência: capture e armazene prompts, inputs, outputs, versão do modelo e hash dos arquivos usados. Sem trilha auditável, as decisões automatizadas perdem defesa técnica e legal.
3) Supervisão humana: estabeleça regras claras sobre quando a decisão final exige intervenção humana — por exemplo, julgamentos contábeis, estimativas e alterações nas práticas contábeis.
4) Gestão de fornecedores: exija cláusulas sobre portabilidade de artefatos e pacotes de saída auditáveis dos fornecedores das ferramentas de IA.
O lado humano da transformação
Auditores não serão substituídos — serão potencializados. O papel muda de coletor de evidência para designer de procedimentos, validador técnico e intérprete de resultados. Isso exige investimento em treinamento prático: ler logs de modelos, interpretar probabilidades e entender limites operacionais das ferramentas.
Riscos práticos e mitigação
- Risco de sobreconfiança: equipe aceita outputs sem checagem. Mitigação: thresholds de confiança e amostragem manual.
- Risco de dados incorretos: extração automatizada mal parametrizada. Mitigação: backtests com amostras históricas e validação cruzada com fontes originais.
- Risco regulatório: falta de documentação em fiscalização. Mitigação: empacotar evidências exportáveis para auditoria externa e órgãos.
O que isso revela sobre o futuro da profissão
Reguladores estão movendo-se de “monitoramento” para “orientação prática”. Isso significa duas coisas para escritórios contábeis: (1) a velocidade de adoção de IA será um diferencial competitivo real, e (2) a capacidade de demonstrar controles, evidência e julgamento profissional será requisito para confiança do mercado.
Checklist rápido para 90 dias
- Inventário completo de ferramentas e fornecedores.
- Política interna de uso de IA na auditoria publicada.
- Processo de validação técnica e amostragens periódicas.
- Pacote mínimo de evidência exportável (prompts, outputs, versões).
- Plano de treinamento para auditores sobre leitura de artefatos de IA.
Conclusão e CTA
O FRC deu o pontapé inicial: orientações claras reduzem incerteza e criam uma expectativa simples — inovação com responsabilidade. Escritórios que responderem rápido ganham eficiência sem abrir mão da qualidade.
Quer ajuda para transformar essas orientações em procedimentos práticos, playbooks de validação e pacotes de evidência que protejam seu escritório? Converse com a Morph. Ajudamos escritórios a transformar diretrizes regulatórias em processos operacionais que funcionam.
Fontes
- Financial Reporting Council — Generative and Agentic AI Guidance (30 Mar 2026).
- Bloomberg Law — UK watchdog issues first guidance on generative AI in audit (30 Mar 2026).
- Law360 — FRC issues guidance for audit firms on use of generative AI (30 Mar 2026).
- Thomson Reuters Institute — AI use and employee experience: guidance gap in professional services (30 Mar 2026).