*Por Fernando Manfrin
A temporada do Imposto de Renda de 2026 revelou uma mudança silenciosa, mas profunda, na forma como o Estado brasileiro exerce sua função fiscalizatória. Não se trata apenas de tecnologia, mas de uma alteração relevante na lógica de atuação da Receita Federal, que deixa de agir de forma reativa para operar de maneira preditiva, sustentada por inteligência artificial e análise massiva de dados.
- Declaração do Imposto de Renda 2026: prazos, regras e o que mudou este ano
- Sites falsos simulam sistema do Imposto de Renda para aplicar golpes em usuários
O Projeto Analytics, desenvolvido internamente por auditores e analistas do próprio órgão, representa esse novo momento. A plataforma cruza informações fiscais, bancárias e patrimoniais em larga escala, identificando padrões de inconsistência antes mesmo de qualquer ação do contribuinte. Já há resultados concretos, com identificação de irregularidades relevantes sem necessidade de fiscalização tradicional, incluindo esquemas envolvendo empresas de fachada e operações com criptoativos .
-
Entre no Canal do WhatsApp do Canaltech e fique por dentro das últimas notícias sobre tecnologia, lançamentos, dicas e tutoriais incríveis.
-
O avanço não está apenas na sofisticação dos algoritmos, mas na ampliação das bases de dados utilizadas. Informações de bancos, cartórios, prefeituras e do Cadastro Imobiliário Brasileiro passaram a ser integradas em uma lógica contínua de monitoramento. Na prática, isso reduz significativamente as brechas que antes permitiam omissões em declarações fiscais.
Com isso, comportamentos cotidianos passam a ter nova dimensão. Transações frequentes via Pix, rendimentos informais e até publicações em redes sociais podem ser considerados na análise fiscal. O uso de inteligência artificial para examinar conteúdos públicos cria um novo vetor de risco, em que a exposição voluntária de padrões de consumo pode indicar incompatibilidade patrimonial.
Esse cenário é juridicamente possível, mas levanta uma discussão ainda pouco enfrentada. A Receita Federal estruturou uma política de uso responsável de inteligência artificial, com diretrizes que incluem transparência e vedação à vigilância em massa . Ainda assim, os critérios que levam um contribuinte a ser sinalizado não são públicos.
Nova era da fiscalização expõe limites e desafios jurídicos
Essa assimetria de informação caracteriza o que o direito já reconhece como opacidade algorítmica. O contribuinte pode ser impactado por decisões baseadas em parâmetros que desconhece, sem clareza sobre quais dados foram determinantes. Trata-se de uma mudança sensível, porque desloca a relação entre Estado e cidadão para um ambiente em que o processo decisório não é plenamente verificável.
A Lei Geral de Proteção de Dados prevê o direito de revisão de decisões automatizadas, mas sua aplicação ainda é limitada, seja pela baixa conscientização da população, seja pela falta de mecanismos claros para exercer esse direito.
A comparação com a União Europeia evidencia esse desafio. Lá, sistemas de inteligência artificial aplicados à fiscalização são classificados como de alto risco e submetidos a exigências de transparência, supervisão humana e contestação efetiva. No Brasil, embora haja avanços institucionais, ainda não existe um marco legal com esse nível de rigor.
A modernização da fiscalização é legítima e necessária. Combater a sonegação e aumentar a eficiência do Estado são objetivos claros. O ponto central está no equilíbrio entre essa eficiência e as garantias individuais, especialmente quando decisões relevantes passam a ser mediadas por sistemas automatizados.
A discussão sobre privacidade, nesse contexto, vai além da proteção de dados. Ela envolve compreender como essas informações são utilizadas para tomar decisões que impactam diretamente a vida do cidadão. No Brasil de hoje, essa conversa deixou de ser teórica e passou a ser urgente.

Leia a matéria no Canaltech.

