Autor
URL do Artigo
DOI
Resumo
INTRODUÇÃO
A lavagem de dinheiro, enquanto fenômeno transnacional e mutável, desafia permanentemente os mecanismos tradicionais de prevenção e controle. Com o avanço das tecnologias digitais, especialmente a inteligência artificial (IA) e os ativos criptográficos, novos mecanismos de dissimulação patrimonial têm surgido, ampliando a complexidade do combate aos crimes financeiros e impondo exigências inéditas ao compliance corporativo e ao sistema jurídico global.
No contexto da sociedade digital, práticas como o uso de criptoativos pseudônimos, plataformas descentralizadas (DeFi), mixers, tumblers e técnicas de chain-hopping (migração sucessiva entre blockchains) têm erodido fronteiras jurisdicionais e obscurecido trilhas transacionais. Essa realidade impõe ao Estado e ao setor privado a adoção de soluções tecnológicas compatíveis com a velocidade e sofisticação das operações ilícitas. A inteligência artificial, nesse cenário, surge como ferramenta promissora para detecção de padrões suspeitos, análise preditiva e automação de reportes regulatórios. No entanto, sua adoção também suscita preocupações éticas e jurídicas relevantes, especialmente quando utilizada de forma não supervisionada ou sem transparência nos critérios de decisão.
A responsabilização penal da pessoa jurídica, tal como prevista na Lei nº 12.846/2013, e os princípios da legalidade, devido processo legal e proporcionalidade impõem limites objetivos ao uso da IA como substituto da deliberação humana em processos sensíveis. A ausência de supervisão e de salvaguardas formais pode conduzir a erros, discriminações algorítmicas e violações de direitos fundamentais, gerando consequências administrativas, civis e penais, especialmente quando a delegação decisória ocorre em contextos de reporte financeiro obrigatório ou due diligence automatizada.
A resposta regulatória tem se fortalecido em diversas esferas. O Brasil, por meio da Lei nº 14.478/2022, passou a disciplinar os prestadores de serviços de ativos virtuais; a União Europeia avança com o MiCA e com o Ato Europeu de Inteligência Artificial; e os Estados Unidos, por meio do FinCEN e de legislações como a Bank Secrecy Act e a USA PATRIOT Act, têm ampliado suas exigências de compliance tecnológico. Em paralelo, normas internacionais como as 40 Recomendações do FATF, os Princípios de IA da OCDE e a ISO/IEC 42001 fornecem diretrizes para a construção de sistemas éticos e auditáveis.
Neste contexto, o presente artigo tem por objetivo analisar como as ferramentas de inteligência artificial podem ser aplicadas de forma eficaz e responsável na prevenção à lavagem de dinheiro, considerando os limites regulatórios e os desafios ético-jurídicos decorrentes. Além disso, busca-se destacar a importância de uma governança híbrida, que combine automação com supervisão humana, promovendo a integração entre IA explicável, compliance financeiro e blockchain analytics. O estudo se propõe ainda a oferecer propostas práticas que auxiliem na implementação segura dessas tecnologias, contribuindo para o aperfeiçoamento dos programas de integridade e para o fortalecimento da cooperação internacional no enfrentamento aos delitos financeiros contemporâneos.
2 REFERENCIAL TEÓRICO
A prevenção à lavagem de dinheiro, enquanto campo normativo e operacional, exige constante atualização frente aos avanços tecnológicos e à complexificação dos fluxos financeiros globais. A ascensão da Inteligência Artificial (IA), especialmente em ambientes regulatórios sensíveis, impõe uma revisão das categorias tradicionais do compliance, do devido processo legal e da proteção de dados, exigindo uma releitura crítica dos marcos normativos existentes.
Sob essa ótica, a fundamentação teórica deste artigo parte da compreensão de que a IA não é apenas uma ferramenta técnica, mas um agente transformador dos paradigmas ético-jurídicos da governança corporativa e do combate ao crime econômico. O cruzamento entre tecnologia e Direito exige uma abordagem que integre, de forma crítica, os fundamentos da ética algorítmica, os limites legais da automatização e a arquitetura regulatória nacional e internacional vigente.
A seguir, as subseções abordam, de forma articulada, os elementos centrais que estruturam essa interseção: o fenômeno contemporâneo da lavagem de dinheiro, os dilemas éticos da IA, a evolução dos programas de compliance e as diretrizes internacionais que moldam um novo ecossistema de controle financeiro automatizado.
2.1 O Fenômeno da Lavagem de Dinheiro na Sociedade Digital
A lavagem de dinheiro, enquanto prática delituosa, evoluiu acompanhando as transformações tecnológicas e a globalização das finanças. Inicialmente associada a esquemas rudimentares de ocultação de recursos ilícitos, a prática passou a assumir traços mais sofisticados, empregando operações financeiras complexas, transferências transfronteiriças instantâneas e uso de criptomoedas e ativos digitais.
No contexto contemporâneo, conforme expõe Carvalho (2020), “o papel das instituições financeiras na prevenção à lavagem de dinheiro foi exponencialmente ampliado com a digitalização do sistema bancário, o que demanda a implementação de mecanismos dinâmicos de análise de risco, detecção de comportamento atípico e reporte tempestivo”. Esse imperativo reforça a centralidade dos sistemas automatizados de vigilância, que não apenas identificam incongruências em tempo real, mas também estabelecem padrões de alerta com base em aprendizado de máquina.
As novas formas de ocultação patrimonial envolvem desde a fragmentação de transações (smurfing), passando por uso de contas de laranjas e empresas de fachada (shell companies), até mecanismos cibernéticos quase imperceptíveis a sistemas convencionais de auditoria. Por isso, a inteligência artificial desponta como vetor estratégico na chamada quarta geração da governança financeira, ao operar com grande capacidade analítica e velocidade computacional em ecossistemas altamente dinâmicos.
2.1.1 Criptoativos, DeFi e a Evolução da Lavagem de Dinheiro Digital
A ascensão dos criptoativos e das finanças descentralizadas (DeFi) representa uma das principais disrupções no ecossistema financeiro global e, ao mesmo tempo, um novo campo de desafios para a prevenção à lavagem de dinheiro. A possibilidade de movimentar valores significativos com pseudoanonimato, sem intermediários centralizados, criou um ambiente propício à ocultação de ativos ilícitos, bypassing dos sistemas tradicionais de compliance e fragmentação regulatória entre jurisdições.
Historicamente, o uso de criptoativos em esquemas de lavagem remonta a casos como o da plataforma Silk Road, desmantelada pelo FBI em 2013, onde transações ilegais em larga escala eram processadas via Bitcoin, explorando o anonimato relativo à blockchain. O caso impulsionou o desenvolvimento de ferramentas especializadas em rastreamento digital e abriu debate sobre a responsabilidade das plataformas e dos operadores na supervisão dos fluxos de criptoativos.
Com a crescente institucionalização do setor, os marcos regulatórios vêm se consolidando. Destacam-se:
Embora a tecnologia blockchain ofereça transparência e rastreabilidade, ela também apresenta riscos elevados, sobretudo quando combinada com ferramentas de privacidade como mixers, técnicas de chain-hopping (troca de redes), e ativos com foco em anonimato, como Monero e Zcash. A complexidade desses instrumentos desafia algoritmos de IA não supervisionada, que podem falhar ao identificar fluxos fragmentados e padrões irregulares mascarados.
Nesse cenário, surgem soluções como Chainalysis, Elliptic e CipherTrace, que aplicam IA em análise comportamental e redes transacionais, associando wallets, padrões de movimentação e comportamento de risco. No entanto, tais sistemas precisam ser auditáveis e explicáveis, sob risco de erros que podem gerar responsabilização legal indevida ou omissão de riscos críticos.
Assim, emerge a necessidade de integrar compliance financeiro, blockchain analytics e inteligência artificial explicável, garantindo que as decisões automatizadas estejam amparadas por supervisão humana e responsabilidade institucional, inclusive penal.
2.2 Ética Algorítmica e Conformidade Regulatória: Um Campo Tenso
O avanço da IA na área de compliance exige enfrentamento das tensões entre eficiência tecnológica e valores fundamentais do Estado de Direito. Como afirma Floridi (2022), “a ética da inteligência artificial deve ir além do debate técnico e incorporar a noção de responsabilidade distribuída, onde programadores, usuários e reguladores compartilham o dever de mitigar riscos sistêmicos derivados da automação decisória”.
A ética algorítmica encontra, nesse cenário, um terreno de complexidade elevada, sobretudo quando decisões que impactam diretamente pessoas, como bloqueios financeiros ou classificação de risco, são tomadas por sistemas opacos, sem explicabilidade suficiente. O princípio do accountability algorítmico exige que tais ferramentas sejam auditáveis, responsivas a padrões legais e compatíveis com os direitos assegurados em legislações como a LGPD e o GDPR.
Floridi (2022) enfatiza que:
Um dos grandes perigos da aplicação indiscriminada de inteligência artificial em setores sensíveis, como o financeiro, reside na naturalização do erro algorítmico como algo inevitável. Sistemas de IA não são neutros: refletem vieses, limitações e escolhas feitas por seres humanos, ainda que estes estejam ocultos sob camadas de complexidade matemática (Floridi, 2022, p. 183).
Portanto, o uso de IA na prevenção à lavagem de dinheiro não pode ser dissociado de mecanismos robustos de compliance digital, incluindo trilhas de auditoria, validação de modelos e supervisão humana contínua.
2.3 Compliance e Inteligência Artificial: Convergência Estratégica
A incorporação da IA aos programas de compliance representa uma convergência estratégica entre tecnologia e governança. Segundo Schwartz (2017), os programas de integridade modernos devem contemplar não apenas códigos de conduta e canais de denúncia, mas também estruturas automatizadas de monitoramento de riscos. Ele observa:
Um programa de compliance eficaz é aquele que está em constante revisão, adapta-se a novos riscos, e incorpora recursos tecnológicos que reforçam sua capacidade de prevenir, detectar e remediar condutas ilícitas. A inteligência artificial, nesse sentido, é não apenas uma ferramenta, mas um divisor de águas (Schwartz, 2017, p. 91).
Ao serem integradas aos sistemas internos das empresas, ferramentas de IA auxiliam na análise de dados contábeis, movimentações financeiras atípicas e relacionamento com terceiros, criando mapas de risco altamente dinâmicos.
Entretanto, sua implementação requer cuidado técnico e jurídico, especialmente quanto à finalidade dos dados tratados, à prevenção de decisões discriminatórias e à limitação de escopo das análises preditivas.
No Brasil, a Resolução BCB nº 80/2021 já sinaliza a necessidade de políticas internas compatíveis com novas tecnologias, exigindo das instituições financeiras não apenas estrutura, mas também cultura de prevenção robusta e atualizada.
2.4 Paradigmas Internacionais de Regulação: FATF, GDPR e AI Act
As diretrizes internacionais lançam luz sobre os parâmetros que devem nortear o uso ético e legal da inteligência artificial em ambientes de controle financeiro. O GAFI, em sua Recomendação 15, alerta que “novas tecnologias devem ser avaliadas quanto aos riscos que representam para a integridade do sistema financeiro”, exigindo due diligence proporcional ao risco identificado.
O Regulamento Geral de Proteção de Dados da União Europeia (GDPR), por sua vez, impõe limitações rigorosas à decisão automatizada sem intervenção humana, reforçando o direito à explicação de decisões e à revisão por parte de um agente humano. O emergente Ato Europeu de IA (EU AI Act), em processo legislativo avançado, propõe classificações de risco para sistemas algorítmicos e vedações expressas ao uso de IA em certos contextos de alto risco.
Como aponta a OCDE (2019), “os sistemas de IA devem ser transparentes e explicáveis, sujeitos à supervisão humana significativa e projetados para respeitar os direitos fundamentais”. A ISO/IEC 42001, por sua vez, estabelece os parâmetros internacionais para governança de sistemas de IA, contribuindo com protocolos técnicos que fortalecem a segurança e a conformidade legal de tais sistemas no setor empresarial.
3 METODOLOGIA
No campo das ciências jurídicas aplicadas às tecnologias emergentes, a definição de uma metodologia robusta é condição indispensável para conferir validade epistemológica à investigação e assegurar a consistência das proposições normativas e interpretativas formuladas. Em se tratando de um tema que tangencia áreas sensíveis, como compliance financeiro, inteligência artificial, blockchain e criptoativos, torna-se ainda mais imperativo delimitar com precisão os métodos, os recortes e os critérios de análise adotados ao longo do percurso científico.
A escolha metodológica deste artigo ampara-se na busca por um entendimento crítico e aprofundado das transformações regulatórias impostas pela sociedade digital. Para tanto, optou-se por uma abordagem qualitativa, que privilegia a análise interpretativa de fontes normativas e doutrinárias, bem como de dados documentais amplamente reconhecidos por sua confiabilidade e atualidade.
O presente capítulo explicita os procedimentos que nortearam a pesquisa, detalhando o tipo de investigação, os instrumentos empregados, o universo amostral delimitado e as técnicas utilizadas na sistematização e análise dos dados.
3.1 Tipo e Natureza da Pesquisa
A presente investigação caracteriza-se como uma pesquisa qualitativa, exploratória e descritiva, voltada à análise teórico-jurídica e regulatória do uso da inteligência artificial (IA) como ferramenta de prevenção à lavagem de dinheiro, especialmente no contexto dos avanços tecnológicos que envolvem criptoativos, finanças descentralizadas (DeFi) e blockchain analytics.
A abordagem qualitativa foi escolhida por permitir uma compreensão aprofundada dos fenômenos jurídicos e tecnológicos, possibilitando a análise de discursos normativos, marcos regulatórios e implicações éticas com maior densidade crítica. A pesquisa é também exploratória, ao investigar fenômenos ainda em construção normativa, como o uso de IA no compliance financeiro, e descritiva, ao apresentar dados concretos e exemplos de aplicação institucional em diferentes jurisdições.
3.2 Procedimentos metodológicos
A pesquisa é de natureza bibliográfica e documental. A etapa bibliográfica concentrou-se na análise de obras doutrinárias, artigos científicos, relatórios técnicos e pareceres especializados sobre compliance, lavagem de dinheiro, responsabilidade penal da pessoa jurídica, ética em IA, blockchain e criptoativos. A etapa documental envolveu o exame de legislações nacionais e internacionais, normas técnicas, diretrizes regulatórias e publicações oficiais de órgãos como COAF, Banco Central, FATF, OCDE, Comissão Europeia, FinCEN, entre outros.
Não houve coleta de dados primários junto a indivíduos ou instituições, o que dispensa submissão ao Comitê de Ética em Pesquisa, conforme as resoluções vigentes do Conselho Nacional de Saúde. Ainda assim, todos os cuidados metodológicos foram seguidos com base nos princípios da integridade científica.
3.3 Universo e amostra
Embora não envolva amostragem empírica, o estudo delimita seu universo ao conjunto de instrumentos normativos e técnicos vigentes no Brasil, nos Estados Unidos e na União Europeia, relacionados à prevenção da lavagem de dinheiro e à regulação da inteligência artificial. Também foram incluídas normas setoriais relevantes, como as emitidas por organismos multilaterais (FATF, OCDE, ISO) e ferramentas amplamente utilizadas no setor privado, como a Chainalysis.
3.4 Instrumentos de pesquisa
Os instrumentos utilizados consistiram na coleta sistemática de fontes primárias e secundárias, incluindo:
3.5 Técnicas de análise dos dados
Foi adotada a técnica de análise documental com interpretação crítica de conteúdo, permitindo identificar padrões, conflitos e lacunas nas abordagens regulatórias internacionais, bem como implicações práticas e riscos éticos. Os dados foram sistematizados à luz das categorias: governança algorítmica, responsabilidade penal da pessoa jurídica, IA explicável, compliance financeiro automatizado, blockchain analytics e riscos do uso de DeFi e criptoativos para fins ilícitos.
A análise seguiu uma linha hermenêutica e interdisciplinar, integrando aspectos jurídicos, tecnológicos e éticos, com foco na aplicabilidade das recomendações ao setor privado e à formulação de políticas públicas de prevenção.
4. ANÁLISE CRÍTICA: POTENCIAL, LIMITES E CONTRADIÇÕES REGULATÓRIAS
A partir da fundamentação teórica e dos dados empíricos apresentados, esta seção se propõe a analisar criticamente o campo de tensão que emerge da aplicação da Inteligência Artificial na prevenção à lavagem de dinheiro. A análise parte do reconhecimento de que a IA possui enorme capacidade de inovação para o setor de compliance, mas traz consigo riscos normativos e dilemas éticos que não podem ser negligenciados por operadores do Direito, autoridades reguladoras e corporações privadas.
Mais do que uma ferramenta tecnológica, a IA representa uma mudança de paradigma na forma como riscos financeiros são monitorados, decisões regulatórias são automatizadas e direitos fundamentais são eventualmente tensionados por sistemas algorítmicos que operam com relativa autonomia. Essa análise crítica, portanto, examina tanto os avanços concretos que a IA proporciona quanto os limites jurídicos e ético-regulatórios que devem ser observados para evitar retrocessos no campo da governança e da proteção jurídica do indivíduo.
A seguir, são exploradas três dimensões fundamentais: o potencial inovador da IA para o compliance financeiro; os limites legais e éticos da decisão automatizada; e os desafios associados à governança algorítmica sob o prisma da responsabilidade corporativa e da regulação internacional.
4.1 O Potencial Inovador da IA na Prevenção à Lavagem de Dinheiro
A aplicação de Inteligência Artificial em sistemas de compliance representa um salto qualitativo na capacidade de detecção de transações suspeitas. Algoritmos de machine learning operam com níveis de precisão superiores aos sistemas tradicionais baseados em regras fixas (rule-based systems), ao identificar correlações não lineares e padrões ocultos que escapam à análise humana ou estatística convencional. Isso é especialmente relevante em operações de layering, nas quais o objetivo é desfigurar a origem ilícita de ativos por meio de cadeias complexas de movimentações financeiras.
A título de exemplo, o relatório do Banco Central do Brasil (2023) revelou que as instituições financeiras que implementaram modelos preditivos baseados em IA conseguiram reduzir, em média, 45% no tempo de resposta aos alertas de operações suspeitas. Além disso, esses modelos contribuíram para uma queda de 32% no número de registros classificados como falsos positivos, permitindo alocar recursos humanos para investigações mais qualificadas e complexas.
Contudo, o uso de IA também introduz riscos e responsabilidades. A automação não elimina a necessidade de supervisão humana, e a tendência de delegar decisões inteiramente aos sistemas pode ferir o princípio do devido processo legal, além de comprometer o direito à não discriminação quando algoritmos replicam vieses presentes nos dados de treinamento.
4.2 Limites Ético-Jurídicos da Decisão Automatizada
O crescimento exponencial das ferramentas de IA no setor financeiro é acompanhado por uma série de dilemas ético-jurídicos. A decisão automatizada sobre a classificação de transações, bloqueio de contas, ou atribuição de perfis de risco, quando feita sem transparência ou possibilidade de contestação, pode violar garantias fundamentais consagradas em legislações como a LGPD brasileira e o GDPR europeu.
Em consonância com essa preocupação, a GDPR (art. 22) estabelece que os cidadãos têm direito a não se submeterem a decisões baseadas unicamente em processamento automatizado, incluindo a definição de perfis, que produza efeitos legais significativos sobre eles. Essa previsão é central na proteção contra a chamada “opacidade algorítmica”, fenômeno que torna impossível compreender ou contestar os critérios utilizados por sistemas de IA.
No Brasil, embora a LGPD não contenha dispositivo idêntico ao artigo 22 da GDPR, o art. 20 assegura ao titular de dados o direito de solicitar revisão de decisões tomadas com base em tratamento automatizado. A ausência de regulamentação infralegal clara, contudo, dificulta a operacionalização efetiva desse direito, gerando uma lacuna normativa que compromete a segurança jurídica das organizações que operam com IA.
A doutrina especializada alerta para essa tensão. Floridi (2022) observa que:
A assimetria entre a complexidade dos sistemas algorítmicos e a capacidade do indivíduo comum de compreendê-los torna essencial a existência de mecanismos institucionais de mediação e regulação. Sem isso, a IA pode se tornar não um instrumento de governança, mas de dominação invisível (Floridi, 2022, p. 171).
Esse alerta torna evidente que a adoção de IA em compliance não é neutra: ela implica escolhas políticas, jurídicas e morais que precisam ser tornadas transparentes e auditáveis.
4.3 Compliance, Governança Algorítmica e Responsabilidade Corporativa
A relação entre IA e compliance não deve ser compreendida de forma meramente instrumental. Trata-se de um campo onde se entrelaçam deveres de diligência, padrões de governança e responsabilidade corporativa ampliada. A Lei Anticorrupção brasileira (Lei nº 12.846/2013) e a FCPA norte-americana impõem deveres de prevenção que podem ser potencializados, mas nunca terceirizados, para sistemas automatizados.
Schwartz (2017) argumenta que:
A automação de programas de compliance deve ser compreendida como extensão da responsabilidade gerencial, e não como substituição. A cultura ética de uma organização não pode ser delegada a algoritmos, pois estes operam com base em dados, não em valores (Schwartz, 2017, p. 97).
Esse entendimento é corroborado por normas como a ISO/IEC 42001, que estabelece exigências de governança algorítmica, auditoria contínua e gestão de riscos associados ao uso de IA. A responsabilidade empresarial, portanto, não se limita à adoção tecnológica, mas inclui a curadoria dos dados utilizados, a validação dos modelos e a manutenção de controles humanos sobre as decisões automatizadas.
Do ponto de vista regulatório, o EU AI Act representa um divisor de águas. Ao classificar sistemas de IA por grau de risco e estabelecer vedações expressas àqueles considerados de alto risco (como os que afetam diretamente direitos fundamentais), a proposta europeia inaugura um modelo normativo que prioriza a proteção da dignidade humana acima da eficiência tecnológica. Esse modelo pode servir de parâmetro para futuras regulamentações no Brasil e nos Estados Unidos.
4.4 Recomendações Práticas para Implementação Segura e Ética da IA em Compliance
A aplicação de sistemas de Inteligência Artificial nos programas de prevenção à lavagem de dinheiro deve ser guiada por princípios que assegurem legalidade, eficiência e respeito aos direitos fundamentais. Considerando o cenário regulatório multifacetado e os riscos identificados ao longo desta análise, propõem-se as seguintes recomendações técnicas, jurídicas e institucionais para empresas e organismos reguladores.
4.4.1 Estabelecer Governança Algorítmica Estruturada
Empresas que adotem IA em seu sistema de compliance devem implementar comitês internos de governança algorítmica, compostos por especialistas em Direito, tecnologia, segurança da informação e ética organizacional. Essa estrutura deve atuar na supervisão do ciclo de vida dos algoritmos utilizados, com foco em:
Esses mecanismos devem seguir os parâmetros estabelecidos na ISO/IEC 42001:2023, que trata da governança de sistemas de IA, inclusive no setor financeiro e bancário.
4.4.2 Garantir Transparência e Explicabilidade das Decisões Automatizadas
A explicabilidade, ou explainability, deve ser tratada como requisito legal e não apenas técnico. Sistemas utilizados para triagem de transações ou bloqueio de contas devem permitir reconstrução lógica da decisão, com clareza suficiente para possibilitar contestação jurídica por parte do titular.
É essencial que toda decisão de impacto legal tomada por sistemas automatizados esteja documentada, com interface acessível ao compliance officer e às auditorias internas. No caso de instituições financeiras, tal medida é fundamental para atender ao artigo 20 da LGPD e ao artigo 22 da GDPR, ambos relativos ao direito de revisão de decisões automatizadas.
A ausência de explicabilidade poderá ser interpretada, futuramente, como violação à boa-fé objetiva e ao princípio da transparência, pilares do compliance moderno.
4.4.3 Integrar IA ao Programa de Integridade, e Não Substituí-lo
A IA deve ser inserida como componente tático dos programas de integridade, previstos na Lei nº 12.846/2013 e no FCPA, jamais como substituto dos controles humanos ou da cultura ética organizacional. Sua função é fortalecer a capacidade de detecção e resposta a riscos, não abdicar da responsabilidade institucional por decisões sensíveis.
Empresas devem atualizar seus códigos de conduta e manuais de compliance para incluir diretrizes específicas sobre o uso de IA, inclusive quanto à seleção de fornecedores de soluções tecnológicas, auditorias independentes e gestão de incidentes.
Programas eficazes, como aponta o DOJ em seus “Evaluation Guidelines” (2023), são aqueles que incorporam tecnologias inovadoras sem perder o caráter humano e adaptativo da governança ética.
4.4.4 Respeitar os Princípios da Minimização e Finalidade no Uso de Dados
A manipulação de grandes volumes de dados por IA deve observar rigorosamente os princípios da finalidade, adequação, necessidade e segurança, conforme exigido pela LGPD (art. 6º) e pela CCPA/CPRA na Califórnia.
É vedado utilizar dados de clientes para fins de treinamento algorítmico fora do escopo declarado, sem o devido consentimento, salvo em hipóteses autorizadas por lei. O uso indevido de dados pessoais para alimentar IA preditiva, sobretudo em ambientes financeiros, poderá ser considerado infração grave tanto no Brasil quanto nos EUA e na União Europeia, conforme jurisprudência emergente da Corte de Justiça Europeia (CJEU) e da Federal Trade Commission (FTC).
4.4.5 Promover Cooperação Técnica com Autoridades e Reguladores
Organizações privadas devem adotar postura proativa na cooperação com órgãos de controle, como o COAF no Brasil, o FinCEN nos EUA, e o European Banking Authority na Europa. Essa colaboração deve incluir:
A experiência demonstra que empresas que colaboram ativamente com autoridades são melhor posicionadas para mitigar penalidades em caso de falhas operacionais, além de contribuir para a construção de um ecossistema regulatório mais eficaz.
4.5 Criptoativos, DeFi e os Novos Desafios para a Inteligência Artificial na Prevenção à Lavagem de Dinheiro
A análise documental demonstra que, apesar dos avanços nos sistemas de compliance baseados em IA, o fenômeno dos criptoativos e das finanças descentralizadas introduz um grau inédito de complexidade regulatória e tecnológica. O pseudoanonimato, a descentralização e a interoperabilidade entre blockchains ampliam os riscos de lavagem de dinheiro e financiamento de atividades ilícitas, exigindo uma atuação mais sofisticada dos sistemas automatizados.
Ferramentas como Chainalysis, CipherTrace e TRM Labs vêm utilizando IA para rastrear carteiras, mapear redes de transações e identificar padrões comportamentais em ambientes distribuídos. Essas soluções têm se mostrado eficazes em investigações complexas, mas também apresentam limitações críticas quando aplicadas a blockchains com técnicas de ofuscação como mixers e chain-hopping.
Como destaca o relatório do FATF (2021):
A aplicação de tecnologias emergentes na supervisão de ativos virtuais requer abordagens combinadas, que envolvam ferramentas automatizadas, supervisão humana contínua e estruturas legais claras para responsabilização dos agentes envolvidos.
A pesquisa revela que algoritmos de aprendizado não supervisionado podem produzir falsos negativos em ambientes como DeFi e NFTs, onde os fluxos são menos padronizados e a natureza dos ativos é dinâmica. Além disso, a dificuldade de interpretar os critérios decisórios de alguns modelos impede sua aplicação isolada como mecanismo probatório ou punitivo, sob risco de responsabilização indevida da pessoa jurídica ou de operadores que delegaram integralmente decisões à IA.
O uso indiscriminado de IA em contextos como congelamento de wallets, bloqueio de transações ou reporte compulsório sem verificação humana pode acarretar implicações penais, civis e administrativas, especialmente à luz de legislações como a Lei nº 12.846/2013 (Lei Anticorrupção) e os mecanismos de enforcement financeiro global, como o FCPA nos Estados Unidos.
A responsabilização da pessoa jurídica em casos de omissão ou falha na supervisão de algoritmos é uma questão emergente. Como afirmam Schwartz (2017) e Floridi (2022), a ética da IA exige que os tomadores de decisão mantenham controle substantivo sobre os sistemas que operam, mesmo em contextos de alta automação. Isso se traduz na necessidade de IA explicável (XAI), governança algorítmica estruturada e accountability legal clara.
Portanto, a pesquisa conclui que o uso de IA na prevenção à lavagem de dinheiro com criptoativos não é apenas uma questão de capacidade técnica, mas de governança institucional, compatibilidade normativa e responsabilidade corporativa ampliada, com ênfase na supervisão humana contínua como condição inafastável de segurança jurídica.
4.5.1 Responsabilidade Penal da Pessoa Jurídica e Enforcement
No campo jurídico, a crescente autonomia conferida a sistemas de IA utilizados em compliance suscita um problema sensível: quem responde quando uma decisão automatizada incorre em erro material ou violação legal? A responsabilização penal da pessoa jurídica, já prevista em normativas como a Lei nº 12.846/2013, exige que as empresas mantenham controle efetivo sobre seus mecanismos internos de integridade, incluindo os sistemas digitais que integram seus programas de compliance. O simples uso de IA não transfere a culpa nem exime a corporação de responsabilidade.
Nos contextos de lavagem de dinheiro com criptoativos, onde decisões como bloqueio de ativos, classificação de risco ou reporte compulsório podem ser automatizadas, a ausência de supervisão humana contínua constitui falha estrutural grave, com potencial para gerar responsabilização penal, civil e administrativa tanto da organização quanto de seus administradores. É nesse ponto que a doutrina contemporânea tem reforçado a exigência de salvaguardas humanas, como revisão decisória por especialistas, protocolos de validação externa e mecanismos de explicabilidade algorítmica (XAI).
O enforcement moderno, especialmente sob o olhar de autoridades como o FinCEN, o DOJ e o Ministério Público Federal no Brasil, caminha para uma abordagem em que a delegação acrítica de funções sensíveis à IA poderá ser interpretada como negligência institucional. Isso inclui tanto a ausência de trilhas de auditoria quanto a incapacidade de demonstrar que os modelos utilizados seguem padrões éticos, legais e técnicos exigíveis.
Portanto, a responsabilização da pessoa jurídica no contexto de IA não se limita ao resultado da decisão automatizada, mas recai também sobre a estrutura de governança que a permite operar. A inteligência artificial não pode servir de escudo para decisões ilegais, discriminatórias ou omissas, sob pena de comprometer o próprio propósito dos programas de integridade.
5 CONSIDERAÇÕES FINAIS
A presente investigação demonstrou que as ferramentas de inteligência artificial (IA), quando aplicadas de forma ética, transparente e sob adequada governança, representam um valioso recurso no enfrentamento à lavagem de dinheiro em um cenário financeiro cada vez mais digital, descentralizado e dinâmico. No entanto, a incorporação tecnológica não pode ser tratada de maneira dissociada dos marcos normativos e dos princípios jurídicos que regem o sistema de responsabilização e integridade corporativa, sob pena de se converter em risco sistêmico e não em solução.
A análise evidenciou que os desafios contemporâneos extrapolam o escopo tradicional dos programas de compliance, especialmente diante da ascensão de novas formas de criminalidade financeira, facilitadas pelo pseudoanonimato dos criptoativos e pelas arquiteturas opacas da chamada DeFi (Finanças Descentralizadas). A resposta regulatória internacional tem se tornado mais robusta, como evidenciam iniciativas como o MiCA na União Europeia, as diretrizes do FinCEN nos Estados Unidos e a recente promulgação da Lei n.º 14.478/2022 no Brasil. No entanto, tais normativos exigem constante atualização e integração com mecanismos técnicos de rastreabilidade, interoperabilidade de dados e inteligência computacional.
Nesse sentido, a pesquisa reafirma a importância da adoção de modelos de IA explicável (Explainable AI), que permitam auditoria, compreensão dos critérios decisórios e correlação entre dados transacionais e perfis de risco, sobretudo quando se trata da movimentação em blockchain. Ferramentas como Chainalysis e similares demonstram que o potencial analítico da IA pode ser ampliado quando incorporado a plataformas de blockchain analytics, desde que operadas com supervisão humana constante e aderência a princípios de legalidade, finalidade e proporcionalidade, especialmente à luz da LGPD e do GDPR.
Além disso, foi possível concluir que a delegação acrítica de funções sensíveis à IA, como o reporte automatizado de atividades suspeitas ou a inclusão de nomes em listas restritivas, pode ensejar responsabilidade penal, civil e administrativa da pessoa jurídica, nos termos da Lei n.º 12.846/2013 e demais normativos aplicáveis. A ausência de salvaguardas humanas e de processos formais de revisão compromete não apenas a eficácia dos programas de integridade, mas a própria confiança institucional diante das autoridades reguladoras e da sociedade.
Do ponto de vista acadêmico, este trabalho contribui para ampliar o debate sobre a intersecção entre tecnologia, direito e governança corporativa, ao mesmo tempo em que propõe diretrizes concretas para a construção de arcabouços regulatórios mais eficazes, adaptados à realidade da sociedade digital.
Do ponto de vista prático, apresenta insumos relevantes para organizações públicas e privadas que buscam aliar inovação à conformidade, com segurança jurídica e responsabilidade ética.
RECOMENDAÇÕES
Diante da análise realizada sobre a aplicação da Inteligência Artificial (IA) nos programas de prevenção à lavagem de dinheiro, evidencia-se a necessidade de proposições estratégicas que fortaleçam a governança algorítmica, reduzam riscos regulatórios e promovam o uso ético e eficaz dessas tecnologias em ambientes corporativos sensíveis. Assim, recomenda-se:
Para os Gestores Corporativos
A adoção de IA em sistemas de compliance não pode prescindir de uma arquitetura robusta de governança algorítmica. Recomenda-se que as organizações criem comitês interdisciplinares permanentes, integrando profissionais da área jurídica, tecnologia da informação, auditoria e compliance, para supervisionar os ciclos de vida dos algoritmos utilizados. Tais comitês devem garantir a curadoria ética dos dados, a validação contínua dos modelos preditivos e a documentação completa das decisões automatizadas, de modo a viabilizar auditorias internas e externas. A ausência dessa estrutura expõe as organizações a riscos legais e reputacionais irreversíveis.
Para os Legisladores e Reguladores
O desenvolvimento regulatório deve acompanhar o ritmo da inovação tecnológica, sem sufocar seu potencial. Recomendam-se reformas normativas que consolidem o princípio da intervenção humana significativa, a auditabilidade dos modelos de IA e a responsabilização clara por falhas sistêmicas. A criação de guias técnicos, como os previstos no AI Act europeu e nos padrões da ISO 42001, deve ser incentivada nacionalmente. A LGPD brasileira, por sua vez, precisa ser atualizada para incorporar dispositivos específicos sobre sistemas autônomos utilizados em ambientes regulatórios de alta sensibilidade.
Para os Desenvolvedores de Tecnologia
A inteligibilidade dos modelos de IA deve ser considerada um requisito técnico e ético. Recomenda-se que desenvolvedores priorizem o uso de técnicas de Explainable AI (XAI), que permitam a compreensão das decisões por usuários não técnicos, especialmente nos setores jurídico e financeiro. É fundamental, ainda, implementar mecanismos de mitigação de viés algorítmico desde a origem do desenvolvimento, com testagens ex-ante e validações contínuas em contextos diversos, assegurando a neutralidade e a equidade dos resultados.
Para as Empresas em Geral
A prevenção à lavagem de dinheiro por meio da IA deve ser alicerçada na ética organizacional. Recomendam-se investimentos em formação continuada dos colaboradores, programas de ética digital, canais internos de denúncia e revisão permanente das práticas algorítmicas à luz dos direitos fundamentais. A inovação tecnológica, neste cenário, deve estar subordinada à legitimidade social e à proteção da dignidade humana, sob pena de erosão da confiança pública nas instituições.
REFERÊNCIAS
BRASIL. Lei nº 9.613, de 3 de março de 1998. Dispõe sobre os crimes de “lavagem” ou ocultação de bens, direitos e valores e a prevenção da utilização do sistema financeiro para os ilícitos previstos nesta Lei. Diário Oficial da União: seção 1, Brasília, DF, 4 mar. 1998.
BRASIL. Lei nº 12.846, de 1º de agosto de 2013. Dispõe sobre a responsabilização administrativa e civil de pessoas jurídicas pela prática de atos contra a administração pública. Diário Oficial da União: seção 1, Brasília, DF, 2 ago. 2013.
BRASIL. Lei nº 13.709, de 14 de agosto de 2018. Lei Geral de Proteção de Dados Pessoais (LGPD). Diário Oficial da União: seção 1, Brasília, DF, 15 ago. 2018.
BRASIL. Lei nº 14.478, de 21 de dezembro de 2022. Estabelece as diretrizes para prestação de serviços de ativos virtuais. Diário Oficial da União: seção 1, Brasília, DF, 22 dez. 2022.
CARVALHO, André Castro. Prevenção à lavagem de dinheiro e o papel das instituições financeiras. São Paulo: Revista dos Tribunais, 2016.
CHAINALYSIS. Crypto Crime Report 2023. New York: Chainalysis Inc., 2023. Disponível em: https://www.chainalysis.com. Acesso em: 10 jul. 2025.
DOMOGALA, Philippe. UAM integration challenges: Human factors and safety culture. Colônia: EASA, 2022.
EASA – European Union Aviation Safety Agency. Study on the societal acceptance of Urban Air Mobility in Europe. Colônia: EASA, 2021.
EUROPEAN COMMISSION. Markets in Crypto-assets (MiCA) Regulation. Brussels: European Union, 2023. Disponível em: https://finance.ec.europa.eu. Acesso em: 12 jul. 2025.
FLORIDI, Luciano. The Ethics of Artificial Intelligence. Oxford: Oxford Internet Institute, 2019.
ISO/IEC. 42001:2023. Information Technology – Artificial Intelligence – Management System. Geneva: ISO, 2023.
MARCUS, Ben. Building a safe and open airspace for drones and UAM: The role of digital infrastructure. In: AIRMAP. Los Angeles: 2022.
OECD – Organisation for Economic Co-operation and Development. Principles on Artificial Intelligence. Paris: OECD Publishing, 2019.
SCHWARTZ, Mark S. Corporate Ethics and Compliance Programs: A Review of the Literature. Journal of Business Ethics, v. 112, n. 4, p. 615–629, 2013.
UNITED STATES. Bank Secrecy Act (BSA). Public Law 91-508, 1970. U.S. Code: Title 12 – Banks and Banking.
UNITED STATES. Foreign Corrupt Practices Act (FCPA). Public Law 95-213, 1977. U.S. Code: Title 15 – Commerce and Trade.
UNITED STATES. USA PATRIOT Act, Section 314. Public Law 107-56, 2001. U.S. Code: Title 31 – Money and Finance.
UNITED STATES. FinCEN Guidance on Convertible Virtual Currencies. Washington, DC: Financial Crimes Enforcement Network, 2019.
UNITED STATES. Algorithmic Accountability Act. Bill introduced in U.S. Senate, 2022. Disponível em: https://www.congress.gov/bill/117th-congress/senate-bill/3572. Acesso em: 10 jul. 2025.
Área do Conhecimento