Voltar ao Editorial
Direito Digital

Inteligência Artificial na Investigação Criminal: O Alerta do STJ e os Riscos para a Defesa

05 de maio de 2026
Inteligência Artificial na Investigação Criminal: O Alerta do STJ e os Riscos para a Defesa

A Quinta Turma do STJ rejeitou relatório produzido por IA generativa como prova em ação penal. Entenda os perigos da 'caixa preta' algorítmica, como a defesa deve questionar provas produzidas por algoritmos e o que esse precedente significa para o processo penal brasileiro.

A integração de novas tecnologias na segurança pública é uma realidade inegável. No entanto, o uso de ferramentas de Inteligência Artificial (IA) na produção de provas criminais tem gerado debates profundos sobre os limites da atuação estatal e a proteção das garantias fundamentais. Recentemente, o Superior Tribunal de Justiça (STJ) estabeleceu um marco importante sobre o tema, impondo freios ao uso indiscriminado dessas tecnologias em investigações.

Para o cidadão e para a defesa técnica, compreender os riscos associados a relatórios periciais gerados por algoritmos é essencial para evitar condenações baseadas em provas não verificáveis.

O Precedente Inédito do STJ

Em abril de 2026, a Quinta Turma do Superior Tribunal de Justiça proferiu uma decisão paradigmática ao rejeitar um relatório produzido por inteligência artificial generativa como prova em uma ação penal. O caso envolveu a utilização de uma ferramenta de IA (especificamente o modelo Gemini) por autoridades policiais para elaborar um "relatório técnico" que embasava a acusação.

O tribunal decidiu pela exclusão do documento dos autos, estabelecendo que relatórios produzidos por algoritmos, sem validação técnico-científica e sem o crivo da racionalidade humana, não constituem prova válida no processo penal brasileiro. A íntegra da notícia pode ser acessada diretamente no portal do STJ: Quinta Turma rejeita relatório produzido por IA como prova em ação penal.

A fundamentação da Corte não se baseou apenas na legalidade da obtenção da prova ou na cadeia de custódia, mas no princípio da verificabilidade. O sistema jurídico exige que a produção de provas seja confiável e passível de controle pelas partes. Quando uma IA generativa produz um relatório, o caminho lógico percorrido pelo algoritmo — a chamada "caixa preta" — muitas vezes não pode ser auditado pela defesa, o que compromete o contraditório e a ampla defesa.

Os Perigos da "Caixa Preta" Algorítmica

O principal risco do uso de IA em investigações criminais reside na opacidade de seus processos decisórios. Diferentemente de um perito humano, que pode ser questionado em juízo sobre a metodologia aplicada, as fontes consultadas e a margem de erro de sua análise, a inteligência artificial generativa opera por meio de correlações estatísticas complexas que nem mesmo seus desenvolvedores conseguem explicar integralmente em casos específicos.

Essa falta de transparência gera três problemas fundamentais para o processo penal. O primeiro é a impossibilidade de auditar a prova: se a defesa não consegue compreender como a IA chegou a determinada conclusão, torna-se inviável contestar tecnicamente o resultado. O segundo é o risco das chamadas "alucinações" algorítmicas — modelos de linguagem são programados para gerar respostas plausíveis, não necessariamente verdadeiras, podendo inventar fatos, conexões ou até mesmo precedentes jurídicos inexistentes, apresentando-os com extrema convicção. O terceiro é a perpetuação de vieses: as IAs são treinadas com vastos bancos de dados que frequentemente refletem preconceitos históricos e sociais, o que pode resultar em perfilamento algorítmico e direcionar suspeitas de forma discriminatória, contaminando a validade de qualquer medida investigativa subsequente.

A Necessidade de Validação Humana e Científica

A decisão do STJ não proíbe o uso da tecnologia na segurança pública, mas estabelece que a máquina não pode substituir o juízo crítico humano na produção de provas. Conforme o entendimento que começa a se consolidar, qualquer relatório ou análise gerada por software deve ser submetido a rigorosa validação técnico-científica por profissionais habilitados.

A prova pericial no processo penal exige método, reprodutibilidade e controle. Um relatório algorítmico que não atende a esses requisitos pode ser considerado prova inválida por violação ao devido processo legal, devendo ser desentranhado dos autos. Isso não significa que toda prova digital é suspeita, mas que o processo de sua produção precisa ser transparente e auditável.

O Papel da Defesa Técnica Diante das Novas Tecnologias

Diante desse cenário, a atuação da defesa técnica torna-se ainda mais complexa e indispensável. Não basta apenas analisar os fatos; é necessário escrutinar a origem e a metodologia de cada elemento probatório apresentado pela acusação.

Quando elementos de investigação são produzidos com auxílio de IA, a defesa deve exigir a demonstração clara dos parâmetros utilizados, dos dados inseridos no sistema e da validação humana realizada. A ausência desses elementos pode resultar no reconhecimento da ilicitude da prova e, dependendo da estrutura probatória do caso, levar à absolvição ou ao trancamento da ação penal por meio de habeas corpus, quando ausente justa causa para a persecução penal.

A tecnologia deve servir como instrumento de elucidação, não como atalho que sacrifica as garantias constitucionais. A segurança jurídica exige que o Estado prove a culpa de forma transparente, controlável e humana. Se você enfrenta um processo criminal onde relatórios técnicos ou análises digitais obscuras fundamentam a acusação, a orientação jurídica especializada é fundamental para assegurar que seus direitos não sejam atropelados pela automação.

_

Aviso Legal: Este conteúdo tem caráter informativo e não constitui aconselhamento jurídico. Para orientação específica sobre seu caso, entre em contato com o escritório Diego Rocha Advocacia.

Comentários

Seja o primeiro a comentar.

Deixe seu comentário

0/2000