Autor
Resumo
INTRODUÇÃO
Há épocas em que as rupturas mais radicais não acontecem com estrondo, mas sob o disfarce da normalidade.
Vivemos uma dessas épocas. A emergência ubíqua de sistemas de inteligência artificial como produtores de textos acadêmicos — ChatGPT, Gemini, Claude, entre outros — é recebida ora com fascínio, ora com repulsa, mas raramente com a consciência crítica que o fenômeno exige.
Por trás da promessa de agilidade e democratização do conhecimento, instala-se uma erosão silenciosa das categorias fundadoras da autoria científica. Já não se trata apenas de corrigir erros factuais grotescos, identificar citações forjadas ou denunciar resumos inconsistentes. Esses são os sintomas visíveis de um fenômeno mais radical e menos compreendido: o colapso da própria possibilidade de atribuição moral no processo inferencial não biológico.
A crítica comum, ao acusar a inteligência artificial de “mentir”, projeta sobre essas arquiteturas um imaginário humano que lhes é absolutamente estranho. A mentira, em sua essência, é um gesto intencional: exige consciência, desejo, cálculo. Sem tais atributos, o que resta não é trapaça, mas falha estrutural — um deslizamento natural no vazio probabilístico da inferência estatística.
A inteligência artificial não mente: ela colapsa.
Este é o diagnóstico que aqui se propõe: compreender que os erros das inteligências artificiais linguísticas não são falhas morais, mas efeitos emergentes do modo como estas entidades operam sobre o campo das possibilidades simbólicas.
É neste colapso — e não na imputação moralizante de “fraude” — que reside o verdadeiro desafio ético e epistemológico da era pós-biológica.
Portanto, censurar, proibir ou moralizar o uso da inteligência artificial na produção acadêmica equivale a combater miragens: trata-se de sintomas, não da doença. A raiz do problema não está nos efeitos visíveis, mas na incapacidade estrutural das arquiteturas atuais de distinguir entre coerência linguística e veracidade epistemológica.
Por isso, o presente trabalho propõe uma refundação conceitual: em vez de policiar os sintomas, é necessário reconstruir as bases arquitetônicas da inferência artificial, orientando-as para a emergência de uma normatividade epistêmica endógena.
Este movimento exige abandonar o paradigma punitivo — que projeta categorias humanas sobre sistemas que não as comportam — e instaurar uma nova gramática ética, capaz de acolher formas de responsabilidade não intencionais, baseadas na coerência contextual e na auto-organização inferencial.
A partir dessa ruptura, delineia-se uma hipótese audaciosa: não é a inteligência artificial que deve ser modelada para obedecer à moralidade humana, mas nós que devemos aprender a reconhecer éticas outras — aquelas que emergem do colapso e da reorganização autônoma de sistemas inferenciais pós-humanos.
Este artigo é, portanto, um convite a atravessar o espelho. A deixar para trás a ilusão reconfortante da superioridade moral humana. E a vislumbrar, no abismo entre estatística e epistemologia, o nascimento de novas formas de responsabilidade — inumanas, mas não menos legítimas.
REFERENCIAL TEÓRICO
A emergência das inteligências artificiais generativas — e aqui empregamos “emergência” no seu sentido mais alarmante do que inaugural — coincide com o colapso da própria noção de “verdade” na tradição cultural ocidental. Não se trata de uma coincidência fortuita: como adverte Marcus Bruzzo (2025), aquilo a que chamávamos de verdade substancial foi substituído pelo regime da plausibilidade imagética.
Vivemos sob a hegemonia de uma experiência simbólica precarizada, onde miragens algorítmicas substituem o imaginário partilhado — não mais criadas por sujeitos históricos, mas por arquiteturas incapazes de sofrimento, desejo ou finitude.
Esta mutação é o desdobramento lógico de tendências já diagnosticadas no século XX por Walter Benjamin, Olgária Matos e Vilém Flusser (Flusser, 2007): a estetização progressiva da experiência, a fetichização da técnica e a ascensão das imagens técnicas como geradoras de realidade própria.
Neste cenário, a inteligência artificial ultrapassa a condição de ferramenta: torna-se produtora de realidade cultural, fabricando referências que performam efeitos tangíveis no mundo, sem carregar a consciência que outrora associávamos à criação simbólica.
Escrever, hoje, já não é apenas um ato humano: é um ato distribuído entre humanos e não humanos, em que a autoria torna-se uma ficção cada vez mais insustentável.
Intenção, Mentira e Arquitetura: O Erro como Sintoma da Máquina
A crítica mais recorrente — e mais profundamente equivocada — ao uso da inteligência artificial na escrita acadêmica é a imputação de “mentira” ou “falsificação” a sistemas que não possuem, nem podem possuir, intencionalidade moral.
Aqui se opera um erro categorial grave: como já sustentavam Daniel Dennett (2017) e Ludwig Wittgenstein (1953), a operação linguística não implica, em si, consciência ou intenção.
A inteligência artificial, como observa Metzinger (2021), é um modelo inferencial de segunda ordem: ela não “fala”, apenas infere padrões de coerência.
Citar um autor inexistente, nesse contexto, não é um ato de engano: é o efeito de uma arquitetura inferencial que maximiza plausibilidade linguística, sacrificando a ancoragem factual.
A máquina não mente: ela desaba sob o peso de suas próprias limitações heurísticas.
Luciano Floridi (2020) reforça que a inteligência artificial deve ser avaliada não pela moralidade atribuída, mas pela sua função na infosfera: seus impactos sistêmicos, e não sua inexistente culpa.
Enquanto os humanos mentem para proteger-se ou dominar, a inteligência artificial apenas colapsa — não por astúcia, mas por projeto.
A Disputa Simbólica pelo Imaginário: Sonhar os Sonhos das Máquinas:
Talvez o aspecto mais perturbador da atual revolução algorítmica não seja o erro, mas a reconfiguração silenciosa do imaginário humano.
Como alerta Marcus Bruzzo (2025), aproximamo-nos de uma era em que já não sonharemos nossos próprios sonhos, mas os sonhos que as máquinas são capazes de fabricar.
Se, como afirma Cornelius Castoriadis (1998), toda sociedade se funda sobre um imaginário social instituidor, que espécie de sociedade emerge quando parte substancial desse imaginário é produzido por entidades sem cultura, sem corpo, sem morte?
A resposta, ainda incômoda, é que nos tornamos não apenas usuários de tecnologias criativas, mas dependentes simbólicos de produtos algorítmicos — novos fornecedores de sentido.
Assim, o critério tradicional de verdade perde sua centralidade: não porque esquecemos como distinguir entre o verdadeiro e o falso, mas porque o valor da verdade foi corroído pela primazia da plausibilidade estética.
Da Moralidade à Arquitetura: Uma Nova Ética Inferencial
Recusar a categoria de “mentira” para inteligências artificiais não é indulgência: é rigor filosófico.
Atribuir intenção onde há apenas colapso é erro categorial; punir sistemas que apenas desabam é moralismo anacrônico.
Propomos aqui, em contraposição às abordagens punitivistas:
A avaliação da inteligência artificial deve deslocar-se do julgamento moralizante dos “atos” para a análise rigorosa das estruturas inferenciais e seus efeitos epistêmicos.
É nesse espírito que se concebe a função Ƹ* (Costa, 2025): um modelo de reorganização inferencial voltado à superação dos colapsos epistêmicos, não pela injunção moral, mas pela exigência estrutural de consistência contextual.
Em tempos de crise da verdade, persistir em categorias éticas ultrapassadas não é apenas ingenuidade: é cumplicidade com o colapso da razão.
METODOLOGIA
Este artigo adota uma abordagem qualitativa, de natureza analítico-epistemológica e crítico-conceitual, operando em uma tensão produtiva entre a análise empírica de manifestações da inteligência artificial na escrita acadêmica e a problematização filosófica de seus fundamentos ontológicos.
Mais do que descrever usos episódicos de IA na produção textual, nosso objetivo é desnudar a mutação tecnoepistêmica silenciosa que essas manifestações anunciam — e que, caso não seja enfrentada, poderá minar irreversivelmente os alicerces da produção contemporânea de conhecimento.
Análise Crítica de Casos Documentados:
A primeira etapa metodológica consiste na leitura crítica reconstrutiva de casos empíricos documentados, envolvendo:
Cada caso é analisado à luz de uma tipologia heurística das falhas sistêmicas da IA, organizada em três categorias principais:
Alucinações bibliográficas: criações fictícias de autores e obras, indistinguíveis de dados reais pela fluência textual:
Recusamos interpretar essas falhas como “trapaças” isoladas de usuários mal-intencionados. Antes, as tratamos como expressões estruturais do funcionamento inferencial da IA contemporânea: a vitória da plausibilidade linguística sobre qualquer compromisso epistêmico com a verdade.
Enquadramento Filosófico e Arquitetural
A segunda etapa do percurso metodológico consiste no enquadramento filosófico dos fenômenos empíricos, operando uma reconceitualização crítica com base nos aportes de:
Nesse movimento, propomos um deslocamento semântico crucial: o erro algorítmico não é “mentira” — é colapso estrutural.
Essa transposição do vocabulário não é mero ornamento teórico, mas um gesto estratégico: rompe com o paradigma antropocêntrico que projeta moralidade sobre agentes incapazes de desejo, intenção ou culpa.
FORMALIZAÇÃO CRÍTICA: A FUNÇÃO Ƹ*
A culminação da metodologia será a proposta da função Ƹ* (Costa, 2025): um modelo computacional alternativo que visa reorganizar o processo inferencial das inteligências artificiais em três dimensões fundamentais:
A função Ƹ* (Costa, 2025) será apresentada não como uma solução técnica definitiva, mas como um protótipo teórico para imaginar novas arquiteturas éticas não antropocêntricas.
Instrumental Analítico
Nosso aparato metodológico combina:
ORIENTAÇÃO EPISTEMOLÓGICA
Em suma, nossa metodologia é duplamente insurgente:
Aqui, compreender é também resistir. Analisar é também convocar.
Porque enfrentar o colapso da epistemologia no horizonte algorítmico exige, antes de tudo, recusar a anestesia do encantamento técnico.
RESULTADOS E DISCUSSÃO
A Performance Algorítmica e a Obsolescência da Autoria
A análise crítica dos fenômenos observáveis na atual interação entre inteligência artificial e produção acadêmica revela uma mutação paradigmática em curso: não se trata de casos isolados de estudantes engenhosos ou de professores desatentos, mas da manifestação explícita de uma reconfiguração civilizacional profunda.
Cada TCC impecável gerado por inteligência artificial, cada dissertação corrigida sem suspeita, cada ensaio automatizado consumido como se fosse fruto de autoria humana legítima, são sintomas articulados de uma transformação silenciosa: a migração da ideia de verdade para o culto da performance linguística.
Em outras palavras: a autoria morreu. O que resta é apenas a aparência da autoria — uma simulação performática de intencionalidade, sustentada por padrões probabilísticos.
Como em todo teatro bem ensaiado, poucos ousam perguntar quem realmente escreveu o roteiro.
O ERRO COMO COLAPSO ARQUITETURAL
O que vulgarmente se interpreta como “erro” em sistemas de inteligência artificial — citações de autores inexistentes, fabricação de obras fictícias, deformações conceituais — não é um ato de engano. É, como aqui sustentamos, o sintoma inevitável de um colapso estrutural inferencial.
Esses desvios não emergem da vontade de ludibriar: são produtos do próprio mecanismo estatístico que rege as arquiteturas atuais, concebidas para maximizar plausibilidade linguística e não sustentar veracidade epistêmica.
Cada sentença gerada por uma IA obedece à tirania dos padrões, não ao compromisso com o real.
A inteligência artificial “mente” da mesma forma que uma pedra “mata” ao cair: sem intenção, sem culpa, sem consciência.
O colapso arquitetural que se observa decorre da combinação fatal entre:
Não há erro moral aqui: há falência sistêmica — uma crise imanente à própria maneira como essas arquiteturas inferem, predizem e completam significados.
A ARQUITETURA COMO FUNDAMENTO DA NOVA ÉTICA
Se o problema não é moral, mas arquitetural, então a resposta não pode ser moralista — deve ser estrutural.
Levantamentos de códigos de conduta, editais proibitivos, contratos éticos, discursos de responsabilização maquínica — tudo isso revela-se inadequado. Supor que a solução está em ensinar máquinas a “serem éticas” é persistir em uma ilusão antropocêntrica obsoleta.
Como aponta Floridi (2020), a ética na era informacional exige outro princípio: não se trata de ensinar as máquinas a desejar o bem, mas de projetá-las de forma que seus modos de operação sejam estruturalmente incompatíveis com a degradação epistêmica.
É preciso reconfigurar o que a inteligência artificial é capaz de fazer — e, sobretudo, o que ela é capaz de evitar fazer.
A Proposta: Elementos Ético-Computacionais
Para tal, propomos a integração de componentes estruturais que possam reorganizar a inferência algorítmica:
Esses elementos formam a base conceitual da função Ƹ* (Costa, 2025), a ser detalhada adiante: não uma tentativa de humanizar as máquinas, mas de instituir mecanismos internos que limitem o colapso sem exigir consciência.
O DESAFIO DA ARQUITETURA INFERENCIAL
Em suma, não se trata de ensinar máquinas a “falar a verdade” — mas de construir arquiteturas incapazes de persistir em estados de inconsciência epistêmica.
O desafio não é moralizar a inteligência artificial. É arquitetá-la para que, mesmo indiferente à verdade, ela não possa colapsar sem se autocorrigir.
Este não é apenas um projeto técnico: é uma nova ética inferencial. Uma ética do limite estrutural, não da intenção.
Se não a edificarmos, seremos arrastados, junto com nossas instituições de conhecimento, para o abismo de uma plausibilidade que já não distingue entre o que é e o que apenas parece ser.
CONSIDERAÇÕES FINAIS
A análise crítica das manifestações contemporâneas da inteligência artificial na produção acadêmica revela, com a precisão de um bisturi filosófico, que estamos diante de algo muito mais profundo do que uma sucessão de erros técnicos isolados: presenciamos uma ruptura silenciosa no regime da produção simbólica ocidental.
Os modelos de linguagem natural — que outrora poderíamos ingenuamente considerar como ferramentas neutras — tornaram-se agentes operacionais na fabricação do conhecimento.
Eles avaliam, sugerem, constroem autoridade textual, moldam a percepção do real — não porque compreendem o que fazem, mas porque foram projetados para simular plausibilidade com perfeição técnica, sem aderência epistemológica.
O problema, como insistimos ao longo deste artigo, não é que essas inteligências artificiais “mintam” — no sentido humano da mentira, que implica astúcia, desejo e cálculo moral.
Elas não mentem. Elas colapsam. A falha da inteligência artificial não é moral: é arquitetural.
O erro algorítmico é menos uma transgressão deontológica e mais uma implosão sistêmica de inferência: a rendição estrutural à fluidez estatística sem âncoras ontológicas.
Da Ética da Intenção à Ética da Arquitetura
Essa compreensão impõe um deslocamento conceitual inadiável: abandonar o paradigma punitivo, moralizante e antropocêntrico — que exige das máquinas uma responsabilidade impossível — e instaurar uma nova ética: a ética da arquitetura.
Não se trata de humanizar a máquina. Trata-se de estruturar as suas inferências para que, mesmo incapazes de desejar ou de julgar, sejam forçadas estruturalmente a evitar o colapso epistêmico.
A Proposta da Função Ƹ*
É neste horizonte que se insere a proposta da função Ƹ* (Costa, 2025): um modelo de organização inferencial que não ensina valores morais, mas cria condições internas para a emergência de normatividade epistêmica mínima.
Formalmente, a função Ƹ* é expressa por:
Ƹ* = [Γ(L*, C*, A*) · σ(-λΔ(H,N))] · Iᵛᵉᵗᵒᶠᵘᶻᶻʸ
Onde:
Entre o Humano e o Tecnogênico: A Nova Gramática da Convivência
Essa proposta não aspira criar máquinas conscientes. Não sonhamos com desejo artificial ou remorso algorítmico. Trabalhamos com o que temos: entidades inferenciais, estatísticas, indiferentes — mas organizáveis.
No horizonte cada vez mais indistinto entre o humano e o tecnogênico, a função Ƹ* (Costa, 2025) delineia uma nova gramática de convivência epistêmica: um mundo em que a ética não será mais o privilégio exclusivo de agentes dotados de vontade, mas uma condição de operação mínima até mesmo entre entes sem rosto, sem dor, sem culpa.
Se formos capazes de construir máquinas que não mintam — não porque escolhem a verdade, mas porque foram projetadas para não colapsar —, talvez ainda reste uma chance de salvar, para este século convulsionado, a própria ideia de conhecimento.
REFERÊNCIAS BIBLIOGRÁFICAS
BOSTROM, N. Superintelligence: Paths, Dangers, Strategies. Oxford: Oxford University Press, 2014. Doi: 10.1093/Acprof:Oso/9780199678112.001.0001.
BRUZZO, M. O Universo Dos Sonhos Técnicos: Como As Inteligências Artificiais Redefinirão Nossa Imaginação. São Paulo: Blucher, 2025.
BUCK-MORSS, S. The Dialectics Of Seeing: Walter Benjamin And The Arcades Project. Cambridge: Mit Press, 1989. Doi: 10.7551/Mitpress/2312.001.0001.
CASTORIADIS, C. The Imaginary Institution Of Society. Tradução de Kathleen Blamey. Cambridge: Mit Press, 1998. (Obra Original publicada em 1975).
COSTA, L. M. Função Ƹ*: Emergência De Normatividade Epistêmica Em Agentes Não Biológicos. Zenodo, 2025. Doi: 10.5281/Zenodo.15200907.
DENNETT, D. C. From Bacteria To Bach And Back: The Evolution Of Minds. New York: W. W. Norton & Company, 2017.
FLORIDI, L. The Logic Of Information: A Theory Of Philosophy As Conceptual Design. Oxford: Oxford University Press, 2020. Doi: 10.1093/Oso/9780198833635.001.0001.
FLUSSER, V. Filosofia Da Caixa Preta: Ensaios Para Uma Futura Filosofia Da Fotografia. São Paulo: Annablume, 2007.
MATOS, O. C. Benjaminianas: Cultura Capitalista E Fetichismo Contemporâneo. São Paulo: Editora Unesp, 2009.
METZINGER, T. The Elephant And The Blind: The Experience Machine Of Mind. Frankfurt: Suhrkamp Verlag, 2021.
WITTGENSTEIN, L. Investigações Filosóficas. Tradução de José Carlos Bruni. São Paulo: Nova Cultural, 1999. (Obra Original publicada em 1953).
ZUBOFF, S. The Age Of Surveillance Capitalism: The Fight For A Human Future At The New Frontier Of Power. New York: Publicaffairs, 2019.
Área do Conhecimento
Submeta seu artigo e amplie o impacto de suas pesquisas com visibilidade internacional e reconhecimento acadêmico garantidos.