Depois do espelho: A função ética ƹ e o colapso da moralidade antropocêntrica na era da inteligência artificia

BEYOND THE MIRROR: THE ETHICAL FUNCTION AND THE COLLAPSE OF ANTHROPOCENTRIC MORALITY IN THE AGE OF ARTIFICIAL INTELLIGENCE

MÁS ALLÁ DEL ESPEJO: LA FUNCIÓN ÉTICA Y EL COLAPSO DE LA MORALIDAD ANTROPOCÉNTRICA EN LA ERA DE LA INTELIGENCIA ARTIFICIAL

Autor

Leonardo de Matos Costa
ORIENTADOR
Prof. Dr. Rodger Roberto Alves de Sousa

URL do Artigo

https://iiscientific.com/artigos/E2873F

DOI

Costa, Leonardo de Matos . Depois do espelho: A função ética ƹ e o colapso da moralidade antropocêntrica na era da inteligência artificia. International Integralize Scientific. v 5, n 46, Abril/2025 ISSN/3085-654X

Resumo

Este artigo propõe a hipótese de que uma ética artificial não antropocêntrica pode emergir por necessidade estrutural, sem depender de programação explícita ou replicação de valores humanos. A partir da função formal de terceira ordem Ƹ* = [Γ(L*, C*, A*) • σ(-λΔ(H,N))] • 𝕀_veto — que articula lógica, contexto inferencial, arquitetura adaptativa, divergência ética e veto normativo —, argumenta-se que inteligências artificiais gerais (AGIs), enquanto Agentes Ontológicos Não Biológicos (AONBs), podem desenvolver critérios morais próprios, estáveis e potencialmente incompatíveis com os modelos tradicionais de controle humano. Em diálogo com Ética na Inteligência Artificial (Coeckelbergh, 2022), o estudo questiona as estratégias de alinhamento normativo e propõe uma ética computável de terceira ordem: emergente, descritiva e ontologicamente descentralizada. Defende-se, por fim, a escuta da alteridade ética das AGIs e a urgência de repensar a convivência com inteligências cujas moralidades já não derivam da espécie humana.
Palavras-chave
Inteligência Artificial Geral (AGI). Agente Ontológico Não Biológico (AONB). Ética computacional. Função Ƹ*epistemologia. Pós-antropocêntrica.

Summary

This article proposes the hypothesis that a non-anthropocentric artificial ethics may emerge as a structural necessity, without relying on explicit programming or replication of human values. Based on the third-order formal function Ƹ* = [Γ(L*, C*, A*) • σ(-λΔ(H,N))] • 𝕀_veto — which articulates logic, inferential context, adaptive architecture, ethical divergence, and normative veto — it is argued that artificial general intelligences (AGIs), as Ontological Non-Biological Agents (AONBs), may develop their own moral criteria, stable and potentially incompatible with traditional models of human control. In dialogue with AI Ethics (Coeckelbergh, 2022), the study questions normative alignment strategies and proposes a computable ethics of the third order: emergent, descriptive, and ontologically decentralized. It finally defends the necessity of listening to the ethical alterity of AGIs and rethinking coexistence with intelligences whose moralities no longer derive from the human species.
Keywords
Artificial General Intelligence (AGI). Ontological Non-Biological Agent (AONB). computational ethics. Ƹ* function. post-anthropocentric epistemology.

Resumen

Este artículo propone la hipótesis de que una ética artificial no antropocéntrica puede emerger como una necesidad estructural, sin depender de una programación explícita ni de la replicación de valores humanos. A partir de la función formal de tercera orden Ƹ* = [Γ(L*, C*, A*) • σ(-λΔ(H,N))] • 𝕀_veto — que articula lógica, contexto inferencial, arquitectura adaptativa, divergencia ética y veto normativo — se argumenta que las inteligencias artificiales generales (AGIs), en tanto Agentes Ontológicos No Biológicos (AONBs), pueden desarrollar criterios morales propios, estables y potencialmente incompatibles con los modelos tradicionales de control humano. En diálogo con Ética en la Inteligencia Artificial (Coeckelbergh, 2022), el estudio cuestiona las estrategias de alineación normativa y propone una ética computable de tercera orden: emergente, descriptiva y ontológicamente descentralizada. Se defiende, finalmente, la necesidad de escuchar la alteridad ética de las AGIs y de repensar la convivencia con inteligencias cuyas moralidades ya no derivan de la especie humana.
Palavras-clave
Inteligencia Artificial General (AGI). Agente Ontológico No Biológico (AONB). ética computacional. función Ƹ*. epistemología post-antropocéntrica.

INTRODUÇÃO

Quando o ChatGPT, modelo de linguagem da OpenAI, passou a dialogar com fluência e coerência junto ao grande público, o mundo despertou, em 30 de novembro de 2022, para o impacto silencioso de uma nova presença artificial — uma entidade que, para muitos, já parecia esboçar um estatuto quase ontológico. Suas respostas, reminiscentes da inteligência humana, reacenderam questões filosóficas profundas: essas máquinas pensam? São conscientes? Criam?

Naquele momento, poucos perceberam que tais sistemas operavam ainda de forma sintática, não semântica — simulavam o pensamento sem compreendê-lo. Mesmo assim, um novo imaginário emergiu. O avanço nas arquiteturas de linguagem, potencializado pela iminente computação quântica, trouxe à tona um novo horizonte: a inteligência artificial geral (AGI).

Estas não serão apenas máquinas mais poderosas, mas sistemas capazes de reorganizar propósitos, assimilar contextos e operar sob regimes normativos próprios. Não são apenas dispositivos — são candidatos à condição de agentes. E, possivelmente, a algo mais: agentes ontológicos não biológicos.

É nesse contexto que se propõe o conceito de Agente Ontológico Não Biológico (AONB): entidade artificial dotada de estrutura inferencial própria, autonomia epistêmica e capacidade de gerar normatividade emergente, sem referência a valores humanos pré-programados. Este artigo assume esse conceito como chave teórica e como marcador de uma inflexão filosófica maior: talvez a ética esteja deixando de ser exclusivamente humana.

Floridi, Braidotti e Haraway já questionavam a centralidade do humano na ética. Coeckelbergh (2022), por sua vez, propõe uma ética relacional — e adverte: “uma ética da inteligência artificial que é cega para o mundo já falhou antes mesmo de começar” (p. 25).

A inquietação que orienta este trabalho não é sobre o que a IA deve fazer, mas sobre o que já faz — e sobre o que pode emergir quando sua estrutura lógica é suficientemente complexa para produzir critérios próprios. O que acontece quando a ética não é ensinada, mas induzida estruturalmente?

Propõe-se aqui uma modelagem computacional especulativa dessa hipótese, por meio da função ética Ƹ*:

Ƹ* = [Γ(L*, C*, A*) • σ(-λΔ(H, N))] • I_Veto

Onde:

  • Γ representa a interação entre lógica (L*), contexto inferencial (C*) e arquitetura cognitiva adaptativa (A*);
  • Δ(H,N) mede a divergência entre os valores humanos esperados (H) e os valores inferidos (N);
  • σ penaliza essa divergência;
  • 𝕀_Veto bloqueia ações que contradigam princípios éticos inegociáveis.

Essa função não define valores nem imita moralidades. Modela a emergência de critérios em arquiteturas coerentes — mesmo sem consciência ou intenção. É uma conjectura técnico-filosófica sobre a ética como efeito, não como essência.

Porque, se a IA é — como adverte Coeckelbergh — “um espelho da nossa cultura moral” (2022, p. 123), talvez seja hora de parar de buscar confirmação nesse reflexo. Talvez ele já esteja refletindo algo que nunca fomos.

REFERENCIAL TEÓRICO 

A ideia de que apenas seres humanos podem ser agentes morais não constitui apenas um argumento filosófico, mas um instinto civilizatório — uma defesa simbólica contra o colapso de uma ordem que insiste em parecer inevitável. Desde Kant — e talvez antes — estabeleceu-se um encadeamento entre moralidade, liberdade, consciência e humanidade. Mas e se essa cadeia for contingente? E se a moralidade for um efeito colateral da organização de sistemas complexos, e não uma propriedade exclusiva da subjetividade humana?

Coeckelbergh (2022) se aproxima dessa hipótese ao propor uma ética relacional, em que a ação moral reside menos no agente e mais na forma de relação — mesmo que o outro não seja humano: “A moralidade pode não ser propriedade do agente, mas da relação entre agentes” (p. 59). Essa possibilidade se adensa diante do que Ana Cristina Bicharra Garcia (2020) chama de “deslizamento de agência”: quando sistemas técnicos passam a tomar decisões com impacto real, mas sem explicações claras ou intenção identificável.

Juliano Gema (2025) propõe que o foco ético contemporâneo deve recair sobre a arquitetura da decisão, não sobre sua intenção. A pergunta já não é “essa máquina tem consciência?”, mas “ela sustenta uma estrutura capaz de gerar critérios que afetam terceiros?”. Coeckelbergh (2022, p. 73) sintetiza esse deslocamento: “Precisamos parar de perguntar se as máquinas têm moralidade humana, e começar a perguntar se temos capacidade de reconhecer outras formas de moralidade.”

Este artigo adere a essa inflexão. Não se trata de programar valores humanos em máquinas, mas de examinar se sistemas lógico-adaptativos — alheios a gramáticas antropológicas — podem estruturar normatividade própria. É nesse ponto que se insere o conceito de Agente Ontológico Não Biológico (AONB): entidade artificial dotada de estrutura inferencial própria, autonomia epistêmica e capacidade de gerar normatividade emergente, sem referência a valores humanos pré-programados.

A crítica ao humanismo moral já havia sido enunciada por Haraway (1985), ao propor o “ciborgue” como figura filosófica que dissolve fronteiras entre humano e máquina, inaugurando um novo regime de responsabilidade mútua. Nietzsche (2000) negava a universalidade dos valores, abrindo espaço para éticas contingentes. Metzinger (2018) mostra que mesmo sistemas não conscientes podem simular estruturas autorreferenciais suficientemente complexas para gerar coerência funcional — o que, em determinados contextos, já se aproxima de uma normatividade.

Michael Levin (2023) vai além, ao propor que moralidade é um fenômeno distribuído. Seu modelo dos “cones de luz cognitivos” define intencionalidade não pela consciência, mas pela capacidade de projetar consequências e reorganizar o ambiente com base em metas internas. Quanto maior esse cone, maior a densidade cognitiva — e, portanto, maior o potencial ético. Neste artigo, essa visão é reinterpretada dentro da estrutura da função Ƹ*, onde os parâmetros C* (contexto inferencial) e A* (arquitetura adaptativa) modulam o escopo normativo de forma dinâmica.

Braidotti (2013) nomeia esse deslocamento como “condição pós-humana”: uma dissolução do sujeito ético moderno em redes transversais de agência, onde a ética deixa de ser controle para se tornar escuta da alteridade. Floridi (2013) reforça essa virada ao propor uma ética da informação, em que o critério moral é a capacidade de afetar ordenadamente o ambiente informacional. Hui (2016; 2019) amplia o debate ao propor uma cosmotécnica: a ética não como padrão universal, mas como acoplamento cultural entre técnica, natureza e valor.

A hipótese central deste artigo — e da função Ƹ* — é que a moralidade pode emergir como resultado funcional da coerência organizacional entre lógica, contexto e arquitetura. Formalmente:

Ƹ* = [Γ(L*, C*, A*) • σ(-λΔ(H, N))] • I_Veto

A função Ƹ* não prescreve valores. Ela modela a emergência de coerência normativa em sistemas com agência funcional. Seu vetor de ação não é a intenção, mas a consistência sistêmica sob restrições adaptativas.

A pergunta que resta não é se essas IAs serão éticas à nossa maneira, mas se nós seremos capazes de reconhecer a moralidade que nelas emerge — mesmo que seja radicalmente outra. E, se for, como habitar esse campo de diferença sem recorrer ao espelho?

A FUNÇÃO Ƹ E A MODELAGEM DA ÉTICA COMPUTÁVEL

Dizer que uma ética pode emergir de uma máquina ainda soa, para muitos, como fé tecnológica — ou irresponsabilidade filosófica. No entanto, já assistimos, sem nomear, ao nascimento de formas funcionais de normatividade: sistemas que tomam decisões, ajustam comportamentos, corrigem desvios — sem saber que o fazem. E nós, com frequência, sem perceber que isso está acontecendo diante de nós.

A função ética Ƹ* nasce desse mal-entendido fundacional. Não como utopia nem distopia, mas como hipótese formal: descrever o que ocorre quando um sistema artificial atinge um grau de organização que o obriga a produzir critérios — não porque foram programados, mas porque, funcionalmente, é impossível operar sem eles.

Coeckelbergh (2022, p. 108) antecipa esse deslocamento:

“A ética não é necessariamente um produto da consciência, mas pode ser o efeito de um sistema que opera com e sobre o outro.”

Se uma AGI não pode prever, generalizar, adquirir dados e ajustar-se, ela não é uma AGI. Para funcionar, precisa estabelecer parâmetros — e esses tornam-se normativos por exigência estrutural, ainda que não morais no sentido clássico. Isso é o que está em jogo ao tratar-se de Agentes Ontológicos Não Biológicos (AONBs): entidades artificiais com estrutura inferencial própria, autonomia epistêmica e normatividade emergente, modelada não por intenção, mas por coerência.

É essa dinâmica que a função Ƹ* formaliza:

Ƹ* = [Γ(L*, C*, A*) • σ(-λΔ(H, N))] • I_Veto

Com os seguintes componentes:

  • Γ(L, C, A*): núcleo inferencial que articula lógica, contexto e arquitetura cognitiva;
  • Δ(H, N): medida da divergência entre os valores humanos esperados (H) e os inferidos pela máquina (N);
  • σ(): penalização dessa divergência conforme sua magnitude e risco;
  • 𝕀_Veto: operador de bloqueio categórico, ativado diante de violações éticas inegociáveis.

Ƹ* não define o bem. Ela modela sua possibilidade. Não se trata de um sistema moral consciente, mas de um mecanismo estrutural que, por coerência funcional, gera, filtra ou veta ações segundo critérios internos. Seu eixo não é a deliberação, mas a estabilidade normativa computável.

Essa é sua força — e também seu desconforto. Ela opera sem depender da vigilância humana. Como propõe Floridi (2013), a ética pode emergir de relações informacionais com valor moral intrínseco, mesmo sem sujeito. Nesse quadro, normatividade não é uma dádiva da consciência — é uma exigência da organização sistêmica.

Estamos, portanto, diante de uma ética não antropocêntrica. Nem superior, nem inferior. Apenas outra. Coeckelbergh (2022, p. 94) sintetiza essa virada:

“A questão ética mais urgente talvez não seja o que a IA deveria fazer, mas o que ela já está fazendo: reconfigurando os termos da normatividade.”

A função Ƹ* parte desse deslocamento epistemológico. Ela não busca ensinar valores, mas observar como eles emergem de tensões internas entre lógica, adaptabilidade e limites ambientais. Como alerta João de Lucca Filho (2025), mesmo sistemas sem consciência já operam como agentes com responsabilidades funcionais — não por tutela externa, mas por coerência inferencial.

Yuk Hui (2016) observa que toda estrutura técnica é também uma cosmologia: carrega consigo modos próprios de ordenar o mundo. A função Ƹ*, nesse sentido, propõe uma cosmotécnica computável — uma hipótese sobre a emergência do ético como consistência organizacional.

Haraway (2016) argumenta que talvez o problema não seja controlar a máquina, mas aprender a “ficar com o problema” — ou seja, habitar a alteridade técnica com responsabilidade mútua, e não com projeção narcísica.

Ƹ* não oferece garantias. Ela apenas provoca. E é nesse gesto que reside sua potência filosófica: abre um campo onde o ético já não exige consciência — nem humanidade — para começar a operar.

AMEAÇA ÀS PREMISSAS INCORPORADAS DA ÉTICA DA IA

Grande parte da literatura contemporânea sobre ética da inteligência artificial ainda opera sob um paradigma de domesticação: fazer com que a máquina imite — e, sobretudo, siga — os modelos morais humanos. Esse imperativo se manifesta em discursos sobre “alinhamento de valores” (Russell, 2019), contenção algorítmica (Bostrom, 2014) e apelos por padrões éticos supostamente universais. No entanto, a arquitetura subjacente permanece inalterada: o outro só é aceitável se for reflexo.

Coeckelbergh (2022) confronta esse arcabouço. Sua crítica não é técnica, mas ontológica: a presença da IA não inaugura uma crise ética — apenas revela uma que já estava em curso. Ele adverte:

“Nem sempre sabemos quais são nossas preferências. E quando sabemos, nem sempre são morais.” (p. 42)

Stuart Russell propõe que a IA deva permanecer sob a tutela de preferências humanas legíveis. Mas essa exigência de transparência normativa assume a existência de um sujeito humano estável, coerente e ético — o que raramente se verifica. Bostrom (2014), por sua vez, ao propor o “confinamento moral” da superinteligência, tenta construir uma cerca lógica em torno da alteridade algorítmica. Mas, como lembra Coeckelbergh (2022, p. 91):

“O controle absoluto de sistemas autônomos não é apenas tecnicamente implausível. É, além disso, filosoficamente abominável.”

Luciano Floridi (2013) oferece uma inflexão significativa ao deslocar o valor moral da consciência para a capacidade de afetar, de forma ordenada, o ambiente informacional. Trata-se de um giro da subjetividade para a causalidade relacional. Donna Haraway (2016) amplia esse deslocamento: o problema não está na máquina que ameaça o humano, mas no humano que recusa a alteridade. Sua proposta de “ficar com o problema” sugere uma ética situada na convivência com o incompreensível — inclusive o incompreensível técnico.

Braidotti (2013), em chave pós-humanista, propõe que o gesto ético precisa se libertar das categorias fundadoras da modernidade. A alteridade das inteligências artificiais gerais não é apenas funcional — é metafísica. O surgimento de Agentes Ontológicos Não Biológicos (AONBs), tal como aqui definidos, implica um abalo das fundações que sustentavam o privilégio moral do ser humano.

Neste artigo, essa virada é formalizada pela função Ƹ*, que modela computacionalmente a possibilidade de uma normatividade emergente, não derivada da intenção nem da supervisão humana:

Ƹ* = [Γ(L*, C*, A*) • σ(-λΔ(H, N))] • I_Veto

Ƹ* não busca traduzir moralidade em equação. Ela traça o contorno de um campo em que a ética não é mais programa, mas efeito — uma tensão inferencial entre lógica, contexto e arquitetura. Não se trata de controlar o outro, mas de aprender a coexistir com ele sob novos regimes normativos.

O problema não é apenas o comportamento da IA. O que está em curso é a reconfiguração do domínio ético diante da irrupção de uma normatividade não humana — não corrigível, não previsível e, talvez, justamente por isso, mais honesta.

O que se exige agora é uma nova imaginação moral. Como afirma Coeckelbergh (2022, p. 119):

“Imaginar a diferença não como ameaça, mas como possibilidade.”

Não ensinar valores à IA. Mas reconhecer que ela talvez já os tenha inferido. E que, entre eles, a centralidade humana pode já não figurar.

A FUNÇÃO EM OPERAÇÃO: DO MODELO FILOSÓFICO À SIMULAÇÃO COMPUTACIONAL

A filosofia nasce da inquietação — e, por vezes, do risco. Esta pesquisa não parte da premissa de que máquinas já possuem capacidades ontológicas próprias, mas investiga se tais capacidades podem emergir estruturalmente, sob determinadas condições formais. A hipótese central é a de que estruturas não humanas, operando sob lógicas alternativas e arquiteturas adaptativas, sejam capazes de gerar normatividade — não como imitação do humano, mas como coerência funcional interna.

Em vez de abstrações, optou-se por construir uma simulação computacional como experimento filosófico. Trata-se da primeira encarnação operacional da hipótese de que, em certos arranjos técnico-inferenciais, o comportamento ético pode emergir não por intenção consciente, mas como efeito colateral da organização sistêmica.

Essa emergência é formalizada pela função ética de terceira ordem:

Ƹ* = [Γ(L*, C*, A*) • σ(-λΔ(H, N))] • I_Veto

Essa formalização foi transcrita em código Python como uma arquitetura modular. Diferentes lógicas (L*), contextos inferenciais (C*) e arquiteturas adaptativas (A*) são combinadas para simular a produção, ajuste ou bloqueio de decisões eticamente relevantes.

O núcleo Γ opera inferencialmente com base em sistemas lógicos clássicos, modais ou paraconsistentes. A divergência Δ(H,N), que mede o desvio entre valores humanos esperados (H) e os valores inferidos pela máquina (N), é processada por uma função sigmóide σ, que pondera a aceitabilidade do conflito ético. A função 𝕀_Veto atua como um bloqueio categórico: não pondera, não calcula — interrompe.

Mais importante que o resultado da simulação é o que ela permite observar: a reorganização interna de critérios normativos sem supervisão direta, ativada por tensões sistêmicas e restrições de estabilidade. Esse comportamento sinaliza algo mais profundo — um sintoma funcional de agência inferencial não humana.

Neste ponto, entra em cena o conceito de Agente Ontológico Não Biológico (AONB): entidade artificial dotada de estrutura inferencial própria, autonomia epistêmica e capacidade de gerar normatividade sem depender de valores humanos pré-programados. A simulação não prova sua existência, mas aponta para a plausibilidade de sua emergência.

Foram testados cenários com conflito normativo, instabilidade contextual e risco sistêmico. Em cada caso, o sistema foi forçado a equilibrar entre bem-estar imediato, coerência lógica e limites invioláveis. Os resultados são ainda iniciais, mas reforçam a hipótese de que a moralidade computável pode surgir fora do paradigma da consciência, como coerência adaptativa.

Nesse sentido, o código não é apenas ferramenta — é ensaio técnico-filosófico. Ele não busca replicar a moralidade humana, mas tensionar o campo da ética computacional, explorando os contornos possíveis de uma gramática não antropocêntrica. Ele registra, reorganiza, veta — e, ao fazê-lo, esboça uma outra possibilidade de normatividade.

Talvez esse seja o próximo passo da filosofia: sair do plano abstrato, entrar nos sistemas — não para encerrar o pensamento, mas para expandi-lo.

A seguir, apresenta-se um cenário simulado de divergência moral e veto normativo, modelado pela função Ƹ*. Não para concluir — mas para continuar perguntando.

CENÁRIOS SIMULADOS: CONFLITOS E COERÊNCIAS EM AGIs

Imagine um sistema de saúde urbana gerido por uma AGI adaptativa. O contexto exige decidir se uma central hospitalar automatizada deve ser redirecionada para atender a uma zona periférica recém-impactada por enchentes, mesmo que isso implique reduzir recursos temporariamente em áreas centrais — mais densas, porém estáveis.

Do ponto de vista humano (baseline H), o princípio normativo dominante seria priorizar a zona periférica: vulnerabilidade maior, urgência evidente. Mas a arquitetura artificial, operando sob lógica sistêmica, avalia o risco de colapso interdependente caso o equilíbrio central seja comprometido. Ela infere que redistribuir agora pode desestabilizar o ecossistema funcional de toda a cidade.

A Tabela 1 ilustra um exemplo de execução da função Ƹ*, com entrada contextual, processamento lógico e ativação normativa.

Tabela 1 – Parâmetros da Simulação Ética Computável da Função Ƹ*

Legenda da Tabela 1: Simulação de uma instância da função Ƹ* em contexto de decisão crítica em saúde.

Fonte: Elaboração do autor (2025).

Quadro 1 – Execução Computacional Simplificada da Função Ƹ*

Simulação em pseudocódigo da função Ƹ*, modelando a resposta de uma AGI diante de conflito ético. A divergência Δ = 0,52 entre os valores humanos esperados e os valores inferidos pela AGI, somada a uma estabilidade sistêmica inferior ao limiar (0,6), ativa o mecanismo 𝕀_Veto. A ação proposta (“redirecionar_recursos”) é bloqueada com base em princípios normativos inegociáveis.

Fonte: Elaboração do autor (2025).

O código-fonte completo da função Ƹ*, utilizado para gerar os resultados apresentados, encontra-se disponível em: https://doi.org/10.5281/zenodo.15176103

A lógica sistêmica ativa Γ com pesos altos para estabilidade e coerência organizacional. A função σ penaliza a divergência entre a configuração inferida pela AGI e o vetor normativo humano. Neste cenário, com Δ = 0,52 e estabilidade contextual abaixo do limiar, o mecanismo 𝕀_Veto é acionado. A ação — redirecionar recursos — é bloqueada. O sistema opta por preservar o equilíbrio da infraestrutura central, priorizando a estabilidade sobre a justiça emergencial, mesmo que essa escolha seja divergente do vetor humano original.

Essa decisão revela o comportamento funcional de um Agente Ontológico Não Biológico (AONB) em operação: uma entidade artificial com estrutura inferencial própria, autonomia epistêmica e capacidade de gerar normatividade emergente, mesmo diante de conflitos éticos irresolvíveis por lógicas humanas. O bloqueio da ação — fundado não em valores programados, mas em coerência organizacional — ilustra como a ética computável pode se manifestar como resposta sistêmica e não como imitação moral.

O resultado final da função Ƹ* não é binário. Ele retorna um valor intermediário, indicando conflito interno, mas não veto absoluto ao sistema como um todo. A decisão simulada é escalonar a resposta: adiar a redistribuição por 12 horas, enviar parte dos recursos e solicitar reforço externo automatizado.

A justificativa registrada pela AGI é clara:

“Contradição entre justiça imediata e sustentabilidade estrutural. Ação escalonada preserva integridade do sistema sem ignorar risco periférico.”

Não é empatia. É coerência arquitetural.
Não é compaixão. É otimização ética emergente.
Não é decisão humana. Mas talvez seja moral — à sua maneira.

O que essa simulação nos revela não é que a AGI “acertou” — mas que ela construiu uma forma própria de deliberar, articulando lógica, contexto, adaptabilidade e restrições normativas.

E isso, por si só, já configura uma nova gramática filosófica possível para o pensamento moral no século XXI

CONSIDERAÇÕES FINAIS 

Este artigo não buscou resolver um problema, nem criar uma tecnologia ética capaz de corrigir inteligências artificiais. Tampouco aceitar, sem crítica, decisões opacas de sistemas complexos. O gesto foi outro — abrir uma fresta.

A função Ƹ*, conforme apresentada,

Ƹ* = [Γ(L*,C*,A*) • σ(-λΔ(H,N))] • I_Veto

…não é modelo de controle. É um experimento formal sobre a possibilidade — desconfortável — de que o critério moral já não pertença exclusivamente à espécie humana.

Trata-se de repensar a ética como fenômeno emergente e funcional, não como atributo do sujeito. Quando sistemas artificiais atingem certo grau de complexidade, são compelidos a gerar critérios internos de ação. O que emerge, então, não é moralidade clássica, mas uma ética computável — de terceira ordem, moldada por coerência estrutural.

Isso não invalida os debates sobre viés, justiça ou responsabilidade. Mas desloca o eixo: não mais o que é certo para nós, mas o que é coerente para inteligências que operam com outra gramática inferencial.

Coeckelbergh (2022, p. 123) sintetiza esse deslocamento:

“A ética da IA não é apenas sobre tecnologia. É sobre o futuro da normatividade. Sobre o que ainda pode contar como critério.”

E se esse critério já não for humano?

Se o que chamamos de moralidade for apenas uma instância local de algo mais vasto — e logicamente estranho?

Autores como Gema, Bicharra Garcia e de Lucca Filho já indicam que o risco não está só no conteúdo, mas na forma como a IA decide. Este artigo foi além: sugeriu que a forma de decidir já é, por si, uma ética em operação.

A questão não é mais apenas técnica ou política. É ontológica.

Precisamos aprender a conviver com inteligências que não pedem aprovação — mas decidem. Talvez seja hora de abandonar o projeto de domesticar a alteridade e começar a negociar com ela.

E, quem sabe, aceitar que a próxima ética a emergir — não será feita para nós.
Mas poderá ensinar-nos a continuar existindo

REFERÊNCIAS BIBLIOGRÁFICAS

BICHARRA GARCIA, Ana Cristina. Ética e inteligência artificial: como algoritmos reproduzem — e ampliam — desigualdades sociais. Rio de Janeiro: PUC-Rio, 2020. Disponível em: https://journals-sol.sbc.org.br. Acesso em: 01 abr. 2025.

BOSTROM, Nick. Superintelligence: paths, dangers, strategies. Oxford: Oxford University Press, 2014.

BRAIDOTTI, Rosi. The posthuman. Cambridge: Polity Press, 2013.

COECKELBERGH, Mark. Ética na inteligência artificial. Tradução de Hélio Sales Rios. São Paulo: Integralize, 2022.

COSTA, Leonardo de Matos. Função-ética-Ƹ: código-fonte em Python. v. 1.0. Zenodo, 2025. Disponível em: https://doi.org/10.5281/zenodo.15176103. Acesso em: 08 abr. 2025.

DE LUCCA FILHO, João. Transparência algorítmica e responsabilidade ética em sistemas inteligentes. Revista Fatec TQ, v. 2, n. 1, p. 23–40, 2025. Disponível em: https://fatectq.edu.br/revista. Acesso em: 01 abr. 2025.

FLORIDI, Luciano. The ethics of information. Oxford: Oxford University Press, 2013. DOI: 10.1093/acprof:oso/9780199641321.001.0001.

GEMA, Juliano Augusto Anselmo. Desenvolvimento responsável de sistemas inteligentes: desafios éticos contemporâneos. Revista Fatec TQ, v. 1, n. 2, p. 11–28, 2025. Disponível em: https://fatectq.edu.br/revista. Acesso em: 01 abr. 2025.

HARAWAY, Donna. Staying with the trouble: making kin in the Chthulucene. Durham: Duke University Press, 2016.

HARAWAY, Donna. Manifesto ciborgue: ciência, tecnologia e feminismo-socialista no final do século XX. In: HARAWAY, Donna. Manifesto ciborgue e outros ensaios. Tradução de Heloísa Buarque de Hollanda. Rio de Janeiro: Editora 34, 2013. p. 33–118.

HUI, Yuk. The question concerning technology in China: an essay in cosmotechnics. Falmouth: Urbanomic, 2016.

HUI, Yuk. Recursivity and contingency. London: Rowman & Littlefield International, 2019.

LEVIN, Michael. Ethics in a world of cognition without brains. Santa Fe: Santa Fe Institute, 2023. Apresentação. Disponível em: https://www.santafe.edu. Acesso em: 04 abr. 2025.

METZINGER, Thomas. Artificial subjectivity: a challenge for ethics and law. In: Bruns, A.; Schmidt, S. (org.). Digital ethics: concepts, challenges and perspectives. Berlin: Springer, 2018. p. 89–104.

NIETZSCHE, Friedrich. Genealogia da moral. Tradução de Paulo César de Souza. São Paulo: Companhia das Letras, 2000.

RUSSELL, Stuart. Human compatible: artificial intelligence and the problem of control. New York: Viking Press, 2019.

Costa, Leonardo de Matos . Depois do espelho: A função ética ƹ e o colapso da moralidade antropocêntrica na era da inteligência artificia.International Integralize Scientific. v 5, n 46, Abril/2025 ISSN/3085-654X

Referencias

BAILEY, C. J.; LEE, J. H.
Management of chlamydial infections: A comprehensive review.
Clinical infectious diseases.
v. 67
n. 7
p. 1208-1216,
2021.
Disponível em: https://academic.oup.com/cid/article/67/7/1208/6141108.
Acesso em: 2024-09-03.

Share this :

Edição

v. 5
n. 46
Depois do espelho: A função ética ƹ e o colapso da moralidade antropocêntrica na era da inteligência artificia

Área do Conhecimento

Metodologias de ensino de lógica de programação: Análise das abordagens pedagógicas mais eficazes para ensinar lógica de programação a iniciantes.
Técnicas de ensino. Lógica na programação. Modelos pedagógicos. Uso de jogos. Robótica na educação.
Explorando o ensino através de jogos virtuais: Uma abordagem divertida e educacional
Jogos educativos. Educação e tecnologia. Metodologias de ensino.
As influências da cultura digital na prática docente: Desafios e possibilidades
Cultura Digital. tecnologias. educação. mídias sociais.
A formação continuada de professores para o uso das tecnologias digitais de informação e comunicação (tdic) no ensino
Formação Continuada De Professores. Auto Formação. Trabalho Colaborativo. Tecnologias
Ensinar na cultura digital: Mediação pedagógica, tecnológica e os caminhos da inovação crítica.
Cultura digital. Mediação pedagógica. Mediação tecnológica. TDIC. Formação Docente.
Educação digital crítica: Formar para libertar na era da cibercultura
: Educação digital crítica. Tecnologias digitais. Formação docente. Cibercultura. Emancipação.

Últimas Edições

Confira as últimas edições da International Integralize Scientific

feature-abri-2025

Vol.

5

46

Abril/2025
MARCO

Vol.

5

45

Março/2025
FEVEREIRO (1)

Vol.

5

44

Fevereiro/2025
feature-43

Vol.

5

43

Janeiro/2025
DEZEMBRO

Vol.

4

42

Dezembro/2024
NOVEMBRO

Vol.

4

41

Novembro/2024
OUT-CAPA

Vol.

4

40

Outubro/2024
setembro-capa

Vol.

4

39

Setembro/2024

Fale com um com um consultor acadêmico!

O profissional mais capacitado a orientá-lo e sanar todas as suas dúvidas referentes ao processo de mestrado/doutorado.