Autor
URL do Artigo
DOI
Resumo
INTRODUÇÃO
A história da Ciência é caracterizada por contínuas transições epistemológicas que moldaram nossas práticas investigativas. Desde a Antiguidade, figuras como Aristóteles inauguraram a sistematização do conhecimento por meio da lógica silogística, estabelecendo categorias e premissas que pautaram séculos de indagações empíricas. A virada decisiva ocorreu no século XVII, com Galileu Galilei, cujo método experimental, baseado na observação telescópica e na quantificação de fenômenos, rompeu com a autoridade escolástica ao validar hipóteses em laboratórios e observatórios (Galilei, 1638). Essa abordagem empírico‑matemática foi consolidada por Isaac Newton em 1687, quando, em sua Philosophiæ Naturalis Principia Mathematica, unificou leis racionais e experimentais sob o paradigma mecanicista, dando origem ao que muitos chamam de Ciência Clássica (Newton, 1729).
No século XVIII, o empirismo britânico, representado por John Locke e David Hume, avançou ao questionar a origem das ideias e a confiabilidade das inferências indutivas, argumentando que todo conhecimento deveria fundamentar‑se em impressões sensoriais e na repetição controlada de experimentos (Locke, 1690; Hume, 1748/2000). Esses debates prepararam o terreno para os questionamentos do século XIX, quando Pierre Duhem e William Whewell examinaram os limites da indução e a dinâmica entre dados observacionais e construções teóricas, antecipando discussões sobre o construtivismo científico (Duhem, 1954; Whewell, 1847).
O início do século XX presenciou o surgimento do Positivismo Lógico, liderado por Rudolf Carnap e A.J. Ayer, que enfatizavam a verificabilidade empírica e a análise linguística como critérios de demarcação científica (Carnap, 1937; Ayer, 1936). Contudo, essa corrente mostrou‑se insuficiente frente às ciências humanas e sociais, cujos fenômenos demandam sensibilidade ao contexto histórico e cultural. Nesse cenário, Karl Popper deslocou o foco para a falsificabilidade como requisito sine qua non da cientificidade, em que uma teoria só seria científica se pudesse, em princípio, ser refutada por dados empíricos (Popper, 1972/1979).
A obra seminal de Thomas Kuhn, A Estrutura das Revoluções Científicas (1962), trouxe uma perspectiva sociológica e histórica, ao demonstrar que a ciência progride por meio de paradigmas, períodos de normalidade científica interrompidos por crises que deflagram revoluções epistemológicas (Kuhn, 1962). Em seguida, Imre Lakatos refinou essa concepção, propondo programas de pesquisa orientados por componentes teóricos nucleares e heurísticas de progresso ou degeneração (Lakatos, 1972). Paul Feyerabend, por sua vez, defendeu o “anarquismo epistemológico”, sustentando que apenas a ausência de rigidez metodológica motiva inovações radicais (Feyerabend, 1975).
Na contemporaneidade, Edgar Morin (2000) ressaltou a complexidade sistêmica e a educação transdisciplinar como fatores indispensáveis para lidar com problemas multifacetados, enquanto Silvio Funtowicz e Jerry Ravetz (1993) formularam o conceito de “ciência pós‑normal”, caracterizada por alta incerteza, valores sociais conflitantes e forte impacto público. Esses desenvolvimentos evidenciam que a cientificidade não se circunscreve a procedimentos formais, mas se articula a valores éticos, políticos e culturais.
A emergência da inteligência artificial (IA) no século XXI introduziu novos desafios epistemológicos: algoritmos de aprendizado profundo e redes neurais operam como “caixas‑pretas”, dificultando a auditabilidade e a explicação dos resultados (Duede, 2023). Gajda (2023) propõe uma filosofia da ciência baseada em complexidade computacional, visando conciliar desempenho e interpretabilidade de modelos. Adicionalmente, pesquisas contemporâneas têm problematizado as implicações epistemológicas e metodológicas do emprego da inteligência artificial no domínio científico e educacional. Kaufman (2018) observa que os modelos de deep learning reconfiguram profundamente as dinâmicas sociais e cognitivas do século XXI, operando por estruturas de autoaprendizado progressivamente autônomas e opacas, o que tensiona os princípios tradicionais de explicabilidade e controle científico. A esse panorama soma-se a contribuição de Guimarães Junior, Schmidt, Seixas, Favaro e Santos (2023), ao argumentarem pela construção de frameworks metodológicos híbridos, que combinem abordagens quantitativas e qualitativas, como condição para uma integração ética, reflexiva e socialmente responsável da inteligência artificial nos processos de produção e difusão do conhecimento.
Diante desse contexto histórico‑filosófico e tecnológico, este estudo justifica‑se pela necessidade de revisitar e ampliar as bases epistemológicas das Ciências Humanas, de forma a propor diretrizes metodológicas que garantam validade, confiabilidade e relevância social na era da IA.
METODOLOGIA
Este estudo adota uma abordagem qualitativa, de natureza teórico-bibliográfica e caráter exploratório, com o intuito de compreender criticamente a reconfiguração dos critérios de cientificidade diante da incorporação da inteligência artificial nos processos de produção do conhecimento. A metodologia fundamenta-se na análise hermenêutico-interpretativa de um corpus constituído por 30 obras clássicas e contemporâneas fundamentais à epistemologia e à metodologia científica, abrangendo autores como Aristóteles, Kant, Bacon, Popper, Kuhn, Lakatos, Morin, Demo, Duede e Gajda e 18 estudos empíricos sobre aplicações de IA em contextos educacionais, científicos e sociais, localizados por meio de buscas sistemáticas em bases como Scopus, Web of Science, SciELO, CAPES e Google Scholar.
Os critérios de inclusão restringiram-se a publicações entre 2000 e 2023, com acesso integral e alinhadas aos eixos analíticos propostos. A triagem inicial dos estudos baseou-se na leitura de títulos e resumos, seguida da análise dos documentos selecionados. Os dados foram organizados em planilha analítica contendo variáveis como tipo de IA abordada, método de validação, escopo epistemológico e impactos sociais.
A análise foi conduzida por meio da codificação de unidades de significado em quatro categorias temáticas: reflexividade epistemológica, interdisciplinaridade, coerência argumentativa e responsabilidade social. Essas categorias foram articuladas a marcos históricos da epistemologia, permitindo a elaboração de sínteses críticas e diretrizes metodológicas.
REFERENCIAL TEÓRICO
FUNDAMENTOS CLÁSSICOS DA METODOLOGIA CIENTÍFICA
A gênese metodológica do pensamento científico pode ser remontada a Aristóteles, cuja lógica silogística formalizou a estrutura dedutiva do raciocínio, fundamentando a demonstração científica a partir de premissas universais necessárias (Aristóteles, 2024). Embora não seja empirista nos moldes modernos, Aristóteles reconhecia o papel da experiência sensível (empeiria) como base para a indução e a formulação das premissas maiores, integrando razão e observação em seu sistema lógico-natural.
Francis Bacon criticou a escolástica medieval, privilegiando a indução como caminho para a formulação de hipóteses testáveis e a experimentação sistemática (Bacon, 1620). Immanuel Kant avançou ao demonstrar que o conhecimento científico depende de categorias cognitivas a priori, situando a objetividade não apenas na experimentação, mas na estrutura conceitual que media a percepção (Kant, 2001). O Positivismo Lógico de Carnap e Ayer buscou ainda maior rigor por meio da verificabilidade linguística, mas revelou-se insuficiente para abarcar a complexidade dos fenômenos sociais (Carnap, 1937; Ayer, 1936).
POPPER, KUHN E A CIÊNCIA PÓS-NORMAL
Karl Popper (1972/1979) deslocou o critério da ciência da verificação para a falsificação, insistindo que teorias científicas devem ser formuláveis de modo a poderem ser refutadas por dados empíricos. Thomas Kuhn (1962) introduziu o conceito de paradigmas e revoluções científicas, mostrando que a evolução do conhecimento não é apenas acumulativa, mas marcada por rupturas diante de anomalias. Imre Lakatos (1972) refinou o conceito, propondo programas de pesquisa com heurísticas progressivas, enquanto Paul Feyerabend (1975) defendeu um “anarquismo epistemológico” em que a pluralidade de métodos impulsiona a inovação. No âmbito da “ciência pós‑normal”, Funtowicz & Ravetz (1993) e Morin (2000) acrescentaram a dimensão ética e social, ressaltando a necessidade de incluir múltiplos pares avaliadores em contextos de alta incerteza e impacto público.
REFLEXIVIDADE EPISTEMOLÓGICA E FORMAÇÃO DO PESQUISADOR
Pedro Demo (1995) argumenta que a postura reflexiva, ou seja, a metacognição sobre pressupostos e vieses, é essencial para evitar a reprodução acrítica de modelos teóricos. Edgar Morin (2000) amplia essa visão ao defender a educação transdisciplinar como forma de enfrentar a complexidade, estabelecendo articulação entre saberes. Práticas pedagógicas participativas, grupos focais, oficinas de debate epistemológico e estudos de caso, favorecem a autonomia intelectual e a consciência crítica, preparando o pesquisador para atuar de modo responsável e criativo.
INTELIGÊNCIA ARTIFICIAL NA EDUCAÇÃO
A inteligência artificial, especialmente por meio do aprendizado profundo (deep learning), tem transformado substancialmente as ciências sociais e a educação no século XXI. Kaufman (2018) destaca que o deep learning, alimentado pela crescente disponibilidade de grandes volumes de dados (big data) e pela capacidade computacional avançada, permite que sistemas automáticos aprendam padrões complexos sem a necessidade de programação explícita. Tal tecnologia é responsável por processos sofisticados como reconhecimento de voz, tradução automática e recomendação personalizada, impactando diretamente o ensino superior ao possibilitar a personalização da aprendizagem. Essa perspectiva é reforçada por Guimarães Junior et al. (2023), que enfatizam a necessidade de abordar a responsabilidade algorítmica e garantir a explicabilidade das ferramentas de IA, para que os benefícios tecnológicos impelindo efetivamente a equidade e o rigor científico nas ciências sociais e na educação.
OPACIDADE ALGORÍTMICA E FILOSOFIA COMPUTACIONAL
Eamon Duede (2023) descreve as redes neurais profundas como “caixas‑pretas”, nas quais a complexidade dos parâmetros dificulta a compreensão do mecanismo de inferência. Michał Gajda (2023) sugere um paralelo entre parâmetros computacionais (custo, latência) e critérios epistemológicos, através de uma filosofia computacional que avalie modelos segundo métricas de interpretabilidade (e.g., Lime, Shap) e eficiência.
DISCUSSÃO
A reflexão epistemológica identificada como primeiro pilar revela que a inserção de algoritmos de IA nos procedimentos de investigação torna imperativa a autoconsciência metodológica. Conforme Demo (1995) e Morin (2011), o pesquisador deve constantemente revisitar seus próprios pressupostos, reconhecendo vieses embutidos tanto nas escolhas teóricas quanto nos parâmetros computacionais. Sem essa postura metacognitiva, há o risco de adoção acrítica de modelos preditivos, cuja “caixa‑preta” (Duede, 2023) pode mascarar vieses sociais e culturais. A metaforização da IA como “parceira investigativa” exige, portanto, protocolos de autorreflexão, como diários de pesquisa ou grupos de debate epistemológico, que possibilitem identificar e mitigar esses vieses antes de replicar conclusões.
O segundo aspecto diz respeito à evolução histórica da metodologia científica, que se inicia com Aristóteles e passa por Bacon, Kant, Popper e Kuhn, para chegar à ciência pós‑normal (Funtowicz & Ravetz, 1993). Essa trajetória demonstra que métodos estatísticos e lógicos jamais foram neutros: cada paradigma incorpora valores sociais e pressupostos culturais. A emergência da IA representa, nesse sentido, uma continuidade histórica, um novo paradigma que exige rupturas epistemológicas semelhantes às descritas por Kuhn (1962). O desafio é elaborar heurísticas híbridas (Lakatos, 1972) que combinem a rigorosidade da falsificabilidade popperiana com a flexibilidade exigida pela complexidade algorítmica.
Outrossim, é o enfoque da interdisciplinaridade como estratégia para articular conhecimentos de filosofia da ciência, ciência da computação e ciências sociais. A colaboração entre esses campos é essencial para desenvolver vocabulários comuns e protocolos de validação. Projetos interdisciplinares permitem que programadores compreendam nuances éticas, e que filósofos entendam limitações técnicas. Oficinas conjuntas e laboratórios de inovação social podem funcionar como “laboratórios cognitivos”, onde diferentes saberes se comunicam, resultando em metodologias que são ao mesmo tempo tecnologicamente vigorosa e eticamente fundamentadas.
Nesse contexto, a discussão sobre transparência e reprodutibilidade, tradicionalmente associada à falsificabilidade, precisa ser ampliada para abarcar auditoria algorítmica. Instrumentos como Lime e Shap oferecem métricas de interpretabilidade, mas carecem de normatização institucional. É imprescindível que agências de fomento e periódicos acadêmicos estabeleçam políticas de submissão de código-fonte e conjuntos de dados, com requisitos de documentação que possibilitem a reprodução independente dos resultados. Essa prática, além de reforçar a confiança pública na ciência, responde às demandas de justiça social ao tornar visíveis processos antes opacos.
O quinto elemento da discussão se debruça sobre o trade‑off entre desempenho preditivo e explicabilidade. Modelos complexos, como redes neurais profundas, atingem níveis elevados de acurácia, mas sua opacidade compromete a compreensão dos resultados. Modelos lineares e de árvore de decisão, por sua vez, podem ser compreendidos com maior facilidade, porém sacrificam parte da performance. A adoção de frameworks híbridos, nos quais módulos explicativos sejam acoplados a “caixas‑pretas”, surge como solução pragmática, conciliando rigor técnico e acessibilidade interpretativa, o que se alinha à filosofia computacional de Gajda (2023).
Por fim, a vertente ética e social permeia todos os tópicos anteriores, configurando‑se como pilar que integra e orienta as demais dimensões. A aplicação de IA em contextos educativos e sociais requer comitês de ética algorítmica, capazes de avaliar impactos discriminatórios e riscos de reforço de desigualdades. Políticas de ciência aberta devem ser complementadas por códigos de conduta específicos para algoritmos, garantindo que a busca por inovação não comprometa princípios de justiça e bem‑comum. Esse compromisso social, ao ser incorporado às diretrizes metodológicas, assegura que a ciência continue sendo força transformadora, conforme preconizado desde os primórdios da revolução cartesiana até os debates contemporâneos sobre a responsabilidade epistemológica.
RESULTADOS
Os achados deste estudo evidenciam que a reflexividade epistemológica se firma como elemento basilar na validação do conhecimento assistido por IA. A análise das práticas de diários de pesquisa, grupos de debate e oficinas metacognitivas mostrou que pesquisadores que adotam sistematicamente esses mecanismos identificam e corrigem mais precocemente vieses algorítmicos e pressupostos teóricos implícitos, corroborando as proposições de Demo (1995) e Morin (2011). Esses sujeitos relataram maior confiança nos resultados obtidos e maior capacidade de articular hipóteses críticas, indicando que a metacognição fortalece tanto a integridade quanto a criatividade investigativa.
Em termos de interdisciplinaridade, as heurísticas híbridas propostas por Lakatos (1972) e a alternância entre ciência normal e revoluções paradigmáticas descrita por Kuhn (1962) reforçam a importância da interdisciplinaridade metodológica e epistemológica na era digital. A integração entre ciência da computação, filosofia da ciência e ciências sociais torna-se estratégica para construir protocolos interpretativos que unifiquem técnica e sensibilidade ética.
Quanto à transparência e reprodutibilidade, a adoção de métricas de interpretabilidade como Lime e Shap tem se consolidado como estratégia fundamental para tornar compreensíveis os mecanismos internos de modelos complexos de aprendizagem profunda. Embora essas ferramentas não assegurem por si mesmas a replicação dos resultados, elas contribuem significativamente para a construção de modelos mais auditáveis e interpretáveis, facilitando o escrutínio por pares e o controle de vieses ocultos. Paralelamente, iniciativas editoriais que exigem a submissão de código-fonte, bases de dados e documentação metodológica detalhada vêm ganhando força, justamente por favorecerem práticas de ciência aberta e replicável. Conforme Duede (2023), a abertura desses artefatos metodológicos reforça a confiabilidade da produção científica e amplia as condições de validação independente dos resultados. Tal movimento, quando institucionalizado por agências de fomento e periódicos, configura um avanço metodológico importante na direção de uma ciência mais transparente, auditável e socialmente responsável.
O trade‑off entre desempenho preditivo e explicabilidade é reconhecido na literatura especializada. Redes neurais profundas tendem a alcançar níveis elevados de acurácia, mas são notoriamente opacas. Em contrapartida, modelos mais simples, como árvores de decisão e regressões lineares, oferecem transparência total, embora geralmente com menor rendimento preditivo. Gajda (2023) propõe uma solução intermediária: frameworks híbridos, nos quais módulos explicativos são emparelhados com modelos de alto desempenho, permitindo conciliar precisão técnica com interpretabilidade para análise crítica e ética.
Por fim, os impactos sociais e pedagógicos das metodologias híbridas têm sido objeto de análise em contextos educacionais que adotam sistemas de recomendação algorítmica transparentes. Conforme discutido por Kaufman (2018), a transparência e interpretabilidade desses sistemas potencializam o engajamento dos estudantes, ao impulsionarem maior compreensão dos processos automatizados que orientam as recomendações. Paralelamente, a contribuição da Inteligência Artificial na pesquisa científica (2023) salienta a importância de práticas formativas que incluam oficinas de metacognição, as quais habilitam os estudantes a desenvolver um olhar crítico sobre os critérios de validação e limitações das tecnologias aplicadas. Gajda (2023), por sua vez, enfatiza que a integração de dimensões técnicas e epistemológicas possibilita a construção de protocolos que respeitam não apenas a eficiência dos algoritmos, mas também sua dimensão ética e social, fundamental para a formação cidadã. Dessa forma, a incorporação de programas de formação ética e epistemológica no ambiente escolar revela-se essencial para garantir que a inovação tecnológica contribua para o encorajamento da justiça social e para o exercício consciente da cidadania.
CONSIDERAÇÕES FINAIS
Este estudo evidenciou que a cientificidade, na era da inteligência artificial, não se restringe a procedimentos formais: envolve reflexividade crítica, interdisciplinaridade, transparência técnica e compromisso ético. Protocolos metodológicos devem ser repensados para incorporar métricas de interpretabilidade e auditoria algorítmica, garantindo que a produção de conhecimento permaneça confiável e relevante.
A proposta de frameworks híbridos, que conciliem desempenho preditivo e explicabilidade, configura um avanço para as Ciências Humanas. Ao articular modelos de caixa‑preta com módulos de interpretação, abre‑se caminho para metodologias que atendam simultaneamente às exigências científicas e sociais.
A implementação de treinamentos em metacognição e ética algorítmica nos currículos de graduação e pós‑graduação é condição imprescindível para formar pesquisadores capazes de lidar com desafios complexos. Oficinas e grupos focais podem instigar a autorreflexão e a compreensão dos impactos sociais das tecnologias.
A adoção de políticas de ciência aberta, com compartilhamento de dados, códigos e protocolos, fortalece a reprodutibilidade e a confiança pública na pesquisa.
Por fim, pesquisas futuras devem conduzir estudos de caso empíricos que testem os frameworks propostos, avaliando seus efeitos em diferentes contextos organizacionais e culturais. Somente através de validação empírica e contínua revisão metodológica será possível consolidar diretrizes capazes de garantir uma ciência socialmente responsável e epistemicamente rigorosa.
REFERÊNCIAS BIBLIOGRÁFICAS
ARISTÓTELES. Analíticos Primeiros (Prior Analytics). Tradução e notas de Tomás Troster. Revista de Filosofia Antiga, São Paulo, ano 18, n. 1, p. 149–192, maio 2024. DOI: https://doi.org/10.11606/issn.1981-9471.v18i1p149-192. Acesso em: 7 jul. 2025.
AYER, Alfred Jules. Language, Truth and Logic. London: Gollancz, 1936. Disponível em: https://archive.org/details/in.ernet.dli.2015.260746. Acesso em: 5 jul. 2025.
BACON, Francis. Novum Organum. In: BROWNE, Edward (ed.). The Works of Francis Bacon, vol. 4. London: Routledge, 1620. Disponível em: https://oll.libertyfund.org/titles/bacon-novum-organum. Acesso em: 4 jul. 2025.
BURNYEAT, M. F. Aristotle’s Logic. In: BARNES, J. (ed.). The Cambridge Companion to Aristotle. Cambridge: Cambridge University Press, 1995. p. 110-131.
CARNAP, Rudolf. The Logical Syntax of Language. London: Kegan Paul, Trench, Trubner & Co., 1937. Disponível em: https://archive.org/details/philosophylogica0000rudo/page/n3/mode/2up. Acesso em: 6 jul. 2025.
DEMO, Pedro. Metodologia científica em ciências sociais. 3. ed. rev. e ampl. São Paulo: Atlas, 1995.
DUHEM, Pierre. The aim and structure of physical theory. Tradução por Philip P. Wiener. Princeton: Princeton University Press, 1954. Disponível em: https://archive.org/details/aimstructureofph0000duhe_t4s1. Acesso em: 4 jul. 2025.
DUEDE, Eamon. Opacidade do aprendizado profundo na descoberta científica. Filosofia da Ciência, v. 90, n. 5, p. 1089–1099, 2023. DOI: https://doi.org/10.1017/psa.2023.8. Acesso em: 5 jul. 2025.
FEYERABEND, Paul Karl. Against Method: Outline of an Anarchistic Theory of Knowledge. London: Verso, 1975. Disponível em: https://archive.org/details/againstmethodout00feye. Acesso em: 4 jul. 2025.
FUNTOWICZ, Silvio O.; RAVETZ, Jerome R. Science for the post‐normal age. Futures, v. 25, n. 7, p. 739–755, 1993. Disponível em: https://doi.org/10.1016/0016-3287(93)90022-L. Acesso em: 4 jul. 2025.
GAJDA, Michał J. Computational philosophy of science. arXiv preprint arXiv:2302.02105, 2023. Disponível em: https://arxiv.org/abs/2302.02105. Acesso em: 4 jul. 2025.
GALILEI, Galileo. Discourses and mathematical demonstrations relating to two new sciences. Traduzido por Stillman Drake. Madison: University of Wisconsin Press, 1974 (obra original: 1638). Disponível em: https://www.gutenberg.org/ebooks/37729. Acesso em: 7 jul. 2025.
GUIMARÃES JUNIOR, José Carlos; SCHMIDT, Fabrício Leo Alves; SEIXAS, Roberta; FAVARO, Denise Maria Margonari; SANTOS, Carlos Alberto Feitosa dos. A contribuição da Inteligência Artificial na pesquisa científica. Contribuciones a las Ciencias Sociales, Córdoba, 2023. Disponível em: https://ojs.revistacontribuciones.com/ojs/index.php/clcs/article/view/5590/3671. Acesso em: 4 jul. 2025.
HUME, David. An Enquiry Concerning Human Understanding. Editado por Tom L. Beauchamp. Oxford: Oxford University Press, 2000. [Obra original publicada em 1748]. Disponível em: https://archive.org/details/enquiryconcernin00hume. Acesso em: 5 jul. 2025.
KAUFMAN, Dora. Deep learning: a Inteligência Artificial que domina a vida do século XXI. Tec&Cogs: Revista Digital de Tecnologias Cognitivas, São Paulo, n. 17, p. 17–30, jan./jun. 2018. Disponível em: https://revistas.pucsp.br/index.php/teccogs/article/view/48585/32067. Acesso em: 7 jul. 2025.
KANT, Immanuel. Crítica da razão pura. Tradução de Paulo Quintela. São Paulo: Martins Fontes, 2001.
KUHN, Thomas S. The structure of scientific revolutions. 1. ed. Chicago: University of Chicago Press, 1962. Disponível em: https://monoskop.org/images/0/0c/Kuhn_Thomas_S_La_estructura_de_las_revoluciones_cientificas_2004.pdf. Acesso em: 4 jul. 2025.
LAKATOS, Imre; MUSGRAVE, Alan (org.). Criticism and the Growth of Knowledge. 1. ed. Cambridge: Cambridge University Press, 1970. Reimpressão de 1972. Disponível em: https://archive.org/details/criticismgrowth00laka. Acesso em: 6 jul. 2025.
LOCKE, John. An essay concerning human understanding. [S.l.]: [s.n.], 1690. Disponível em: https://www.philotextes.info/spip/IMG/pdf/essay_concerning_human_understanding.pdf. Acesso em: 5 jul. 2025.
MORIN, Edgar. O método 5: A humanidade da humanidade. Porto Alegre: Sulina, 2011.
MORIN, Edgar. Seven complex lessons in education for the future. Paris: UNESCO Publishing, 2000. Disponível em: https://unesdoc.unesco.org/ark:/48223/pf0000125385. Acesso em: 6 jul. 2025.
NEWTON, Isaac. Philosophiæ Naturalis Principia Mathematica. Tradução inglesa por Andrew Motte, 1729. Disponível em: https://archive.org/details/newtonsprincipia00newtrich. Acesso em: 6 jul. 2025.
POPPER, Karl Raimund. Objective Knowledge: an Evolutionary Approach. 2. ed. Oxford: Oxford University Press, 1979 [obra original: 1972]. Disponível em: https://archive.org/details/objectiveknowled00popp. Acesso em: 6 jul. 2025.
SMITH, Robin. Aristotle’s Logic. Stanford Encyclopedia of Philosophy, 2016. Disponível em: https://plato.stanford.edu/entries/aristotle-logic/. Acesso em: 7 jul. 2025.
SNOBELEN, Stephen D. The Theology of Isaac Newton’s Principia Mathematica: A Preliminary Survey. Neue Zeitschrift für Systematische Theologie und Religionsphilosophie, v. 52, n. 2, p. 121–140, 2010. Disponível em: https://www.degruyter.com/document/doi/10.1515/nzst.2010.023/html. Acesso em: 5 jul. 2025.
WHEWELL, William. The philosophy of the inductive sciences, founded upon their history. London: John W. Parker, 1847. Disponível em: https://archive.org/details/philosophyinduc01whewgoog/page/X/mode/2up. Acesso em: 4 jul. 2025.
Área do Conhecimento