Autor
URL do Artigo
DOI
Resumo
INTRODUÇÃO
Nas últimas décadas, o avanço exponencial das tecnologias digitais tem provocado transformações significativas nos processos de ensino-aprendizagem. Em especial, a Educação a Distância (EaD) consolidou-se como uma estratégia de democratização do acesso ao ensino, incorporando recursos cada vez mais sofisticados de automação, personalização e interatividade. Spinard e Both (2018) afirmam que esses recursos oferecem diferentes possibilidades e metodologias de aprendizagem.
Dentre esses recursos, a Inteligência Artificial (IA) tem se destacado como uma das ferramentas mais promissoras no campo da educação distância, especialmente por seu potencial de promover experiências personalizadas de aprendizagem, oferecer feedback instantâneo, apoiar tutoria virtual inteligente, automação de tarefas, chatbots em tempo real e realizar análises preditivas sobre o desempenho discente (Cardoso, 2024).
No entanto, a incorporação da IA nos ambientes educacionais, sobretudo nos sistemas EaD, levanta uma série de questões relacionadas à ética, à transparência, à privacidade dos dados e à responsabilidade institucional (Cardoso; Muñoz, 2023).
Em seu artigo sobre IA, Kaufman (2021), afirma que existe consenso entre os especialistas sobre a regulamentação dos sistemas inteligentes, e que dessa necessidade decorre o surgimento de entidades nos EUA e Europa com essa finalidade, as quais são lideradas pelo setor de tecnologia, academia e outros atores envolvidos nesse processo.
De tais desafios emergem questões norteadoras para direcionar esta pesquisa: quais são os principais desafios enfrentados pela falta de regulamentação para a aplicação da IA na EaD no Brasil? De que forma a legislação atual trata a aplicação da IA na EaD? A experiência internacional, na Europa, da AI Act (2024) pode servir de referência para a formulação de políticas públicas, éticas, jurídicas e pedagógicas?
No contexto brasileiro, apesar da existência de legislações gerais como a Lei Geral de Proteção de Dados (Lei n. 13.709/2018) e da tramitação de projetos como o PL n. 2.338/2023 (Marco Regulatório da Inteligência Artificial), ainda não há uma regulamentação específica que aborde, de forma sistêmica, o uso da IA no âmbito da EaD, conforme apontam Cardoso e Muñoz (2023).
Essa lacuna normativa impacta diretamente a formulação e a implementação de políticas públicas voltadas à EaD, comprometendo sua efetividade e sustentabilidade. A ausência de diretrizes legais específicas para o uso da IA na educação não apenas fragiliza a segurança jurídica das instituições de ensino que adotam essas tecnologias, como também dificulta a construção de uma política educacional nacional articulada, equitativa e orientada por princípios éticos.
Como destaca Kaufman (2020), a falta de regulação adequada do uso da inteligência artificial em setores sensíveis, como a educação, pode acentuar desigualdades, comprometer direitos fundamentais e dificultar o desenvolvimento de políticas públicas que alinhem inovação tecnológica aos valores democráticos.
Diante desse cenário, este artigo tem como objetivo analisar criticamente os impactos da ausência de uma regulamentação específica sobre IA no desenvolvimento de políticas públicas voltadas à Educação a Distância no Brasil, ancorando-se em marcos da política educacional e do direito digital, buscando compreender as implicações da indefinição legislativa para a aplicação da IA na EaD. Além disso, serão consideradas experiências internacionais, como o AI Act da União Europeia (2024), a fim de subsidiar reflexões e proposições para o contexto brasileiro.
Para alcançar este propósito os seguintes objetivos específicos foram traçados: analisar os desafios éticos, legais e pedagógicos relacionados à ausência de regulamentação específica para o uso da Inteligência Artificial na Educação a Distância no Brasil; investigar como a fragmentação de iniciativas e a falta de diretrizes nacionais impactam a equidade, a segurança jurídica e a qualidade da EaD mediada por IA e comparar o contexto brasileiro com experiências internacionais, como o AI Act da União Europeia.
A pesquisa se justifica pela necessidade de aprofundar a compreensão sobre as dificuldades encontradas na aplicação da Inteligência Artificial no contexto da Educação a Distância, com o objetivo de propor diretrizes para políticas públicas integradas e inclusivas.
REVISÃO DE LITERATURA
A Educação a Distância (EaD) no Brasil, modalidade reconhecida pela Lei de Diretrizes e Bases da Educação Nacional (Lei nº 9.394/1996), tem sido impulsionada pelas Tecnologias Digitais de Informação e Comunicação (TDICs). Moran (2002), citao por Cardoso e Muñoz (2023), descreve a EaD como um processo de ensino em que professores e alunos estão separados fisicamente, mas conectados por meio da internet e de computadores. Mais recentemente, a Inteligência Artificial (IA) incorporou a esse cenário elementos de automação, adaptação e análise preditiva aos ambientes virtuais de aprendizagem.
No entanto, como apontam Cardoso e Muñoz (2023), um dos principais desafios regulatórios reside na escassez de legislação específica no Brasil quanto ao uso da IA, o que resulta na carência de um arcabouço legal específico. Isso se faz necessário, em especial, no que concerne às garantias éticas, à transparência dos algoritmos e a proteção de dados sensíveis de estudantes, educadores e instituições. Tal lacuna pode comprometer não apenas a segurança jurídica dessas entidades, mas também a equidade no acesso às tecnologias e a legitimidade das políticas educacionais relacionadas a essas ferramentas.
Essa lacuna evidencia o descompasso entre a velocidade das inovações tecnológicas nas últimas décadas frente à morosidade das esferas regulatórias nacionais. A ausência de legislação específica para a Inteligência Artificial na educação a distância acentua os riscos do uso indiscriminado dessas tecnologias (Cardoso; Muñoz, 2023).
Do ponto de vista jurídico, a Lei Geral de Proteção de Dados (LGPD – Lei n. 13.709/2018) estabelece princípios para o uso ético e seguro de dados pessoais, incluindo dados educacionais. No entanto, ela não trata diretamente da utilização de sistemas de IA em ambientes pedagógicos.
O Projeto de Lei n. 2.338/2023, que visa instituir o Marco Regulatório da Inteligência Artificial no Brasil, representa um avanço nesse sentido, ao prever, por exemplo, a categorização de riscos em diferentes áreas, reconhecendo a educação como um setor sensível e de alto risco. Ainda assim, a tramitação legislativa permanece em andamento, sem previsão de sua consolidação de um marco normativo especificamente aplicável à EaD.
De acordo com as Nações Unidas (ONU), os países devem moldar os rumos do desenvolvimento da IA. Nesse sentido, em março de 2024, a Assembleia Geral da ONU adotou a primeira resolução global sobre essa tecnologia, com a União Europeia (EU) destacando-se como líder nesse processo de regulamentação da IA.
A proposta legislativa conhecida como AI Act da União Europeia (2024), svisa estabelecer padrões vinculantes para o desenvolvimento e uso da IA, com especial atenção às aplicações em setores críticos, como educação, saúde e segurança pública. O documento europeu prevê a avaliação de impacto algorítmico, a auditabilidade dos sistemas de IA e a centralidade dos direitos fundamentais como princípios e diretrizes norteadores da implementação da tecnologia, podendo servir de referência para o desenvolvimento de um arcabouço jurídico similar no Brasil.
O conjunto dessas reflexões sustenta a necessidade de criação de políticas públicas educacionais que não apenas incorporem inovações tecnológicas, mas que também estejam ancoradas em princípios legais, éticos e pedagógicos. Conforme já destaca a Unesco (2021), a qual defende que defende que a IA aplicada à educação deve respeitar princípios de direitos humanos, inclusão, equidade, justiça social e desenvolvimento sustentável.
METODOLOGIA
Este estudo adotou como metodologia a pesquisa bibliográfica de abordagem qualitativa, amparada em Gil (2010), e objetiva compreender os desafios atuais da ausência de regulamentação específica para a aplicação da Inteligência Artificial (IA) no contexto da Educação à distância.
A pesquisa bibliográfica justifica-se por permitir a discussão e a reunião de informações sobre o tema, proporcionando um embasamento teórico robusto para a compreensão dos desafios e estratégias voltadas à elaboração de diretrizes e políticas públicas que fundamentem o uso dessas tecnologias. Em especial, como aborda Gil (2010), tal pesquisa baseia-se em materiais já publicados, como artigos científicos, livros, teses e dissertações, bem como em outros documentos relevantes, a exemplo de legislações acerca do tema proposto.
A abordagem qualitativa se faz uma escolha adequada por buscar compreender o fenômeno a ser estudado a partir de dados da realidade, permitindo captar nuances, contradições e complexidades inerentes à realidade social experimentada e, consequentemente, sendo fundamental para o tema deste artigo. Gil (2010), complementa que esse tipo de pesquisa é apropriado para interpretar compreender fenômenos complexos e dados não numéricos, com foco em significados e contextos.
A coleta de dados foi realizada por meio da revisão de materiais acadêmicos com publicação entre 2015 e 2025, que garantem atualidade e relevância das informações selecionadas. Os critérios de inclusão abarcaram estudos que abordassem a ausência de regulamentação da IA; pesquisas que tratassem sobre as aplicações da IA na EaD; trabalhos que apresentem estratégias para propusessem estratégias para novas diretrizes e políticas públicas para a IA na modalidade da EaD; e artigos que interpretassem e analisassem o AI Act.
A análise dos dados foi realizada à luz da abordagem de Bardin (2016), a qual consiste na identificação de categorias temáticas, conceitos-chave e padrões nos materiais analisados. Isso permitiu a organização das informações em três eixos principais: 1) A fragilidade regulatória no Brasil em relação à aplicação da IA na EaD; 2) Aplicação da IA na EaD (IAEaD); 3) Comparativo com estratégias internacionais: o AI Act.
RESULTADOS E DISCUSSÃO
A FRAGILIDADE REGULATÓRIA NO BRASIL
O uso da Inteligência Artificial na educação brasileira, especialmente na modalidade a distância, ainda opera em um contexto de fragilidade normativa. Embora a Constituição Federal (1988) assegure o direito à educação como um dever do Estado em seu artigo 205 e reconheça a importância da inclusão digital, não há, até o momento, um marco legal consolidado que discipline de forma específica a aplicação da IA no contexto educacional.
Essa ausência se torna especialmente preocupante diante da crescente adoção de soluções baseadas em algoritmos para a personalização do ensino, a avaliação automatizada e a gestão de plataformas de ensino. Por exemplo, a UNESCO, em sua Recomendação sobre a Ética da Inteligência Artificial (2021), destaca a importância de diretrizes éticas e políticas públicas que assegurem direitos fundamentais no uso da IA, incluindo no setor educacional.
Embora a Lei Geral de Proteção de Dados (LGPD) represente um importante avanço na garantia da privacidade e da segurança informacional dos cidadãos, ela não contempla as especificidades pedagógicas e os impactos educacionais da Inteligência Artificial. Apesar de a LGPD assegurar, por exemplo, o direito à informação, ela não aborda diretamente o uso de algoritmos ou a automatização de decisões pedagógicas.
Além disso, os principais Projetos de Lei em tramitação no Congresso Nacional – como o PL n. 2.338/2023, o PL n. 4060/2019 e o PL n. 21/2020 – ainda não foram aprovados, e mesmo suas propostas, embora relevantes, carecem de diretrizes pedagógicas detalhadas. O PL n. 2.338/2023, por exemplo, reconhece a educação como setor de alto risco na aplicação de sistemas de IA, o que implica a necessidade de monitoramento rigoroso.
No entanto, o texto ainda não apresenta dispositivos específicos para a formação docente, o controle social da tecnologia ou a transparência das decisões algorítmicas no âmbito educacional. Há um crescente consenso internacional sobre a urgência de marcos regulatórios para a inteligência artificial em setores sensíveis como a educação (Nações Unidas, 2024).
Essa lacuna normativa produz uma série de efeitos negativos para as políticas públicas voltadas à Educação a Distância. Em primeiro lugar, dificulta a formulação de programas federais integrados que orientem a adoção responsável da IA nas redes públicas e privadas de ensino. Em segundo lugar, gera insegurança jurídica para as instituições que desejam inovar, mas temem violar princípios legais ou enfrentar futuras penalizações. A falta de regulamentação específica sobre inteligência artificial na educação compromete a inovação, a segurança jurídica e a aplicação ética das tecnologias nos processos pedagógicos (Cardoso; Muñoz, 2023; Kaufman, 2021).
Por fim, compromete a equidade no acesso às tecnologias, uma vez que, na ausência de políticas regulatórias, o uso da IA tende a se concentrar em instituições com maior capacidade técnica e financeira, acentuando desigualdades históricas e podendo até mesmo comprometer os direitos humanos no campo educacional, como observa a UNESCO (2021). Isso configura não apenas um desafio normativo, mas também epistemológico, visto que a IA aplicada à EaD pode naturalizar processos de ensino baseados na eficiência algorítmica, o que potencialmente deslocaria o sujeito e do processo formativo.
Segundo Kaufman (2021), para monitorar o desempenho dos sistemas, corrigir os danos e atribuir responsabilidades, é essencial enfrentar os efeitos negativos da IA desde o início de sua implementação e educar os usuários sobre os princípios e funcionamento da tecnologia.
Diante desse cenário, torna-se imperativa a necessidade de diretrizes normativas que assegurem o uso ético, seguro e pedagogicamente orientado da IA na EaD, respeitando princípios democráticos e inclusivos (UNESCO, 2021).
APLICAÇÃO DA IA NA EAD – IAEAD
Com o avanço tecnológico e o crescente uso da Inteligência Artificial no campo educacional, observa-se no Brasil uma fragmentação de iniciativas que, embora relevantes, carecem de integração em uma política pública estruturada e orientada por diretrizes nacionais específicas. Conforme destaca a UNESCO (2021), o desenvolvimento e a aplicação de tecnologias baseadas em IA no campo educacional exigem diretrizes éticas e políticas públicas bem articuladas, o que ainda se mostra incipiente no cenário brasileiro
Ainda que essas ferramentas apresentem potencial para personalizar o ensino e ampliar o alcance formativo, não há, até o momento, normativas que garantam a transparência dos dados utilizados, a auditabilidade dos processos ou mesmo a participação da comunidade acadêmica na definição dos critérios de funcionamento desses sistemas. As orientações da UNESCO (2021) ainda garantem, além desses aspectos, a salvaguarda de direitos obrigatórios para evitar vieses discriminatórios.
Além disso, sem critérios mínimos definidos em nível federal, a qualidade, a segurança e a finalidade das aplicações de IA ficam ao arbítrio das instituições, o que compromete a equidade e a confiabilidade do processo educativo. A ausência de diretrizes específicas também dificulta a aplicação plena dos princípios da Lei Geral de Proteção de Dados Pessoais (Lei nº 13.709/2018), que exige transparência, finalidade legítima e segurança no tratamento de dados.
Entre os exemplos de aplicação de IA em ações públicas educacionais pode-se citar o uso de algoritmos de recomendação em plataformas como a AVAMEC, desenvolvida pelo Laboratório de Tecnologia da Informação e Mídias Educacionais da Universidade Federal de Goiás, em parceria com o Ministério da Educação (Labtime et al., s.d.), que oferece cursos abertos e massivos (MOOCs) com recursos de automação para acompanhamento de desempenho.
Outra experiência é a da CAPES, que vem desenvolvendo projetos de incentivo à inovação digital na pós-graduação, incluindo estudos voltados ao uso de big data e analytics para monitoramento de desempenho acadêmico. Ainda assim, essas ações não se encontram respaldadas por uma política nacional de inovação educacional que integre aspectos pedagógicos, tecnológicos e ético-legais. Essa carência também se estende ao uso de IA no contexto da plataforma Lattes ou de sistemas estaduais de gestão educacional com soluções automatizadas de avaliação e planejamento.
Portanto, para que a Inteligência Artificial seja incorporada de maneira justa e eficaz à Educação a Distância, é fundamental que o país avance na formulação de diretrizes nacionais claras, ancoradas em legislações específicas, na colaboração com especialistas da educação e da tecnologia, e em princípios que garantam a centralidade do sujeito no processo de aprendizagem. Deve-se considerar a inserção da IAEaD não ocorre em um vácuo legal ou pedagógico, mas em meio a disputas por sentidos, valores e objetivos educacionais.
COMPARATIVO COM O CENÁRIO INTERNACIONAL: O AI Act
O desenvolvimento e a regulamentação da Inteligência Artificial em contextos educacionais vêm ganhando atenção em diversas partes do mundo. Países com tradição na formulação de políticas públicas orientadas por princípios democráticos, como os da União Europeia, têm avançado em propostas normativas que buscam equilibrar inovação tecnológica e proteção de direitos fundamentais. Nesse contexto, o AI Act, elaborado pela Comissão Europeia e aprovado pelo Parlamento Europeu em 2024, representa a mais ambiciosa e abrangente tentativa de regulamentar a IA em escala supranacional (União Europeia, 2024).
O AI Act (2024), em seu artigo 5, adota uma abordagem baseada em riscos, classificando os sistemas de IA em quatro categorias principais: risco inaceitável, alto risco, risco limitado e risco mínimo. A educação foi expressamente identificada como uma área de alto risco, o que implica a necessidade de avaliação de impacto algorítmico, supervisão humana obrigatória, transparência no funcionamento dos sistemas e possibilidade de auditoria externa.
O documento da União Europeia, o AI Act (2024) também avança ao estabelecer a centralidade dos direitos fundamentais como princípio orientador. Isso significa que a inovação tecnológica, mesmo sendo bem-vinda, não pode se sobrepor à dignidade humana, à proteção de dados, à não discriminação e ao direito fundamental à educação de qualidade.
Tal abordagem deveria inspirar o legislador brasileiro a elaborar políticas e normativas que não apenas permitam o uso da IA, mas que o subordina aos valores constitucionais já consagrados, como o direito à educação, à igualdade de condições e à liberdade de aprender.
Outro aspecto importante do AI Act (2024), em seu artigo 13, é sua ênfase em transparência e governança. Todos os sistemas considerados de alto risco devem apresentar relatórios de impacto, registros de funcionamento e garantias de supervisão humana contínua.
No Brasil, tais exigências ainda não foram incorporadas aos marcos legais em discussão, o que deixa um vácuo regulatório importante, sobretudo no campo educacional, onde decisões baseadas em algoritmos podem ter efeitos diretos sobre a trajetória acadêmica dos estudantes e devem ser discutidos e enfrentados com a ajuda da comunidade acadêmica (Cardoso; Muñoz, 2023).
Por fim, cabe destacar que o AI Act resulta de um processo participativo e multidisciplinar, envolvendo especialistas de diferentes áreas, representantes da sociedade civil, pesquisadores e instituições públicas. Essa pluralidade de vozes é um diferencial importante que pode e deve inspirar o modelo brasileiro.
CONSIDERAÇÕES FINAIS
A presença crescente da Inteligência Artificial na Educação a Distância impõe ao Estado brasileiro, às instituições de ensino e à sociedade civil o desafio de atualização e revisão de seus marcos regulatórios e suas políticas públicas para garantir que o uso dessas tecnologias seja orientado por princípios democráticos, éticos, pedagógicos e legais. O presente estudo revelou que a ausência de uma regulamentação específica para o uso da IA em contextos educacionais, como evidenciado ao longo deste artigo, não apenas fragiliza a segurança jurídica e a governança das instituições de ensino, mas também compromete a equidade e a qualidade do processo formativo, mediado por tecnologias emergentes.
O Brasil ainda se encontra em um estágio inicial de discussão legislativa sobre a IAEaD, com projetos relevantes em tramitação, mas que carecem de maturidade normativa, articulação intersetorial e de enfoque específico nas particularidades do campo educacional. Em contraste, o AI Act da União Europeia apresenta-se como um marco robusto, sistematizado e orientado por princípios de proteção aos direitos fundamentais, oferecendo um modelo de referência para o desenvolvimento de políticas públicas no contexto nacional.
A falta de diretrizes nacionais claras tem produzido uma realidade de iniciativas desarticuladas, em que plataformas tecnológicas são adotadas sem critérios unificados de transparência, a escassez de programas de formação docente voltados ao uso ético e crítico da IA, ou avaliação de impacto pedagógico constituem obstáculos concretos. Dessa forma, este artigo reforça a necessidade urgente de construção de uma política pública nacional e democrática – um marco normativo que reconheça a complexidade da IAEaD e que promova a articulação entre inovação, legislação e justiça educacional. Essa política deve incluir, entre outros aspectos, a elaboração de diretrizes ético-legais específicas, a obrigatoriedade de avaliação de impacto educacional dos sistemas de IA, a formação contínua dos profissionais da educação e o envolvimento ativo da comunidade científica e escolar na formulação e monitoramento dessas ações.
A consolidação de um marco regulatório robusto e específico para a IAEaD no Brasil não é apenas uma demanda normativa, mas é uma condição essencial para que as tecnologias sejam integradas ao ensino de forma crítica, humanizada e comprometida com o desenvolvimento integral dos estudantes e com os princípios constitucionais da educação nacional.
REFERÊNCIAS BIBLIOGRÁFICAS
BARDIN, Laurence. Análise de Conteúdo. São Paulo: Edições 70, 2016.
BRASIL. Constituição da República Federativa do Brasil de 1988. Brasília: Senado Federal, 1988.
BRASIL. Lei nº 9.394, de 20 de dezembro de 1996. Estabelece as diretrizes e bases da educação nacional. Diário Oficial da União: seção 1, Brasília, DF, 23 dez. 1996.
BRASIL. Lei nº 13.709, de 14 de agosto de 2018. Dispõe sobre a proteção de dados pessoais e altera a Lei nº 12.965, de 23 de abril de 2014 (Marco Civil da Internet). Diário Oficial da União: seção 1, Brasília, DF, 15 ago. 2018.
BRASIL. Projeto de Lei nº 2.338, de 2023. Dispõe sobre o uso da inteligência artificial no Brasil. Senado Federal, Brasília, DF, 2023. Disponível em: https://www25.senado.leg.br/web/atividade/materias/-/materia/161157. Acesso em: 29 maio 2025.
BRASIL. Câmara dos Deputados. Projeto de Lei n. 4060, de 2019. Dispõe sobre o uso da inteligência artificial no Brasil. Disponível em: https://www.camara.leg.br/propostas-legislativas/2192011. Acesso em: 30 jul. 2025.
BRASIL. Assembleia Legislativa do Estado de São Paulo. Projeto de Lei n. 21, de 2020. Dispõe sobre a criação de diretrizes para o desenvolvimento da inteligência artificial no estado. Disponível em: https://www.al.sp.gov.br/propositura/?id=1000319822. Acesso em: 30 jul. 2025.
CARDOSO. Joyce Favoretti. Recursos da inteligência artificial e suas aplicações na educação a distância. In: III Congresso Brasileiro On-line de Ensino, Pesquisa e Extensão (ENSIPEX), 2024. Anais […]. São Paulo: IME Events, 2024. Disponível em: https://ime.events/ensipex2024/pdf/29352. Acesso em: 29 maio 2025.
CARDOSO. Joyce Favoretti. Inteligência artificial e educação a distância: recursos e possibilidades. In: VIII Seminário Internacional WEB Currículo da PUC, 2023. Anais. São Paulo: Campinas, 2024. Disponível em: https://eventos.pucsp.br/anais/viii-webcurriculo/. Acesso em 21 abr. 2025.
CARDOSO. Joyce Favoretti; MUÑOZ, Cleide Maria dos Santos. O futuro da Inteligência Artificial na Educação a Distância: aspectos legislativos. In: CONGRESSO INTERNACIONAL DE INOVAÇÃO NA EDUCAÇÃO, XIX, 2023, Recife. Anais […]. Recife: Senac Pernambuco, 2023. Disponível em: https://encurtador.com.br/Szdnj .Acesso em: 21 abr. 2025.
GIL. Antônio Carlos. Como elaborar projetos de pesquisa. 5. ed. São Paulo: Atlas, 2010. https://files.cercomp.ufg.br/weby/up/150/o/Anexo_C1_como_elaborar_projeto_de_pesquisa_-_antonio_carlos_gil.pdf. Acesso em: 21 abr. 2025.
KAUFMAN. Dora. Inteligência artificial e os desafios éticos: a restrita aplicabilidade dos princípios gerais para nortear o ecossistema de IA. PAULUS: Revista de Comunicação da FAPCOM, São Paulo, v. 5, 2021. DOI: https://revista.fapcom.edu.br/index.php/revista-paulus/article/view/453. Acesso em:21 abr. 2025
KAUFMAN. Dora. A inteligência artificial irá suplantar a inteligência humana?. São Paulo: Estação das Letras e Cores, 2020.
LABTIME – Laboratório de Tecnologia da Informação e Mídias Educacionais; UNIVERSIDADE FEDERAL DE GOIÁS; MINISTÉRIO DA EDUCAÇÃO. Plataforma AVAMEC. Disponível em: https://avamec.mec.gov.br/. Acesso em: 1 maio. 2025
MORAN, J. M. Ensinar e aprender com tecnologias. Campinas: Papirus, 2002.
NAÇÕES UNIDAS. Assembleia Geral da ONU adota primeira resolução global sobre inteligência artificial. ONU News, 21 mar. 2024. Disponível em: https://news.un.org/pt/story/2024/03/1829446. Acesso em: 21 abr. 2025
UNESCO. Recomendação sobre a ética da inteligência artificial. Paris: Organização das Nações Unidas para a Educação, a Ciência e a Cultura, 2021. Disponível em: https://unesdoc.unesco.org/ark:/48223/pf0000381137. Acesso em: 29 maio 2025.
UNIÃO EUROPEIA. Regulamento (EU) 2024/0138 do Parlamento Europeu e do Conselho relativo à inteligência artificial e que altera determinados atos legislativos da União (AI Act). Bruxelas: Parlamento Europeu, 2024. Disponível em: https://digital-strategy.ec.europa.eu/en/policies/artificial-intelligence. Acesso em: 15 abr. 2025.
SPINARD., Janine Donato; BOTH, Ivo José. Blended Learning: o ensino híbrido e a avaliação da aprendizagem no ensino superior. B. Téc. Senac, Rio de Janeiro, v. 44,n. 1, jan./abr. 2018.
Área do Conhecimento