Segunda-feira, 30 de março de 2026
Por Redação O Sul | 14 de março de 2026
Um referencial inédito do MEC (Ministério da Educação) sobre a incorporação da inteligência artificial na educação recomenda o veto da tecnologia na educação infantil, atividades desplugadas nos anos iniciais e desaconselha a adoção de reconhecimento facial nas escolas — algo que já é realidade em muitas redes de ensino e escolas privadas.
O documento de 240 páginas foi publicizado pela pasta do governo Lula (PT). Ele faz um panorama sobre a absorção da tecnologia em todo sistema educacional, com reflexões e recomendações que vão da gestão escolar à produção de materiais didáticos, formação de professores currículo, uso em sala de aula e também no ensino superior.
Princípios como o apoio ao processo de ensino-aprendizagem, a não substituição do papel do professor e o uso da IA como ferramenta pedagógica perpassam o documento, que contempla informações e produções internacionais sobre o tema.
O referencial do MEC está alinhado com o parecer sobre o tema que o CNE (Conselho Nacional de Educação) deve colocar em votação nesta segunda-feira (16), de acordo com o relator, conselheiro Celso Niskier. Essa será uma primeira regulamentação geral sobre IA na educação no país.
“Após um ano e meio de debates, com a participação do MEC, da Unesco e de vários especialistas, estamos próximos de um texto que representa o consenso dos conselheiros da Comissão sobre esse importante tema. Queremos estimular a inovação pedagógica, valorizando o papel do professor e garantindo que a IA na Educação seja usada de forma ética, crítica e responsável”, diz Niskier.
Segundo o MEC, o referencial reafirma que a inteligência artificial deve ser utilizada como instrumento capaz de apoiar ações que fortaleçam a inclusão e ampliem a equidade, e não a exclusão. “A incorporação tecnológica deve favorecer o enfrentamento das desigualdades e evitar a criação de novas barreiras entre grupos com condições desiguais para ensinar e aprender”, diz o MEC em texto de apresentação do referencial.
O trabalho do MEC destaca preocupações sobre questão de autoria de atividades, inclusive dos professores, avaliação e segurança de dados e privacidade.
“Sistemas de reconhecimento facial em ambientes escolares não são recomendados, em razão dos riscos associados à exposição e ao tratamento de dados pessoais de crianças e adolescentes”, destaca o documento do MEC.
O reconhecimento facial tem tido expansão nas redes públicas de ensino, sem padrão nacional ou avaliação, segundo o estudo Tecnologias de Vigilância e Inteligência Artificial na Educação, lançado em outubro pelo Internetlab, centro de pesquisa em direito e tecnologia.
Em 2025, sete estados já contavam com a tecnologia como política pública (Alagoas, Amazonas, Goiás, Paraná, Rio de Janeiro, São Paulo e Tocantins), onde predomina o uso para controle de frequência dos estudantes.
O referencial do MEC cita a necessidade de haver cuidados com a proteção de dados de estudantes e professores e a transparência nos algoritmos usados em sistemas educacionais, ressaltando a “caixa-preta” que essas tecnologias representam.
“A integração de inteligência artificial ao campo educacional também apresenta desafios que demandam acompanhamento permanente e avaliação rigorosa. Entre os desafios, destacam-se a transparência e a explicabilidade de sistemas frequentemente descritos como ‘caixas-pretas'”, diz o texto.
Há menção ainda a preocupações com o chamado viés algorítmico. “Sistemas treinados com bases de dados que refletem desigualdades sociais e culturais tendem a reproduzir — ou aprofundar — preconceitos e estereótipos, ampliando assimetrias que incidem de modo desproporcional sobre grupos historicamente marginalizados”.
Para Sonia Dias, gerente de Desenvolvimento e Soluções do Itaú Social, o uso da Inteligência Artificial generativa na educação deve estar intimamente ligado a princípios de responsabilidade, com supervisão do professor e compromisso com a promoção da equidade na aprendizagem.
“O uso da tecnologia é providencial potencializar o estudo, desde que não comprometa o pensamento crítico e a retenção do conhecimento”, diz ela. “Ao delegar tarefas à IA sem reflexão, o aprendizado tende a se tornar superficial, dificultando a consolidação de conceitos na memória de longo prazo”.
Supervisão e punição
Com relação ao processo de ensino, aprendizado e avaliação, o referencial reforça que a manutenção de uma “supervisão humana significativa” sobre a inteligência artificial constitui “princípio fundamental e inegociável”, sobretudo por envolver direitos, trajetórias e oportunidades educacionais. Nesse ponto, a questão de avaliação é endereçada com mais ênfase, incluindo os riscos de fraude acadêmica, com trabalhos produzidos por IA apresentados como autoria própria
O texto ressalta a necessidade de uma revisão sobre as práticas de avaliação. “Tal cenário exige a revisão das práticas avaliativas, com ênfase na valorização do processo investigativo, na análise crítica das informações ou na adoção de formatos de avaliação que reduzam a possibilidade de submissão de trabalhos produzidos de forma não original”.
O documento não estabelece uma lista de punições específicas para casos de fraudes. Há o desaconselhamento de uso de ferramentas de detecção automática de IA para embasar punições ou diagnósticos de fraude. Com informações da Folha de São Paulo.
Você receberá um email de confirmação após enviar o seu primeiro comentário, mas ele só será publicado depois que você clicar no link de verificação enviado para a sua conta de e-mail para confirma-lo. Os próximos comentários serão publicados automaticamente por 30 dias!