MEC recomenda veto de IA na educação infantil
Um referencial inédito do MEC (Ministério da Educação) sobre a incorporação da inteligência artificial na educação recomenda o veto da tecnologia na educação infantil, atividades desplugadas nos anos iniciais e desaconselha a adoção de reconhecimento facial nas escolas -algo que já é realidade em muitas redes de ensino e escolas privadas.
O documento de 240 páginas foi divulgado nesta quinta-feira (12) pela pasta do governo Lula (PT). Ele faz um panorama sobre a absorção da tecnologia em todo sistema educacional, com reflexões e recomendações que vão da gestão escolar à produção de materiais didáticos, formação de professores currículo, uso em sala de aula e também no ensino superior.
Princípios como o apoio ao processo de ensino-aprendizagem, a não substituição do papel do professor e o uso da IA como ferramenta pedagógica perpassam o documento, que contempla informações e produções internacionais sobre o tema.
O referencial do MEC está alinhado com o parecer sobre o tema que o CNE (Conselho Nacional de Educação) deve colocar em votação na próxima segunda-feira (16), de acordo com o relator, conselheiro Celso Niskier. Essa será uma primeira regulamentação geral sobre IA na educação no país.
"Após um ano e meio de debates, com a participação do MEC, da Unesco e de vários especialistas, estamos próximos de um texto que representa o consenso dos conselheiros da Comissão sobre esse importante tema. Queremos estimular a inovação pedagógica, valorizando o papel do professor e garantindo que a IA na Educação seja usada de forma ética, crítica e responsável", diz Niskier.
Segundo o MEC, o referencial reafirma que a inteligência artificial deve ser utilizada como instrumento capaz de apoiar ações que fortaleçam a inclusão e ampliem a equidade, e não a exclusão. "A incorporação tecnológica deve favorecer o enfrentamento das desigualdades e evitar a criação de novas barreiras entre grupos com condições desiguais para ensinar e aprender", diz o MEC em texto de apresentação do referencial.
O trabalho do MEC destaca preocupações sobre questão de autoria de atividades, inclusive dos professores, avaliação e segurança de dados e privacidade.
"Sistemas de reconhecimento facial em ambientes escolares não são recomendados, em razão dos riscos associados à exposição e ao tratamento de dados pessoais de crianças e adolescentes", destaca o documento do MEC.
O reconhecimento facial tem tido expansão nas redes públicas de ensino, sem padrão nacional ou avaliação, segundo o estudo Tecnologias de Vigilância e Inteligência Artificial na Educação, lançado em outubro pelo Internetlab, centro de pesquisa em direito e tecnologia.
Em 2025, sete estados já contavam com a tecnologia como política pública (Alagoas, Amazonas, Goiás, Paraná, Rio de Janeiro, São Paulo e Tocantins), onde predomina o uso para controle de frequência dos estudantes.
O referencial do MEC cita a necessidade de haver cuidados com a proteção de dados de estudantes e professores e a transparência nos algoritmos usados em sistemas educacionais, ressaltando a "caixa-preta" que essas tecnologias representam.
"A integração de inteligência artificial ao campo educacional também apresenta desafios que demandam acompanhamento permanente e avaliação rigorosa. Entre os desafios, destacam-se a transparência e a explicabilidade de sistemas frequentemente descritos como 'caixas-pretas'", diz o texto.
Há menção ainda a preocupações com o chamado viés algorítmico. "Sistemas treinados com bases de dados que refletem desigualdades sociais e culturais tendem a reproduzir -ou aprofundar- preconceitos e estereótipos, ampliando assimetrias que incidem de modo desproporcional sobre grupos historicamente marginalizados".
Para Sonia Dias, gerente de Desenvolvimento e Soluções do Itaú Social, o uso da Inteligência Artificial generativa na educação deve estar intimamente ligado a princípios de responsabilidade, com supervisão do professor e compromisso com a promoção da equidade na aprendizagem.
"O uso da tecnologia é providencial potencializar o estudo, desde que não comprometa o pensamento crítico e a retenção do conhecimento", diz ela. "Ao delegar tarefas à IA sem reflexão, o aprendizado tende a se tornar superficial, dificultando a consolidação de conceitos na memória de longo prazo".
Supervisão e punição
Com relação ao processo de ensino, aprendizado e avaliação, o referencial reforça que a manutenção de uma "supervisão humana significativa" sobre a inteligência artificial constitui "princípio fundamental e inegociável", sobretudo por envolver direitos, trajetórias e oportunidades educacionais. Nesse ponto, a questão de avaliação é endereçada com mais ênfase, incluindo os riscos de fraude acadêmica, com trabalhos produzidos por IA apresentados como autoria própria
O texto ressalta a necessidade de uma revisão sobre as práticas de avaliação. "Tal cenário exige a revisão das práticas avaliativas, com ênfase na valorização do processo investigativo, na análise crítica das informações ou na adoção de formatos de avaliação que reduzam a possibilidade de submissão de trabalhos produzidos de forma não original".
O documento não estabelece uma lista de punições específicas para casos de fraudes. Há o desaconselhamento de uso de ferramentas de detecção automática de IA para embasar punições ou diagnósticos de fraude.
O parecer do CNE, que será discutido na próxima semana, prevê regras para o uso pedagógico que incluem: correções dissertativas totalmente automatizadas serão proibidas, decisões pedagógicas devem ser sempre humanas e conteúdos gerados por IA devem ser identificados.
Há previsão de consulta pública para o documento do CNE e, para passar a valer, precisa ser homologado pelo ministro da Educação.
Na educação infantil, diz o documento do MEC, não se recomenda o uso de inteligência artificial, "exceto em situações específicas nas quais recursos tecnológicos viabilizem a inclusão de crianças com deficiência em processos de aprendizagem". O foco deve recair, no ensino fundamental, sobre o desenvolvimento progressivo do letramento em inteligência artificial, "para que estudantes compreendam, de modo lúdico e gradual, conceitos básicos relacionados à tecnologia".
Já no ensino médio, recomenda-se incentivar a exploração prática de ferramentas, articulada a projetos de pesquisa e à proposição de soluções criativas, com ênfase em análise crítica, integridade acadêmica e reflexão ética.
O MEC traz ainda a sugestão de fortalecer a formação docente alinhada à IA e a adequação da Base Nacional Comum Curricular.
No ensino superior, há recomendações, entre outras, para criar um ecossistema de Pesquisa, Desenvolvimento e Inovação em IA para a educação no Brasil e o direcionaento do fomento para a resolução de desafios prioritários da educação brasileira (como o combate à evasão e a busca por equidade).
Três das principais universidades do país (USP, Unicamp e Unesp) estão criando protocolos para o uso da IA cuja principal regra é a transparência. A utilização deve ser combinada entre professores e alunos e declarada nas pesquisas e nos demais trabalhos acadêmicos.