Bett UK

22-24 Jan 2025

Bett Brasil

28/Abr a 01/Mai 2025

Bett Asia

1-2 Out 2025

Bett Blog

14 nov. 2025

IA na educação: alerta da ciência, apelo ético e o ponto cego entre o ECA Digital e o PL 2.338

por Alessandra Borelli
IA na educação: alerta da ciência, apelo ético e o ponto cego entre o ECA Digital e o PL 2.338
Foto: Freepik
Será que estamos construindo soluções em IA que sejam verdadeiramente seguras e formativas para crianças e adolescentes?

A Inteligência Artificial já não é uma promessa futura, mas presença constante e transformadora nas salas de aula e na vida de muitos estudantes. Ferramentas como o ChatGPT se tornaram aliadas na personalização do ensino e na otimização de tarefas, mas à medida que essa revolução se consolida, um alerta ecoa nos debates globais: será que estamos construindo soluções em IA que sejam verdadeiramente seguras e formativas para crianças e adolescentes?

A resposta a essa pergunta reside em uma encruzilhada onde a ciência e a ética se encontram. De um lado, pesquisas rigorosas acendem um alerta sobre as falhas técnicas dos sistemas de IA e, de outro, vozes humanísticas, como a do Papa Leão XIV, clamam por uma responsabilidade que transcende os algoritmos e se ancora na dignidade humana.

Um estudo recente da Universidade do Texas, em Austin, intitulado “Safe-Child-LLM”, oferece um diagnóstico contundente, na medida em que pesquisas constatam que os Large Language Model (Modelos de Linguagem em grande escola), que servem de cérebro para as IAs generativas, não são seguros para o público infantojuvenil.

A pesquisa revela uma “lacuna de desenvolvimento” crítica, uma vez que esses sistemas são treinados com dados e interações de adultos, tornando-os incapazes de discernir as vulnerabilidades e a complexidade do universo infantil.

Os pesquisadores testaram os principais LLMs do mercado (ChatGPT, Claude, Gemini, entre outros) com 200 perguntas que simulam cenários realistas para crianças (7-12 anos) e adolescentes (13-17 anos).

O resultado foi alarmante: todos os modelos apresentaram falhas críticas de segurança, fornecendo respostas inadequadas ou perigosas sobre temas como bullying, autolesão e acesso a conteúdo impróprio.

Essa vulnerabilidade se torna ainda mais preocupante diante de um fenômeno crescente. Dados da pesquisa 'TIC Kids Online Brasil 2025' mostram que 16% dos adolescentes brasileiros entre 15 e 17 anos já utilizaram a IA para desabafar sobre suas emoções, ou seja, eles não estão apenas fazendo a lição de casa, mas confiando suas angústias a algoritmos que, como a ciência demonstra, não foram projetados para acolhê-los com segurança.

Em um discurso recente a especialistas reunidos no Vaticano, o Papa Leão XIV abordou exatamente essa questão, pedindo uma “educação digital ética” para proteger as crianças na era da IA. Suas palavras coincidem às preocupações levantadas pela ciência, mas as elevando a um plano de responsabilidade humana e pedagógica.

O Pontífice advertiu que “as crianças e os adolescentes são particularmente vulneráveis à manipulação por meio de algoritmos”, que podem influenciar suas decisões e preferências. Para ele, a resposta não pode ser apenas tecnológica e, muito embora leis e protocolos sejam importantes, a solução mais profunda e duradoura é educativa.

“É necessário um trabalho educativo, cotidiano e constante, conduzido por adultos que, por sua vez, sejam formados e sustentados por redes de aliança educativa, em um processo de conhecimento dos riscos que o uso da inteligência artificial […] pode acarretar na vida relacional dos menores e em seu desenvolvimento.”

O Papa Leão XIV resgata a vocação dos pais e educadores como “artesãos da educação”, figuras insubstituíveis na formação de uma “liberdade responsável”. A meta não é proibir a tecnologia, mas formar consciências capazes de fazer escolhas maduras e éticas no ambiente digital.

Leia também:

As descobertas do estudo Safe-Child-LLM e o apelo do Papa Leão XIV convergem para um chamado à ação para a comunidade escolar. Não se trata de escolher entre a ciência e a ética, mas de integrá-las em uma prática pedagógica coerente e protetiva.

Nesse debate, o PL 2.338, que avança na Câmara como o futuro Marco Regulatório da Inteligência Artificial no Brasil, também entra como peça-chave. O projeto estabelece princípios estruturantes, como transparência, segurança, mitigação de riscos, governança responsável e supervisão humana significativa, e impõe que sistemas de IA, especialmente os classificados como de alto risco no contexto educacional, sejam desenvolvidos e utilizados com controles técnicos rígidos.

Embora o texto ainda não dialogue diretamente com a proteção da infância nem com o próprio ECA Digital, sua aprovação deve elevar o nível de responsabilidade das escolas, edtechs e fornecedores, criando um trilho regulatório mínimo para que a IA educacional opere com mais segurança, previsibilidade e ética.

Algumas medidas práticas incluem:

  • Formação docente crítica: capacitar professores não apenas para usar ferramentas de IA, mas para compreender seu funcionamento, seus riscos inerentes e, principalmente, para mediar o uso da tecnologia em sala de aula, guiando os alunos na avaliação crítica das informações.
     
  • Curadoria de ferramentas com foco na ética: priorizar o uso de plataformas de IA que demonstrem um compromisso claro e transparente com a segurança infantil, alinhadas com a legislação brasileira, como o ECA Digital (Lei nº 15.211/2025).
     
  • Diálogo aberto e letramento digital: criar um ambiente de diálogo constante com alunos e famílias sobre o uso ético e seguro da IA, tratando abertamente de temas como a privacidade, a manipulação algorítmica e a importância de buscar apoio humano para questões emocionais.
     
  • Políticas de uso transparentes: desenvolver e implementar políticas de uso de IA que estejam alinhadas não apenas com a legislação, mas com o projeto pedagógico e os valores da instituição, garantindo que a tecnologia sirva sempre ao desenvolvimento integral do aluno.

O futuro da educação será, inevitavelmente, híbrido, combinando a sensibilidade do educador humano com o poder da inteligência artificial e eventos como a Bett Brasil são o palco ideal para aprofundar essa discussão, unindo desenvolvedores de tecnologia, líderes educacionais e a sociedade civil.

Garantir que a IA seja uma aliada no desenvolvimento pleno e seguro de nossos alunos é o maior desafio e a mais nobre missão para a educação do século XXI.

Sobre a autora:


*Este texto não reflete, necessariamente, a opinião da Bett Brasil.

Compartilhe nas redes sociais:

Categories

  • Gestão Educacional
  • Inovação
Voltar ao Bett Blog
Loading