Por que devemos ter cuidado com IA's e criações de imagens?
)
Olá, meus amigos profs! Já perceberam como a inteligência artificial (IA) está cada vez mais presente no nosso dia a dia? É como se tivéssemos um gênio da lâmpada, mas em vez de desejos, ele cria imagens! Mas, calma lá, nem tudo são flores no mundo da IA. É preciso estar de aberto para não cair em armadilhas.
Pedi para uma ia me desenhar em uma sala de aula diversa. Dei todas as instruções corretamente no prompt. Saiu esse desenho!
Embora a IA tenha desenhado bem, ai vai uma falsa diversidade. Uma sala de aula com um professor negro só pode ter alunos negros? O desenho está lindo, mas não reflete (em nada) a minha sala de aula, com pessoas de todas as cores e formas, típicas e atípicas. Desenho lindo, mas essas imagens apresentam um apartheid cultural. Cuidado para não cair nessa ideia.
O lado sombrio das imagens da IA: vieses e estereótipos
Sabe aquele ditado “lixo que entra, lixo que sai”? Ele vale muito para a IA! Se os dados usados para treinar a IA forem enviesados, as imagens criadas também serão. E é aí que mora o perigo!
- Estereótipos reforçados: imagine que você pede para a IA criar a imagem de um "professor". Se o banco de dados da IA só tiver fotos de homens brancos de meia-idade, é isso que ela vai te entregar. Isso reforça o estereótipo de que só homens brancos são professores, e exclui a diversidade de profissionais que temos nas escolas.
- Vieses raciais e de gênero: a coisa fica ainda mais séria quando falamos de raça e gênero. Uma pesquisa mostrou que ao pedir para uma IA gerar imagens de pessoas em profissões como médicos e advogados, geralmente as imagens são de homens brancos. Já quando a solicitação é por imagens de enfermeiras, a maioria das imagens são de mulheres. Isso reforça estereótipos de gênero, mostrando como a IA pode reproduzir preconceitos.
- Racismo algorítmico: não podemos esquecer o racismo algorítmico. Uma pesquisadora do MIT descobriu que sistemas de IA tinham dificuldade em reconhecer rostos negros como humanos. Quando colocava uma máscara branca, aí sim a IA a reconhecia. Isso é bem sério e demonstra que a IA pode reproduzir preconceitos que existem na sociedade. Outro caso assustador foi o do Google Fotos, que, em 2015, classificou pessoas negras como gorilas.
- Um ciclo vicioso: a IA é treinada com imagens, e depois cria novas imagens, então se o banco de imagens de treinamento tiver um viés, ela vai reforçar esse viés, criando ainda mais imagens enviesadas que vão ser usadas para treinar outras IAs. É um ciclo que se retroalimenta.
Dados reais e assustadores
Para mostrar que não estamos falando de coisas imaginárias, vamos aos dados:
- Prisões por reconhecimento facial: no Brasil, em 2019, 90% das pessoas presas por reconhecimento facial eram negras. Uma mulher negra inocente foi presa porque a IA a confundiu com outra pessoa. Isso mostra como a IA pode ser usada de maneira injusta e reforçar o racismo.
- Midjourney e os estereótipos de gênero: uma análise de mais de 5 mil imagens criadas pela IA Midjourney mostrou que, quando solicitadas imagens de pessoas em profissões como médicas ou advogadas, geralmente as imagens eram de homens. Já imagens de enfermeiras e professoras eram sempre de mulheres.
Leia também:
- (Auto) Formação docente: crescendo em 2025 para onde você quiser!
- A ascensão da Geração Beta: uma análise bem-humorada dos imersos digitais
- Agentic IA: o novo passo das IA's
Como não dar esse mole?
Calma, profes! A IA não é um bicho de sete cabeças. Podemos usá-la de forma consciente e responsável. Aqui vão algumas dicas:
- Olho crítico: ao usar imagens geradas por IA, questione: essa imagem reforça algum estereótipo? Ela representa a diversidade do mundo? Se a resposta for não, busque outras opções.
- Diversidade nos dados: é fundamental que os bancos de dados de IA sejam diversos e representem todas as pessoas, raças, gêneros e idades. Assim, a IA poderá criar imagens mais inclusivas.
- Inclusão na criação: é importante que equipes diversas participem da criação da IA. Assim, conseguimos identificar e corrigir os vieses antes que eles virem realidade.
- Educação antirracista: o mais importante de tudo: a educação é a chave para combater preconceitos. É preciso que os alunos aprendam a questionar, a analisar criticamente as informações e a construir uma sociedade mais justa e igualitária.
- Transparência e avaliação: os sistemas de IA devem ser transparentes, permitindo que todos entendam como eles funcionam e tomem decisões. É preciso avaliar continuamente o desempenho desses sistemas para identificar e corrigir possíveis vieses.
Aula criativa: explorando imagens de forma crítica e reflexiva
Objetivo: ensinar alunos do ensino fundamental a interpretar e criar imagens que questionem estereótipos e promovam diversidade.
Plano de aula em 3 passos:
Discussão inicial:
- Mostre imagens simples e pergunte: "O que elas nos dizem? Existe algum preconceito aqui?"
- Estimule reflexões sobre como as imagens podem carregar mensagens implícitas.
Atividade prática:
- Em grupos, analisem imagens recortadas de revistas.
- Cada aluno cria sua própria imagem ou colagem que expresse diversidade, felicidade ou superação.
Compartilhamento final:
- Convide os alunos a apresentarem suas criações e expliquem suas escolhas.
- Reforce a importância de construir narrativas inclusivas e justas
Resultado esperado:
Desenvolver habilidades críticas e criativas para interpretar e produzir imagens que desafiem preconceitos e inspirem mudanças.
Vamos conversar! Como vocês abordariam temas como racismo, misoginia ou etarismo em sala de aula? Compartilhe suas ideias!
Sem medo, com consciência
A IA é uma ferramenta poderosa que pode nos ajudar muito, mas é preciso usá-la com cuidado. Ao estarmos conscientes dos perigos dos vieses e estereótipos, podemos criar um mundo mais justo e inclusivo, onde a tecnologia é uma aliada e não uma vilã.
Sobre o autor:
-
Doug Alvoroçado
Professor II, SME/RJ e SEEDUC/RJ
*Este texto não reflete, necessariamente, a opinião da Bett Brasil.
Compartilhe nas redes sociais:
Categories
- Inovação