Para além de banir ou aceitar, como lidar com as ferramentas de inteligência artificial na educação

Ferramentas de inteligência artificial podem ajudar na produtividade de professores, mas merecem atenção por vieses e erros

Escrito por Gabriela Custódio , gabriela.custodio@svm.com.br
homem utilizando chatgpt
Foto: Matheus Bertelli / Pexels

Redução do tempo de preparação de aula, personalização de atividades e produção de material didático com mais rapidez e variedade de formatos são algumas das possibilidades que a inteligência artificial (IA) oferece à Educação. Por outro lado, o cuidado com a segurança dos aplicativos utilizados, os vieses e o impacto dessa tecnologia no aprendizado dos estudantes são algumas preocupações necessárias.

Como as ferramentas de IA têm sido cada vez mais inseridas nas rotinas, em diversos setores, a discussão sobre o uso dessas ferramentas precisa considerar muitas questões que precisam ir além da decisão entre banir ou permiti-las no cotidiano. 

Veja também

Entre as potencialidades da inteligência artificial na educação, Ivan Siqueira, professor de Estudos Interdisciplinares do Instituto de Humanidades, Artes e Ciências Professor Milton Santos (IHAC), da Universidade Federal da Bahia (UFBA), aponta que é possível utilizar aplicativos que personalizem a experiência do aprendizado de acordo com as necessidades e dificuldades de cada estudante. É o caso de alunos com alguma deficiência, por exemplo.

"Você consegue, evidentemente, reduzir o seu tempo de preparação de aula, produzir materiais didáticos para a sua aula com muito mais rapidez, com muito mais seletividade, com multiplicidade, com formatos diferentes, com áudio, com pintura. Isso facilita muito, desde que os docentes e as docentes saibam quais são os aplicativos seguros", afirma o professor da UFBA.

Pessoa usando aplicativo do chatgpt no celular com a logo do chatgpt ao fundo
Foto: Mojahid Mottakin/Unsplash

Do ponto de vista educacional, Siqueira destaca a importância de se discutir como a IA vai entrar no currículo das escolas. "Vamos para um outro nível de complexidade, que é a questão jurídica. O ChatGPT, por exemplo, anuncia que eventualmente pode dar erros. (...) O professor, a professora, tem que saber que, ao utilizar um aplicativo como esse, ou qualquer outro, está se responsabilizando, sabendo ou não", explica.

Uso de IA na rotina da sala de aula

A engenheira de software Andreza Fernandes, voluntária na comunidade PyLadies e professora de Programação Full Stack, costuma utilizar ferramentas de inteligência artificial no trabalho tanto como programadora quanto como professora. Para dar aulas, a IA é útil para criar checklists de temas que ela não pode esquecer de abordar sobre cada assunto.

É como uma ida ao supermercado: a inteligência artificial cria a “lista de compras” — no caso, de assuntos que não podem faltar nas aulas — e, ao chegar no mercado e ver os demais produtos, ela vê o que ficou fora da lista e também precisa ir para o carrinho. “É como se eu não precisasse fazer tudo do zero. Ela me ajuda a estruturar melhor as coisas. Ajuda a diminuir o tempo e a aumentar a produtividade e a qualidade”, comenta.

Andreza também levanta essa questão dos erros. Ela utiliza a ferramenta para gerar códigos que utiliza nas aulas de programação e no trabalho como engenheira de software. "É uma base que você vai ler e checar. Eu mesma, no trabalho, usei o ChatGPT para gerar testes unitários e não me retornou corretamente. Vai trazer informação, mas não confie totalmente na informação que vem", lembra.

Questões éticas

Outra questão levantada pelo professor Ivan Siqueira é que o ChatGPT guarda as informações enviadas nas solicitações feitas à ferramenta. Isso porque o algoritmo está sempre em treinamento a partir das instruções dadas pelos usuários. "Tudo isso, o docente e a docente precisam saber pra avaliarem se vale a pena (correr) os riscos. (...) Não dá simplesmente pra usar no contexto escolar sem ter um planejamento."

Para Thiago Novaes, professor do Mestrado em Avaliação de Políticas Públicas (MAPP) da Universidade Federal do Ceará (UFC), talvez os riscos sejam até maiores do que os benefícios. O docente faz essa avaliação ao explicar que já tem percebido os impactos negativos da IA em turmas de mestrado nas quais leciona. Ele conta que passou a aplicar provas presencialmente, pois notou que as respostas aos exercícios propostos tinham linguagem "incompatível" com a que era verificava em sala de aula.

"Essas ferramentas, na verdade, têm causado um prejuízo enorme para uma educação formal na medida em que substituem uma literatura, a leitura de capítulos inteiros. Enfim, toda uma parte de educação que deve ser valorizada em sala de aula, o contato direto com o livro, aquela leitura detida, mais calma. Existe uma certa aceleração dessas ferramentas que deve ser questionada", afirma Novaes.

Pessoa escrevendo
Foto: Unseen Studio/Unsplash

Além disso, ele explica que, apesar de serem ferramentas úteis para apoio ao docente, as inteligências artificiais apresentam vieses "muito definido, já pré-programado" que reproduzem preconceitos de raça e de gênero, por exemplo, já existentes na sociedade.

Por exemplo, experimente fazer a pergunta: 'me dê os dez principais nomes da filosofia no mundo'. O ChatGPT vai te dar dez nomes masculinos. E, se você pedir pra te dar uma lista equilibrada, ele vai te dar cinco nomes femininos, cinco nomes masculinos, mas todos do Ocidente, ignorando que o Oriente também produz Filosofia.
Thiago Novaes
professor do Mestrado em Avaliação de Políticas Públicas (MAPP) da Universidade Federal do Ceará (UFC)

Esses aspectos éticos passam também pela formação dos estudantes. Uma vez que, atualmente, todas as atividades foram impactadas de alguma forma pela inteligência artificial, é necessário que eles saiam das escolas e universidades sabendo lidar com essas ferramentas.

"Na formação você já tem que saber como vai lidar com as questões éticas, com as questões jurídicas, com a Lei Geral de Proteção de Dados. Por exemplo, se você é um profissional da saúde, como você vai lidar com isso, com os pacientes, como vai ser explicitado ou não o uso de determinado recurso de inteligência artificial?", reflete o professor Ivan Siqueira.

Adoção da IA como política pública

As problemáticas levantadas pelos professores não fazem com que o tema não tenha que ser debatido e, se for entendido que os benefícios são maiores que os riscos, incorporado às políticas de ensino. Para Ivan Siqueira, da UFBA, é necessário que a adoção de IAs na educação seja discutido nacionalmente.

No mundo todo, explica o docente, já se está discutindo o que e como isso vai ser feito, assim como as questões de segurança, ética e valores.

  • O que: Há, no "o que", vários níveis de complexidade, uma vez que depende de quem são os estudantes, que equipamentos estão disponíveis, que informações têm etc;
  • Como: Implica como as IAs vão entrar no currículo escolar e os objetivos de aprendizagem;
  • Questões de segurança, ética e valores: É necessário conseguir checar as informações para que o estudante não aprenda errado, assim como é necessário levar em consideração a existência de vieses por preconceitos de gênero, raça e religião, por exemplo, existentes nos dados que alimentam essas plataformas.

Para Siqueira, é fundamental que seja feita uma normativa para o uso de inteligência artificial na educação, que especifique a atividade, da mesma forma que existem diretrizes para a Educação Básica, a Educação Infantil, para o Ensino Fundamental, o Ensino Médio, a Educação de Jovens e Adulto (EJA), a Educação Escolar Indígena, a Educação Quilombola e a educação dos Povos Ribeirinhos.

A norma, sobretudo, tem que dizer onde começa, onde termina (o uso da IA), como isso pode se encaixar nas normas existentes e, onde houver a colisão, o que que vai prevalecer. A partir daí, o Estado é obrigado a colocar recurso na formação de professores, provavelmente vai ter que ter mudança na formação inicial, na formação continuada. Tudo isso depende de recurso, e recurso depende de política, de avaliação e assim por diante.
Ivan Siqueira
Professor de Estudos Interdisciplinares do Instituto de Humanidades, Artes e Ciências Professor Milton Santos (IHAC), da Universidade Federal da Bahia (UFBA)

A parceria entre a família e a escola não é menos importante quando se fala do uso da inteligência artificial em sala de aula. Para o docente da UFBA, o assunto abordado, as instruções dadas à ferramenta e as atividades realizadas devem ser comunicadas aos familiares dos estudantes menores de idade.

Além das ferramentas

"Não faz sentido sermos meros consumidores dessas tecnologias sem ter o conhecimento de como funcionam os algoritmos por dentro", defende o professor Thiago Novaes. Para ele, não só as ferramentas de inteligência artificial, mas a própria "linguagem dos computadores" deve entrar nas políticas educacionais. Além disso, de acordo com o professor da UFC, o debate sobre IA não deve ser pautado na separação entre "senhor e escravo", na ideia de que as máquinas vão se insurgir contra os seres humanos.

Veja também

"Essas ferramenta não têm vitalidade, não são organismos, não acumulam experiência. O conhecimento humano não é só um conhecimento de linguagem, um conhecimento em cima de perguntas e respostas. É feito de experiência humana, que leva à intuição, que leva a uma série de outras aprendizados que não são decodificáveis em um programa". Assim, ele defende que a interação com essas ferramentas seja mais "horizontal" e que as discussões sejam mais profundas. "Tem toda uma mitologia em torno disso que deve ser superada", afirma.

O que é inteligência artificial?

A IA é, em resumo, uma enorme capacidade de cálculo sobre o conhecimento já existente. É assim que Thiago Novaes resume esse tipo de tecnologia. Já Ivan Siqueira acrescenta que ela é um conjunto de algoritmos e técnicas — de matemática, estatística e computação — que processa informação e responde de formas, até então, próprias da capacidade humana.

Novaes pontua, porém, que o termo é usado de maneira "equivocada". Isso porque a inteligência é uma característica humana que envolve "sentimentos, intuição, conhecimento e possibilidade inventiva" — atributos associados à vitalidade humana.

Mas entendendo inteligência como uma separação que se faz historicamente, desde Descartes, entre mente e corpo, digamos que a inteligência artificial é aquilo que nos seres humanos seria só a parte mental, ainda reduzindo isso, e muito associado à capacidade de cálculo.
Thiago Novaes
professor do Mestrado em Avaliação de Políticas Públicas (MAPP) da Universidade Federal do Ceará (UFC)

Com a recente popularização do ChatGPT, chatbot desenvolvido pela norte-americana OpenAI e lançado em novembro de 2022, a inteligência artificial tornou-se assunto recorrente no dia a dia. Mas ela está presente em diversas outras ferramentas para além do ChatGPT, e assistentes virtuais em aplicativos de banco, algoritmos de reconhecimento facial ou carros autônomos são exemplos de soluções com inteligência artificial.

Além do produto da OpenAI, Andreza utiliza a inteligência artificial do Notion, aplicação com componentes como notas, bases de dados, calendários e lembretes, entre outros. A IA do Notion ajuda a criar os próprios elementos da ferramenta e responde a comandos como “gerar tabela” ou “criar calendário de aulas”, por exemplo. “Além disso, consigo pedir sugestão de roteiro de aula. Ele me dá tópicos e pergunta se quero mais simplificado ou extenso”, complementa Andreza.

Marco regulatório da inteligência artificial

A inteligência artificial tem sido tema de debate no Brasil por conta do Projeto de Lei n° 2338/2023, que propõe um marco regulatório sobre o uso dessa tecnologia no país. O projeto foi protocolado pelo presidente do Senado, Rodrigo Pacheco (PSD-MG), em 5 de maio de 2023 e substitui outras três iniciativas anteriores. Ele é baseado na ideia de gradação de riscos na aplicação da IA, indo de baixo e moderado a alto e extremo.

Nos dois últimos casos, são estabelecidas regras mais rígidas de governança para o uso, incluindo a elaboração de mecanismos de intervenção humana e desativação. Sistemas de inteligência artificial voltados para a educação e para a formação profissional estão categorizados como de alto risco.

Segundo informações da Agência Brasil, o entendimento é o de que, nos casos de alto risco, o uso de sistemas de inteligência artificial possa levar a discriminação direta, indireta, ilegal ou abusiva por conta de informações pessoais como cor da pele, orientação sexual ou origem geográfica.

Newsletter

Escolha suas newsletters favoritas e mantenha-se informado
Este conteúdo é útil para você?
Assuntos Relacionados