fbpx

Tendências nucleares da utilização da Inteligência Artificial no processo de ensino-aprendizagem

Como podemos garantir a comunicação, a condução do sentido?

Todos nós, neste mundo cada vez mais complexo, precisamos de condutores entre os universos de significações cada vez mais plurais e paradoxais. Ora, uma das nossas funções enquanto professores (e de todos os educadores em geral) é sermos precisamente condutores de sentido. Sem temor de assumirmos a nossa frágil condição de humanos e, até, as nossas próprias contradições.
Maria João Couto (1999)

Reconhecer as advertências sobre o uso de ferramentas da inteligência artificial nos métodos de ensino-aprendizagem tradicionais é essencial. Trata-se de uma alteração no pensar e no fazer a educação que pode ou não ter implicações quer no trabalho do mensageiro – educadores em geral – quer do recetor – alunos em geral. Com base nesta ideia simples de comunicação na educação, e que implica o processo de ensino-aprendizagem, reflito sobre alguns dos desafios éticos nucleares que a inteligência artificial suscita na prática docente, nomeadamente quanto ao seu trabalho de condutor de sentido.

Inteligência Artificial na Educação
A Inteligência Artificial (IA) na educação é um campo promissor que tem atraído a atenção de todos, por vários motivos, incluindo na prática educativa. Segundo Limna et al. (2022), a IA implica a capacidade da máquina de pensar como um ser humano, aprender e evoluir. E Alberto Romele (2023) converge nesta ideia de estarmos a falar de uma máquina, mas destaca-a como uma máquina de habitus; o autor descreve a máquina como sendo indiferente às pessoas e às suas personalidades, já que associa vários indivíduos a um grupo segundo os seus hábitos, criando de forma ativa e autónoma (programada) vários grupos que traduzem os hábitos dos seus usuários. Não só a máquina orienta o usuário enquanto classifica os seus hábitos, como o usuário inclui a utilização da máquina nos seus hábitos.
A utilização da IA no processo de ensino-aprendizagem, pode apresentar-se de variadas formas – pode apoiar tarefas administrativas, mas também atividades de ensino e aprendizagem, e neste campo até atuar como tutora, explicando conceitos, dando feedback, adequando o processo de ensino-aprendizagem através de ferramentas pedagógicas que os educadores e os alunos podem usar durante o processo (Hwang et al., 2020). A utilização de ferramentas de IA na área da educação tem sido analisada por investigadores e decisores políticos que têm vindo a apresentar recomendações e linhas orientadoras no sentido de aumentar o seu entendimento e apoiar a sua aplicabilidade. A Comissão Europeia, através da Direção-Geral da Educação, Juventude, Desporto e Cultura (2022), publicou uma proposta para classificar os sistemas de IA na educação, considerando os seguintes: IA que ensina os alunos (sistemas de tutoria inteligente que individualizam a aprendizagem, sistemas de tutoria baseados em diálogo e aplicações de aprendizagem de idiomas); IA que apoia os alunos (ambientes de aprendizagem exploratórios, avaliação formativa de escrita, aprendizagem colaborativa apoiada por IA); IA que apoia os instrutores (classificação, monitorização, assistentes de ensino, recomendação de recursos pedagógicos); IA que apoia o planeamento em toda a instituição (pesquisa de dados para alocação de recursos, diagnóstico de dificuldades de aprendizagem, serviços de aconselhamento/orientação). Desta classificação podemos compreender a abrangência que a IA tem já na área da educação, incluindo usuários desde os alunos, aos educadores e à própria instituição.

Potenciais benefícios da Inteligência Artificial na Educação (relação educadores-alunos)
Na investigação na área da educação têm surgido diversos artigos que pretendem avaliar os benefícios e oportunidades da IA na educação.
Bjælde & Lindberg (2018) apresentam ferramentas de IA que beneficiam os educadores nas suas análises, permitindo que monitorizem o progresso e o envolvimento dos alunos; por exemplo, podem ver as ações que os alunos concluíram ou as suas discussões no fórum online, contribuindo para as mesmas. Estas análises ajudam os educadores a ajustar o método de ensino, os recursos oferecidos, orientando ainda mais os alunos.
Van der Vorst & Jelicic (2019) sugerem que a utilização de IA na educação melhora a comunicação e a interação com os alunos, porque, ao acompanhar a atividade dos alunos, os educadores podem promover uma comunicação transparente, baseando-se nas evidências das suas ações. Por exemplo, o educador poderia identificar se um aluno respondeu a atividades no fórum online sem estudar o material primeiro, reconhecendo posteriormente se a resposta foi original ou copiada por outros alunos.
Outro benefício ou oportunidade identificada da utilização da IA na educação é partilhado por Moşteanu (2022), que refere como as ferramentas de IA são benéficas para a automação de tarefas dando mais tempo aos educadores para ações mais difíceis, como a de construir uma relação pessoal com os alunos. Este autor introduz esta ideia de justificar a utilização da IA na educação como benéfica, uma vez que pode possibilitar aos educadores ter mais tempo para estabelecer o vínculo com o aluno.

Desafios éticos sobre a Inteligência Artificial na Educação
Ao conhecer as várias formas como a IA já está em prática na educação, através dos vários autores mencionados, é-me impossível não pensar em questões éticas que surgem do uso destas tecnologias emergentes e baseadas em dados. Todas as oportunidades supramencionadas como potenciais benefícios, implicam aceder a dados dos alunos, incluindo as suas conversas virtuais num fórum associado ao processo de ensino-aprendizagem; ora, o educador pode assim analisar uma grande quantidade de dados e identificar elementos de melhoria, estagnação, retrocesso na evolução do aluno que indicam como melhorar e ajustar a sua prática de ensino às necessidades do aluno. Mas questiono se assim respeitamos a privacidade do aluno, e até mesmo a sua cibersegurança; questiono se a análise do educador é conhecida pelo aluno e se ambos conhecem as regras do ‘jogo’ para um ensino e uma aprendizagem transparentes; questiono se a atitude e a linguagem do aluno no ambiente virtual serão idênticas no ambiente físico e se a avaliação do educador tem em consideração o contexto e as nuances das necessidades de aprendizagem do aluno.
Mas estas e outras questões éticas são pensadas e debatidas na Europa, que trabalha incessantemente em novas orientações face aos avanços da IA. Especificamente na educação, a Comissão Europeia, através da Direção-Geral da Educação, Juventude, Desporto e Cultura (2022) forneceu as seguintes orientações para o uso ético de IA e tecnologias baseadas em dados, por educadores. Neste documento, as orientações éticas dadas visam proteger: os Direitos Humanos em geral; a transparência, incluindo na comunicação; a diversidade, não discriminação e equidade; o bem-estar a nível social e ambiental, incluindo questões sobre o impacto social, sociedade e democracia; a privacidade e análise de dados; a segurança; e, a responsabilidade. Para cada item, são levantadas questões que pretendem apoiar a comunidade educativa a utilizar ferramentas de AI na educação, através de uma reflexão orientada sobre o tema e evitando que o pensamento imediato interfira nas decisões dos usuários sobre esta máquina de hábitos.
Recordo esta referência de Alberto Romele (2023) sobre a IA como uma máquina de habitus, para partilhar mais uma observação relacionada com a dependência – qual a quantidade ótima de utilização de ferramentas de IA na educação. Refiro-me ao risco de os usuários se tornarem tão dependentes da IA que reduzam a interação entre humanos na educação. Nesse cenário, onde acontece a relação educador-aluno? Quando se estabelece o vínculo entre educador e aluno? Qual a comunicação, a linguagem utilizada para criar sentido?

Os riscos da Inteligência Artificial na Educação
A IA existe e está presente no nosso quotidiano, incluindo na educação. Ultrapassámos a necessidade de identificar mais questões éticas, sem deixarmos de estar atentos a novas questões que podem emergir a qualquer momento, mas as identificadas têm já orientações para que os seus usuários e decisores possam abordar a questão de forma consciente e responsável. No entanto, estaremos também conscientes dos seus riscos?
Alberto Romele (2023) identifica três: transparência, determinismo e absolutismo. Ou seja, o autor explica que o problema não é a quantidade de dados a que automaticamente a máquina acede, mas a relação causal que faz entre diferentes tipos de dados, ultrapassando a esfera da justiça e que pode levar à tirania.
Na educação, identifico o risco de dependência das ferramentas da IA. Não pretendo questionar os benefícios e oportunidades das ferramentas de IA na educação, porque os reconheço; concordo que estas novas ferramentas ajudam educadores e alunos no processo de ensino-aprendizagem, se utilizadas de forma consciente, responsável e transparente. Mas é por também concordar com a perspetiva de Alberto Romele sobre as máquinas de hábitos, que relanço esta ideia do risco de deixarmos de equacionar todos os passos no processo de ensino-aprendizagem sem a utilização da IA.
O risco de dependência das ferramentas de IA na educação pode ser também analisado através da exposição de Bowles (2018), que se refere a uma potencial adição a tecnologias. O autor identifica técnicas de persuasão utilizadas pelas tecnologias, como forma de ter benefícios financeiros através dos usuários (recordo que várias ferramentas de IA na educação são pagas), mas que as mesmas tecnologias podem utilizar técnicas de persuasão para levarem os usuários a utilizar ainda mais as tecnologias. No caso das ferramentas de IA na educação, os usuários podem aceder a mais funcionalidades quanto mais utilizarem a ferramenta e o acesso aos dados que pretendem analisar fica, muitas vezes, restrito ao acesso da ferramenta de IA, obrigando os usuários a utilizar obrigatoriamente a ferramenta. Afinal, estas ferramentas de IA emergem de organizações que competem pela atenção dos usuários, incluindo alunos e educadores. Ou seja, não se trata de apenas definir qual a quantidade ótima de utilização de IA, mas como podemos prevenir e reduzir o risco de dependência a tecnologias.
Esta dependência é também abordada por Echeverría & Almendros (2020), reconhecendo que existe um uso quotidiano e massivo das redes sociais, também elas máquinas de IA, que criaram novos hábitos e lançaram importantes questões éticas. Para falar dos usuários, os autores que agora refiro indicam que estes são tecnopessoas, criadas nas nuvens digitais, como é o caso das plataformas de educação, sem consciência de si mesmas e que funcionam como uma primeira máscara do usuário. Apenas com esta descrição, tomamos consciência de que o perfil criado para cada uma destas tecnopessoas desempenha uma função instrumental, ausente de sentido e até mesmo de moral, como acrescentam os mesmos autores sobre as tecnopessoas, ou no caso da educação tecnoalunos ou tecnoeducadores. Ao refletir sobre a utilização de plataformas virtuais na educação, os alunos e educadores criam um usuário para se representarem e responderem aos desafios inerentes ao processo de ensino-aprendizagem, mas usam uma máscara, usam o seu perfil virtual como um meio e nunca são o verdadeiro ser que está em avaliação. Esta reflexão é importante porque permite aos educadores entenderem que não estão a avaliar o aluno, mas sim o tecnoaluno, pelo que os seus comentários e interações online estão associadas a esta máscara que criou para interagir mas não representam o eu do aluno.
Se ficarmos totalmente dependentes da IA na educação, a sua absoluta utilização retirará a oportunidade de criar momentos físicos, presenciais, para criar o vínculo entre alunos e educadores, para que se conheçam e orientem a sua análise dos dados de acordo com o que efetivamente sabem sobre cada um dos usuários. Mas não só se quebra este vínculo, como se corre o risco de perder o sentido, tal como explica Maria João Couto (1999): “A comunicação não consiste, pois, na transmissão de significados. Os sentidos não são transmissíveis, não são transferíveis. Somente as mensagens são transmissíveis, e os sentidos não estão na mensagem, estão nos que usam as mensagens.” Se os que usam as mensagens forem máscaras, como podemos garantir a comunicação, a condução do sentido?

Catarina Neto | Presidente da Associação Kokoro. Licenciada em Recursos Humanos e dedicada a projetos de educação inclusiva.

Referências:
Bjælde, O. E., & Lindberg, A. B. (2018). Using continuous assessment with feedback loops to generate useful data for learning analytics. In M. Campbell, J. Willems, C. Adachi, D. Blake, I. Doherty, S. Krishnan, S. Macfarlane, L. Ngo, M. O’Donnell, S. Palmer, L. Riddell, I. Story, H. Suri, & J. Tai (Eds) 35th International conference of innovation, practice and research in the use of educational technologies in tertiary education (pp 53-62). ASCILITE. https://pure.au.dk/portal/en/publications/usingcontinuous-assessment-with-feedback-loops-to-generate-useful-data-for-learninganalytics(282128ee-b4bf-4a4a-9e76-6c1106fac62b).html
Bowles, Cennydd (2018). Future Ethics. East Sussex: NowNext Press.
Couto, M. J. (Janeiro de 1999). O Professor como Condutor de Sentidos. (a. P. Educação, Ed.) Porto.
Echeverría, J. ., & Almendros, L. S. (2020). Ética y uso cotidiano de las redes sociales. Revista Institucional | UPB, 59(159), 103–122. Recuperado a partir de https://revistas.upb.edu.co/index.php/revista-institucional/article/view/6844
European Commission, Directorate-General for Education, Youth, Sport and Culture, Ethical guidelines on the use of artificial intelligence (AI) and data in teaching and learning for educators, Publications Office of the European Union, 2022, https://data.europa.eu/doi/10.2766/153756
Hwang, G., Xie, H., Wah, B. W., & Gašević, D. (2020). Vision, challenges, roles and research issues of artificial intelligence in education. Computers and Education: Artificial Intelligence, 1. 100001. https://doi.org/10.1016/j.caeai.2020.100001
Limna, P., Jakwatanatham, S., Siripipattanakul, S., Kaewpuang, P. & Sriboonruang, P. (2022). A review of Artificial Intelligence (AI) in education during the digital era. Advance, Knowledge for Executives, 1(1). 1-9. https://ssrn.com/abstract=4160798
Moşteanu, N. R. (2022). Machine learning and robotic process automation take higher education one step further. Romanian Journal of Information Science and Technology, 25(1), 92–99. http://www.romjist.ro/contents-88.html
Romele, A. (2023). Digital Habitus: A Critique of the Imaginaries of Artificial Intelligence (1st ed.). Routledge. https://doi.org/10.4324/9781003400479
van der Vorst, T. & Jelicic, N. (2019). Artificial intelligence in education: Can AI bring the full potential of personalized learning to education?, 30th European Regional ITS Conference, Helsinki 2019 205222. International Telecommunications Society (ITS). http://hdl.handle.net/10419/205222

Veja também:

Siga-nos
© 2024 Associação Sem Fins Lucrativos Kokoro