Ralf Wurzbacher
Jornalista e consultor
O ChatGPT e ferramentas de inteligência artificial comparáveis estão a penetrar em todas as áreas da sociedade — e não menos nas escolas. Entregam textos, trabalhos e apresentações que os humanos não poderiam ter feito melhor. E os professores interrogam-se sobre quem ou o quê ainda devem avaliar e para quê. O pedagogo, cientista e autor Ralf Lankau defende, perante a investida das tecnologias digitais, um regresso ao que é realmente a aprendizagem: ser capaz de levar uma vida autodeterminada e auto-responsável
Sr. Lankau, actualmente fala-se muito sobre o que o chatbot ChatGPT da empresa americana OpenAI e aplicações comparáveis de inteligência artificial (IA) podem fazer, como gerar textos, imagens e apresentações a pedido ou traduzir línguas. Isto causa uma enorme impressão, e é por isso que há meses que estamos a viver um enorme entusiasmo com a nova tecnologia. O que se perde na confusão é o que estas ferramentas – para além dos “problemas iniciais”, como a invenção de informações falsas — não podem ou ainda não podem fazer. Qual é a situação actual?
É importante compreender o que está por detrás do termo inteligência artificial. Na sua essência, não é mais do que o processamento automático de dados. À medida que os nossos sistemas informáticos se tornam cada vez mais potentes e ligados em rede, os parâmetros técnicos como a velocidade de computação, a base de dados subjacente ou os parâmetros processados são, de facto, impressionantes. Mas isso é apenas a quantificação do desempenho técnico. É como estar num salão automóvel, onde se exibem carros cada vez maiores, com motores de maior potência e velocidade máxima. Mas tudo isto passa completamente ao lado da questão crucial da mobilidade compatível com o ambiente no século XXI.
Como é que os bots entram em jogo?
O aumento constante da capacidade de computação e a avaliação de milhares de milhões de ficheiros da rede não alteram em nada a forma elementar como esses sistemas e modelos matemáticos de linguagem geram textos, nomeadamente de forma puramente estatística, calculados de acordo com a probabilidade e com base em padrões típicos, sem conhecimento ou capacidade de reflectir sobre as suas próprias acções. Mesmo os bots mais rápidos continuam a ser “papagaios estocásticos”, como dizem a linguista Emily Bender e os seus colegas. Eles “papagueiam”, juntam textos ou partes de palavras sem conhecer o conteúdo ou o significado das palavras e frases ou a função da comunicação. Com a ajuda de métodos estatísticos, geram textos com grande probabilidade de serem gramaticalmente correctos e podem até conter afirmações com sentido.
Voltemos à comparação com um salão automóvel. Qual é o grande problema da utilização da IA?
[s2If current_user_can(access_s2member_level1)]
A questão não é tanto o que estes sistemas podem fazer tecnicamente hoje em dia, mas porque é que os humanos comunicam tão rapidamente e de forma tão ingénua com as máquinas. Afinal, “falamos” com o nosso PC ou carro ou outras máquinas porque falar parece ser uma necessidade para nós. É por isso que nos deslumbramos tão facilmente com a simulação de uma suposta inteligência por parte dos bots.
Ou seja: deixamo-nos cegar por uma máquina estúpida. Mas não é só isso: muitos estão dispostos a entregar-se a ela, a ver a sua vida “facilitada” por todo o tipo de ferramentas técnicas. Não significa isto que as pessoas não são apenas preguiçosas, mas também estúpidas?
Como seres humanos, gostamos de nos sentir confortáveis. Se outra pessoa pensar e decidir por nós, não temos de o fazer nós próprios, escreveu Immanuel Kant. Em vez de um professor, um médico ou um padre, hoje em dia é o meu smartwatch ou um avatar que me dá um empurrãozinho para me mexer ou felicitar alguém pelo seu aniversário ou ir para a cama a horas. Ao contrário de um professor, um médico ou um padre, já não tenho um interlocutor sobre o qual sei o que quer e a quem posso contradizer. Por outro lado, a fronteira entre a comodidade e a auto-exclusão voluntária não está definida e o meu controlador digital está sempre presente. Se a adaptação à lógica da máquina é uma estupidez ou, no fim de contas, algo “inteligente”, porque se obtêm recompensas e elogios com um esforço mínimo e sem ter de decidir nada? Os sistemas digitais são, por natureza, sistemas de controlo e a adaptação minimiza o esforço do próprio. A questão talvez seja antes: até que ponto queremos viver autodeterminados?
Ouvimos cada vez mais vozes a dizer que a inteligência artificial, sob a forma de ChatGPT, se prepara para ultrapassar os humanos ou para se tornar “melhor” do que eles. O que é que lhe vem à cabeça?
Ainda não sabemos o que é, de facto, a inteligência humana. Contentamo-nos com o modelo do quociente de inteligência, completado por constructos como a inteligência emocional ou social. Com este conhecimento abreviado, é possível construir máquinas que efectuam determinadas operações lógicas de forma mais rápida e persistente do que os seres humanos. Um computador de xadrez, por exemplo, calcula sem cansaço e, se programado correctamente, sem erros. Um ser humano não pode competir com isto a longo prazo, precisamente porque não somos máquinas. Por isso, devemos reflectir sobre quais as “competições” com máquinas em que nos envolvemos ou se faz algum sentido.
Curiosamente, um mestre de Go ganhou recentemente contra um computador, porque um ser humano, ao contrário do software, compreende o jogo e pode táctica e criativamente fazer movimentos pouco ortodoxos. Isto significa que sim, há coisas que as máquinas podem fazer “melhor” do que os humanos. Mas a questão crucial é quem define este “melhor” e se é tarefa dos humanos serem capazes de fazer coisas melhor do que as máquinas, ou se não seria mais inteligente para os humanos concentrarem-se naquilo que as máquinas não podem fazer, como desenvolver ideias, usar a sua imaginação e querer e fazer algo de uma forma auto-determinada.
Actualmente, trata-se mais daquilo que as pessoas deixam que a tecnologia lhes tire e do que fazem com ela sem se aperceberem. São cada vez mais as crianças que têm as suas histórias de embalar contadas por um Toniebox, um gravador de cassetes digital. Agora, o fabricante alemão quer acoplar o dispositivo ao ChatGPT para gerar histórias muito individuais, por exemplo, com o ouvinte como herói de um conto de fadas. Desta forma, a filha pode entrar no papel da Branca de Neve ou o Sohnemann pode dar um pontapé na lua com os amigos. O melhor de tudo é que as crianças também adormecem com isto. Pode pensar-se que esta é uma combinação de praticidade e criatividade. O que é que acha?
Estas aplicações têm vários aspectos negativos. Ler histórias às crianças enquanto adormecem é uma situação privada e sensível entre o pai, a mãe e a criança. É uma questão de confiança: uma pessoa ouve a voz e a história, sente-se segura e protegida e, idealmente, adormece. Este momento partilhado de repouso não deve ser delegado a aparelhos de reprodução. Ao mesmo tempo, perdem-se as lendas, os mitos e os contos de fadas, que são uma parte importante de todas as culturas e que também devemos transmitir às crianças para as integrar na comunidade cultural.
As histórias geradas pela IA são arbitrárias e aleatórias. Além disso, as crianças perdem a empatia se forem sempre elas próprias as protagonistas, porque é um aspecto muito importante dessas histórias o facto de vivermos algo com os outros, de simpatizarmos e sofrermos com eles, de nos alegrarmos juntos quando o Capuchinho Vermelho é salvo ou o dragão é derrotado. Os pais também perdem mais do que apenas tempo juntos se não lerem em voz alta nem inventarem histórias. O cozinheiro britânico Jamie Oliver acaba de publicar um livro infantil com histórias que inventou para os seus filhos. Ele é disléxico, mas experimentou e alterou os textos com os seus filhos. Isto cria um pequeno cosmos partilhado de personagens e histórias. As tecnologias digitais e os ecrãs têm uma tendência para o isolamento social e a solidão. O auto-centramento até ao egocentrismo e, por fim, o niilismo são reforçados quando se é sempre o centro das atenções, mesmo nessas histórias.
O ChatGPT na sala de aula das crianças é uma coisa. Mas a tecnologia vai mudar a sala de aula de uma forma ainda mais duradoura e possivelmente devastadora. As queixas dos professores sobre trabalhos de casa, redacções e trabalhos presumivelmente escritos por IA estão a aumentar. Fazer batota com o Google era bastante fácil de expor. A IA, por outro lado, cria trabalhos únicos, sem erros ou, para camuflagem e adequação à idade, com erros ortográficos e gramaticais desleixados. Como é que os coitados vão conseguir ver isso ou resistir?
A questão é: quem é que tem interesse em que estas técnicas alterem o ensino? A afirmação de que todas as novas tecnologias e todos os novos dispositivos e serviços pertencem à sala de aula assombra-nos há décadas. E os benefícios? Negativos, não provados e, acima de tudo, não comprováveis. Tudo isto pode ser lido no livro “Evidence of a potential”, do colega dinamarquês Jesper Balslev. Nele, enumera todos os argumentos pró-digitais de 1983 a 2015 e chega à conclusão: “Embora as provas empíricas mostrem, em muitos casos, efeitos negativos da utilização de meios digitais no desempenho da aprendizagem, mais raramente também efeitos positivos e, em muitos casos, efeitos neutros, a procura de uma maior digitalização dos processos educativos tem persistido durante décadas”.
Mas isso não ajuda o professor a adivinhar quem merece um 5 — o aluno ou o chatbot …
A batota sempre existiu nas escolas e nas universidades. Os trabalhos de casa e as dissertações podem ser escritos a troco de dinheiro ou copiados da internet. O software de detecção de plágio só encontra os copistas preguiçosos. Existe software para reformular a redacção, desde a mais compreensível à mais científica. Claro, podemos actualizar-nos tecnicamente. Mas é um jogo de caçador e lebre. Se vir o vídeo de Jörn Loviscach, verá que tanto o software como os fornecedores de serviços estão sempre um passo à frente.
Faz mais sentido transmitir que é uma qualidade própria e uma experiência agradável ter aprendido algo ou ter feito algo por si próprio, ter pintado um quadro, ter escrito um texto, ter resolvido um problema de matemática, ter tocado um instrumento. E também para transmitir que a aprendizagem pode ser cansativa, mas o esforço é uma alegria. A prática, a perseverança e a disciplina são necessárias para o sucesso. O objectivo deve, portanto, ser inspirar entusiasmo pelos conteúdos, temas e disciplinas e motivar e inspirar os alunos para o sucesso.
Isto parece um pouco ingénuo, tendo em conta o equilíbrio social de poder. Afinal de contas, a tecnologia convida ou mesmo exige que as pessoas se abstenham de aprender. E quando faltam dezenas de milhares de professores no país, o esgotado pessoal restante fica ainda mais desamparado. Dizer-lhes para se entusiasmarem com a aprendizagem…
Estas relações de poder fazem parte da vida quotidiana desde os anos 70, os danos à reputação e a negação das tarefas dos educadores e professores fazem parte do sistema neoliberal. As pessoas são declaradas como capital humano que tem de ser encaixado no sistema. O seu fracasso é confirmado por cada novo estudo, mais recentemente pelo IQB-Bildungstrend, uma análise a longo prazo encomendada pela Conferência Permanente dos Ministros da Educação e dos Assuntos Culturais dos Länder da República Federal da Alemanha. São cada vez mais as crianças que, após quatro anos de escolaridade, não atingem sequer os níveis mínimos de leitura, escrita, cálculo e compreensão oral.
O que é que se segue?
A única coisa que pode ajudar é a resistência conjunta das direcções e administrações escolares com o pessoal docente e os pais contra a economia das instituições de ensino e a funcionalização das pessoas. Além disso, há que apontar as causas dos défices de aprendizagem, incluindo a utilização disfuncional dos meios de comunicação social e o aumento do tempo de ecrã, como faz a directora Silke Müller no seu livro “Wir verlieren unsere Kinder” (Estamos a perder os nossos filhos). Este é o elefante branco na sala. Várias horas por dia no ecrã e no TikTok ou nos Games fazem alguma coisa às crianças. E para a sua própria escola ou turma: estabeleça regras para proteger as crianças e os jovens e aplique-as de forma consistente. Temos de voltar a pensar nas escolas e nas aulas em termos de pessoas e reconstruí-las em conformidade. Isto inclui também a protecção contra a utilização ilícita e viciante dos meios de comunicação social.
É claro que se pode trabalhar com as TI nas escolas se isso fizer sentido do ponto de vista pedagógico. Mas é preciso cortar o canal de retorno dos dados. Porque o principal problema não é a tecnologia, mas sim os modelos de negócio associados à economia dos dados, para os quais os utilizadores são apenas doadores de dados aos quais é mostrada publicidade.
Quais são, na sua opinião, os maiores perigos das TI e da IA para o desenvolvimento dos adolescentes?
O maior problema é o aprofundamento do fosso social que já estamos a viver e que foi reforçado e perpetuado na crise do coronavírus. As crianças e os adolescentes de lares com um bom nível de educação, que ainda podem ter recebido apoio em casa, ultrapassaram muito bem a pandemia. Aqueles que não tiveram esse apoio e que não se encontram entre os poucos “auto-didactas” perderam e acumularam lacunas de aprendizagem.
Esta situação é agravada pela utilização de ferramentas como o ChatGPT. Os “auto-aprendizes” vêem-no como um jogo, os outros só querem um resultado rápido. Enquanto no Google se introduziam termos de pesquisa e se tinha de seleccionar e avaliar a partir de uma lista de resultados, os chatbots fornecem respostas prontas. Mas como é que se pode verificar se o que eles dizem é verdade? Só alguém que tenha os conhecimentos necessários para avaliar a resposta e verificá-la, se necessário, é que o pode fazer. Se não faço ideia, tenho de acreditar no que dizem. Este é o princípio de Mateus: quem tem conhecimentos prévios recebe uma ferramenta e uma redução da carga de trabalho. Todos os outros perdem.
E depois?
A médio prazo, acontece ainda mais: esquece-se o que se sabia. Mais tarde, a linguagem também fica desolada porque se reproduz a partir do stock de dados via bot. Para quem gosta de distopia: é apenas uma questão de tempo até que todos estes geradores de imagens e textos se reproduzam a si próprios. Brinquei com um colega informático que isto é bom porque, nessa altura, os bots vão falar uns com os outros como os sistemas operativos falam uns com os outros no filme de ficção científica “Her” de Spike Jonze. Talvez nessa altura nós, humanos, voltemos a falar uns com os outros.
Ou talvez não. Não é verdade que a escolaridade ou a educação em geral, tal como a conhecemos, se tornou obsoleta com o advento da IA?
Pelo contrário. A educação e os conhecimentos gerais estão a tornar-se cada vez mais importantes, tal como os conhecimentos especializados e a compreensão dos contextos. Uma IA não é instruída nem compreende nada daquilo que calcula de acordo com parâmetros estatísticos. Não tem vontade de fazer nada, não tem consciência do que está a fazer. É por isso que as distopias são um disparate, que fantasiam que as máquinas vão assumir o controlo e acabar connosco. É ficção científica como “Uma Odisseia no Espaço”, de Stanley Kubrick, em que “HAL” assassina os astronautas um a um, antes de o último astronauta retirar os cartões de memória e o supercomputador regredir para um bebé gago. Para que os dados e os ficheiros se transformem novamente em conhecimento e compreensão ou em vontade, é preciso que o(s) ser(es) humano(s) veja(m), leia(m) e compreenda(m). Mesmo a melhor biblioteca não me serve de nada se eu não souber ler.
Mas quem é que ainda vai poder ler amanhã? Ou será uma boa perspectiva se em breve apenas uma pequena elite for capaz de ler?
Claro que não, e é por isso que precisamos de repensar. Estes bots estão a produzir rapidamente grandes quantidades de material que ninguém pode verificar quanto à sua objectividade e correcção. Estamos a ser inundados por notícias falsas e propaganda, que só podem ser contrariadas por uma mudança no comportamento de utilização dos meios de comunicação social. Temos de aprender a trabalhar apenas com fontes verificadas e a entender a rede e a produção da IA como um monte de esterco. Foi assim que o pioneiro da informática Joseph Weizenbaum a descreveu em 2000, quando a maioria das pessoas nem sequer sabia o que era a internet. Há algumas jóias a descobrir, mas isso só pode ser feito “com a capacidade de fazer boas perguntas”, escreveu. Para isso, no entanto, é necessário promover o pensamento crítico nas escolas e universidades.
O que não está a acontecer neste momento — antes pelo contrário.
Infelizmente, isso é verdade. O pensamento crítico e a reflexão só podem ser feitos por aqueles que aprenderam e compreenderam alguma coisa. Ensinar a compreender é tarefa dos professores, nenhum papagaio estocástico o pode fazer, mesmo que Bill Gates afirme que a IA ensinará as crianças a ler e a escrever no futuro. A Microsoft já investiu mais de 13 mil milhões de dólares na OpenAI e prometeu investimentos de dois dígitos de milhares de milhões de dólares para cada um dos próximos anos. Deveria dar-nos que pensar se um sistema informático completamente não transparente e puramente comercial vai ensinar as crianças.
De quem é que se espera um repensar? Da política, das escolas?
Uma vez que não se pode esperar um repensar por parte dos ministérios da Educação e dos Assuntos Culturais, porque os grupos de pressão estão a fazer valer os seus interesses, a única coisa que resta fazer é uma (r)evolução a partir de baixo, das escolas e das salas de aula individuais. Aqui, professores e pais devem concordar que os seus filhos não são “peças de trabalho” a preparar para o mercado, mas sim pessoas a preparar para uma vida auto-determinada e auto-responsável.
Isto inclui o lazer para o seu próprio desenvolvimento, a integração da música, da arte e do teatro no cânone das disciplinas, a educação musical-estética. Isto inclui uma compreensão da educação geral que promova a experimentação e o desenvolvimento dos seus próprios interesses, em vez de manipular os jovens o mais cedo possível na direcção das disciplinas tecnológicas STEM, porque há falta de mão-de-obra nessas áreas. Isto inclui uma reorganização dos cursos de formação de professores com acompanhamento no local de trabalho desde o primeiro semestre e o mandato claro de que apenas aqueles que querem ensinar e podem ensinar podem tornar-se professores. A todos os níveis, temos de reflectir sobre o significado de educar e ensinar: assumir a responsabilidade pela próxima geração e permitir-lhes moldar as suas vidas sob a sua própria responsabilidade.
Ouvimos dizer repetidamente que o progresso técnico não pode ser travado, muito menos com proibições. Não seriam, de facto, as proibições que estariam na ordem do dia?
O progresso técnico sem avaliação do impacto tecnológico conduz ao desastre. É por isso que houve e continua a haver conferências e moratórias sobre armas nucleares, engenharia genética e, actualmente, sobre a IA. No início de abril, investigadores proeminentes de IA do Future of Life Institute apelaram a uma moratória de seis meses sobre os sistemas de IA, que desde então foi assinada por mais de 27.000 cientistas e actores da cena informática. Não se trata de proibições. As possibilidades, as consequências e os perigos potenciais dos sistemas técnicos devem ser discutidos e as regras formuladas: O que é que a IA pode fazer e o que é que não pode. Isto não impedirá a utilização indevida, mas, como em qualquer sistema jurídico, o quadro é definido e são impostas sanções em caso de infracção. A norma não deve ser o que é tecnicamente viável, mas o que é eticamente responsável.
O Conselho de Ética alemão, por exemplo, publicou um importante documento sobre este assunto. Com o RGPD da UE e outras leis de protecção dos direitos pessoais e da privacidade, a Europa está ainda mais avançada do que os EUA. Porque não se trata de pormenores técnicos, mas de questões fundamentais de união e de um futuro comum e democrático.
É realmente assim tão optimista ou está apenas a fazer batota?
Sou educador e dou aulas há quase 40 anos. Trabalhar com jovens ainda me faz optimista, sim, porque vemos como as pessoas evoluem. Isso dá-me esperança, mesmo que neste momento, tendo em conta o estado das instituições educativas, os actores e as condições, todos os dias haja algo da macieira que Lutero plantou.
Peça traduzida do alemão para GeoPol desde NachDenkSeiten
As ideias expressas no presente artigo / comentário / entrevista refletem as visões do/s seu/s autor/es, não correspondem necessariamente à linha editorial da GeoPol
Siga-nos também no Youtube, Twitter, Facebook, Instagram, Telegram e VK
[/s2If]
[s2Member-Login /]
