Leu a frase em cima? Pois bem, esta foi uma das críticas que se fez ouvir na primeira sessão do ciclo de debates Inteligência Artificial no Ensino Superior: Utopia ou Distopia?, promovida pela Universidade de Aveiro, no passado mês de março. Dá para perceber que o tema, por si só, serviu de pano para mangas. As ferramentas de IA colocaram os profissionais das artes ilustrativas em estado de guerra, contra o que consideram ser um roubo intelectual, e a programação informática, tal como a conhecemos, tornar-se-á obsoleta por causa delas, falou-se em Aveiro. Para as universidades isto gera enormes dilemas: o que ensinar aos alunos e, não menos importante, como será a aprendizagem com a integração destas tecnologias na sala de aula? Para dar resposta a estas inquietações, docentes e investigadores da universidade do centro do país fizeram a sua futurologia.
“A Inteligência Artificial vem de um contexto que não é o educativo, pelo que não tem em si preocupações educativas. Uma das suas características é a de vir de um meio bastante orientado para a produtividade, onde há um olhar bastante tecnocrático em relação a esta tecnologia. No futuro próximo, será preciso olharmos mais para os valores humanistas da tecnologia, para a forma como ela poderá promover a empatia, a bondade, o respeito e a tolerância, para o conjunto de valores que nos tornam humanos. Não podemos estar só preocupados com a rapidez com que produzimos.”
A observação é feita por Vânia Carlos, investigadora do Departamento de Educação e Psicologia da Universidade de Aveiro, palavras às quais juntou um desafio: conseguimos imaginar qual será a função de um professor daqui a duas décadas, se olharmos para as atuais tendências de automatização do trabalho e tendo em conta que se está a forçar a introdução da IA em quase todos os domínios da nossa sociedade?
Este cenário, tal como explica Vânia Carlos, encontra-se idealizado num dos capítulos de Inteligência Artificial 2041 – Dez Visões para o Nosso Futuro, livro que foi escrito a quatro mãos por Kai-Fu Lee, investigador e empresário na área da IA, e Chen Qiufan, escritor de ficção científica. Juntos, embrenharam-se no processo de conjeturar sobre o que será de nós, humanos, daqui a cerca de duas décadas.
“Neste cenário ficcionado, algumas das funções dos docentes poderão ser automatizadas, mas há duas que continuarão a ser bastante importantes” e só um professor humano parece ser capaz de lidar com elas, salienta a investigadora de Aveiro.
Primeiro caso. Coloquemo-nos no interior de uma futurista sala de aula, onde professores de carne de osso – que na prática atuam como “mentores” dos alunos – complementam o trabalho feito por professores virtuais (assentes na tecnologia da IA). Neste novo ambiente de ensino, os docentes humanos distinguir-se-ão dos seus ‘colegas’ digitais na medida em que “serão fundamentais para estimular o pensamento crítico e a criatividade, para fomentar a empatia e o trabalho de equipa, coisa que, de momento, parece que a IA não parece ser capaz de dar resposta”. Mas o que os torna distintivos e imprescindíveis está longe de cessar aqui.
Eles “também serão importantes para esclarecer dúvidas e, acima tudo, confrontar os alunos, ou seja, para criar situações desconfortáveis quando sentem que o aluno está com uma atitude demasiada passiva ou complacente em relação ao seu processo de aprendizagem”. Em suma, só os professores humanos têm o dom e um poder capazes de “estimular os alunos”, frisa. Não menos importante, eles estarão lá para “confortar os alunos, quando sentirem que estes precisam de um determinado apoio para se tornarem mais confiantes”.
Dentro deste exercício de futurologia, a cargo de Kai-Fu Lee e Chen Qiufan, saltemos agora para a segunda função importante em que, tal como sumariza a investigadora, é mesmo preciso um ser humano. Estamos a falar da tarefa de coordenar e programar a tecnologia de IA (o professor virtual) que será usada na sala de aula. A ideia é a de “calibrar as tecnologias de acordo com um determinado contexto” educativo, “o contexto que os alunos têm na sua sala”. Dito de outra forma, deixar o ensino dos alunos em modo de piloto-automático, a reboque de toda e qualquer tendência nova que as tecnologias tragam, sem um rumo educativo discernível e planeado, não pode ser solução.
O objetivo nesta sala de aula de 2041 é, portanto, o de ter professores humanos que moldam a tecnologia de ensino, de forma a “atender às necessidades dos estudantes com base na sua experiência de docentes, ao mesmo tempo que tentam compreender o potencial dos seus alunos, os seus sonhos e as suas necessidades mais emocionais”. Delegar isto para as máquinas também não parece ser opção, não só porque não o conseguem – onde estão as máquinas que sonham e sentem como nós? –, mas igualmente porque qualquer tentativa de alienar essa tarefa para a tecnologia parece mais o cenário de uma distopia do que uma utopia.
E eis que chegamos ao busílis da questão, o perceber se aquilo que agora está a ser feito conduzirá a uma distopia ou utopia educacional. Vânia Carlos esclarece o que está em causa:
“Existe uma falta de participação dos educadores na discussão sobre o papel que a IA terá na educação. Por exemplo, num estudo de revisão da literatura científica sobre esta temática, dos 141 artigos focados na IA na educação, apenas 13 tinham coautores da área [n.d.r. – o estudo em causa foi publicado no final de 2019 e está acessível aqui]. É essencial que os educadores e os investigadores desta área se preocupem com o campo da IA, pois as empresas tecnológicas operam segundo agendas e tempos próprios que, muitas vezes, não são compatíveis com as agendas e os tempos das instituições educativas.”
Moral da história? Os professores devem ser “entusiastas” em relação ao uso da IA, devem saber usar o seu potencial educativo, mas têm igualmente de ter uma “atitude muito reflexiva e vigilante quanto ao propósito de tudo isto, daquilo que se quer ensinar nas aulas, o como podem estas tecnologias valorizar o processo de aprendizagem”.
A inteligência artificial democratizou-se… “para o bem e para o mal”
Decididamente, o tecnoutopismo apregoado pelos empreendedores de Silicon Valley e seus acólitos tem agora um novo objeto de adoração. Depois da Internet e dos smartphones, chegou agora a “era da inteligência artificial”, e consigo virá toda uma “revolução” e “disrupção” que “poderá reduzir algumas das maiores desigualdades do mundo”, descreve com entusiamo, e recorrendo a muitos superlativos, o cofundador da Microsoft, e também multimilionário e filantropo, Bill Gates, num texto de opinião que publicou recentemente no seu blogue pessoal.
Contudo, sobre revoluções que mudaram o mundo e os superlativos que lhes podemos empregar, há um autor que soube descrever o alfa e o ómega de um tempo histórico que entra em disrupção:
“Foram tempos magníficos, foram tempos tenebrosos, foi a era da sabedoria, foi a era da estultícia, foi a época das convicções, foi a época da incredulidade, foi a idade da luz, foi a idade das trevas, foi a primavera da esperança, foi o inverno do desespero, tínhamos tudo diante de nós, nada tínhamos diante de nós, íamos todos direitos ao Céu, íamos todos direitos em sentido contrário – em suma, aquela época assemelhava-se tanto à presente que algumas das suas eminências mais exuberantes insistiam que apenas a poderíamos adjetivar, para o bem e para o mal, lançando mão do grau superlativo.”
É desta forma que o escritor britânico Charles Dickens começa o romance História em Duas Cidades, publicado em 1859, um livro que tem como pano de fundo a Revolução Francesa, com o autor a descrever tanto a ‘ditadura’ e arrogância aristocrática, como os excessos revolucionários. Será que daqui a algumas décadas poderemos reciclar esta prosa de Dickens para exemplificar a disrupção causada pela IA nas nossas sociedades?
Para Paulo Jorge Ferreira, reitor da Universidade de Aveiro, ferramentas como o tão badalado ChatGPT ou o DALL-E (este último é capaz de gerar imagens a partir de descrições que inserimos sob a forma de texto) “colocam ao dispor de qualquer pessoa, que tenha conhecimentos mínimos tecnológicos ou de programação, todo o poder da IA, ou, pelo menos, uma boa parte dele”. Logo, “este é um momento de democratização da IA, em que ela sai dos laboratórios e da alçada dos especialistas, estando agora ao alcance de cada um, para o bem e para o mal”, adianta.
Várias empresas estão a atacar este mercado com unhas e dentes, procurando gerar impacto mediático (independentemente de ser boa ou má publicidade) e, assim, captar os milhões de dólares dos potenciais investidores: mesmo que, por agora, as suas aplicações prometam mais do que aquilo que oferecem. A norte-americana OpenAI, dona do ChatGPT e do DALL-E, é uma delas, mas também entraram neste ‘jogo’ algumas gigantes tecnológicas bem conhecidas, “embora umas com mais relutância do que outras, usando recursos próprios ou os da OpenAI”, destrinça Paulo Jorge Ferreira. “São os casos da Google, Amazon, Microsoft ou a chinesa Baidu.”
Os mais críticos não se podem iludir. A quantidade de pessoas que já começou a usar o ChatGPT, mesmo que percebam muito pouco sobre como esta tecnologia realmente funciona, está a crescer exponencialmente. “O ChatGPT foi a ferramenta informática que, até hoje, mais adesão suscitou em menos tempo. O telefone, por exemplo, para chegar aos 100 milhões de utilizadores precisou de três quartos de século; a Internet já só precisou de sete anos; ao Facebook bastou quatro anos; para o Instagram foi dois anos e meio; o TikTok só demorou nove meses. Em apenas dois meses o ChatGPT chegou aos 100 milhões de utilizadores. Eu aposto que metade destes eram estudantes.”
Não há volta a dar, avisa o reitor da Universidade de Aveiro. “O impacto das ferramentas de IA sentir-se-á na forma como os processos são desenvolvidos na indústria, na forma como as pessoas trabalharão, mas também na forma como se ensina, avalia e aprende.”
“A programação, tal como a conhecemos, tornar-se-á obsoleta”
As contas foram feitas pela empresa de consultoria McKinsey: em 2030 a IA contribuirá com cerca de 13 biliões de dólares para o PIB mundial. Este número gordo, que consta num documento de discussão publicado pela consultora em 2018, foi relembrado por Pétia Georgieva, investigadora na área da IA e da aprendizagem automática. De acrescentar que a McKinsey, nesta sua previsão, estima que todo este dinheiro represente, entre 2018 e 2030, um crescimento cumulativo de 16% no PIB global.
Não obstante, avisa Georgieva, a IA não impactará de modo igual toda as áreas de produção. Poderá ser rebuscado afirmar que a criação se voltou contra o criador, mas quase tudo aponta para que “o setor mais afetado pela IA será o da indústria do software”, diz a investigadora, e isso vai ser mais visível ao nível dos motores de busca para a web, na publicidade online, na tradução de línguas, nos média sociais, nos assistentes virtuais ou nos chatbots, entre muitas outras aplicações.
Paulo Jorge Ferreira vai mais longe e cita quem vaticina que “a programação como a conhecemos se tornará obsoleta, uma vez que o software já pode ser substituído por sistemas de IA”, automatizando o que antes era feito por humanos. O citado, neste caso, é Matt Welsh, cientista e engenheiro computacional que já teve cargos de direção na Google e Apple, antigo professor da Universidade de Harvard e atual diretor executivo de uma start-up que está a criar ferramentas de IA destinadas ao desenvolvimento de software.
Em o O Fim da Programação, texto que Welsh publicou em janeiro deste ano, numa revista especializada na área da computação, preconiza-se que o futuro “papel do engenheiro informático será o de preparar conjuntos de dados, preparar a arquitetura [do que vai ser desenvolvido], alimentá-la com computação e experimentar sobre os resultados”, sintetiza o reitor da Universidade de Aveiro.
Todavia, continua, “Welsh diz que há aqui enormes oportunidades, mas igualmente muitos riscos”. A IA “vai proporcionar novas e mais eficientes formas de trabalhar”, mas “é preciso perceber que estas ferramentas não são perfeitas e ainda estão num primeiro momento de desenvolvimento, daí que terão, além de limitações irremovíveis, muitas outras que serão removidas nas suas próximas versões”. Assim sendo, “compreender estas limitações é algo que é fundamental para conseguir trabalhar com elas no futuro”.
Manufatura, agricultura, logística e transportes a ficar para trás: “Muitas empresas não se podem dar ao luxo de implementar estas tecnologias”
Desloquemos o nosso olhar dos chamados empregos de colarinho-branco, cujas atividades estão associadas ao trabalho intelectual, para os empregos de colarinho-azul, assente no trabalho manual e no esforço físico – sejam eles estivadores de um porto de mercadorias, condutores de transportes públicos, pessoas que laboram na linha de montagem de uma fábrica ou agricultores. Ao que parece, relativamente ao uso da IA, existem duas velocidades dentro da nossa sociedade, dois mundos produtivos (e laborais) que não se afinam pelo mesmo diapasão.
“Se olharmos para o panorama da indústria não ligada à engenharia do software, como a manufatura, a agricultura, a logística e os transportes, ainda há muito a desejar”, observa Pétia Georgieva. “A implementação de soluções de IA nestas áreas ainda está muito no início, existindo várias razões para este pouco avanço.”
Quais são elas? “Uma delas é a falta de financiamento. Uma infraestrutura de IA, desde os sensores ao pipeline [o canal] de fornecimento de sinais, passando pela extração de conhecimento [ou seja, de dados] e até à tomada de decisões, tudo isto é dispendioso.” Basicamente, “muitas das empresas não se podem dar ao luxo de implementar estas tecnologias de IA”.
Outro motivo para este fosso passa pela falta do imprescindível ‘combustível’ que move as tecnologias de IA. Estamos a falar dos grandes conjuntos de dados, usados para treinar os modelos que fazem funcionar as ferramentas de IA. Obtê-los, de forma lícita e com o consentimento dos cidadãos – caso se trate de dados pessoais ou propriedade intelectual, por exemplo, – só parece estar ao alcance das grandes tecnológicas, pois este manancial de dados, explicando de forma muito simples, precisa de ser filtrado e avaliado. É um pouco como o petróleo bruto, o qual tem de ser refinado para daí se obter combustíveis, eficientes, com os quais se produz energia.
Comprar esses dados, já ‘refinados’, junto de terceiros? Possível, mas é preciso ter em conta que eles são bastante caros e a sua aquisição tem de obedecer a critérios que estejam dentro das leis existentes, como o Regulamento Geral sobre a Proteção de Dados, aplicável a toda a União Europeia.
Por fim, Georgieva aponta para outra lacuna: “há falta de pessoas formadas em IA nestas indústrias”.
No meio disto, surgem fenómenos curiosos, acrescenta a investigadora, nomeadamente empresas que dizem querer implementar a IA nos seus processos, mas depois não sabem onde a querem implementar, ou sequer como podem beneficiar dela. O receio destas empresas é mais o de ficar para trás em relação a outras, nomeadamente a concorrência.
“A IA está a ter um impacto drástico no mundo das artes ilustrativas, e formou-se um enorme movimento de artistas contra a sua utilização”
Que objeção poderá um artista, ou um estudante que aspire a sê-lo, colocar em relação à IA generativa? De salientar que esta geração de ferramentas de IA foi designada de ‘generativa’ porque é capaz de gerar texto, código de programação informática, infografia, imagens e muito mais, bastando a uma pessoa escrever, em linguagem natural, aquilo que pretende criar ou produzir. Um momento… parece que é este importante pormenor que está a causar uma efervescente revolta no mundo artístico.
“A IA está a ter um impacto drástico no mundo das artes ilustrativas, e formou-se um enorme movimento de artistas contra a sua utilização, pois as ferramentas de IA que de momento existem recorrem a trabalhos feitos por humanos, sem reconhecer a sua autoria”, avisa Nelson Zagalo, investigador que estuda a interação das tecnologias com os média digitais e o mundo da arte.
Basicamente, as ilustrações que estas ferramentas apresentam são sintetizações e uma mescla de diferentes obras criadas por humanos, mas quando surge o produto final – o resultado daquilo que o utilizador pediu – não há uma única menção aos trabalhos originais a que recorreu, muito menos o nome de quem os fez. O mesmo sucede para quem usa estas tecnologias, como o ChatGPT, para obter respostas e informações sobre os mais variados assuntos: as respostas geradas (em texto) parecem surgir como se fossem verdades universais, sem que jamais se forneça as fontes de informação em que a ferramenta se baseou.
“No que se refere à autoria, as artes visuais estão em grande ebulição. Há pessoas que se opõem a que os seus trabalhos sejam colocados nas bases de dados [usadas pelas ferramentas de IA], e temos gigantescas bases de dados a serem denunciadas por causa disso; os artistas acusam as empresas de estarem a roubar o seu trabalho para depois produzirem trabalho que é vendido. Tudo isto tem conduzido a processos em tribunais. Esta é uma questão muito complexa e ainda não temos resposta para ela”, expõe Nelson Zagalo.
“Quem está no mercado sente-se revoltado, pois está a ver o seu trabalho a aparecer em imagens criadas pelo DALL-E, o Midjourney ou o Stability [três conhecidas aplicações de IA generativa] e muitas outras ferramentas que já existem para o mesmo efeito. Isto parece um autêntico El Dorado, face à quantidade de ferramentas que não param de surgir.”
“Tenho de ensinar estas tecnologias aos alunos, mas aquilo que estou a ensinar para amanhã, já não existirá daqui a cinco anos”
Sim, Nelson Zagalo admite que tem uma visão mais crítica da IA, pois ao estar ligado aos mundos da tecnologia e da arte acaba "por receber inputs de ambos os lados”. Além de estar inquieto com as questões em torno da autoria dos objetos criados (produzidos), há outros problemas, que envolvem o ensino universitário, que também o preocupam:
“A IA não está a substituir mero trabalho repetitivo, está a substituir processos de aprendizagem fundamentais à formação de competências”, dispara.
Mais. “Tenho de ensinar estas tecnologias aos alunos, mas aquilo que estou a ensinar para amanhã, ou para daqui a um ano, já não existirá daqui a cinco anos. Não é nada simples dizer que se deve apostar neste ou naquele conjunto de abordagens, que elas são as melhores e estão a dar muito dinheiro à indústria. Pois estão, mas daqui a três anos podem já não estar a dar.”
O aviso, de forma resumida, é o seguinte. Ao ritmo atual, com as tendências no mundo da tecnologia a mudarem numa questão de poucos anos, por vezes em meses, o que agora ensinamos pode tornar-se obsoleto. Só para dar um exemplo, há pouco tempo afirmava-se, com grandes paragonas nos média, que o futuro seria o metaverso, uma mistura de realidade virtual com realidade aumentada, com a empresa Meta, a dona do Facebook, a prometer investimentos na ordem dos milhares de milhões de dólares. Sucede que, de momento, a empresa de Mark Zuckerberg está com sérias dificuldades em seduzir os potenciais utilizadores do metaverso para os produtos que tem em oferta, tal como refere uma reportagem no Wall Street Journal, o que já a levou a despedir milhares de trabalhadores, sendo que outros dez mil seguir-se-ão nos próximos meses – incluindo profissionais das equipas técnicas – para fazer face à diminuição de receitas.
Face a uma realidade em constante mutação e indefinição, Nelson Zagalo coloca duas questões, em jeito de provocação, sobre o futuro do ensino nas universidades. “Vamos praticar, desenvolver, criar e gerar ideias porque estamos à procura de nos conhecer melhor e aos outros, porque queremos aperfeiçoar-nos enquanto espécie? Ou queremos usar estas tecnologias para acelerar, para tornar os nossos alunos mais rapidamente empregáveis, com melhores salários? É que eu tenho dúvidas que daqui a cinco anos eles tenham melhores salários, pois em três anos teremos outras tecnologias a substituir outras necessidades, e mais tarde virão outras que farão o mesmo.”