O ChatGPT é uma tecnologia cada vez mais utilizada em diversas áreas, nomeadamente na educação e, até mesmo, na literatura, com o aparecimento de obras escritas pela ferramenta de IA. A aplicação começa a afastar-se do papel de "ferramenta útil" e pode levantar questões que vão além de "retirar empregos".

O ChatGPT é uma ferramenta de inteligência artificial (IA) com capacidade de responder perguntas e elaborar textos a partir de pedidos de utilizadores. Desenvolvida pela empresa OpenAI, foi lançada a 30 de novembro de 2022 e está disponível de forma gratuita, embora exista também um plano premium (ChatGPT Plus).

De acordo com Luís Paulo Reis, presidente da Associação Portuguesa para a Inteligência Artificial (APIA), outros chatbots e instrumentos de IA baseavam-se “em conjuntos muito simples de regras de frases pré-determinadas”. Por sua vez, o ChatGPT foi treinado “com quase todos os textos que a humanidade já viu” e, baseando-se nesse material, responde ao utilizador.

Cada palavra tem uma probabilidade de ser colocada numa sequência, e essa sequência de palavras gera uma linguagem”, adianta o também professor da FEUP. Desta forma, o sistema infere a resposta de acordo com a associação de palavras estabelecida na pergunta.

A tecnologia do ChatGPT, através de “indicações de alto nível”, consegue redigir uma peça de teatro ou até criar um código para programar um jogo. Na perspetiva de Luís Paulo Reis “pode retirar empregos que são dispensáveis, mas abre empregos mais criativos e a possibilidade de trabalharmos menos”. O presidente da APIA adverte, no entanto, para a necessidade de regulação e de precaução na forma “como treinamos os modelos e da maneira como a IA é utilizada pelas pessoas”.

Já para José Francisco Meirinhos, professor na Faculdade de Letras da Universidade do Porto (FLUP) e presidente da Comissão Ética da Universidade do Porto, salienta que o ChatGPT “não é mais do que um algoritmo”. Sustenta que este “calcula e simula a utilização da linguagem natural”, de forma a causar “a impressão de que está a dizer o que queremos que diga”. Nesse sentido, reforça a importância da responsabilidade dos desenvolvedores. O docente da FLUP acredita que “toda a tecnologia pode ser desenvolvida para o bem, e isso seguramente está a ser feito”; contudo, as utilizações podem ser “negligentes” ou “maldosas”, tornando necessário proteger as pessoas desses usos.

Na mesma linha, Luís Paulo Reis acrescenta também que as entidades reguladoras devem ouvir especialistas. “Ao tentar regular para o que existe agora, vamos cair no erro de regular para uma coisa que, quando as leis saírem, já existe de maneira diferente”, opina.

Recentemente, o interesse crescente sobre o ChatGPT realçou também vertentes negativas: nomeadamente a deteção de erros nas conversas com utilizadores. São exemplos disso a interação “perturbadora” com um jornalista do New York Times ou a exigência de pedidos de desculpa por parte da máquina.

Luís Paulo Reis explica, porém, que grande parte dos erros acontece por “as pessoas não saberem perguntar o que querem”. De acordo com o professor da FEUP, o sistema é treinado por muitos dados e pode não compreender se a pessoa “está a pedir informação factual ou para inventar”. Assim, o docente afirma que “no fim, quem tem de garantir a informação correta sou eu próprio”.

Necessidade de adaptar o ensino às novas tecnologias

A educação é uma das áreas mais discutidas na utilização do ChatGPT. Algumas universidades e escolas dos Estados Unidos da América já proibiram a utilização da ferramenta e, em Portugal, já surgem casos de fraudes académicas com o uso do chatbot. Não há, contudo, qualquer tipo de regra que tenha em vista o bloqueio da ferramenta no seio do ensino superior.

Luís Paulo Reis defende uma “abordagem construtiva, positiva e de aceitação”, indicando a que a “missão” dos docentes universitários deve passar por mostrar aos estudantes como usar a tecnologia de uma “maneira técnica e ética”. Mais ainda, o presidente da APIA acredita que a ferramenta pode criar a oportunidade para desenvolver o pensamento crítico dos estudantes, “comparando o conteúdo que é produzido pela IA com fontes válidas de informação”.

A escritora e jornalista Ana Margarida Carvalho acredita que se deve proceder à integração da ferramenta no ensino, apesar da ambiguidade. “Acho que é sempre melhor tentar funcionar com ela, em vez de proibir”, sustenta a autora.

O aparecimento de ferramentas como o ChatGPT pode significar uma mudança de paradigma na educação. Segundo Ana Margarida de Carvalho, o sistema responde a uma pergunta de forma “perfeitamente aceitável” e basta uma revisão para ter um trabalho pronto, o que pode significar “uma revolução imensa” no que diz respeito ao ensino.

Nesse sentido, o presidente da APIA sugere ainda a possibilidade de “mudar o objeto de avaliação” para um processo mais contínuo. Também José Francisco Meirinhos acredita na necessidade de adaptação, indicando que a mudança poderá acontecer na “preparação que o estudante faz e [em] como usa a tecnologia”.

Uma inteligência “criativa”

O ChatGPT começa também a ser utilizado nas áreas criativas. Este mês, inclusive, a Amazon colocou cerca de 200 livros escritos pela IA à venda. Para Ana Margarida de Carvalho, a capacidade de escrita da IA pode significar uma mudança radical para os que se dedicam à área. De facto, acredita que ferramentas como o ChatGPT vão trazer alterações “tão relevantes e impactantes como o aparecimento da Internet”.

De acordo com a escritora, no jornalismo o impacto já é visível. Através da ferramenta é “possível fazer comunicados de imprensa, comunicados das agências de comunicação e trabalhar em publicidade”. Está, até mesmo, disponível uma rádio feita inteiramente por inteligência artificial.

Incidindo o foco na literatura, a escritora acredita que a ferramenta pode surgir como um bom desafio.  A IA “tenta adivinhar o que queremos ler”, indica – mas isso é o oposto do trabalho de um escritor. Um autor “deve tentar desafiar o leitor, tentar ir por caminhos diferentes e fazer coisas mais exigentes”, completa.

Já o copywriter Francisco Pedro acredita que, na sua profissão, o ChatGPT pode surgir como uma ferramenta útil – mas não passa disso. Para o profissional de comunicação, a tecnologia pode ser aplicada no processo de pesquisa – mas para replicar o trabalho de copywriting é necessário “um feeling extra”, além do conhecimento de marketing.

O conhecimento técnico é fundamental para um trabalho bem feito. Nesse sentido, Francisco Pedro reitera a necessidade do ChatGPT ter “mediação” humana para obter um resultado. “Não acredito que uma pessoa não ligada à área consiga fazer a pergunta certa para ter um resultado que vai comunicar com outras pessoas”, explica. “Uma máquina tem dados e processa dados, não conhece e não fala com pessoas”, conclui.

O professor José Meirinho apoia a ideia, sublinhando como a máquina “sabe pôr em prática o que foi programado”, mas “não sabe o que está a fazer”. Apesar de trabalhar “quantidades imensas de informação a uma velocidade espantosa”, não tem a “capacidade de criar alguma coisa com originalidade”.

Nesse prisma, Ana Margarida de Carvalho questiona-se também sobre até que ponto podem surgir problemas relacionados com direitos de autor. “São coisas originais a partir de coisas que já estão na rede. Mas têm uma combinação diferente e, às vezes, faz toda a diferença”, aponta. José Meirinho partilha a mesma dúvida. “Se alguém for muito criativo e conseguir escrever belos poemas que nos entusiasmam e nos emocionam utilizando estes recursos, também é um resultado da atividade humana”, considera o presidente da Comissão Ética da UP.

Um desafio ético em várias vertentes

Francisco Pedro acredita que a verdadeira problemática do uso de IA são as questões éticas. Nesse sentido,  aponta que este tipo de tecnologias imitam comportamentos que definem o ser humano – “que é comunicar e acima de tudo, pensar”.

O copywriter pondera a ética em dois sentidos: qual o rumo que o investimento em IA pode tomar e se devem ser impostos limites. Mais ainda, debate-se sobre possíveis consequências sociais: “Até que ponto isto nos tornará mais autómatos?”.

Mas as suas questões sobre a dimensão cívica não se limitam apenas às funcionalidades da tecnologia. “A inteligência artificial existe porque há pessoas a fazer um trabalho anterior”, salienta. Nesse contexto, levanta o facto da empresa OpenAI ter utilizado trabalhadores do Quénia, com condições de trabalho indignas, para tornar a ferramenta “menos tóxica” (uma ação que é, por si só, polémica).

Um dos problemas com modelos de linguagem anteriores, como o GPT-3, antecessor do ChatGPT, era o discurso ofensivo que podia surgir nas conversas, fruto dos milhares de textos retirados da Internet. Para permitir que o ChatGPT detete linguagem ofensiva e não a utilize, foi necessário inserir uma série de exemplos. Assim, a OpenAI enviou excertos de textos a uma empresa no Quénia, que descreviam situações com detalhes gráficos de assédio, racismo, assassinato, suicídio, tortura, incesto e automutilação, com o intuito de programar a máquina a não os utilizar. Estes textos foram colocados na plataforma por trabalhadores pagos a menos de dois dólares à hora.

As condições de trabalho sub-humano que sustentam a utilização da ferramenta são, portanto, mais um ponto das implicações sociais e éticas do ChatGPT.  “Socialmente acredito que seja um problema maior do que na mecanização”, complementa o copywriter num paralelismo com a evolução industrial.

As questões éticas atravessam assim vários escopos, não se limitando à ponderação sobre possíveis consequências económicas e sociais. O que permitiu o funcionamento da máquina, o uso, positivo ou não, que pode ser feito, e as responsabilidades sobre a tecnologia são aspetos ainda a ser considerados e devidamente regulados. Ainda assim, a difusão da tecnologia foi, e é, rápida e contínua, prometendo vir para ficar.

Artigo editado por Ângela Rodrigues Pereira