O ChatGPT conta poucos meses e foi o suficiente para detonar uma discussão gigante que vai da cultura ao ensino. Num tempo de tanta inovação, há desafios óbvios aos direitos conquistados. A regulação está a ser debatida na Europa, mas a evolução corre acelerada e não dá para carregar no botão da pausa. A criatividade já não é exclusiva dos humanos, os decisores políticos têm mais ferramentas de manipulação ao dispor, o emprego está a mudar, a saúde já usa algoritmos inteligentes, a educação vai ter que rever modelos antigos. A máquina ganha espaço e começa a conquistar autonomia. E o futuro depende do uso que dermos às tecnologias disruptivas.
Fala várias línguas, português também, responde a perguntas, domina muitos temas, é capaz de escrever livros, ensaios académicos, de fabricar notícias falsas, de compor música, de ter longas conversas sem nunca se cansar. O ChatGPT, o chatbot de Inteligência Artificial criado pela empresa OpenAI, foi lançado no final de novembro e pouco tempo bastou para agitar as águas, para despertar as mentes adormecidas de quem acreditava que conversar com robôs não passava de ficção científica. Não é preciso ir mais longe, em dois meses o ChatGPT acumulou 100 milhões de utilizadores, um recorde, a aplicação com o crescimento mais rápido de sempre.
E, pelo caminho, já levantou tantas questões éticas, legais, políticas. Com Itália a bloquear o ChatGPT a 31 de março, depois de o chatbot ter divulgado dados pessoais. O Mundo está a assistir a uma nova era, que vai muito além de ferramentas de conversação, essas são uma gota num oceano infinito. Mas há uma verdade. O ChatGPT e o acesso democratizado a essa ferramenta, assim como as imagens hiper-realistas geradas por Inteligência Artificial (IA) que surgiram recentemente, como a do Papa a envergar um blusão branco, foram o detonador de uma reflexão urgente. E no mês em que se celebra Abril, com Portugal a caminhar a passos largos para os 50 anos de democracia, as questões multiplicam-se. Num tempo de tanta mudança tecnológica, que desafios é que se colocam às nossas liberdades?
“A IA deve ser colocada ao serviço da humanidade. Que é algo que nem sempre temos visto, reconheço isso. Mas tenho uma visão bastante otimista e humanista, no sentido em que a IA pode tornar a nossa vida melhor, é uma expansão da nossa inteligência.” Paulo Novais, que está a coordenar o maior laboratório associado do país, na área da IA, o Laboratório Associado de Sistemas Inteligentes (LASI), com projetos em áreas desde a administração pública aos transportes e saúde, defende “muitas utilizações úteis e interessantes”. “Não me choca que tenhamos máquinas inteligentes a trabalhar em ambientes difíceis como uma mina. Como não me incomoda ter um sistema em casa que ajusta a temperatura. Ou ter ferramentas no Direito que ajudem os juristas a tomar decisões mais adequadas.” Estes são só alguns exemplos da infinidade em que cabe este universo. Só que a par do fascínio estão os riscos, e os perigos são óbvios. Um deles é, e focando nas tecnologias inteligentes de conversação ou de criação de imagens, a disseminação, a nível planetário, de uma inverdade. “As ferramentas já atingiram um patamar de sofisticação que permitem criar imagens, textos, que parecem verdadeiros, autênticos. E por isso as mensagens que se criam são facilmente aceites pelas pessoas como verdades.”
É o poderoso vírus da desinformação a entrar em campo e o trabalho de desenvolver mecanismos de verificação da veracidade tem que caminhar lado a lado com a IA, num jogo de equilibrismo entre proteger os cidadãos e não instaurar uma censura tecnológica. O ChatGPT usa Inteligência Artificial generativa, que depende de enormes bases de dados para gerar conteúdo novo – os algoritmos pouco transparentes, desenvolvidos por entidades privadas cujos fins se desconhecem, são um dos temas em debate. “Se dermos ao ChatGPT um conjunto de dados baseados numa determinada doutrina é isso que ele vai veicular. Os dados não são inocentes. Estas máquinas aprendem com base no que é mais repetido.” Estamos perante uma inteligência cada vez mais parecida com a humana, que aprende por repetição, por mimetização, logo também ela capaz de cometer erros. “Só que de um humano esperamos o erro, de uma máquina esperamos que seja 100% rigorosa e isso está-se a perceber que nem sempre acontece”, explica o também professor do departamento de Informática na Escola de Engenharia da Universidade do Minho.
Perder empregos para robôs?
Olhemos para a questão do emprego e para o velho temor de que os robôs nos venham a roubar trabalho. Até há pouco tempo, acreditava-se que só tarefas repetitivas poderiam ser substituídas pela tecnologia. Talvez isso já não seja verdade. “O problema é que muito do nosso trabalho intelectual também é, de algum modo, repetitivo e rotineiro. Vamos ter que redefinir o que é um trabalho humano. Mas, neste momento, garantidamente não deixaria a máquina ter a decisão final. O caminho é para um contexto em que a máquina nos auxilia, vamos aumentar esse grau de auxílio, mas é de bom senso garantir que o controlo continua a ser humano”, considera Paulo Novais. Até porque as decisões não são simplesmente objetivas, há valores e crenças que não são fáceis de serem reproduzidos pela IA, que não são facilmente transcritos em zeros e uns. Sendo otimistas, a IA pode reduzir-nos trabalho, simplificar-nos a vida. “Podemos vir a trabalhar menos e com mais produtividade. É um maravilhoso mundo novo. Vejamos, poder ter muita informação rapidamente agregada sobre o que está a acontecer na Ucrânia é extraordinário. Ou, na educação, ter uma máquina que não se aborrece com os nossos erros, com o facto de estarmos sempre a perguntar o mesmo, o ChatGPT pode funcionar dessa forma.”
Luís Paulo Reis, presidente da Associação Portuguesa para a Inteligência Artificial (APPIA), vai mais longe, põe o dedo na ferida. Afinal, a IA já é capaz de passar em exames de Medicina e de Direito “e tirar melhor notas do que um humano médio”. Continua a falhar muito, é certo, em tarefas que envolvem o senso comum. E se há empregos mais repetitivos, “em que há todo o interesse em substituir por máquinas”, outros se calhar não. Assentemos os pés na terra. Há empregos que pareciam não estar em risco, desde médicos a professores, e que neste momento Luís Paulo admite que “podem estar”. “Uma máquina consegue ajudar um estudante ou um paciente na mesma medida em que um mau professor e um mau médico, os que são apenas repetidores de informação, conseguem. Mas nunca chegarão a um excelente médico ou a um excelente professor, esses não são substituíveis.”
Da fotografia aos livros: a criatividade em risco?
Para já, acredita Paulo Novais, é preciso pôr água na fervura no alarmismo, procurar entender o que é a IA, dar tempo à humanidade para mostrar a sua capacidade de se adaptar. E regular rapidamente – lá iremos. O facto é que até na cultura, na criatividade, num campo que também ele parecia reservado aos humanos, a IA já entrou. O jornal “i” lançou, recentemente, uma edição totalmente feita pelo ChatGPT. Há dias, o fotógrafo alemão Boris Eldagsen foi premiado nos Sony World Photography Awards por uma imagem gerada por IA e acabou a recusar o prémio – o artista queria apenas lançar o debate e perceber se as competições de fotografia estavam preparadas para receber imagens de IA. E a procissão ainda só vai no adro.
Este ano, a Microsoft anunciou uma nova ferramenta para gerar ilustrações a partir de frases em inglês. A Google lançou o Bard, a sua versão do ChatGPT. E o Mundo está a ir a reboque, basta olhar para a literatura. A Amazon já tem perto de 200 livros à venda escritos com recurso ao ChatGPT. Há tanto de entusiasmante como de assustador. Afinal, irá a IA ameaçar a nossa liberdade e o espaço criativo? Rui Couceiro, editor da Contraponto, admite que já recebeu propostas “de livros escritos com ou pelo ChatGPT”. “Francamente, é algo que, enquanto editor, não me interessa. Mesmo que o que me fosse dado a ler fosse bom. Isto é, confesso que não gostaria nada de ler um extraordinário livro de poemas feitos por uma máquina. A arte é arte porque é feita pelo ser humano. Se for feita por máquinas, será outra coisa, mas não será arte.” Ler um grande livro, diz, “é como admirar uma escultura, é admirar a capacidade que determinado ser humano teve de dar forma a algo sublime”.
A obra feita pela máquina até pode perder a dimensão admirável, mas não é possível negar “que a ficção científica dos filmes que víamos nos anos 1980 e 1990 se tornou realidade”. E Rui Couceiro reconhece que há ferramentas úteis para autores e editores, nomeadamente detetores de plágio inconsciente ou inadvertido. “E, nos Estados Unidos, por exemplo, há vários autores que usam o Sudowrite, uma ferramenta que faz muito do trabalho por eles.” Mas o também escritor ainda prefere ficar-se pelos corretores ortográficos e pelos dicionários de sinónimos. Ainda escolhe a beleza de uma obra criada pela mão humana à mimetização da tecnologia. “A literatura constrói-se a partir de circunstâncias várias, que não sei até que ponto a IA poderá replicar. Há uma dimensão na literatura – na verdadeira literatura, aquela que aspira a ser arte – que me parece inatingível e por isso muito difícil de mimetizar.”
A Associação Portuguesa de Escritores não tem uma posição definida. Contudo, José Manuel Mendes, o presidente, prestigiado escritor e homem que viveu Abril e se destacou como um lutador contra o poder ditatorial instituído pelo Estado Novo, fala a título pessoal. “Não sou ‘luddista’. Os novos instrumentos tecnológicos podem servir e servirão, sempre sob parametrização ética, regulação e escrutínio a vários níveis, o judicial incluído, o engenho e o trabalho humanos nos seus inumeráveis domínios.” Mas aí, a racionalidade crítica, crê, fará o seu trabalho. Mesmo que, com os avanços da IA, José Manuel Mendes já vislumbre riscos para as nossas liberdades, com a emergência de mecanismos “da ordem do manipulatório e da compressão”. “A ética e a força reguladora do Direito tornam-se imperiosas.”
A regulação europeia, a estratégia portuguesa
E é aqui que entra a regulação. Uma carta aberta publicada pelo Future of Life Institute, organização não-governamental norte-americana, e que Elon Musk subscreveu, pediu que se faça uma pausa de seis meses no desenvolvimento da IA para que se pense e comece a regular. Esta tecnologia está a levantar questões sobre como vamos reorganizar a sociedade, determinadas tarefas, certas profissões. A carta dividiu a comunidade científica, que, apesar de partilhar das preocupações, sabe não ser possível pôr um travão, parar o Mundo para pensar. Enquanto isso, a Comissão Europeia está a tentar regular, mas tem tido dificuldades em chegar a consenso num tema a evoluir a cada segundo. Chama-se AI Act a proposta de lei europeia, a primeira lei sobre IA em todo o Mundo (acredita-se que, assim como aconteceu com o Regulamento Geral sobre a Proteção de Dados, o exemplo possa ser seguido por outros pontos do Globo). Faz uma abordagem baseada no risco. Ou seja, identifica as aplicações de IA que trazem maiores riscos e define requisitos e obrigações para esses casos. Uma utilização de alto risco pode ser, por exemplo, a utilização de IA na saúde que possa trazer danos irreversíveis ao utente.
“Já em 2018 a Comissão Europeia definiu uma estratégia para a IA, que foi o pontapé de saída. A discussão sempre esteve centrada nos interesses do humano, em proteger os direitos do cidadão ao mesmo tempo que se beneficia das vantagens que esta tecnologia traz. O processo foi-se desenvolvendo até que em dezembro foi aprovado o Regulamento de IA pelo Conselho da União Europeia, no qual aliás Portugal participou ativamente”, explica Mário Campolargo, secretário de Estado da Digitalização e da Modernização Administrativa, que sublinha a alta complexidade da regulação. “É que esta regulamentação é particularmente horizontal, não é focada num setor em específico, o que obriga a criar bases sólidas. A IA é provavelmente, dentro do conjunto das tecnologias disruptivas, a que vai ter um impacto maior na nossa sociedade.” Impacto nos dois sentidos. Tem benefícios diretos. “Pensemos na ajuda ao diagnóstico de doenças. Ou na IA para trabalhar um conjunto muito alargado de dados sobre situações pandémicas. São exemplos de aplicações que já ocorrem hoje em dia vulgarmente.” Porém, há o outro lado da questão, “e num continente como a Europa, que valoriza muito os direitos fundamentais, que tem valores éticos elevados, é natural que se esteja a tentar garantir regulamentação”.
Portugal não tem estado à sombra, tem uma Estratégia para Inteligência Artificial desde 2019, que está agora a ser revista. O objetivo é vir a englobá-la numa estratégia mais ampla, que inclui 5G, blockchain, Web 3.0, e todas as tecnologias disruptivas, e vai chamar-se Digital 2030. É preciso ver que 22% do investimento do PRR já é focado na digitalização. O que significa que há várias agendas mobilizadoras a correr.
Mas o caminho não começou agora, na Administração Pública a IA já é utilizada. “A ASAE utiliza mecanismos de IA para definir circuitos de visitas a estabelecimentos. Nas estradas portuguesas, os algoritmos de IA já permitiram detetar locais onde há maior probabilidade de acidentes, de tal maneira que as forças de segurança possam estar presentes nas horas mais críticas”, aponta o secretário de Estado. E há mais. Está-se a trabalhar para utilizar IA nos call centers dos serviços públicos, para que o atendimento ao cidadão seja mais rápido e intuitivo. “No fundo, trata-se de um assistente que era humano e passará a ser um avatar, com conhecimento gerado a partir de algoritmos de IA, para esclarecer dúvidas. Não se trata de substituir, é acrescentar valor, criar um outro canal de interação.”
Entre os partidos – a NM tentou ouvir os dois maiores, PS e PSD -, ainda é difícil encontrar porta-vozes sobre o tema. Pedro Duarte, coordenador do Conselho Estratégico Nacional do PSD, reconhece que é tudo muito novo ainda, mas assume-se favorável à regulação e elogia o facto de “a Europa ser pioneira e líder na regulação destas matérias”. Porém, se por um lado é importante olhar para “a proteção dos cidadãos, das suas liberdades e direitos, por outro, percebemos que a Europa está a ficar para trás no desenvolvimento tecnológico face a outros blocos, como a América do Norte, China, Coreia, Singapura”. Encontrar o ponto de equilíbrio, “entre defender os cidadãos e não inibir a evolução tecnológica na Europa, com uma regulação inteligente, vai ser a chave”. E tem havido esse esforço. “O problema é que já estamos a correr atrás do prejuízo, a velocidade desta tecnologia é exponencial e não é comparável com a burocracia dos poderes públicos.”
O social-democrata não tem dúvidas de que “nos próximos tempos a IA vai afirmar-se como um auxílio à decisão humana”. E tem impacto também no processo de decisão político. “Mas sempre como um apoio, um facilitador. Pode agregar dados, sugerir conclusões, gerir muita informação. Estamos longe de poder substituir a função humana no que respeita à decisão em si. Não prevejo isso. A IA, no contexto político, vai ser uma espécie de copiloto. Quem vai continuar a estar com as mãos no volante vão ser os decisores políticos.”
A ameaça à democracia
É a navegar no mar da política que voltamos a Abril. E às liberdades do futuro. Onde ficam elas, afinal? “O valor das nossas liberdades vai sempre mudando ao longo dos tempos, em função das condições sociais e nomeadamente tecnológicas”, assinala João Cardoso Rosas, professor de Filosofia Política. Só que hoje há um conjunto de tecnologias, ao nível da IA, “que está a alterar muito a vivência das liberdades”. Cardoso Rosas chama a atenção para um dado relevante. A inovação atual está a ser acompanhada, no quadro das democracias, por uma tendência para o autoritarismo. Ou seja, “há um crescimento da tendência autoritária até em países democráticos e juntando esse contexto ao surgimento de tecnologias que permitem a vigilância, o controlo, aí está o grande problema”. “Nunca na história os poderes autoritários tiveram uma tal parafernália de tecnologia ao dispor. Há uma ameaça ao valor efetivo que as liberdades têm, pelo facto de estas tecnologias poderem ser instrumentalizadas por poderes contrários à democracia. E isto não é futurismo, já está a acontecer.” No uso da tecnologia para manipular campanhas eleitorais, para manipular informação, para criar fake news, “isto está a ser usado”.
A regulação, bem sabe, é inevitável. “Mas não pode passar pela proibição. Vejo países europeus a proibir o ChatGPT, isso é o mesmo que proibir o Google. Está condenado ao fracasso.” Porém, regular é um exercício difícil quando se vive uma competição aguerrida entre blocos, com “países a querer usar a IA com intuitos de dominação a nível internacional”, num jogo “sem regras, e as que existem no direito internacional são muito fracas para este tipo de questões”. No entretanto, a IA avança à velocidade da luz – olhemos para o contexto militar. “Um drone já tem a capacidade de decidir quem e quando atacar. Isso muda a própria ética da guerra, as normas.”
Então e o lado positivo? A tecnologia não pode abrir espaço a novas formas de participação política? A discussão tem décadas e poucos resultados práticos. “Havia essa visão otimista, falava-se da chamada democracia eletrónica. De como as tecnologias iam trazer mais instrumentos de participação, a possibilidade de uma democracia quase direta, com os cidadãos a poderem estar constantemente a opinar, a votar”, lembra o docente. O que aconteceu foi o contrário. As redes sociais, por exemplo, em vez de alargarem o debate, “restringiram-no a pequenos grupos, em que se certifica aquilo em que já se acredita, e surgiu uma nova intolerância, novos ódios sociais e discursos de ódio muito prevalecentes”. Criou-se mais espaço para a manipulação e menos para a pluralidade.
Uma licenciatura pioneira e máquinas quase humanas
E não se antevê, nesta matéria, um cenário mais positivo. Luís Paulo Reis, presidente da APPIA e investigador na área, admite “os desafios que a IA coloca à liberdade dos humanos”. “Corremos um sério risco, se não for corretamente utilizada pelas pessoas, empresas, administração pública e sociedade em geral, de nos tornarmos excessivamente dependentes dela e perdermos pensamento crítico.” Luís é codiretor da primeira licenciatura em Portugal em IA, na Universidade do Porto, que arrancou em 2021/2022 e recebeu logo cerca de 500 candidatos para 90 vagas, o que é revelador. Em setembro, deve inaugurar-se o mestrado.
Para lá dos riscos, o investigador mostra que esta tecnologia pode ter um papel transformador em todos os setores da nossa vida. “Estamos a falar neste momento de uma parte limitada da IA que são os modelos de linguagem, como o ChatGPT. Mas olhemos para a robótica. No futuro, vamos ter robôs que são nossos parceiros, vão falar connosco, realizar tarefas, cozinhar, passar a ferro, ser empregados de restaurantes, cuidar dos idosos, uma tarefa crítica no futuro, vamos precisar deles.” As máquinas vão aproximar-se das capacidades dos humanos em muitas tarefas. “O nosso cérebro foi treinado desde que nascemos com uma quantidade enorme de imagens, sons, sensações. E esses algoritmos podem ser treinados da mesma forma, com imagens, textos, sons, movimentos, é a aprendizagem por reforço.”
A regulação, essa, é tão necessária quanto urgente. “É para ontem, não é como a Comissão Europeia está a fazer há anos. Já se sabia que o ChatGPT ia aparecer e ainda não há legislação. Foi a Google que inventou, há uns seis anos, o modelo que a OpenAI está a usar agora com o ChatGPT. E daqui a um ano haverá coisas ainda mais sofisticadas.” Luís Paulo Reis sustenta que a Europa está a ir na direção certa, de regular ferramentas de IA de alto risco, “só que já o devia ter feito”. O especialista chegou até a ir ao Parlamento Europeu falar sobre o tema. “E fiquei escandalizado com o tipo de perguntas. Uma coisa como a IA, em que todos os meses aparece algo novo, tem que ser pensada para o futuro. Tem que se legislar a pensar no que vai existir. Já estou a pensar em robôs equipados com estes modelos de linguagem e capazes de fazer gestos, movimentos.” Não é desejável para ninguém, acredita, que “a determinada altura a IA crie uma nova raça com robôs mais inteligentes ou poderosos que os humanos, por isso é que tem que se legislar a pensar no futuro”.
Das maravilhas na saúde aos professores digitais
Mas olhemos para o presente. Na saúde, a IA já é amplamente usada, quase sem darmos por isso. O Centro Hospitalar de São João, no Porto, tem um Serviço de Inteligência de Dados, para desenvolvimento e capacitação na área da IA. E muita coisa a acontecer na prática. Na gastroenterologia, o uso de tecnologia como a cápsula gástrica (método que consiste em engolir uma cápsula com uma câmara incorporada, substituindo-se à endoscopia) é hoje uma realidade, e o hospital já usa IA para analisar essas imagens. Mas o caso mais recente é a utilização da IA, que está em fase de avaliação, no serviço de urgência, para a interpretação de exames de radiologia. “O algoritmo analisa radiografias do tórax e do esqueleto e identifica lesões padronizadas, assinalando na imagem os locais de interesse para determinado tipo de ocorrência, como sejam nódulos ou fraturas, com elevada sensibilidade e especificidade”, especifica Maria João Campos, diretora dos serviços de informação e tecnologia, que salvaguarda que estas ferramentas não substituem a decisão do clínico, mas servem de suporte à interpretação em tempo real dos exames.
O futuro está a acontecer no presente. E os benefícios são extensos, desde aumentar a eficiência até melhorar o tratamento. O médico do serviço de urgência do São João hoje consegue saber no imediato quais os antecedentes de um doente com histórico no hospital ou, quando olha para uma imagem com suspeita de fratura, ter num segundo feedback sobre a probabilidade dessa fratura existir. Riscos? Também os há, mas todos os projetos, antes de avançarem, são alvo de apreciação por uma comissão de ética para se salvaguardarem “os direitos, liberdades e garantias fundamentais dos utentes”. E em algoritmos de suporte à decisão clínica, que resultam da quantidade e qualidade de dados com que são treinados, também se procura garantir a segurança. Por isso, “o algoritmo apresenta, escrito no texto ou em imagem, o motivo do resultado proposto”. “Agora, está nas nossas mãos sermos transparentes com o utente relativamente às soluções tecnológicas que adotamos na saúde. Este será um fator de diferenciação na confiança que o utente deposita.”
Para lá da saúde, e mergulhando no campo da educação, a IA começa a entrar, pé ante pé, nem que seja pela onda de medo que está a gerar. “Os receios que se tem hoje em relação ao ChatGPT fazem-me lembrar a época em que a calculadora entrou na escola, quando os professores ficaram muito preocupados. Mas o facto de a calculadora resolver uma multiplicação não significa que os alunos não tenham que pensar. Será que quero que um aluno saiba de cor a tabuada ou que seja capaz de olhar para um problema, interpretá-lo e saiba pensar?”, questiona Marco Bento, professor da Escola Superior de Educação de Coimbra e investigador em tecnologia educativa. A humanidade já passou muitas fases em que a novidade era diabolizada. “E o ChatGPT pode, de facto, assustar. Mas aquilo que esta tecnologia nos vai obrigar a fazer é a alterar o modo como se ensina. Do ponto de vista educativo, estamos presos a uma realidade pós-industrial. Só se preparam alunos para memorização – e os exames são uma falácia – e não para que aprendam a pensar e a ter espírito crítico.” Desse ponto de vista, o investigador até vê vantagens neste turbilhão tecnológico, para incentivar modelos de aulas em que os alunos são mais ativos, em que vão em busca das perguntas, “até podem consultar o ChatGPT, o professor hoje não é o único centro de saber”.
O importante é educar, “ensinar a questionar, a chegar a fontes de informação fidedigna – e o ChatGPT não indica as fontes de informação -, coisa que os alunos não sabem fazer, porque tudo o que está na Internet é válido para eles”. Marco Bento recorda o tempo em que se decoravam todas as linhas de caminho férreo, “o ChatGPT pode dar-nos essa informação, só não nos ensina é, chegados à estação, a saber apanhar o comboio”.
E será que podemos vir a ter professores digitais no futuro? Na Índia “houve uma ou outra experiência e os alunos aprenderam, de facto, a ler, a escrever e a calcular”. Mas existem limites. “A despejar informação a máquina é capaz de o fazer melhor do que eu. O que me diferencia é que sei os nomes dos alunos, a forma como pensam, o que sentem, interpreto os olhares, e nisso não há máquina que me vá substituir.”
Nos últimos tempos, as universidades têm-se debatido com o problema do uso do ChatGPT pelos alunos. Algumas universidades francesas e norte-americanas até já proibiram a utilização, de modo a evitar que se recorram a essas ferramentas em testes e trabalhos. Por cá, a NM tentou contactar o Conselho de Reitores das Universidades Portuguesas, solicitando uma posição sobre essa utilização, mas não obteve resposta em tempo útil. O desassossego é grande. Recentemente, um estudante do mestrado de Engenharia Biomédica e Biofísica da Faculdade de Ciências de Universidade de Lisboa usou o ChatGPT para responder a uma questão de um exame, que foi detetado pelo professor. “O drama do plágio, que sempre existiu, é curioso. Porque nunca conseguimos detetar tanto plágio como agora. Temos milhares de ferramentas que o detetam em segundos. Proibir não é solução, a tecnologia existe para nos facilitar a vida”, diz Marco Bento.
E pode facilitá-la em várias áreas. O debate está no princípio. Com as liberdades no centro da questão e Abril a servir-nos de lembrete. Os riscos caminham a par dos benefícios. Resta esperar pelo futuro.