Sabia que a sua vida é dominada por fórmulas matemáticas? E não é ficção científica: a inteligência artificial existe e já domina as nossas vidas, sobretudo se não formos eremitas e estivermos online. Os algoritmos presumem o que devemos saber e com quem devemos comunicar, o que queremos comprar, ou se somos dignos de ser salvos pela medicina. Estão a substituir o trabalho, a ordenar a mobilidade e a segurança. E há uma pergunta que está a tornar-se assustadoramente atual: será isto o fim da humanidade?

Texto de Ricardo J. Rodrigues, com Catarina Carvalho

«Caminha sozinho pelo deserto, olha para baixo e vê uma tartaruga. Está deitada com a carapaça para baixo e a barriga ao sol. Debate-se com as patas, tenta virar-se, mas não consegue. O que faz?» A pergunta aparece na primeira cena de Blade Runner, o filme sobre inteligência artificial que Ridley Scott realizou em 1982.

Fazia parte de um questionário para detetar se alguém era ou não humano. A resposta era determinante: uma máquina nunca se disporia a ajudar o animal, por ser incapaz de qualquer empatia. A tecnologia não funciona por impressões nem instinto, mas por padrões repetitivos que permitem aferir tendências e probabilidades.

Esta é a descrição perfeita da Inteligência Artificial. E, caro leitor, vamos dar-lhe uma notícia: já não é ficção científica. Hoje a sociedade está condicionada por equações matemáticas que pensam por elas próprias, sem intervenção humana.

O futuro chegou de mansinho. Os carros pilotados sem condutor estão em testes finais. As empresas de tecnologia invadem as nossas casas com sistemas capazes de executar as tarefas simples que se habituam a ver-nos fazer – e podem ser simples aspiradores inteligentes, no mercado. Há robôs que conversam connosco – seja nos nossos telefones ou nos call centers – e nestes casos até se inventou um nome para este tipo de algoritmo, chat bot.

Os algoritmos determinam as compras e vendas de ações em Wall Street e os filmes que são feitos de acordo com as reações do público. Uma companhia japonesa está a produzir assistentes virtuais holográficas sexuais e há especialistas, como David Levy, que estimam que até 2050 vai ser plausível o casamento entre homens e robôs.

Mas há mais e mais simples: a nossa vida online é hoje toda condicionadas por bots, fórmulas matemáticas ou algoritmos, três formas da mesma coisa, a tal inteligência artificial que pensa por nós. Kevin Slavin, professor do Media Lab, do MIT, avisou, numa conferência TED de 2011, que «a matemática que os computadores usam internamente para decidir coisas está a infiltrar-se em todos os aspetos da nossa vida».

É isso. A nossa presença nas redes sociais é determinada por aquilo que nos chega aos perfis de Facebook e de Twitter ou Instagram. Os anúncios que nos são apresentados vêm filtrados por essas fórmulas de acordo com o perfil do nosso comportamento anterior. As músicas sugeridas, idem. E não estranhemos quando nos aparecem nas redes sociais sugestões de amigos que há muito desapareceram das agendas dos nossos telefones.

A inteligência artificial chegou e talvez seja altura de lhe dedicar uns minutos, porque o facto é que a tecnologia mudou e vai continuar a mudar os nossos comportamentos. E a maneira como nos relacionamos com o mundo.

1. LONGA HISTÓRIA DE ESCOLHAS

Vamos por partes. Os algoritmos existem há séculos. São cálculos matemáticos que, a partir dos dados que recebem, completam uma tarefa e têm capacidade de calcular uma situação futura. Um pouco como uma receita de culinária, na versão equação: pegam nos ingredientes e confecionam-nos até se transformarem num prato. Veja aqui uma fotogaleria das principais datas que marcam a Inteligência Artificial até ao que se tornou hoje.

No início, os algoritmos eram em papel e lápis. Depois vieram as máquinas de computação – e processamento elétrico de dados – que tornaram praticamente infinitas a acumulação de dados e a capacidade de delinear variáveis. Mais tarde ainda, veio a internet, pondo os dados todos a poderem relacionar-se uns com os outros à distância.

Assim se deu a explosão da inteligência artificial – com mais ingredientes e receitas cada vez mais sofisticadas. E nós, a sermos dela cobaias. Através da internet é possível saber quem somos, de que gostamos e do que andamos à procura. De vez em quando, apercebemo-nos disso, a maior parte das vezes, não. Pode ser quando fazemos uma pesquisa no Google para um voo e depois recebemos notificações de promoções para esse destino noutras plataformas. Isso é efeito dos algoritmos que registaram os nossos dados numa rede ligada à publicidade online, e os disponibilizaram a quem quer chegar até nós.

A inteligência artificial é uma área da ciência informática que lida com a linguagem computacional e estuda como os computadores podem imitar o pensamento humano. Cobre áreas como a capacidade de decisão e predição e a visualização de situações. Na prática, significa a criação de algoritmos que analisam situações com dados complexos, aprendem com eles e respondem.

Rapidamente toda a gente percebeu a enorme vantagem comercial de usar uma fórmula matemática para encontrar potenciais clientes, o santo graal do marketing. Mas por vezes isto não acontece apenas à nossa vista, nem é tão evidente.

No ano passado, Cathy O’Neil, uma matemática de Harvard que durante uma década desenvolveu algoritmos financeiros em Wall Street – aqueles que fazem investimentos automáticos com base em probabilidades estatísticas –, publicou um livro chamado Weapons of Math Destruction (em tradução livre, seria algo como «Armas de Destruição Matemática»).

«Estamos a ser avaliados por uma espécie de sistema de pontuações que diz com que nível de urgência devemos ser atendidos no hospital, se merecemos ou não um seguro de saúde, se o banco nos concede crédito ou retira a casa. O risco de injustiça é enorme num processo de decisões automático», disse numa entrevista à revista norte-americana New Yorker. «A aritmética agrupa as pessoas em certas pontuações, que as leva por vezes a terem de pagar mais pelo seguro de um carro, por um cartão de crédito ou a receberem penas mais pesadas de prisão.»

Cada vez que fazemos um pagamento com cartão, uma pesquisa na net, cada vez que clicamos o botão like no Facebook, há uma equação a conseguir perceber-nos um bocadinho melhor, a perceber e escolher o que é importante para nós.

Amílcar Cardoso
Amílcar Cardoso, professor de engenharia informática na Universidade de Coimbra e especialista em processos criativos de inteligência artificial, chama a atenção para o fenómeno da black box: o facto de não conhecermos as regras dos algoritmos que escolhem coisas por nós [Fotografia de Fernando Fontes/Global Imagens]

«O problema são os critérios com que esta seleção é feita», diz Amílcar Cardoso, professor de engenharia informática na universidade de Coimbra e especialista em processos criativos de inteligência artificial. E isto é muito importante, por exemplo, quando cada vez mais quantidade de informação sobre o mundo nos chega através das redes digitais. «As notícias são particularmente vulneráveis neste ponto, porque o ser humano precisa de ser desafiado com informação que não conhece nem sabe que precisa de conhecer. Um algoritmo pode decidir que vemos o mundo de uma certa maneira e então alimenta-nos com notícias, verdadeiras ou falsas, que corroborem o que o programa considerou acertado.»

2. TRUMP, BREXIT, FAKE NEWS

Há uma boa parte do resultado das eleições norte-americanas do ano passado que se pode explicar assim. A empresa responsável pela campanha online de Donald Trump é a mesma que esteve no início dos movimentos a favor do brexit: a Cambridge Analytica. Para a maioria dos leitores, é uma ilustre desconhecida. No entanto, tem desempenhado um papel fundamental na forma como os políticos comunicam com as massas.

O que esta companhia faz é processar o Big Data – a informação recolhida pelos nossos cliques, likes e procuras – e, a partir daí, medir-nos psicologicamente. O sistema psicométrico é bastante desenvolvido: avalia os nossos níveis de abertura, consciência, agradabilidade, extroversão e neurose pela interpretação da nossa pegada digital. Até consegue perceber o nosso grau de «informabilidade», ou seja, quão informados e cultos somos.

Tudo isto permite gerir o discurso político, criando argumentos que funcionam com cada nicho de cidadãos, transmitindo a esses cidadãos aquilo que lhes vai dar conforto – ou seja, o reconhecido – evitando mensagens que os desafiem mas também que lhes desagradem.

É a microgestão de expetativas, aquilo que dantes se fazia com as sondagens e hoje se faz quase caso a caso, através dos motores de busca e das redes sociais. Porque muitos nichos criam uma grande massa eleitoral – e a capacidade de chegar a ela pode determinar os vencedores das eleições. Como aconteceu nestes casos.

No início deste ano, o presidente da Cambridge Analytica, Alexander Nix, deu uma entrevista à Motherboard, uma das bíblias da inovação digital, e foi bastante perentório. «Praticamente tudo o que Trump disse durante a campanha, e tudo o que escreveu no Twitter, foi orientado por esta equação de dados.»

Em 2012 o site The Intercept divulgou provas de que a NSA tinha conseguido criar um algoritmo que identificava e decidia que alvos exterminar. Era o algoritmo que decidia, não o homem que observava tudo a partir de um computador.

Hillary Clinton também trabalhou com um algoritmo na sua campanha – e até lhe deu um nome: Ada. O jornal The Washington Post escreveu uma peça sobre isso dias depois das eleições. «Ada conseguia simular 400 mil situações eleitorais por dia e era através dos cenários que o programa estabelecia como mais prováveis que a campanha se movia para um estado ou outro, que apontava baterias a um tema ou outro.»

O problema deste programa era que a análise de dados não conseguia ir tão longe como o de Trump. Os eleitores eram aglomerados em grandes grupos (africanos, latinos, jovens, mulheres) nas habituais classificações estatísticas – e isso não chegou no mundo compartimentado das redes sociais.

Foi, talvez, um efeito «civil» dos algoritmos o que os Estados Unidos sentiram em novembro de 2016. Mas o país já usava há muito a inteligência artificial nos meios militares. Os ataques de drones não são mais do que outro dos seus efeitos. Já eram conhecidos, mas em 2012 o site The Intercept divulgou provas de que a NSA tinha conseguido criar um algoritmo que identificava e decidia que alvos exterminar.

Era o algoritmo que decidia, não o homem que observava tudo a partir de um computador. A taxa de erro era de 0,008 por cento. Parece pouco, certo? O problema é que para a população paquistanesa, sendo que o Paquistão era o país onde mais se usavam os drones americanos, isso se traduzia em 15 mil potenciais vítimas inocentes.

Apesar de terem circulado muitas acusações de que Washington já estava a usar este programa, jornal algum conseguiu em bom rigor prová-lo. Mas há uma certeza: a de que um país criou uma fórmula com autonomia para decidir sobre a vida e a morte dos humanos.

Luiz Moniz Pereira
Luiz Moniz Pereira foi pioneiro dos estudos de Inteligência Artificial em Portugal, em 1973, quando, com Helder Coelho e Fernando Pereira, fundou, no Laboratório Nacional de Engenharia Civil uma divisão de informática para esta área. Hoje é um paladino da regulação. [Fotografia de Orlando Almeida/Global Imagens]
«Corremos grandes riscos ao entregarmos capacidade de decisão a software que não sabemos exatamente o que está a fazer», diz Luiz Moniz Pereira, pioneiro dos estudiosos portugueses em Inteligência Artificial, professor da Universidade Nova de Lisboa e investigador das relações entre ética e tecnologia. «A única maneira de sabermos o que ele está a fazer é impor-lhe regras», sugere.

3. REGULAR E PUNIR?

Esta é uma questão que tem vindo a colocar-se, nomeadamente nas redes sociais e no que respeita à escolha da informação que chega aos leitores.

Há uma corrente que começa a ganhar peso que defende que se os algoritmos determinam a informação que chega às comunidades – ou seja, funcionam como órgãos de comunicação social – a forma como essas escolhas são feitas deve ser transparente e auditada, tal como acontece com os órgãos de comunicação social tradicional, altamente regulados por regras internas e externas. Há que abrir a black box – a caixa negra onde estão as fórmulas, que são dominadas pelas empresas que as detêm.

De certa forma, a pressão que os anunciantes e grandes marcas estão a colocar nos motores de busca e no YouTube para que selecionem melhor os conteúdos ao lado dos quais os seus anúncios irão aparecer, vai também no sentido desta regulação.

A mera utilização de dados para criar mais lucro já ajudou à criação da maior crise financeira deste século – sobretudo com o desenvolvimento de fórmulas abstratas que potenciavam ganhos sobre fundos baseados em coisas inexistentes.

A polémica estalou quando uma investigação do jornal britânico The Times revelou que Wagdi Ghoneim, um pregador islâmico radical que está proibido de entrar no Reino Unido (as autoridades acreditam que ele seja um agente incentivador de práticas terroristas), faturou num ano 70 mil euros através de anúncios colocados antes dos seus vídeos transmitidos no YouTube.

O canal funciona com publicidade programática – ou seja, os anúncios são automáticos, definidos por um algoritmo que não percebe se financiar aquele homem é ou não potencialmente perigoso (leia também Anunciantes retiram do YouTube).

A questão é também pertinente quando falamos de negócios. «Enquanto toda a gente aceita que o algoritmo que determina um sistema de transporte, como por exemplo o comboio, seja regulado superiormente, as instituições financeiras apresentam grande resistência a qualquer forma de controlo», diz o professor Moniz Pereira.

A mera utilização de dados para criar mais lucro já ajudou à criação da maior crise financeira deste século – sobretudo com o desenvolvimento de fórmulas abstratas que potenciavam ganhos sobre fundos baseados em coisas inexistentes.

«Preocupa-me neste momento que os bancos possam ter acesso aos nossos dados como contribuintes. É informação valiosa – e é apenas uma questão de tempo até alguém se aproveitar disso.» Se há ponto onde todos os cientistas parecem concordar é que a criação de software de decisão tem de ser regulada com alguma urgência.

4. ROBÔS: O FUTURO DO TRABALHO

Além das nossas mentes, a inteligência artificial prepara-se também para mudar as nossas vidas, economias e comunidades. Nos primeiros dias de março, um debate sobre o futuro do emprego na RTP 3, apoiado pela Fundação Francisco Manuel dos Santos, apresentava alguns dados relevantes.

O Fórum Económico Mundial prevê que a automação provoque o desaparecimento de cinco milhões de postos de trabalho até 2020. E 62 milhões até 2055, só em cinco países europeus. Basicamente, tudo o que seja automatizável está em risco, e já não estamos apenas a falar de trabalhos manuais serem substituídos por máquinas. Essa foi a revolução industrial.

Caminhamos agora para a revolução da inteligência – em que as máquinas podem interagir com os homens numa base regular. Trabalhadores administrativos, operadores de call-center, caixas de supermercado… serão substituídos por elas, assim como motoristas de pesados ou leitores de contadores de luz. E a curto prazo.

Paulo Novais
Paulo Novais, professor de informática da Universidade do Minho e presidente da Associação Portuguesa de Inteligência Artificial, defende que quem dominar a informática nunca vai deixar de ter emprego. [Fotografia de Gonçalo Delgado/Global Imagens]
Sendo que o mundo e a sua economia estão baseados no trabalho, como será o futuro da humanidade? «Se a tecnologia vai aniquilar algumas profissões, a verdade é que também pode criar outras», diz Paulo Novais, professor de informática da Universidade do Minho e presidente da Associação Portuguesa de Inteligência Artificial. «Quem vai ter emprego no futuro é na verdade quem dominar a tecnologia. Os engenheiros informáticos e os programadores, por exemplo, vão ser mais necessários do que nunca.»

Numa entrevista recente à revista digital Quartz, o próprio Bill Gates, que tem lançado vários alertas sobre o perigo de colocarmos máquinas a tomar todas as decisões, propôs que uma taxa sobre robôs poderia financiar certos empregos.

A Comissão Europeia discutiu recentemente e recusou uma proposta que pretendia taxar as empresas que automatizassem serviços, obrigando-as a pagar formação dos trabalhadores desempregados.

E, numa entrevista recente à revista digital Quartz, o próprio Bill Gates, que tem lançado vários alertas sobre o perigo de colocarmos máquinas a tomar todas as decisões, propôs que uma taxa sobre robôs poderia financiar empregos de quem toma conta de idosos ou trabalha em escolas com crianças. Trabalhos para que, segundo ele, não se encontra gente suficiente para os fazer e são mais facilmente feitos por humanos. A ideia foi acolhida com ceticismo e levantou polémica nas redes que se dedicam ao estudo económico do trabalho.

Certo certo é que no futuro não haverá emprego para todos e é preciso encontrar formas alternativas de garantir a sobrevivência das pessoas. Nos últimos anos, tem havido um debate muito sério sobre a possibilidade de criação de um Rendimento Básico Incondicional para todos os cidadãos (leia também Salário para quem ficou sem emprego por causa dos robôs). A ideia é que o Estado atribua uma prestação a cada cidadão, independentemente da sua situação financeira, familiar ou profissional, e suficiente para permitir uma vida com dignidade.

5. PRÓS E CONTRAS

Manuela Veloso dirige o departamento de Aprendizagem Robótica na Faculdade de Ciências Computacionais da Universidade de Carnegie Mellon, nos Estados Unidos. Acredita que o mundo do trabalho não fica ameaçado com o aparecimento de sistemas de inteligência artificial cada vez mais sofisticados, mas também alinha pela batuta da regulação.

Em junho, a investigadora portuguesa vai estar reunida com um comité das Nações Unidas para analisar formas de controlo da aplicação de algoritmos à sociedade. «É realmente necessário fazê-lo», diz, «tal como a indústria farmacêutica não permite que saiam para a rua remédios que não são seguros, terá de haver entidades globais a não deixar que existam sistemas tecnológicos incontroláveis e potencialmente lesivos para a sociedade.»

Manuela Veloso
Manuela Veloso, do departamento de robótica da Universidade de Carnegie Mellon, é mais otimista: «Nós somos demasiados – nenhum robô sabe mais do que todos nós juntos.» [Fotografia de Gerardo Santos/Global Imagens]

Um dos grandes problemas com que os investigadores se deparam hoje é que os algoritmos não se sabem explicar. Tomam decisões baseadas na leitura de dados mas não são capazes de explicar o que os levou a esta ou àquela posição.

Veloso criou um sistema que pode resolver o problema: em vez de um robô, um cobot. «São robôs colaborativos, pedem ajuda quando não sabem o que fazer, seja a outros humanos, seja a outros robôs.»

A regra de qualquer ser, humano ou animal, que tenha consciência de si mesmo é a autopreservação. Um algoritmo capaz de decidir tende a ser capaz de proteger-se, também.

A regra de qualquer ser, humano ou animal, que tenha consciência de si mesmo é a autopreservação. Um algoritmo capaz de decidir tende a ser capaz de proteger-se, também. «É verdade que os robôs aprendem e propagam conhecimento muito mais depressa do que os humanos», continua Manuela Veloso. «Mas se um desses organismos conseguisse atingir um ponto de superioridade em relação ao ser humano, nunca teria capacidade para destronar toda a humanidade. Nós somos simplesmente demasiados – e nenhum robô sabe mais do que nós todos juntos.»

Luiz Moniz Pereira tem opinião contrária. «As redes sociais estão a diluir-nos socialmente. As comunicações são superficiais, não nos dão espaço ou tempo para a construção identitária.» No meio de um processo de circulação veloz, é mais natural a indignação rápida do que a oposição construída, a apatia do que o compromisso. «Pensávamos que a tecnologia nos permitiria a abrangência, e afinal sentimos que ela nos está a achatar para a mediania.» A sua visão é a de uma absoluta urgência de regulação.

António Moniz, especialista em sociologia industrial, alerta para o perigo de uma sociedade compartimentada e isolada. [Fotografia de Paulo Spranger/Global Imagens]
António Moniz, especialista em sociologia industrial, alerta para o perigo de uma sociedade compartimentada e isolada. [Fotografia de Paulo Spranger/Global Imagens]
«Tem consequências chegarmos a uma sociedade demasiado compartimentada por escolhas de fórmulas matemáticas: impessoalidade, desumanização e racionalização extremas. A tendência para a perda de laços afetivos e de relações humanizadas na esfera pública deixar-nos-á mais isolados», avisa António Moniz, especialista em Sociologia Industrial, professor na Faculdade de Ciências e Tecnologia da Universidade Nova de Lisboa e no Karlsruhe Institute of Technology, na Alemanha.

«A tecnologia está a tornar-nos uma sociedade menos livre. Frequentemente nos deparamos com escolhas preestabelecidas e apenas temos de optar por uma. Nada disso nos ajuda a refletir, a pensar sobre soluções alternativas. Retira-nos por isso a liberdade de decidir, e de interagirmos para melhorar a qualidade das nossas decisões.»

Seria isso que, um dia, Larry Page, da Google, tinha em mente quando disse que «a inteligência artificial seria uma versão última do Google, percebendo exatamente o que queremos e dando-nos a coisa certa»?

A ideia da ficção científica de que um dia seremos humilhados pelas máquinas não reúne, por agora, muitos adeptos na comunidade académica. Mas provavelmente a humanidade não precisa de ser espezinhada para deixar de ser humanidade. Basta que os algoritmos continuem o seu caminho no sentido de nos tornarem apáticos, alheados e hiper-racionais. Basta, em boa verdade, que deixemos de ter qualquer vontade de ajudar uma tartaruga que se debate para se virar, com a carapaça para baixo e a barriga exposta ao sol, no meio do deserto. ♦