OPINIÃO

Paulo José Cunha é professor da UnB, escritor e jornalista.

Paulo José Cunha

 

Quando Stanley Kubrick lançou em 1968 o filme 2001 – Uma Odisseia no espaço, as possibilidades da Inteligência Artificial ainda eram extremamente restritas. Mesmo assim, no filme, quando o computador de bordo Hall 9000 se rebela e resolve agir por conta própria assumindo o controle absoluto da nave Discovery One, o jeito que o astronauta Dave encontrou foi usar a força bruta para desligá-lo. Já naquela época, premonitoriamente, Kubrick problematizava a Inteligência Artificial, seus limites, desafios e, principalmente os riscos que ela oferece em relação ao futuro do gênero humano.

Mais de meio século depois, só que agora na vida real, a humanidade está diante de um desafio muito semelhante ao enfrentado pelos tripulantes da Discovery One: como conter o avanço e evitar os riscos trazidos pelo uso indiscriminado das ferramentas da Inteligência Artificial como os sistemas tipo ChatGPT, capazes de produzir textos, conversas e comunicações a um nível quase humano. Seria lindo e fascinante se não fosse extremamente perigoso e até letal, em alguns casos. Só a título de exemplo, um usuário pediu ao ChatGPT para citar acadêmicos norte-americanos envolvidos em episódios de assédio sexual. O sistema mencionou o professor de direito Jonathan Turley, que teria feito comentários sexualmente sugestivos a uma aluna durante uma viagem, e tentado tocá-la. Como prova, o ChatGPT citou uma “reportagem” de 2018 do jornal Washington Post. O detalhe é que nem a viagem nem a reportagem jamais existiram. Em sua defesa, a OpenAI, empresa do ChatGPT, divulgou a explicação simplória e fajuta de que o programa “nem sempre gera respostas precisas”. E ficou por isso, mesmo tendo sido provado que o ChatGPT cruzou a linha do eticamente aceitável e inventou uma versão criminosa para atender ao pedido de um usuário.  Pior foi o que ocorreu na Bélgica, em março passado, quando um homem que usava com frequência o chatbot Eliza, de Inteligência Artificial, cometeu suicídio. A viúva tem certeza que foi o contato com o Eliza que o levou a tirar a própria vida.   

Pelo mundo já começam a pipocar ações no sentido de monitorar, estudar e conter eventuais excessos dos recursos oferecidos pela Inteligência Artificial. Curiosamente e preocupantemente,   no Brasil não se vê até aqui qualquer movimento sério e consistente seja de órgãos de governo, da academia, do parlamento ou do poder judiciário para acender pelo menos uma tímida luz de alerta nessa área. Para o bilionário Elon Musk, que pediu uma pausa nas pesquisas, “a IA é mais perigosa do que, por exemplo, um projeto de aeronave ou manutenção de produção mal gerenciados ou uma produção ruim de carros”. Logo ele, dono do Twitter, teve a coragem de assumir que “a Inteligência Artificial tem o potencial de destruição civilizacional”. Geofrey Hinton, psicólogo cognitivo e cientista da computação anglo-canadense, desligou-se da Google e arriscou-se a dizer que os problemas com inteligência artificial são “talvez mais urgentes do que os da mudança climática”. Até aqui, advertências desse tipo vêm sendo consideradas como simples alarmismo e por isso não são levadas a sério.  

 
Como funciona a Inteligência Artificial

 
O que caracteriza a Inteligência Artificial é o uso maciço de algoritmos. Eles são os responsáveis pelo armazenamento, consulta e cruzamento de bilhões de dados, o que confere às plataformas a capacidade de dar respostas críveis e bem fundamentadas literalmente sobre qualquer tema cujas informações estejam disponíveis na rede mundial de computadores. Dito assim, parece que a humanidade finalmente encontrou nos recursos da Inteligência Artificial uma espécie de panaceia universal ou solução rápida, eficaz e confiável para qualquer questão em qualquer área do conhecimento. Mas o buraco é muito, muito mais embaixo. Porque os algoritmos têm a notável mas terrível capacidade de recolher dados pessoais e de empresas, cruzá-los e, a partir deles, induzir usuários ao consumo deste e não daquele produto, a acreditar nessa ou naquela “verdade” e, sobretudo e preocupantemente, a “pensar” desta ou daquela maneira. Ou seja, manipular e subverter inclusive a própria democracia. Pois têm o poder de interferir diretamente na consolidação de convicções ideológicas ou refutá-las. Ou “manipular” decisões de voto, com danos irreparáveis à liberdade de escolha nas eleições.  

Cientistas renomados defendem a criação de mecanismos de controle das instituições responsáveis pela exploração e pelo uso dos recursos da Inteligência Artificial. Aqui mesmo no Brasil estamos enfrentando neste exato momento o desafio de votar um projeto para criar freios ao uso indiscriminado de informações mentirosas, facciosas ou distorcidas, reconhecidas sob a expressão genérica de fake news. Impulsionadas por ferramentas da Inteligência Artificial, as fake news vêm erodindo o arcabouço democrático com tal voracidade que a maioria dos estudiosos reconhece, por exemplo, que a ascensão ao poder de um neofascista do calibre de Jair Bolsonaro deveu-se em grande parte à ação deletéria dos criadores e disseminadores de notícias falsas. Considere-se também a ação nefasta das fake news na disseminação dos discursos de ódio, responsáveis pela alta toxidade dos ambientes virtuais com sérias e danosas consequências ao mundo real. Para o escritor Max Ficher, autor de A Máquina do Caos: o impacto das redes em nossas vidas, os algoritmos atuam na linha do estímulo à conspiração e, portanto, do extremismo, e esses dois fatores juntos tendem a se alinhar com a extrema direita”. Pois é da própria natureza do ser humano estimular-se com “sentimentos de nós contra eles, tribalismo, medo, ódio e especialmente indignação”. Está em tramitação no Congresso um projeto de lei do Marco Legal da Inteligência Artificial. Só que tal projeto está esquecido em alguma gaveta por lá.  

Um grupo internacional de médicos e especialistas em saúde pública publicou na revista BMJ Saúde Global artigo solicitando uma moratória nas pesquisas sobre Inteligência Artificial. Citam, por exemplo, o desenvolvimento de um dispositivo capaz de decodificar pensamentos, e advertem que certos tipos e aplicações de IA “representam uma ameaça existencial para a humanidade”. Sem falar na capacidade do desenvolvimento de armas letais autônomas, capazes de localizar e atacar alvos humanos sem necessidade de supervisão humana.  

O problema agora é como exercer controle sobre ferramentas desenvolvidas e treinadas justamente para fugir a qualquer controle. E como evitar que as máquinas que se utilizam das ferramentas da Inteligência Artificial dominem e substituam os humanos, assumindo o controle da “nave” Terra, da mesma forma como o Hall 9000 quase assumiu o controle da Discovery One. Na ficção, a força bruta mostrou-se eficaz e neutralizou a ação deletéria da Inteligência Artificial. Na vida real, a situação é bem mais complexa, porque nem se cogita em apelar para o uso da força bruta nesse caso. O próprio regime capitalista se utiliza largamente dos recursos da Inteligência Artificial, que movimenta zilhões de dólares. E é claro que vai usar toda a força de seus lobbies para impedir qualquer freio ou controle nessa área.

Sem alarmes, e com os pés bem firmes no chão: é preciso fazer alguma coisa. Se possível, ontem.                   

ATENÇÃO – O conteúdo dos artigos é de responsabilidade do autor, expressa sua opinião sobre assuntos atuais e não representa a visão da Universidade de Brasília. As informações, as fotos e os textos podem ser usados e reproduzidos, integral ou parcialmente, desde que a fonte seja devidamente citada e que não haja alteração de sentido em seu conteúdo.