Especialista em ciência da computação da Unesp analisa abaixo-assinado que pede moratória para o desenvolvimento da inteligência artificial

Assinada por nomes como Elon Musk e Steven Wozniak, carta aberta diz que desenvolvimento de inteligências digitais está fora de controle e defende suspensão de seis meses das pesquisas na área. Para João Paulo Papa, tom alarmista da carta não se justifica, e eventual interrupção dos estudos só traria problemas.

Por meio de uma carta aberta publicada pela organização sem fins lucrativos  Future of Life Institute, um grupo de políticos, acadêmicos, especialistas e empresários do setor tecnológico, incluindo Elon Musk, pediu a suspensão, por seis meses, dos experimentos com inteligência artificial (IA) mais potentes que o ChatGPT 4, o modelo de OpenAI lançado em março. No texto, os signatários alertam para “grandes riscos que podem estar rondando a sociedade e a humanidade”.

“A sociedade fez uma pausa em outras tecnologias com efeitos potencialmente catastróficos. Podemos fazer isso aqui. Vamos desfrutar de um longo hiato de verão da IA e não nos apressemos a cair despreparados”, diz o documento, que também traz a assinatura de Steve Wozniak, o lendário cofundador da Apple, além de integrantes da empresa de inteligência artificial Deep Mind, que pertence ao Google.

A carta solicita uma suspensão até que sejam estabelecidos sistemas de segurança com novas autoridades reguladoras, vigilância de sistemas de IA, técnicas que ajudem a distinguir entre o real e o artificial e instituições capazes de fazer face da perturbação econômica, política e democrática que a IA causará.

Com um tom “assustador”, os signatários apontam na carta todos os receios e perigos que nos últimos meses têm sido debatidos em fóruns, artigos e encontros do setor.”A IA avançada pode representar uma mudança profunda na história da vida na Terra, e deveria ser planejada e gerida com cuidado e recursos”, diz outro trecho do texto, que também argumenta que “os laboratórios de IA envolveram-se em uma corrida descontrolada para desenvolver e implantar mentes digitais cada vez mais poderosas”.

Do ponto de vista legal, os autores pedem que os desenvolvedores trabalhem junto aos legisladores para acelerar a criação de um sistema jurídico robusto para tratar da IA. Além disso, reafirmam que os poderosos sistemas de IA só devem ser desenvolvidos quando houver certeza de que os seus efeitos são positivos e de que os seus riscos são controláveis.

João Paulo Papa, professor e especialista em ciência da computação da Faculdade de Ciências do câmpus da Unesp em Bauru, acredita que a eventual suspensão nos experimentos pode ser prejudicial para determinados setores da sociedade e que, até o momento, a IA não implica grandes riscos à humanidade.

“Inicialmente, eu achava que a pausa estava relacionada ao custo energético que esses modelos levam para serem treinados e a motivos que dizem respeito a variáveis ambientais. Porém, o questionamento é outro. Trata-se do modelo e os impactos das novas tecnologias. Neste momento, creio que não seja prudente suspender os experimentos desse porte. Vai ser mais prejudicial do que benéfico, pois nós ainda estamos aquém do que a IA pode oferecer. Podemos ver vários exemplos na área médica que tem feito uso dessa ferramenta (GPT). Entretanto, quem dá o diagnóstico é o médico. Enquanto o algoritmo não puder ser responsabilizado judicialmente, alguém vai ter que estar à frente disso. Por enquanto, eu não vejo que a IA gera riscos para a humanidade”, diz o pesquisador da Unesp.

Segundo o especialista, embora seja possível observar avanços bem interessantes, a IA tem muito a melhorar. “Vejamos o que o Chat GPT consegue fazer, por exemplo. Eu costumo dizer que nada mais é do que uma enciclopédia gigante, onde eu posso fazer perguntas e ela vai me responder. Essas perguntas são feitas de uma maneira natural, não de uma maneira engessada. E ele consegue trazer resposta. Na prática, não é muito uma ‘inteligência artificial’. Como envolvem cientistas e empresas renomadas, no meu entendimento existem duas situações: ou eles estão de fato preocupados com a situação ou pode ser uma jogada para chamar a atenção.”

Segundo Papa, apesar dos grandes avanços tecnológicos, o ser humano deve seguir à frente de grande parte dos processos que envolvem IA. “Compreendo que a partir do momento em que a inteligência artificial ficar responsável por 100% do processo de um diagnóstico médico, por exemplo, aí sim acredito que pode ser complicado. Enquanto o ser humano conseguir controlar todo esse processo, não entendo que isso será um problema.”

Ainda de acordo com o professor da Unesp, caso realmente ocorra uma pausa nesse período, os estudos na área da ciência e dentro da academia científica podem ser afetados. “Eu creio que  estudos podem ser afetados, sim. Imagine que passe a existir alguma regra ou legislação que proíba esses experimentos. A academia científica e a população podem perder com isso.”

Para ouvir a íntegra da entrevista com João Paulo Papa ao Podcast Unesp, clique no link abaixo.

Imagem acima: Deposit Photos.