Em reunião da AAAS, especialistas alertam para riscos no uso de sistemas de Inteligência Artificial por políticos e tomadores de decisão

Entre fatores que despertam preocupação estão dificuldade de rastreamento de origem de dados, perda de privacidade, uso de fontes não confiáveis, desinformação e até interpretações enviesadas por parte de algoritmos oferecidos por empresas. Possibilidade de que governos nacionais desenvolvam seus próprios sistemas pode aumentar assimetrias de poder entre países.

No dilúvio de informações que se tornou a vida moderna, algumas das ondas mais gigantescas se formam na esfera das publicações técnicas em ciência e tecnologia.  Segundo artigo publicado na revista Nature em 2019, entre 2009 e 2019 a média de publicação de artigos esteve na faixa de 2,5 milhões ao ano. Dados da PubMed, um dos maiores bancos de dados da área de biomedicina, apontam para a publicação de mais de 1 milhão de artigos a cada ano, o equivalente a dois artigos por minuto. O resultado prático é que hoje mesmo os especialistas têm dificuldade de acompanhar a literatura de interesse em suas áreas de atuação. O que dizer, então, das dificuldades que embaraçam a vida de políticos cujas atribuições profissionais exigem que submerjam, durante longas horas, em estudos e relatórios envolvendo  temáticas com as quais estão pouco familiarizados?

“Se nem a comunidade científica consegue acompanhar a quantidade de estudos que são publicados a todo o tempo, imagine as dificuldades dos tomadores de decisão, para os quais esse não é o trabalho principal”, comenta Karen L. Akerlof, pesquisadora do Departamento de Ciência e Política Ambiental da Universidade de George Mason, Estados Unidos. A pesquisadora julga ser, hoje, impossível para um político sintetizar grandes relatórios científicos ou elaborar um resumo exploratório de temas discutidos no âmbito da academia.

À medida que os governos enfrentam desafios científicos complexos, diversos atores estão empregando sistemas de Inteligência Artificial (IA) como consultorias, capazes de desempenhar tarefas como a análise de tendências de pesquisa, a identificação de padrões e a formulação de insights num ritmo muito mais rápido do que o que é possível para as capacidades humanas.

Entretanto, apesar dos potenciais benefícios, na ausência de diretrizes de uso bem estabelecidas, treinamento adequado e um aperfeiçoamento nas linguagens utilizadas, a utilização das IAs acarreta diversas problemáticas como o reforço de viés, a quebra de privacidade dos dados e a falta de representatividade de grupos minoritários.

O uso da IA como ferramenta de consulta em políticas científicas foi tema de discussão durante o encontro anual da Associação Americana para o Avanço da Ciência, realizado em fevereiro deste ano em Denver, nos Estados Unidos, do qual o Jornal da Unesp participou como convidado. A sessão reuniu especialistas do campo e se dedicou a explorar os prós e contras do uso da ferramenta, assim como os mais recentes desenvolvimentos da área. A discussão se amparou no artigo “AI tools as science policy advisers? The potential and the pitfalls”, publicado na Nature, em outubro do ano passado, e alguns autores estavam presentes à mesa, entre eles a própria Akerlof. Dentre os pontos debatidos  estavam o desafio da governança, a necessidade de checagem humana, os perigos da desinformação e os cuidados necessários para garantir a privacidade dos dados, uma vez que o uso dessas ferramentas se torne mais comum em governos e instituições.

Limitações do ChatGPT

Assim como em tantas outras áreas da vida social nos últimos dois anos, a Inteligência Artificial Gerativa, popularizada por meio do ChatGPT, tem sido uma das opções favoritas na hora de mapear e resumir conteúdo científico. Nessa abordagem, a IA é capaz de gerar textos, imagens ou outros conteúdos a partir da inserção de comandos específicos: por exemplo, solicitar ao ChatGPT que elabore um discurso para um determinado evento, ou que resuma algum artigo científico.

Os modelos generativos construíram uma merecida reputação quanto à versatilidade. Apesar disso, são inúmeros os relatos de problemas que surgem a partir do uso deste tipo de tecnologia, que incluem a apresentação de informações incorretas e até de desinformação. “Estes problemas ocorrem porque esses sistemas são ótimos para gerar conteúdo, mas estão sendo empregados para gerar informações”, diz Kiri Wagstaff, cientista da computação associada à AAAS e que participou do debate.

Ela explica que a diferença está no nível de interpretação que o sistema de IA é capaz de retornar para os dados inseridos. A IA generativa conta com um alto nível de interpretação dos dados, o que permite que ela gere materiais como discursos, cartas e resumos. Entretanto, essa capacidade aumenta as possibilidades de que o sistema possa interpretar dados erroneamente ou chegar a conclusões pouco consistentes ou até mesmo falsas.

Wagstaff defende a necessidade de que a seleção do sistema a ser empregado ocorra caso a caso, de acordo com o objetivo em perspectiva. Por exemplo: se a IA generativa é uma boa opção para criar um discurso, as IAs determinísticas são consideradas mais úteis para análises de dados. “Esse tipo de IA opera com base em regras prédefinidas e produz resultados consistentes para um mesmo conjunto de entrada de dados”, diz ela. Ou seja, se o mesmo conjunto de dados é inserido repetidamente, o resultado será sempre o mesmo. Isso é diferente da IA generativa, que é capaz de prover, para uma mesma pergunta, respostas distintas.

As IAs determinísticas têm uma menor capacidade de interpretação. Por isso, permitem a um gestor obter resultados estatísticos e previsões que sejam isentos das interpretações típicas da IA generativa. Essa opção permite que ocorra a geração de informações, mas o conteúdo — isto é, o modo pelo qual essas informações são transmitidas — permanece sob responsabilidade e atribuição dos humanos.

Um sistema de IA para Marte

Wagstaff também é a pesquisadora principal da Mars Target Encyclopedia (MTE), ferramenta desenvolvida pela Nasa que tem como objetivo reunir, em um único local, informações sobre objetos analisados durante as missões de exploração daquele planeta. “A MTE produz resumos com todas as informações disponíveis dos diferentes objetos marcianos, como o solo e as rochas. Um ponto relevante é que ela possibilita rastrear a origem de cada informação”, diz a pesquisadora. “Os resumos permitem identificarmos não apenas os pontos de consenso, mas também os de divergência, sobre os quais o debate da comunidade científica está mais intenso. Também evidenciam falhas no nosso conhecimento, como objetos e características que ainda não foram alvos de investigação”, diz.

Esse é um exemplo de resumo gerado por IA que, em mãos de um tomador de decisão ou conselheiro, permite que a pessoa, mesmo sem conhecimento prévio do tema, tenha acesso ao estado da arte de um determinado campo de pesquisa. Ele permite ao usuário acessar, de maneira aparentemente efetiva, os principais tópicos em discussão e as descobertas já realizadas, assim como as áreas com potencial para exploração. Soma-se a isso a possibilidade de rastrear a origem de cada informação, o que faculta não apenas a checagem dos fatos, como também o aprofundamento em tópicos de maior interesse.

Humanos não saem de cena

Com o aperfeiçoamento dos modelos da IA, a perspectiva é que o trabalho de elaboração de resumos e revisões bibliográficas deixe de ser feito por cientistas, políticos e conselheiros e passe, pelo menos em um primeiro momento, para as conexões da inteligência artificial. Entretanto, isso não significa que o elemento humano venha a ser completamente substituído, diz Akerlof.

Segundo a docente, a checagem de fatos e informações ainda deverá ser uma tarefa nossa. “Mesmo que a IA alcance uma precisão de 99%, permanece o risco de que ela venha a cometer erros. É necessário então estabelecer guias de boas práticas para sua utilização”, diz. “Um novo trabalho que vejo emergir é o de revisar e checar o material produzido pela IA, para atestar a qualidade e manter um controle de credibilidade. Não é uma tarefa simples ou rápida. Por isso, é necessário ponderar quanto realmente vamos ganhar em termos de eficiência com o uso das IAs”, diz.

Para Akerlof, o uso de Inteligência Artificial em ambientes de tomada de decisão já é uma realidade e tende a se tornar cada vez mais comum. É dentro deste contexto que nos EUA vem se intensificando o debate sobre o emprego dessas ferramentas por agentes governamentais. O resultado é o surgimento de diretrizes de utilização, a criação de comitês de análise do uso de IA e da produção de relatórios mensais sobre avanços recentes envolvendo esse uso por parte das instâncias governamentais.

O uso de IA pode aumentar a desigualdade entre países

Apesar de supostamente proporcionar um aumento da eficiência em atividades que envolvam a análise de dados, o uso de IA não está livre de problemáticas. Uma das mais centrais refere-se à proteção de dados sensíveis. Quem opta por utilizar os sistemas oferecidos por empresas privadas, como a Open AI, criadora do ChatGPT, não consegue saber o que acontece posteriormente com os dados que inseriu no algoritmo, de que maneira foram armazenados ou quais podem vir a ser suas utilizações no futuro. Por conta disso, em junho do ano passado o Congresso dos Estados Unidos restringiu internamente o uso do ChatGPT apenas para dados considerados não sensíveis.

Uma possível solução para esses problemas é exigir que governos e instituições passem, eles mesmos, a desenvolver os sistemas de IAs de que precisam, ao invés de recorrer a produtos disponíveis no mercado. Isso pode assegurar tanto a transparência dos processos quanto a rastreabilidade do percurso dos dados. Tal abordagem, porém, suscita entre os especialistas a preocupação de que se fortaleçam futuramente as desigualdades e as assimetrias de poder entre os países que dispõem de mais meios para desenvolver tais sistemas, e os que possuem menos.

Um fator preocupante para futuros desenvolvimentos, apontado por Akerlof, é que muitas das bases científicas mais consagradas não são de acesso público e gratuito. A Universidade da Califórnia, por exemplo, paga aproximadamente US$11 milhões por ano para a editora Elsevier a fim de que seus estudantes, docentes e pesquisadores tenham acesso às publicações da empresa. Uma vez que o acesso aos periódicos e às bases de dados é determinante não apenas para o momento de utilização da IA, como também para a etapa de treinamento e aperfeiçoamento da ferramenta, esses altos custos são uma das barreiras que podem contribuir para o aumento das desigualdades entre novos sistemas, e entre países.

“A quantidade de bases a que se tem acesso impacta diretamente a qualidade do treinamento oferecido aos modelos de IA”, diz Leopoldo André Dutra Lusquino Filho, docente e pesquisador do Departamento de Engenharia de Controle e Automação da Unesp, campus de Sorocaba. “As bases mais relevantes, em geral, não são de acesso aberto. Países com menos recursos terão seus modelos sem acesso a informações mais atualizadas e a descobertas mais significativas”, afirma o pesquisador, que também é diretor da LINCE (Liga de Inteligência Neurocomputacional na Engenharia), integra o Laboratório GASI e o Grupo de Modelagem Matemática Ambiental.

Além do pagamento para garantir o acesso às bases de dados, também é necessário um investimento em estrutura, energia e equipamentos para tornar possível o funcionamento de modelos robustos. Em 2022, apenas o Google gastou 21 bilhões de litros de água e esse número tende a aumentar conforme o desenvolvimento de IAs siga avançando, uma vez que demanda grandes quantidades de recursos para o resfriamento dos equipamentos.

O desconhecimento sobre o viés

Outra preocupação apontada por Lusquino está relacionada ao chamado viés algorítmico. Segundo o pesquisador, este é um comportamento ainda pouco compreendido no funcionamento das IAs. Assim como os humanos têm vieses, ou tendências muitas vezes inconscientes que resultam na predileção por determinado elemento e na exclusão de outro, modelos de aprendizado de máquina também sofrem do mesmo problema. Isso pode resultar na ênfase ou no descarte de certas informações, conforme a direção para onde se inclinem as preferências da máquina. Ainda não se sabe com exatidão de que forma os vieses são propagados ao longo do processamento de informações por parte de um sistema de IA.

“Imagine que exista um debate científico em uma área controversa: um modelo pode se enviesar por uma das hipóteses propagadas que não seja, necessariamente, a mais forte, mas que é a que teve mais notícias favoráveis divulgadas na mídia, por exemplo”diz Lusquino. “No fim da linha, você tem um tomador de decisão se baseando em um resumo sobre várias dessas hipóteses bastante difundidas, mas sem necessariamente tomar contato com os estudos mais relevantes.”

Akerlof também destaca a fragilidade dos sistemas atuais de IA. “É extremamente complicado fazer um algoritmo replicar o julgamento humano pois ele é multifacetado e leva em consideração diversas variáveis. O que temos que descobrir é quais são as melhores métricas e comandos para definir quando um artigo é relevante ou não”, diz.

Fatores como as diferentes formas de treinamento que podem ser proporcionadas às IAs e o acesso desigual às bases de dados, somados à falta de compreensão sobre as causas do viés algoritmo, podem ser a receita para que tomadores de decisão de regiões distintas sejam aconselhados de maneiras completamente diferentes, e até mesmo contraditórias. Essa possibilidade pode resultar em dissensos e conflitos nos casos de desafios de escala global, como a mitigação das mudanças climáticas ou o enfrentamento de pandemias, cujo enfrentamento demanda que diferentes países entrem em consenso. “Imagine que cada político foi informado por modelos que usaram bases distintas, com treinamentos distintos e vieses distintos”, diz Lusquino. “No fim, cada um acabou sendo influenciado por perspectivas totalmente contrárias.”

A certeza é que o uso de ferramentas de IA é uma realidade incontornável. Seu uso deve projetar o desenvolvimento científico a patamares que não seriam alcançados recorrendo-se apenas à criatividade e ao trabalho humanos. Porém, para que o desenvolvimento destes sistemas possa ocorrer a salvo de problemas e consequências indesejados, tanto Akerlof como Lusquino defendem que o elemento humano não pode ser eliminado, e que o uso das IAs se fundamente em diretrizes bem estabelecidas. “Também é necessário realizar pesquisa de base”, diz Lusquino. “Já temos IA capaz de gerar produtos, mas precisamos entender o que é esse produto que estamos gerando. Para isso, é necessário que as agências de fomento apoiem as pesquisas teóricas em desenvolvimento de máquinas.”

Imagem acima: Depositphotos.