Projeto de marco legal da IA no Brasil é pouco consistente e pode ser inútil, dizem especialistas

Pesquisadores de Inteligência Artificial da Unesp criticam PL 21/2020, que tramita em regime de urgência e pode ser aprovado a qualquer momento

Causou surpresa a notícia que circulou, no começo de julho, de que passou a tramitar em regime de urgência na Câmara de Deputados um projeto de Lei regularizando o uso da inteligência artificial (IA) no Brasil. Trata-se do Projeto de Lei 21/2020 (PL21/2020), de autoria do Deputado Federal Eduardo Bismarck (PDT-CE), que lhe conferiu o ambicioso epíteto de Marco Legal do Desenvolvimento da Inteligência Artificial.

O PL foi proposto em fevereiro de 2020 e no mesmo mês chegou à comissão de Ciência e Tecnologia, Comunicação e Informática da Câmara, onde dormitou até março deste ano. A seguir, foi examinado durante cinco sessões da Comissão, período determinado para a apresentação de emendas. Nenhuma emenda foi apresentada, e o projeto passou direto para o plenário virtual, e pode vir a ser votado a qualquer momento.  

A divulgação da tramitação do PL 21/2020 em caráter de urgência chamou a atenção da comunidade de pesquisadores de IA no Brasi para a sua existência. O resultado tem sido uma saraivada de críticas. Um dos aspectos mais questionados foi a exclusão dos principais especialistas da área no país dos debates sobre o projeto durante sua etapa de elaboração. “A comunidade não foi consultada”, diz Sergio Novaes, professor titular do Instituto de Física Teórica da Unesp e diretor do Advanced Institute for Artificial Intelligence (AI2), em São Paulo. Alexandre Simões, docente do Instituto de Ciência e Tecnologia da Unesp, no câmpus de Sorocaba, que é ex-integrante do comitê especial para Inteligência Artificial da Sociedade Brasileira de Computação, diz que em nenhum dos espaços onde atua viu qualquer pesquisador se referir ao projeto antes que ele ganhasse notoriedade nas últimas semanas. “Simplesmente não consigo imaginar um projeto assim ser apresentado sem que se convidassem Usp, Unesp e Unicamp para participarem do debate”, diz ele.   

Segundo o Deputado Eduardo Bismarck, a iniciativa busca dotar o país de uma legislação que tanto estimule o crescimento destas tecnologias quanto proteja os cidadãos de eventuais danos causados pelo mau uso. “Precisamos oferecer segurança jurídica, tanto às pessoas que utilizam a IA quanto aos que querem desenvolver esta tecnologia aqui no país”, declarou ele em entrevista à TV Câmara.  Composto de 16 artigos, o PL 21/2020 tem um escopo amplo, propondo princípios, direitos, deveres e instrumentos de governança para a IA em vários níveis, a serem observados por União, Estados e Municípios, além de pessoas físicas e jurídicas. Porém, a forma como estes instrumentos vão operar, e os mecanismos que irão assegurar o cumprimento de deveres e a defesa dos direitos, não é tratada. Quando muito, o texto menciona, aqui e ali, a necessidade de criação de leis complementares que regulem efetivamente algum tópico. Mas de maneira geral, os artigos adotam um tom mais generalista.    

Três artigos se dedicam a apresentar fundamentos, objetivos e princípios. Entre os fundamentos elencados para o uso da IA no Brasil estão o desenvolvimento tecnológico, a livre iniciativa, o respeito aos direitos humanos e valores democráticos, a igualdade, o respeito aos direitos trabalhistas e à proteção de dados. Já o trecho da lei relativo aos objetivos fala do “uso da inteligência artificial para buscar resultados benéficos para as pessoas e o planeta, com o fim de aumentar as capacidades humanas, reduzir as desigualdades sociais e promover o desenvolvimento sustentável”. O texto também aborda a própria definição para a IA, tópico que é um dos mais controversos do campo e que até hoje divide as opiniões dos maiores especialistas em atividade. O legislador optou por descrevê-la como “sistema baseado em processo computacional que pode, para um determinado conjunto de objetivos definidos pelo homem, fazer previsões e recomendações ou tomar decisões que influenciam ambientes reais ou virtuais”.   

Novaes vê vários problemas no PL 21/2020, entre eles, o caráter genérico e a falta de embasamento técnico na proposição dos artigos.  “Essa definição de IA não faz sentido”, critica. “E o texto é oco, um conjunto de obviedades. Quem é que pode ser contra a sustentabilidade ou a redução das desigualdades?”, pondera.  “Mas não acrescenta nada. Não vai ajudar a lidar com temas como preservação da privacidade, os aspectos éticos, as necessidades de regulação. Pode se tornar mais uma daquelas leis inúteis, que não pegam, que existem no Brasil. E nós precisamos de regulamentação, não acho que se deva deixar a área seguir por si mesma.” 

Busca de criar responsabilização é aspecto positivo, mas vago

Para Alexandre Simões, o PL 21/2020 tem pontos favoráveis. Entre eles, está a abordagem de propor princípios gerais, que depois podem ser complementados por leis específicas. Ele diz que, dado o rapidíssimo desenvolvimento tecnológico na área, uma lei muito específica que fosse proposta hoje corre o risco de estar desatualizada em um ano ou dois. Isso facilitaria que pessoas e empresas pudessem posteriormente escapar a qualquer responsabilização jurídica. Também recebe elogios um artigo que estabelece o direito dos usuários dos sistemas de IA de serem informados sob potenciais efeitos adversos que podem ocorrer. “A pessoa poderia entrar num carro autônomo e ser avisada da possibilidade de que aquele sistema tome decisões que afetam sua segurança. É importante este alerta, principalmente quando se trata de algum risco à vida”, diz.  

O mesmo artigo estabelece a necessidade de que o usuário seja informado de quem é a instituição responsável pelo sistema de IA que ela está utilizando. Já houve registro de alguns acidentes envolvendo carros autônomos, com pelo menos uma morte confirmada. A questão de quem deve ser responsabilizado por estes acidentes — se o fabricante do carro, ou do software, ou ambos, ou nenhum deles, é hoje uma das principais polêmicas debatidas no campo da legislação para IA . “Acho muito positivo que o artigo estabeleça a necessidade de apontar uma instituição a ser responsabilizada em caso de falha. Talvez, em alguns casos, possa ser criada uma anotação de responsabilidade técnica, como se usa na engenharia, que permita associar uma pessoa aquele sistema em particular”, diz Simões. “Essa busca de atrelar a responsabilidade pelo sistema de IA a alguém pode ser o aspecto mais relevante desse projeto.” No entanto, o texto não explica como, na prática, essa responsabilização seria estabelecida.

Simões também levanta a possibilidade de que alguns artigos possam dar origem a obstáculos ao desenvolvimento tecnológico. Um artigo, por exemplo, estabelece que um sistema deve ser encerrado se não puder mais ser controlado pelo ser humano. “Ele está querendo impedir que surja algo como a Skynet [sistema de IA ficcional mostrado na série O Exterminador do Futuro]. Mas imagine que um robô de salvamento vê uma vítima e não consegue contato com a base para que determinem o que ele deve fazer; é preciso tomar uma decisão de vida ou morte. Ele deveria ser desligado? Não; o sistema autônomo está lá para tomar decisões quando o ser humano, por qualquer razão, não quiser ou puder estar ali”, diz Simões. Ele também considera que a definição de IA proposta pelo texto da lei é inadequada. “Não sei se seria possível identificar os diversos tipos de sistemas que existem usando apenas estes itens que a lei descreve. É necessário fazer uma discussão mais aprofundada com a comunidade”, diz ele.  

Na União Europeia, proposta de legislação é robusta e extensamente debatida

Nos últimos quatro anos, pelo menos 40 países têm debatido a criação de políticas públicas para fomentar o desenvolvimento da IA nacionalmente. Segundo um artigo escrito por Novaes e colaboradores ano passado, pelo menos 23 nações já haviam até então tornado público, no todo ou em parte, suas estratégias para o setor. E em maio, o próprio governo brasileiro anunciou a criação da Estratégia Brasileira de Inteligência Artificial (Ebia). Lá fora, em alguns casos, a definição dessas estratégias de fomento levou também ao debate sobre valores e limites éticos que devem nortear o desenvolvimento futuro destas tecnologias. A União Europeia, por exemplo, elaborou uma extensa proposta regulatória, com mais de 80 páginas e 85 artigos, que tratam de temas como compartilhamento de informações, transparência e até a proibição de certas aplicações para a IA consideradas antiéticas. A proposta também determina a criação de uma autoridade nacional para realizar atividades de controle e fiscalização.  Por lá, o tema está sendo objeto de extenso debate público.

Tanto Novaes quanto Simões enfatizam a importância de que se adotem iniciativas semelhantes por aqui. Mas discordam se o Pl21/2020 já é ou não o primeiro passo nesse sentido. “É melhor ter algo como esse projeto do que não ter nada”, diz Simões. “Talvez este projeto não venha a atrapalhar a área se for aprovado, pois não obriga sequer a preencher um formulário”, diz Novaes. “Mas ele não acrescenta nada. E sinceramente não entendo por que está sendo votado com urgência.”  

Imagem acima: conceito de trator autônomo. Scharfsinn86/iStock