Câmara aprova o marco legal do desenvolvimento e uso da inteligência artificial no país

Entenda as implicações do projeto
Astronauta tenta reparar um defeito fatal no computador Hal 9000, que utilizava inteligência artificial, em cena do clássico filme “2001: Uma Odisseia no Espaço” (1968)

Continua depois da publicidade

Brasília – Após um ano de tramitação, a Câmara dos Deputados aprovou nesta quarta-feira (29), o projeto que estabelece o marco legal para o uso da inteligência artificial (IA) no Brasil. O texto teve o apoio de todos os partidos à exceção da bancada do PSOL e foi aprovado com 413 votos favoráveis e 15 contrários. Se for aprovado sem alterações no Senado, prosseguirá para sanção do presidente Jair Bolsonaro (sem partido). Caso contrário, volta para nova análise dos deputados.

Nessa reportagem especial do correspondente do Blog do Zé Dudu em Brasília, o leitor terá acesso às informações e implicações deste que é um dos mais importantes projetos aprovados nessa legislatura para a inserção do Brasil em uma tecnologia nova e que vai revolucionar todos os setores.

Como foi a votação

Em linhas gerais, o projeto de lei (PL nº 21/2020) cria o marco legal do desenvolvimento e uso da Inteligência Artificial (IA) pelo poder público, por empresas, entidades diversas e pessoas físicas. O texto, estabelece princípios, direitos, deveres e instrumentos de governança para a IA.

Entre outros pontos, a proposta estabelece que o uso da IA terá como fundamento o respeito aos direitos humanos e aos valores democráticos, a igualdade, a não discriminação, a pluralidade, a livre iniciativa e a privacidade de dados.

A proposta dá as linhas básicas para atuação do poder público sobre o tema, que já faz parte da vida de toda pessoa que usa a internet.

O projeto foi proposto pelo deputado Eduardo Bismarck (PDT-CE) e foi relatado pela deputada Luísa Canziani (PTB-PR).

Ao justificar o PL, Bissmarck afirmou que a expansão do uso de inteligência artificial “exige transições no mercado de trabalho” e que o texto cria deveres para o poder público “para permitir a capacitação dos trabalhadores, bem como incentivá-los a se engajarem e adquirirem competitividade no mercado global”.

“A IA traz implicações para os direitos humanos, a privacidade e a proteção de dados, temas que foram tratados com observância (…) da Lei Geral de Proteção de Dados (LGPD).”

O que é uma inteligência artificial (IA)?

Na ficção, a inteligência artificial geralmente é retratada em histórias ameaçadoras, às vezes envolvendo máquinas que se rebelam contra os seres humanos.

Ela está, por exemplo, em filmes como “2001: Uma Odisseia no Espaço” (1968), “O Exterminador do Futuro” (1984) e “Matrix” (1999). Na vida real, a inteligência artificial é um tipo de programa de computador capaz de interpretar dados, aprender a partir deles e tomar decisões de forma autônoma para cumprir uma determinada tarefa definida pelo seu criador.

É usada em lojas online, no controle de estoques de empresas, em ferramentas de reconhecimento facial, em sistemas de prevenção de fraudes e na análise de padrões de comportamento de consumidores, entre outras aplicações.

Estas ferramentas, portanto, são fundamentais para praticamente todos os setores da economia e a regulamentação do uso da inteligência artificial é uma preocupação no mundo todo.

O que o projeto aprovado estabelece como IA?

O texto estabelece como sistemas de inteligência artificial as representações tecnológicas do campo da informática e da ciência da computação. Caberá privativamente à União legislar e editar normas sobre a matéria.

Na prática, isso significa que sistemas com base em processo computacional que, a partir de um conjunto de objetivos definidos por humanos, e, por meio do processamento de dados e informações, pode aprender a perceber, interpretar e interagir com o ambiente externo é considerado uma IA.

Entram nessa classificação, por exemplo, sistemas de aprendizagem de máquina (machine learning) — se debruça sobre os dados e encontra padrões —, incluindo aprendizagem supervisionada, não supervisionada e por reforço.

O projeto de Bismarck também cria a figura do “agente de IA”, que pode ser tanto o desenvolvedor quanto o operador do algoritmo, e que passa a ser o responsável legal pelas decisões tomadas pelo software. Este “agente de IA” também é o responsável por garantir que o software respeite as normas da Lei Geral de Proteção de Dados (LGPD).

Quais os direitos garantidos pelo texto?

Segundo a relatora do projeto, deputada Luisa Canziani (PTB-PR), a proposta aprovada também delineia direitos dos usuários desses sistemas, como a ciência da instituição que é responsável pelo sistema, o direito de acesso a informações claras e adequadas a respeito dos critérios e dos procedimentos utilizados pelo sistema.

“Além disso, há o estabelecimento de alguns fundamentos para o uso da inteligência artificial no Brasil, tais como o desenvolvimento tecnológico e a inovação, a livre iniciativa, a livre concorrência e o respeito aos direitos humanos e aos valores democráticos”, explicou a parlamentar.

Projeto não estabelece regras vinculantes

Especialista do setor criticaram que o projeto não estabeleceu regras vinculantes para o desenvolvimento da IA, mas apenas princípios éticos baseados na regulamentação existente na União Europeia.

Na prática, isto pode resultar numa situação em que os detalhes da regulamentação serão definidos por diferentes juízes em todo o país — e nem sempre de modo uniforme, criando insegurança jurídica.

De acordo com a relatora, o texto original é inspirado nos conceitos e diretrizes propostos na Recomendação sobre Inteligência Artificial da Organização dos Estados para o Desenvolvimento Econômico (OCDE).

“O documento da OCDE é uma das principais referências internacionais sobre o assunto e já foi formalmente subscrito pelo Brasil, apesar do país não integrar ainda a OCDE”, argumentou.

“No entanto, por se tratar de um documento de uma organização internacional e apresentar natureza principiológica, seu texto é propositadamente mais aberto e vago.”

Antes contrário, PT votou a favor

Inicialmente contrário ao projeto, o PT chegou a obstruir a votação, mas depois de um acordo com o autor e a relatora, votou a favor, deixando a bancada do PSOL esperneando em Plenário sozinha.

O PT mudou de posição depois de duas modificações no texto: uma que incluía a transparência entre os princípios para a nova tecnologia; e o outro que determina a responsabilidade objetiva do Estado em projetos públicos que utilizem a IA.

Ou seja: se o uso da nova tecnologia por parte do governo resultar em dano a alguém, o Estado será responsabilizado, mesmo que não tenha tido a intenção de fazer mal. Outros dois destaques apresentados pelo partido foram derrotados no plenário.

Tema envolve discussões complexas

A inteligência artificial é um tema complexo e que uma regulamentação efetiva sobre a tecnologia requer um nível de detalhamento bem maior do que o apresentado nas propostas atuais em tramitação no Congresso.

“É bem difícil definir o que é a inteligência artificial. É muito difícil fixar os limites do que está sendo regulamentado, embora a proposta (da Câmara) apresente uma definição”, disse o professor da Escola Politécnica da Universidade de São Paulo (USP) Fabio Gagliardi Cozman, diretor do Centro de Inteligência Artificial da instituição em audiência quando da discussão da matéria nas comissões da Câmara.

“Então, isso torna um pouco arriscado você tentar fixar agora uma legislação quando a tecnologia ainda está num momento de desenvolvimento, de consolidação”, afirmou.

“O outro aspecto é que, na (legislação da) União Europeia, há uma abordagem voltada a riscos. Você tenta verificar qual a possibilidade de algo criar um problema. E, dentro deste risco, há níveis diferentes de ações que podem ser tomadas”, explicou.

Cozman afirmou que para chegar algo desse tipo no Brasil seria preciso uma discussão mais detalhada.

“Não sou totalmente crítico [ao texto discutido na Câmara]. Acho que a preocupação com o assunto é válida e a discussão precisa ser feita. Não é que seja errado legislar sobre o assunto, é que ainda não existem direitos e deveres claros sobre isto.”

Projeto era o mais detalhado no país

Na avaliação do professor da Universidade Federal de Goiás (UFG) Anderson Soares, o projeto aprovado pela Câmara era o mais detalhado, até o momento, no país e tem o mérito de se preocupar com a qualificação dos trabalhadores que vão lidar com IA, ou que terão seus empregos atingidos pela nova tecnologia.

Apesar disso, o professor observou que o texto pode criar um problema ao atribuir “intencionalidade” às decisões tomadas por algoritmos, já que a inteligência artificial não faz julgamento moral antes de tomar uma decisão da mesma forma que um humano faria.

Eventualmente, o algoritmo toma uma decisão como ‘vou dar este desconto a este cliente’. E isso não pode ser 100% interpretado. E, se essa interpretação for muito rígida, a gente pode inviabilizar a inteligência artificial da forma como ela é usada hoje”, afirmou Soares, que coordena o Centro de Excelência em Inteligência Artificial da UFG.

“No atual momento, em que está todo mundo descobrindo onde esse tipo de tecnologia cria vantagens ou não, isso pode levar a uma burocratização excessiva da tecnologia. Neste momento, é inoportuno definir esses papéis”, afirmou.

Reportagem: Val-André Mutran – Correspondente do Blog do Zé Dudu em Brasília.