Publicidade

 

Análise

Laura Schertel Mendes: Projeto de Lei da Inteligência Artificial: armadilhas à vista

Robô desenvolvido na Áustria

Aprovado com uma rapidez incomum, o Projeto de Lei nº 21/2020, que estabelece fundamentos e princípios para o desenvolvimento e aplicação da inteligência artificial no Brasil, acaba de chegar ao Senado Federal para que se inicie a tramitação nessa casa. O PL tem recebido críticas pela ausência de debates e celeridade de sua aprovação, em razão do inusitado regime de urgência que lhe foi atribuído.

Há, contudo, outro aspecto que chama a atenção no PL e que mereceria um debate mais amplo: com apenas 10 artigos, o projeto que à primeira vista parece ser uma carta de intenções genéricas, acaba por derrogar e restringir importantes direitos e garantias já estabelecidos no ordenamento jurídico brasileiro. Isso ocorre, porque a despeito das diversas disposições bem-intencionadas, estas são desprovidas de força normativa, ora por estarem expressas na forma de recomendação (como no princípio da busca pela neutralidade), ora por serem demasiadamente genéricas, sem contar com medidas concretas de aplicação ou sanção, como é o caso dos princípios da finalidade benéfica e da centralidade do ser humano.

Nos momentos em que há maior concretude das normas do PL, isso se dá exatamente na restrição de algumas garantias ou na tentativa de afastar determinadas leis. É o caso, por exemplo, da responsabilidade por risco previsto no art. 927 do Código Civil, que acaba sendo afastada por meio do art. 6o., VI, do PL, que é pouco claro e preciso ao prever a responsabilidade subjetiva como regra geral, sem sequer identificar a quais atores essa norma se refere ou a quais situações ela se aplicaria (1). Situação semelhante ocorre em relação às regras sobre transparência dos sistemas de inteligência artificial: ao prever de forma tão tímida o princípio da transparência, o PL 21/2020 indica uma tentativa de restringir o direito à explicação do titular de dados sujeito a decisões automatizadas na Lei Geral de Proteção de Dados (LGPD) ou mesmo o direito básico do consumidor à informação (art. 6o, III, CDC). É possível se identificar, ainda, a restrição do princípio da não discriminação garantido na LGPD, visto que ele está formulado no PL de forma não vinculante.

Não há dúvidas sobre a importância do tema, tampouco sobre a necessidade de se endereçar no campo normativo os impactos das tecnologias de inteligência artificial. Contudo, é justamente por se tratar de questão estruturante envolvendo todos as áreas da sociedade que o projeto merece ser profundamente discutido por todos os potencialmente afetados: cidadãos, setor público, iniciativa privada e sociedade civil.

Diferentemente do que ocorreu quando da construção da Lei Geral de Proteção de Dados (Lei nº 13.709/2018) — que levou cerca de oito anos desde a elaboração de sua primeira versão até a sua aprovação — o PL da Inteligência Artificial tramitou em regime de urgência, no que se parece com uma verdadeira corrida pela aprovação. Também o Marco Civil da Internet passou por um amplo debate ao longo de seu processo de construção, que durou aproximadamente sete anos e que contou com uma plataforma de consulta pública direta e amplamente participativa. Assim, tanto a LGPD como o Marco Civil da Internet passaram por extenso processo de construção coletiva envolvendo audiências públicas, seminários e reuniões intersetoriais, de modo a se compreender os melhores caminhos regulatório, bem como o impacto de cada escolha regulatória sobre os envolvidos.

O debate acerca da regulação da inteligência artificial é ainda mais complexo do que ambas as regulações previamente citadas, seja porque muitas aplicações de IA sequer foram realizadas até o momento, por estarem em pleno desenvolvimento; seja porque a inteligência artificial desafia as normas jurídicas clássicas, ao possibilitar que máquinas inteligentes tomem decisões não atribuíveis diretamente a um ser humano, o que rompe com a tradicional cadeia de responsabilização do direito civil. Tudo isso reforça a necessidade de um debate mais amplo e profundo do que o realizado até o momento para que possamos regular adequadamente o desenvolvimento e a aplicação das diversas tecnologias que envolvem inteligência artificial.

A grande lacuna do projeto de lei, para além dos problemas acima citados, parece ser a ausência de regras que busquem mitigar os já amplamente conhecidos e estudados riscos da aplicação de tecnologias de inteligência artificial. Sabe-se que a ideia de que a inteligência artificial trará, a despeito de qualquer regulação e de princípios éticos, decisões mais objetivas, corretas e justas(2) não passa de um mito e que é preciso um processo robusto de accountability, de especificação de responsabilidades e de atribuição de transparência para que essas tecnologias possam trazer todos os benefícios relacionados a decisões mais justas e eficientes, conforme a sociedade legitimamente espera.

Na proposta da União Europeia (3), há uma distinção de níveis de riscos, com a previsão inclusive da proibição da utilização de sistemas de inteligência artificial considerados como ameaça à segurança, subsistência ou direitos dos cidadãos, o que abrange scoring social realizado por governos, por exemplo. Nessa proposta, há também previsão detalhada sobre o papel da supervisão humana nessas tecnologias e sobre como ela deverá ser assegurada.

É fundamental que o processo legislativo possa debater amplamente e deliberar, independentemente de seguirmos o modelo europeu, qual será a abordagem para se reduzirem os riscos advindos do desenvolvimento e aplicação de tecnologias de inteligência artificial. Sem essa diretriz qualquer proposta de regulação da inteligência artificial será inócua e não trará a segurança jurídica necessária para a inovação e o desenvolvimento de novas tecnologias na área. Sobretudo, não seria possível construir a confiança do cidadão nessas tecnologias, confiança essa tão necessária para a sua ampla utilização e aceitação.

Há uma crise de identidade que aparenta rondar o PL nº 21/2020: queremos aprovar uma carta de intenções e princípios genérica ou uma regulação robusta sobre segurança e mitigação de riscos no desenvolvimento da inteligência artificial? Se o caminho escolhido for o primeiro, o processo legislativo é dispensável, não se podendo, ademais, restringir ou revogar direitos amplamente reconhecidos e respaldados na Constituição Federal. Se o caminho eleito for o segundo, precisaremos de estudos e debates aprofundados e plurais, que possam endereçar a complexidade do desafio que está à nossa frente: o desafio de estimular a inovação e incentivar o desenvolvimento da inteligência artificial de forma responsável e segura, garantindo – por meio de medidas concretas e efetivas - os direitos fundamentais de todos os cidadãos brasileiros.

Tendo em vista que o Projeto de Lei nº 21/2020 acaba de chegar ao Senado Federal, ainda há tempo para sanar esses problemas, evidenciando que o Congresso está atento aos impactos presentes e futuros da inteligência artificial na vida do cidadão e que a sociedade brasileira está à altura deste importante debate.

*Laura Schertel Mendes é é professora adjunta de Direito Civil da Universidade de Brasília (UnB) e do mestrado do IDP.

(1) Esse dispositivo suscitou uma de carta de professores endereçada ao Senado Federal: https://www.conjur.com.br/2021-out-27/especialistas-questionam-artigo-pl-marco-legal-ia.
Cf também artigo de Anderson Schreiber sobre o tema: https://www.jota.info/opiniao-e-analise/colunas/coluna-do-anderson-schreiber/pl-inteligencia-artificial-cria-fratura-no-ordenamento-juridico-02112021
(2) Por exemplo, a qualidade de decisões algorítmicas tão relevantes para a sociedade, oriundas de complexos métodos estatísticos, dependem fortemente da própria qualidade dos dados que foram inseridos inicialmente para “treinar” os algoritmos (“inputs”) (MENDES, MATTIUZO, 2019). Assim, vieses dos programadores, descuidos quanto à coleta e à formação do banco de dados ou das bases científicas do modelo estatístico utilizado, e até mesmo a presença de casos atípicos podem acabar enraizando preconceitos e desigualdades já existentes por meio de decisões complexas e pouco transparentes, porém travestidas como puramente técnicas (O’NEIL, 2018).
(3) https://eur-lex.europa.eu/resource.html?uri=cellar:e0649735-a372-11eb-9585-01aa75ed71a1.0004.02/DOC_1&format=PDF

Leia também