Uma análise crítica do Projeto de Lei nº 2.338/2023 e a necessidade de adaptação à evolução tecnológica.

Aascensão da Inteligência Artificial (IA) tem desencadeado debates sobre a necessidade de regulamentações específicas para orientar seu desenvolvimento e implementação. No Brasil, esses debates culminaram na proposição do Projeto de Lei do Senado nº 2.338/2023 pelo Presidente do Senado Federal, Rodrigo Pacheco. O projeto de lei busca estabelecer um marco legal para IA, visando proteger os direitos dos cidadãos e instituir mecanismos de governança, fiscalização e supervisão da tecnologia.

O Projeto de Lei nº 2.338/2023 não surgiu isoladamente. Ele é posterior à divulgação do resultado de análises e discussões sobre outras três proposições em tramitação que abordam a regulação da IA: o PL 5.051/2019, do Senador Styvenson Valentim; o PL 872/2021, do Senador Veneziano Vital do Rêgo; e o PL 21/2020, originário da Câmara dos Deputados.

A atual proposta legislativa, embora represente um passo significativo na direção de regular a IA, ainda é incipiente em abordar a totalidade dos desafios apresentados pela tecnologia.

Ressalta-se aqui a importância de que a legislação que regula a Inteligência Artificial busque ser o mais sucinta (em definições) e abrangente (em conceitos) possível, adotando um viés voltado à criação de um framework legislativo e regulatório robusto, sem a pretensão de abordar todos os aspectos possíveis da IA. Isso implica a necessidade de definições bem elaboradas e uma compreensão profunda das capacidades tecnológicas e dos desafios éticos, sociais e econômicos que a IA apresenta.

O Desafio de Conceituar e Definir

Ao falhar em reconhecer a autonomia emergente de sistemas de IA e ao limitar a responsabilidade a agentes humanos de forma exclusiva, demonstra a necessidade de uma revisão integral, aprimoramento e potencial simplificação, de modo que o quadro regulatório possa se manter relevante diante do rápido avanço tecnológico, facilitando a sua aplicação prática, promovendo um ambiente propício à inovação, ao desenvolvimento seguro da IA e à segurança jurídica.

A interpretação dos conceitos e definições introduzidos pelo projeto de lei destacam, incidentalmente, a atribuição de responsabilidade como uma questão central na evolução da IA. O texto proposto negligencia uma realidade: quando sistemas de IA começam a criar, treinar ou operar outros sistemas de forma autônoma. Este aspecto desafia as noções tradicionais de responsabilidade civil, sugerindo uma revisão legislativa (e, consequentemente, doutrinária e jurisprudencial) para abranger a complexidade emergente da autonomia da IA.

No contexto do projeto de lei, a definição de fornecedor ou operador de IA como exclusivamente pessoas naturais ou jurídicas ignora o potencial de sistemas de IA para operar independentemente. Isso se torna particularmente relevante em situações onde uma IA desenvolve, treina ou opera outra IA, criando uma cadeia de ações autônomas que podem ser difíceis de rastrear até um agente humano ou entidade corporativa específica. A responsabilidade por ações ou decisões tomadas por estas IAs “segundas” ou subsequentes se torna uma zona cinzenta.

Do ponto de vista técnico, a autonomia da IA é tanto uma questão de capacidade de software quanto de decisão de design. Sistemas de IA que podem auto-aperfeiçoar, adaptar-se a novos contextos ou criar sistemas derivados sem supervisão humana direta representam um avanço significativo na tecnologia. Essa capacidade desafia diretamente as bases da legislação atual, que pressupõe uma cadeia clara de comando e controle humano sobre tecnologias e processos.

Para abordar essas questões de forma eficaz, seria prudente considerar a inclusão de definições e provisões que reconheçam a possibilidade de sistemas de IA atuarem como agentes semi-autônomos ou autônomos. Isso pode envolver, por exemplo, o debate sobre a criação de um novo quadro legal para a responsabilidade civil. Destaca-se, assim, que a discussão sobre a autonomia da IA e sua capacidade de atuar independentemente não é apenas teórica, mas uma realidade emergente que requer atenção legislativa. Para superar esse vício de origem, o projeto de lei precisaria ser revisto para incorporar uma compreensão mais profunda e atualizada das capacidades e implicações da tecnologia de IA, ou relegar pontos mais suscetíveis a mudanças ou que careçam do aprofundamento necessário à autoridade pública que pode se tornar encarregada por regulamentar o tema. Isso incluiria a expansão das definições para abranger a possibilidade de sistemas de IA agirem como agentes em sua própria capacidade, bem como a introdução de mecanismos legais para a atribuição de responsabilidade em cenários onde a intervenção humana é mínima ou inexistente.

Outro ponto fundamental é reconhecer que a adequação da regulamentação às necessidades do mercado é crucial para garantir que o Brasil permaneça competitivo no cenário global. Uma abordagem que não leva em conta a autonomia potencial dos sistemas de IA pode inibir o desenvolvimento e a adoção de novas tecnologias, limitando as oportunidades para pesquisadores e empresas inovadoras de explorar plenamente o potencial da IA. Este desalinhamento não só prejudica a inovação, mas também cria incerteza jurídica para os desenvolvedores e usuários de IA, dificultando a avaliação dos riscos legais e responsabilidades associadas ao uso da tecnologia.

Aprofundando o Debate

Outro exemplo que reforça a necessidade de expansão dos debates em conjunto com a sociedade até que se chegue a um texto que faça sentido é uma das vedações impostas pelo projeto de lei, que proíbe o uso de IA para influenciar pessoas ou grupos de modo a adotarem ações ou pensamentos prejudiciais à sua própria saúde ou segurança, representando uma tentativa de salvaguardar o bem-estar individual e coletivo. Essa proibição, ao focar diretamente na interação entre IA e indivíduos, pode não abranger totalmente a complexidade das influências indiretas que a IA é capaz de exercer na sociedade. A manipulação de grupos ou pessoas, por meio da IA, para que estes influenciem outras pessoas ou grupos é um vetor de impacto que o projeto de lei parece negligenciar, levantando preocupações significativas quanto à amplitude e eficácia da regulamentação proposta.

Esse lapso na legislação proposta não leva em conta a capacidade das IAs de atuar em camadas mais sutis de influência, como a manipulação de informações em plataformas digitais, a criação e disseminação de conteúdo personalizado que pode, indiretamente, moldar opiniões, comportamentos e até mesmo a cultura. Tais ações podem não se configurar como influência direta, conforme descrito no projeto de lei, mas têm o potencial de desencadear efeitos em cadeia que culminam em impactos comparativamente prejudiciais à saúde e segurança das pessoas. A falta de consideração para com essas táticas indiretas de influência destaca uma área crítica que necessita de revisão e expansão na proposta legislativa atual.

Em tempos de uso (e abuso) desenfreado de redes sociais, a complexidade das interações mediadas por IA e a sua capacidade de aprender e se adaptar ao longo do tempo tornam desafiador prever todas as formas possíveis de influência que uma IA pode exercer. Isso sugere a necessidade de um mecanismo regulatório mais dinâmico e adaptativo, capaz de se atualizar conforme novas capacidades e métodos de influência são desenvolvidos e identificados.

Conclusão

O debate sobre a regulamentação da IA no Brasil, exemplificado pelo Projeto de Lei nº 2.338/2023, destaca a complexidade de legislar sobre uma tecnologia em rápida evolução. As questões de responsabilidade associadas à autonomia da IA são particularmente desafiadoras e demandam uma abordagem legislativa inovadora.

Esta crítica — construtiva — ao projeto de lei não visa diminuir a importância da regulamentação da IA, mas sim destacar a necessidade de uma abordagem legislativa que seja tanto prospectiva quanto adaptável.

Além disso, muito embora o debate sobre a regulamentação da IA transcenda barreiras técnicas e legais, adentrando em um território profundamente ético e social, é fundamental ampliarmos a discussão para abordar como o Projeto de Lei nº 2.338/2023 trata (ou deixa de tratar) questões críticas para outros stakeholders, estabelecendo mecanismos para, por exemplo, coibir abusos — dado que o texto proposto parece focar no estabelecimento de direitos para pessoas afetadas por sistemas de IA (direitos a informação, revisão, contestação etc.) sem, por outro lado, resguardar preocupações e interesses legítimos de empresas que desenvolvam ou apliquem IA. É fundamental que a legislação não apenas reconheça, mas também ofereça diretrizes claras para mitigar os riscos associados aos novos direitos que se propõe a estabelecer.

É crucial que o processo de formulação dessa legislação seja inclusivo, considerando uma ampla gama de perspectivas e especialidades, para criar um marco regulatório que proteja os direitos dos cidadãos sem frear o avanço tecnológico. A tecnologia está em constante evolução, e a legislação deve ser capaz de acompanhar essas mudanças para garantir que a regulamentação seja relevante, eficaz e capaz de equilibrar as necessidades de segurança jurídica, inovação e desenvolvimento tecnológico.

Comentário do Autor

O autor deste artigo vê com cautela a pressa do Senado Federal em levar o Projeto de Lei nº 2.338/2023 à votação até abril de 2024. Esta aceleração parece não reconhecer a distância que pode existir entre o projeto atual e uma versão que enderece de forma mais abrangente e eficaz as preocupações e questionamentos que dominam o debate sobre a regulamentação da Inteligência Artificial.

Mais do que isso, ressalta-se a importância de expandir o diálogo para além de, por exemplo, comissões de juristas e outros entes públicos, incluindo uma gama mais ampla de vozes no processo: acadêmicos, pesquisadores, startups e representantes de diferentes setores que desenvolvem, aplicam ou são impactados pela IA. A inclusão dessas perspectivas é crucial para assegurar que a legislação reflita uma compreensão abrangente das dinâmicas tecnológicas, éticas e sociais em jogo, contribuindo para um quadro regulatório que promova a inovação responsável e proteja os direitos dos cidadãos em um cenário de rápida evolução tecnológica.

21/02/24