Os sistemas de inteligência artificial, a IA, estão cada vez mais ligados à nossa rotina. Seja o chatbot – um 'robô conversador' – que atende quando tentamos marcar uma consulta médica ou tirar uma dúvida bancária, ou a ferramenta que permite ao celular desbloquear a tela apenas com o reconhecimento facial e, até mesmo, aplicativos que 'simulam' fotos de bebês ou gravidez inexistentes, essa ferramenta está cada vez mais presente em nossas vidas.
O uso da ferramenta provoca inclusive emoções e discussões acaloradas como quando a Volkswagen "reviveu" a cantora Elis Regina para o comercial de 70 anos da empresa. Na propaganda, é simulado, por meio da IA, um dueto entre Elis e a filha e também cantora, Maria Rita – que tinha apenas quatro anos quando a mãe faleceu.
Com a tecnologia cada vez mais difundida, tornando-se fundamental em diferentes áreas da sociedade e com usos diversificados – além de um avanço cada vez mais rápido –, a discussão sobre como impor regulamentar o desenvolvimento e usos desta ferramenta também tem estado mais presente.
"A grande diferença entre a inteligência artificial e as demais tecnologias digitais é o fato de que ela é uma tecnologia de propósito geral", explica a professora do Programa de Tecnologia da Inteligência e Design Digital da Faculdade de Ciência e Tecnologia da Pontifícia Universidade Católica de São Paulo (PUC-SP), Dora Kaufman.
"O quê que é uma tecnologia de propósito geral? É uma tecnologia que muda a lógica de funcionamento da economia e da sociedade. Então, para dar algum exemplo, entre as últimas tecnologias consideradas tecnologia de propósito geral foi o carvão, que inaugurou a revolução industrial, depois a eletricidade, a computação e agora nós temos a inteligência artificial".
Pesquisadora dos impactos sociais e éticos do uso da IA, Kaufman ressalta que, hoje, não existe "nenhum setor, nenhuma atividade, nenhuma tarefa que já não esteja sendo usado inteligência artificial". E se a IA traz consigo uma série de benefícios para a sociedade, ela também possui alto potencial de danos. Por isso, a necessidade de regulamentar, completa Kaufman.
"Ela traz benefícios estrondosos, extraordinários em várias áreas, inclusive para a saúde, para a educação, para a segurança. Mas ela também tem potencial de danos, existe a probabilidade, o potencial para causar danos em todas essas áreas. Então, ela precisa ser regulamentada para a gente poder, enquanto sociedade, maximizar os benefícios e mitigar esses riscos", defende.
Como está a discussão sobre regulamentação no Brasil?
O primeiro projeto a prever a criação de um marco legal do desenvolvimento e uso da Inteligência Artificial (IA) foi apresentado, na Câmara dos Deputados, em 2020 pelo deputado federal cearense Eduardo Bismarck (PDT).
A meta da legislação proposta era estabelecer "princípios, direitos, deveres e instrumentos de governança para o uso da inteligência artificial no Brasil e determina as diretrizes para a atuação da União, dos Estados, do Distrito Federal e dos Municípios, pessoas físicas e jurídicas, de direito público ou privado, e entes sem personalidade jurídica em relação à matéria".
O texto, aprovado pelos deputados em 2021, garantia, por exemplo, que os usuários teriam que ser avisados que estão em contato com IA e também deveriam ser informados dos critérios e modos de funcionamento da ferramenta. Também responsabiliza os desenvolvedores do sistema de IA e os operadores da ferramenta – ou seja, quem adquire o sistema para utilizá-lo em um serviço – por eventuais impactos negativos.
O projeto foi enviado ao Senado, onde já tramitavam outras duas propostas sobre o tema. Na Casa, foi instaurada, em 2022, uma comissão formada por juristas do direito civil e digital, presidida pelo ministro do Superior Tribunal de Justiça (STJ) Ricardo Villas Bôas Cueva, para aprofundar a discussão do tema.
Após mais de nove meses de trabalho, a comissão entregou relatório de mais de 900 páginas, além de uma sugestão de projeto de lei para a regulação do uso da inteligência artificial no Brasil. O texto foi usado como base para o PL 2338/2023, apresentado pelo presidente do Senado Federal, Rodrigo Pacheco (PSD-MG), como substitutivo às propostas anteriores.
Coordenadora da área de Cultura e Conhecimento do InternetLab, a advogada Alice Lana destaca o pioneirismo da discussão sendo feita pelo legislativo brasileiro. "Essa postura de tentar regulamentar a inteligência artificial como um todo, tem um pioneirismo nisso. O Brasil vem de um histórico de pioneirismo, trazendo soluções novas para o mundo no que diz respeito ao direito digital", explica.
> Leia a PL 2338/2023
Ela cita legislações como o Marco Civil da Internet e a Lei Geral de Proteção de Dados Pessoais (LGPD) como exemplos desse pioneirismo. Além do Brasil, a pesquisadora cita as discussões feitas pela União Europeia – onde a regulamentação desta tecnologia é discutida desde 2018.
Críticas e avanços trazidos pelo PL 2338/2023
O principal desafio para chegar a uma regulamentação da inteligência artificial passa justamente pela diferença no tempo de uma legislação e de uma tecnologia. "Está se tentando com a lei, que é um instrumento lento, regular a tecnologia, que é um processo rapidíssimo – e cada vez mais rápido", destaca Alice Lana.
Para viabilizar isso, o foco precisa ser "a pessoa humana e o direito dessas pessoas, que podem ser afetadas pelas decisões da IA". É preciso então fazer regras voltadas aos usos da ferramenta e trazendo "princípios que possam ser operacionalizados".
"Contemplando não a tecnologia que tem hoje, mas pensando nos problemas que existem e vão continuar existindo. Não regular a IA, mas os usos, porque é o que vai impactar, no fim das contas, no dia-a-dia das pessoas".
Entre os pontos citados pela advogada como positivos na PL 2338/2023, em discussão no Senado, está a exigência de transparência quanto ao contato com sistemas de inteligência artificial. Ou seja, as pessoas precisam ser informadas que determinada produção foi feita usando IA ou que a tomada de decisão foi realizada por meio da ferramenta.
A proposta também prevê que será possível solicitar explicações sobre como o sistema funciona e mesmo contestar ou pedir a participação humana naquele processo. "Garante o direito à revisão humana", elogia ela.
A professora Dora Kaufman, no entanto, faz ponderações sobre o mesmo ponto. "Da maneira como está, qualquer decisão automatizada pode ser contestada. Então, eu acho que a gente pode ter um o risco de ter inúmeros processos judiciais, porque qualquer decisão automatizada, é passível de ser contestada", critica.
Outro ponto que a pesquisadora considera que precisa ser mais debatido é o conjunto de artigos que tratam dos deveres aos desenvolvedores dos sistemas de IA e para os operadores. "É tão exigente que tende a favorecer as grandes empresas e aumenta ainda mais o que a gente já tem hoje, que é a concentração de mercado. Porque quem é que vai ter condições de fazer um investimento para cumprir todas aquelas regras com um custo muito alto? Só grandes empresas", diz.
O principal problema citado por Kaufman na atual legislação diz respeito a como será feita a fiscalização das regras propostas para a regulamentação da IA. Na PL 2338/2023 é dito apenas que a responsabilidade pela implementação e fiscalização da legislação será uma "autoridade competente" a ser indicada pelo Poder Executivo.
Para a professora, esta responsabilidade deve ser atribuída às agências regulatórias setoriais, devido a quão "amplo e complexo" é o tema.
"Vou dar um exemplo: para mim não existe ninguém melhor do que o Banco Central para regular e fiscalizar o uso da inteligência artificial no setor bancário. Ninguém melhor que a Anvisa para regulamentar e fiscalizar o uso na área de saúde. E por aí vai. O Ministério das Comunicações, por exemplo, está discutindo hoje o que se chama popularmente de Lei da Fake News. Tem várias questões que tem a ver com a inteligência artificial. Então, caberia ao Ministério das Comunicações ver o que tem em comum entre esses dois temas".
Um passo atrás
As pesquisadoras concordam na necessidade de um forte debate sobre o tema, antes de qualquer aprovação de uma regulamentação da inteligência artificial no país. Elas citam como exemplo o debate em torno do Marco Civil da Internet, que durou mais de cinco anos, antes da aprovação da legislação.
"Nós aqui não temos nenhuma razão para se precipitar, não tem nenhum valor ter um marco de regularização da inteligência artificial que o mercado não entenda, que os parlamentares não entendam, que ninguém entenda como efetivar, como fiscalizar, como está em compliance", ressalta Dora Kaufman.
Alice Lana complementa que, o fato da discussão ocorrer pelo legislativo, dá chances de uma "segurança jurídica maior e uma participação popular maior". "Tendo a ver com bons olhos uma regulação que parte do Estado. Mas não tem que ser algo unilateral do Estado, tem que ouvir empresas, a sociedade civil, pesquisadores, líderes governamentais", elenca.
Professor titular da Vice-Reitoria de Pesquisa e Inovação da Universidade de Fortaleza (Unifor), Tarcísio Pequeno pondera, no entanto, que ainda existem passos a serem dados antes de se chegar à regulamentação da inteligência artificial.
"Eu pessoalmente acho que é cedo para se ensaiar, sobretudo em um país como o Brasil, uma regulamentação da IA", argumenta. "O Brasil não é um grande produtor dessas plataformas de IA. Ainda somos tributários, afluentes, nós não somos o rio principal. Eu acho que no Brasil está cedo agora".
"A regulamentação e os perigos da IA nós ainda não conseguimos nem avaliar direito, inclusive eu pessoalmente acho que é cedo para se ensaiar, sobretudo em um país como o Brasil, uma regulamentação da IA. (...) A velocidade está sendo muito alta, de transformação. A gente tem que esperar um pouco, eu acho, pra ver como é que estabiliza esse negócio. Porque, por enquanto, é como regulamentar um trem em movimento".
O professor defende que a urgência agora está na regulamentação das plataformas digitais. O projeto de lei que tem como objetivo estabelecer regras para elas - conhecido como PL das Fake News – acabou travando na Câmara dos Deputados, após não ser alcançado consenso para a aprovação da proposta.
"Atribuir responsabilidade pelo uso que se faz da rede social é de extrema urgência e necessidade. A inteligência artificial, nessa discussão, ainda está entrando marginalmente. Será importante regulamentar a inteligência artificial, mas (...) não é realmente a questão em debate principal agora", pondera Pequeno.
Ele reforça que a inteligência artificial pode ser utilizada, nas redes sociais, como forma de potencializar os danos causados pela plataforma, por isso a necessidade urgente desta primeira regulamentação.
"O problema da rede social é que, utilizada maliciosamente, ela sabota a construção social da verdade, esse é o problema. (...) São milhões de pessoas produzindo conteúdo, se elas não têm responsabilidade nenhuma sobre o que produzem, isso é suficiente para provocar um ruído muito grande na comunicação da sociedade, que tem por efeito final a destruição da verdade, a destruição dos instrumentos de construção da verdade da sociedade. Esse é um mal irreparável, é um mal suficiente para destruir qualquer democracia", completa.