Em 2025, Brasil pode se tornar um dos primeiros países a regular Inteligência Artificial; entenda
Proposta chega à Câmara dos Deputados e, se aprovado, pode tornar o Brasil um dos pioneiros no tema mundialmente
O ano de 2025 começa com a expectativa de que o Brasil se torne o primeiro país da América Latina e um dos primeiros do mundo a regular o desenvolvimento e o uso de sistemas de Inteligência Artificial (IA). De autoria do presidente do Senado Federal, Rodrigo Pacheco (PSD-MG), o PL 2.238/2023 era uma das prioridades dele antes de deixar o comando da Casa Alta, no final de janeiro.
Nele, são estabelecidos os fundamentos e princípios para o desenvolvimento, implementação e uso de IA no Brasil, além de prever a criação do Sistema Nacional de Regulação e Governança de Inteligência Artificial (SIA). O modelo brasileiro é inspirado nas regras da União Europeia, com a classificação dos sistemas de IA em níveis de risco de acordo com o impacto para as pessoas e para os direitos fundamentais — existem, inclusive, categorias de IA que podem ser proibidas no País.
Veja também
Aprovado em dezembro pelo Senado, o projeto irá tramitar na Câmara dos Deputados sob novo comando, com a eleição para substituir Arthur Lira (PP-AL) na presidência marcada para fevereiro — o favorito é Hugo Motta (Republicanos-PB), aliado de Lira.
O Marco Regulatório da Inteligência Artificial é fruto de um ano e meio de discussão no parlamento federal, por meio de Comissão Temporária instalada em agosto de 2023 no Senado.
O debate sobre o tema, no entanto, começou um ano antes, quando juristas elaboraram, a pedido de Pacheco, um anteprojeto estabelecendo regras para regular a IA no País — no qual foi baseado o texto apresentado por ele ao Senado.
Fundamentos para a IA no País
A proposta de Marco Regulatório estabelece 20 fundamentos para o "desenvolvimento, implementação e uso de sistema de IA" no Brasil. O primeiro deles é a "centralidade da pessoa humana". O texto estabelece ainda outros fundamentos que reforçam essa centralidade, como o respeito e promoção de direitos humanos, a igualdade e não descriminação e a valorização do trabalho humano.
É estabelecido ainda o direito à "proteção e promoção de direitos de grupos vulneráveis, em especial de idosos, pessoas com deficiência e, com proteção integral e visando ao melhor interesse, de crianças e adolescentes, reconhecendo a vulnerabilidade agravada".
O protagonismo brasileiro no cenário tecnológico mundial também é descrito como fundamento, como a garantia da "inserção, integração e competitividade brasileira no mercado internacional" e o "desenvolvimento socioeconômico, científico e tecnológico e inovação".
Veja também
Um dos pontos que gerou mais embate entre senadores da base do Governo Lula (PT) e a oposição, principalmente bolsonarista, foi mantido justamente no artigo que trata dos fundamentos da IA no Brasil: a integridade da informação.
A manutenção foi considerada uma vitória dos governistas, apesar do relator do texto, senador Eduardo Gomes (PL-TO), ter retirado dois trechos do texto original que tratavam da responsabilidade dos desenvolvedores de sistema de IA em garantir essa integridade.
Na versão original, o sistema de IA poderia ser considerado de alto risco, caso representasse ameaça à integridade da informação ou a "liberdade de expressão, o processo democrático e ao pluralismo político".
Em outro trecho, era previsto que o desenvolvedor tinha que "garantir a adoção de medidas para identificação, análise e mitigação de riscos razoavelmente previsíveis no que tange a direitos fundamentais, o meio ambiente, a integridade da informação, liberdade de expressão e o acesso à informação".
Para conseguir consenso entre senadores para a votação da proposta — que foi aprovada em votação simbólica —, as duas regras foram retiradas.
Níveis de risco
Os sistemas de IA serão divididos de acordo com o nível de risco. A avaliação será feita, de forma preliminar, pelos próprios desenvolvedores ou pelos responsáveis pela aplicação do sistema.
Essa avaliação é considerada obrigatória para sistemas generativos — aqueles em que a IA pode criar conteúdos originais — ou de propósito geral — quando o sistema tem como objetivo a resolução de problemas práticos, com automação de tarefas. Nos demais sistemas de IA, a classificação será considerada uma "boa prática", apesar de não ser obrigatória.
O texto estabelece uma série de critérios para que o sistema de IA seja considerado de "alto risco". Nestes casos, eles devem passar por monitoramento e fiscalização mais rígidos, inclusive com a previsão de procedimento que garanta participação social e análise de impacto regulatório.
Caso não se encaixem nos critérios, os sistemas de IA serão considerados de baixo nível.
Entre os exemplos do que são considerados sistemas de IA de alto risco, estão aqueles que forem usados para:
- Seleção de estudantes no ingresso em instituições de ensino ou de formação profissional;
- Recrutamento, triagem, ou avaliação de candidatos a vagas de emprego;
- Auxílio a autoridades judiciárias em investigação de fatos ou na aplicação da lei;
- Auxílio no diagnóstico ou na prescrição de tratamentos médicos;
- Identificação ou autenticação biométrica;
- Gestão da imigração ou controle das fronteiras.
O texto estabelece essa classificação quando o sistema oferecer "risco relevante à integridade física das pessoas e à interrupção de serviços essenciais, de forma ilícita ou abusiva, e desde que sejam determinantes para o resultado ou decisão, funcionamento ou acesso a serviço essencial".
Antes, os algoritmos das redes sociais estavam na lista de sistemas considerados de alto risco. Contudo, após pressão de parlamentares oposicionistas e também de empresas do setor, o texto foi retirado e deve ser tratado em outra legislação.
Apesar do trecho ter sido retirado, a proposta ainda prevê a responsabilidade do desenvolvedor de avaliar o impacto algorítmico dos sistemas de IA — não restringindo essa responsabilidade a nenhum setor. A conclusão da avaliação, que deverá ser periódica, será pública.
O que fica proibido?
Ainda de acordo com o nível de "risco" representado pela IA, o desenvolvimento e uso de alguns sistemas de inteligência artificial passam a ser proibidos, segundo a proposta. São aqueles considerados de "risco excessivo".
Não serão permitidos, por exemplo, sistemas para avaliar risco de cometimento de crimes ou aquelas feitas para avaliar, classificar ou ranquear as pessoas para o acesso a bens e serviços públicos.
Também ficam proibidas as IAs que possam produzir e disseminar material que represente abuso ou exploração sexual de crianças e adolescentes.
Veja também
Além disso, sistemas de armas autônomas — ou seja, que podem selecionar e atacar alvos sem intervenção humana — também são proibidas.
O uso de câmeras de monitoramento para identificação de pessoas também fica proibido, com exceção da busca por criminosos mediante autorização judicial ou na busca por vítimas de crimes e de pessoas desaparecidas. Também está nas exceções casos de flagrante de crimes.
Fiscalização e sanções
A proposta de Marco Regulatório também prevê a criação de um órgão com "autonomia técnica e decisória" para coordenar, com outras entidades, o cumprimento dessa legislação.
O Sistema Nacional de Regulação e Governança de Inteligência Artificial (SIA) será vinculado ao governo federal e será responsável por futuras regulações da IA e pela fiscalização das regras estabelecidas no projeto de lei.
Segundo o texto, a SIA terá competência "normativa, regulatória, fiscalizatória e sancionatória plena". A lista de órgãos que irão formar o Sistema Nacional será divulgada pelo governo federal, caso a proposta seja aprovada.
Veja também
Mas devem integrá-la:
- A Autoridade Nacional de Proteção de Dados (ANPD), autoridade competente que coordenará o SIA;
- As autoridades setoriais;
- O Conselho Permanente de Cooperação Regulatória de Inteligência Artificial (Cria);
- O Comitê de Especialistas e Cientistas de Inteligência Artificial (Cecia).
São previstas sanções e restrições para quem não cumprir as regras estabelecidas na regulação da IA. Essas punições vão desde advertência e publicização da infração até a suspensão parcial ou total do desenvolvimento, fornecimento ou operação do sistema de IA.
Também está prevista multa de até R$ 50 milhões por infração. No caso de pessoa jurídica de direito privado, o valor é limitado a 2% do faturamento bruto — sendo considerado o do conglomerado no Brasil.