O plenário do Senado analisa na terça-feira (10) o projeto de lei que regulamenta a inteligência artificial no Brasil. Na semana passada, o texto foi aprovado pela Comissão Temporária sobre Inteligência Artificial e ainda teve a urgência referendada pela Casa. Se o plenário aprovar a proposta, ela segue para análise da Câmara dos Deputados, que só deve iniciar as discussões em torno do tema em 2025.
Relatado pelo senador Eduardo Gomes (PL-TO), o texto pretender criar um marco regulatório para as IAs. O projeto foi proposto em maio de 2023 pela presidência do Senado a partir de um parecer elaborado por uma comissão de juristas. Na semana passada, a falta de consenso entre os parlamentares impediu o avanço imediato do texto.
A proposição passou por ajustes para atender às críticas de diversos setores, incluindo a CNI (Confederação Nacional da Indústria) e grandes plataformas digitais, como Google e Meta, anteriormente resistentes à proposta.
Entre as alterações, entraram “hipóteses de exceção” à legislação, excluindo a aplicação de determinados usos de IA por pessoas físicas sem fins lucrativos, além de atividades externas ao teste e desenvolvimento.
O foco das normas teve direcionamento para tecnologias de “alto risco”, prevendo diferenciações para startups e micro e pequenas empresas.
De acordo com o R7, o texto também incluiu como fundamentos a proteção de direitos autorais, propriedade intelectual e sigilo comercial, além de promover a liberdade de expressão vinculada à responsabilidade no uso da tecnologia.
“Estamos equilibrando o dilema de Collingridge: regular cedo demais pode sufocar a inovação, mas regular tarde demais pode causar prejuízos irreparáveis”, afirmou Eduardo Gomes.
O parlamentar se refere ao acadêmico David Collingridge, da Unidade de Política Tecnológica da Universidade de Aston, no Reino Unido. Ele formulou um dilema metodológico, ainda em 1980, dizendo que os impactos do desenvolvimento tecnológico não podem ser facilmente previstos, ao mesmo tempo em que o controle dessas tecnologias é problemático depois que elas se tornaram enraizadas.
Segundo o senador, a nova redação busca alinhar inovação tecnológica com proteção de direitos fundamentais, promovendo segurança e liberdade em igual medida.
O projeto, de autoria de Pacheco, é visto como estratégico para posicionar o Brasil no cenário global de regulação da IA. Caso o marco seja aprovado nos plenários das duas Casas, o país se unirá a outras nações que já avançaram em legislações específicas para IA, promovendo inovação responsável e homologação aos desafios contemporâneos.
Outros trechos da proposta
O parecer prevê condutas proibidas para as plataformas responsáveis por IA, por exemplo, técnicas subliminares para induzir o comportamento do usuário ou de grupos de maneira que cause danos à saúde, segurança ou outros direitos fundamentais próprios ou de terceiros.
Além disso, a proposta proíbe, entre outros pontos:
-A exploração de vulnerabilidades dos usuários;
-Que o governo faça uma avaliação do cidadão, por meio de seu comportamento social e personalidade, na hora de oferecer serviços e políticas públicas;
-Um sistema que produza ou dissemine material de abuso e exploração sexual de crianças e adolescentes;
-Uma tecnologia que considere ficha criminal e traços de personalidade para supor e prever risco de cometimento de crime ou reincidência;
-O uso da IA como armas autônomas, que selecionam alvos e atacam sem a intervenção humana.
Conteúdo jornalístico e faturamento
O projeto garante os direitos autorais de veículos jornalísticos, escritores e artistas. Conforme o parecer, empresas como Google e Microsoft precisam de autorização do autor para usar as informações no momento de gerar respostas.
As empresas que desenvolvem e aplicam IA, segundo o parecer, teriam de pagar uma remuneração aos autores para poder ter as produções disponíveis em seus bancos de dados.
Gomes manteve no projeto a aplicação de multa de até R$ 50 milhões, ou 2% do faturamento, nos casos de pessoa jurídica, para cada violação cometida pelas empresas tecnológicas.
Sistema de fiscalização
O projeto sugere a criação de um “sistema de fiscalização híbrido”, o qual valorize e reconheça “as nossas agências e nossos órgãos reguladores setoriais”.
O Banco Central ficará responsável por “regular e fomentar a IA no sistema financeiro”. A Anvisa (Agência Nacional de Vigilância Sanitária) e a ANS (Agência Nacional de Saúde Suplementar) cuidarão da área de saúde.
A Anatel (Agência Nacional de Telecomunicações) ficaria com o setor de telecomunicações. A proposta cria ainda o Sistema Nacional de Regulação e Governança de Inteligência Artificial, que deve estabelecer um ecossistema regulatório coordenado por uma autoridade competente a ser designada pelo Poder Executivo.
Esse sistema atuaria como um comitê com representantes de agências reguladoras, órgãos estatais de regulação setorial, órgãos e entidades de regulação de IA e do Conselho Administrativo de Defesa Econômica.
Se houver o uso irregular da IA, o responsável sofreria punições, que vão desde uma advertência, multa de até R$ 50 milhões por infração até a suspensão/proibição do “desenvolvimento, fornecimento ou operação do sistema de IA”.
Sistema de Governança de Inteligência Artificial
O texto traz a Consolidação do Sistema de Governança de Inteligência Artificial para estabelecer uma coordenação do ambiente regulatório por uma autoridade central, permitindo a atuação especializada com poderes de fiscalização das agências reguladoras setoriais.
Além disso, estabelece:
-Previsão da criação de um painel de especialistas de IA, a exemplo do que está propondo a ONU (Organização das Nações Unidas) e seguindo exemplo adotado na União Europeia;
-Proibição total de armas letais autônomas;
-Proteção de direitos autorais para trazer parâmetros justos aos criadores de conteúdo, incluindo notícias;
-Flexibilização do uso de reconhecimento facial para interesses de segurança pública e justiça criminal;
-Previsão de políticas de fomento para o desenvolvimento da IA no Brasil.
Foto: Edilson Rodrigues.