Hoje, o Senado Federal pode votar o Projeto de Lei (PL) 2.338/23, conhecido como “ Marco Legal da Inteligência Artificial (IA)”. O objetivo desse projeto é criar regras mais claras para o desenvolvimento, implementação e uso responsável da IA.
Entendo como um dos pontos mais importantes do projeto a definição e distinção entre sistemas de IA de alto risco e os de risco excessivo. A ideia é ajustar as obrigações conforme o impacto de cada aplicação de IA na sociedade. Os sistemas de alto risco, de acordo com o texto, envolvem áreas como controle de trânsito, redes de abastecimento de água e eletricidade, educação, serviços de emergência, sistemas biométricos de identificação, recrutamento, justiça, saúde, veículos autônomos, avaliação de crédito, gestão de migração e investigação criminal e segurança pública. Já os sistemas de risco excessivo são aqueles com potencial para causar danos, como discriminação ou violência, e o projeto propõe que esses sistemas não sejam implementados ou utilizado. Além disso, o PL determina que a “autoridade competente” ficará responsável por manter a lista de sistemas de risco atualizada, cabendo ao Poder Executivo definir quem será essa autoridade.
O projeto exige que os desenvolvedores ofereçam aos usuários a possibilidade de contestar decisões, recomendações ou previsões feitas pelos sistemas, especialmente quando elas tiverem efeitos significativos ou impactos jurídicos. Os desenvolvedores também deverão criar estruturas de governança e processos internos para garantir a segurança dos sistemas e a proteção dos direitos das pessoas afetadas.
O PL prevê também a responsabilidade civil do fornecedor ou operador de IA que cause danos patrimoniais, morais, individuais ou coletivos, afirmando que eles poderão ser obrigados a reparar os danos integralmente, independentemente do nível de autonomia do sistema. Para não serem responsabilizados, os fornecedores ou operadores deverão comprovar que não colocaram em circulação, empregaram ou tiraram proveito do sistema de inteligência artificial; ou comprovar que o dano é decorrente de fato exclusivo da vítima ou de terceiro, assim como de caso fortuito externo.
Além disso, o PL sugere que os agentes de IA, sozinhos ou por meio de associações, criem códigos de boas práticas e governança. Esses códigos devem incluir diretrizes sobre segurança, organização, padrões técnicos, tratamento de reclamações e medidas de supervisão para mitigar riscos.
O projeto também busca incentivar a inovação, criando um ambiente favorável ao desenvolvimento de novas tecnologias, com a possibilidade de aplicar um “sandbox regulatório” para testar soluções em um ambiente controlado.
Não acha que vai precisar de adequar? Compliance é “custo”? Em caso de descumprimento da norma, o Projeto de Lei prevê uma “simplória” multa de 2% do faturamento da empresa no último exercício, limitado a R$ 50.000.00,00 (cinquenta milhões de reais) 😱.
Estão previstas também as seguintes multas: publicização da infração, proibição ou restrição para participar de regime de sandbox regulatório, por até cinco anos, suspensão parcial ou total, temporária ou definitiva, do desenvolvimento, fornecimento ou operação do sistema de inteligência artificial e proibição de tratamento de determinadas bases de dados. A Autoridade Competente deverá avaliar, ao aplicar a multa, dentre outros aspectos, se houve a adoção reiterada e demonstrada de mecanismos e procedimentos internos capazes de minimizar riscos, inclusive a análise de impacto algorítmico e efetiva implementação de código de ética, mecanismos que podem diminuir os impactos de um descumprimento da norma.
Vale lembrar que o projeto ainda precisa ser votado e pode passar por mudanças. Na consulta pública feita pelo Senado, a aprovação do texto ganhou por pouco. E você, o que acha do PL 2.338? Tem alguma sugestão de melhoria?
Quer seu negócio em compliance e garantir governança para sua empresa? Fale com nosso time!