Apresentado PL com proposta de juristas para regular a inteligência artificial

Presidente do Senado, Rodrigo Pacheco protocolou o PL 2338/23 nesta quarta-feira, que prevê autoridade nacional de inteligência artificial e registro dos sistemas

(crédito: Freepik)

O presidente do Senado, Rodrigo Pacheco, apresentou nesta terça, 3 de maio, o projeto de lei (PL) 2.338/23, que propõe a regulação da inteligência artificial no Brasil. O texto é resultado do anteprojeto elaborado por uma comissão de juristas ao longo de 2022.

A proposta, explica Pacheco, tem dois objetivos: estabelecer direitos para a proteção das pessoas e criar ferramentas de governança, juntamente com instituição de fiscalização e supervisão.

A seu ver, com um “arranjo institucional de fiscalização e supervisão” há previsibilidade na interpretação da lei. Isso traz segurança jurídica para quem inova e desenvolve tecnologia, diz.

O texto proposto dedica capítulo à proteção dos direitos das pessoas afetadas por sistemas de inteligência artificial. Toda pessoa afetada terá garantia de acesso a explicações de como são tomadas as decisões desses sistemas. A pessoa pode contestar decisões automatizadas e solicitar intervenção humana. Há ainda o direito à correção de vieses discriminatórios.

Define direitos para qualquer contexto em que há interação entre máquina e ser humano. Por exemplo, em um ambiente com reconhecimento facial, as pessoas devem ser informadas. A regulação se dará com base nos riscos dentro do contexto da aplicação.

A proposta diz que toda tecnologia de IA precisará passar por testes antes de se tornar comercial, e deverá ter um registro oficial para fins de responsabilização. A autoridade competente poderá fazer análises algorítmicas para classificar o grau de risco oferecido.

Risco excessivo

A lei proíbe uso de IA classificada como de risco excessivo, aquelas usadas para induzir comportamentos danosos à saúde ou segurança; ou que explorem vulnerabilidades de grupos específicos, como crianças ou idosos.

O Poder Público não poderá usar IA para classificar o comportamento social ou personalidade individual, nem para estabelecer pontuações para definir acesso de pessoas a bens e serviços e políticas públicas.

Na segurança pública, só é permitida biometria à distância em espaços públicos conforme lei específica ainda a ser elaborada ou com autorização judicial.

Risco Alto

Neste caso são sistemas de IA utilizados para gestão de infraestruturas críticas, como trânsito, redes de água e luz; educação; recrutamento; avaliação de elegibilidade de pessoas a cargos; avaliação da capacidade de endividamento; veículos autônomos; controle de fronteiras; entre outros.

O projeto elenca ainda as medidas a serem adotadas para garantir a transparência e a mitigação de vieses; fixa medidas adicionais para sistemas de alto risco e para sistemas governamentais de inteligência artificial; e normatiza o procedimento para a avaliação de impacto algorítmico.

Determina que o Poder Executivo designe “autoridade competente” para fiscalizar a aplicação da tecnologia, especifica suas competências e fixa sanções administrativas. Mas existe previsão de sandbox regulatório para experimentação.

As multas por descumprimento da Lei proposta podem ser de R$ 50 milhões a 2% do faturamento do grupo econômico, e chegar à suspensão parcial, total, temporária ou definitiva da empresa no segmento de IA. No caso de infrações relacionadas a coleta e tratamento de dados, vale o que determina a LGPD.

Diz ainda que não há proteção a propriedade intelectual no uso de dados para treinamento de sistemas de IA. E que os direitos dos clientes quando se deparam com a IA em relações de consumo são definidas pelo Código de Defesa do Consumidor.

Avatar photo

Rafael Bucco

Artigos: 4468