Para especialistas, lei da inteligência artificial não deve abordar responsabilidade civil
Especialistas ouvidos pela comissão de juristas que elabora um anteprojeto para regulação da inteligência artificial no Brasil recomendaram aos integrantes do colegiado que o tema responsabilidade civil não seja incluído na futura norma. O assunto foi debatido num painel, na manhã desta sexta-feira,13, no Senado.
Os profissionais ouvidos chamaram a atenção para a infinidade de aplicações, as gradações de risco e o grau de autonomia da tecnologia utilizada, que trazem diferentes consequências na hora de responsabilização de eventuais danos causados.
O professor Anderson Schreiber, da Universidade do Estado do Rio de Janeiro (UERJ), e a advogada Gisela Sampaio foram enfáticos na dificuldade a ser enfrentada pelos legisladores, caso queiram incluir a temática numa futura lei.
O PL de inteligência artificial não deve de jeito nenhum tratar de responsabilidade civil. Para isso, teria que passar por especificar as várias hipóteses e situações, o que acabaria por desnaturá-lo.
O projeto deve ter caráter mais geral, neste primeiro momento. A responsabilidade civil no projeto de inteligência artificial acabaria engolindo o PL, opinou Anderson Schreiber.
Os dois especialistas assim como os professores Caitlin Mulholland, da Pontifícia Universidade Católica do Rio de Janeiro (PUC/RJ), e Nelson Rosenvald, do Instituto Brasileiro de Estudos de Responsabilidade Civil, defenderam também o estabelecimento de um seguro obrigatório para os usos de inteligência artificial que impliquem alto grau de risco.
Regulação
A reunião desta sexta-feira debateu também possíveis arranjos institucionais de fiscalização, regulação responsiva e a criação de um órgão regulador.
O professor Fernando Filgueiras, da Universidade Federal de Goiás (UFG), explicou que os Estados Unidos, que já discutem uma lei de responsabilidade algorítmica e uma carta de direito para questões do mundo digital, atribuem a regulação da inteligência artificial a agências reguladoras setoriais já existentes, num modelo mais descentralizado, diferentemente da Europa, que está indo para um caminho mais centralizador.
Um modelo policêntrico seria mais adequado. Regular a inteligência artificial não é regular a tecnologia em si, mas os modelos de negócios que usam a tecnologia para atingir um determinado fim. Regular a inteligência artificial na área de saúde é muito diferente de regular a inteligência artificial usada na regulação de mercado e combate a conluios feita, por exemplo, pelo Cade.
Códigos éticos
Foram convidados representantes do Ministério da Economia, do Instituto Brasileiro de Estudos de Concorrência, Consumo e Comércio internacional (Ibrac), de universidades e da iniciativa privada.
Com prazo para funcionar até 9 de agosto, a comissão foi formada para subsidiar a elaboração de uma minuta de substitutivo para instruir a apreciação de projetos de lei, em tramitação no Senado, que regulam o desenvolvimento e a aplicação da inteligência artificial no Brasil. (Com Agência Câmara)