G7 engrossa coro por regulação de Inteligência Artificial generativa

Em comunicado, autoridades de proteção de dados e privacidade do grupo dos sete países mais desenvolvidos do mundo falam em preocupações e riscos crescentes caso a tecnologia não seja regulamentada e defendem uma padronização centrada no ser humano
G7 defende regulação de Inteligência Artificial
G7 defende que Inteligência Artificial passe por regulação centrada no ser humano e em valores democráticos (crédito: Freepik)

As autoridades de proteção de dados e privacidade do G7 (Alemanha, Canadá, Estados Unidos, França, Itália, Japão e Reino Unido) emitiram um comunicado apontando preocupações com o desenvolvimento de aplicações com base em Inteligência Artificial (IA) generativa, como o ChatGPT. Segundo o grupo, sem regulação, a tecnologia pode trazer riscos à privacidade e gerar danos a outros direitos humanos.

“No contexto do rápido desenvolvimento e implantação de tecnologias de IA generativa, a proliferação generalizada de seu uso em todo o mundo e sua crescente adoção em vários domínios, reconhecemos que há preocupações crescentes de que a IA generativa possa apresentar riscos e possíveis danos à privacidade, proteção de dados e outros direitos humanos fundamentais se não forem devidamente desenvolvidos e regulamentados”, diz trecho da nota divulgada, no último dia 21 de junho, pelo grupo dos sete países mais desenvolvidos do mundo.

Diante dos avanços das IAs generativas, as autoridades de proteção de dados e privacidade do G7 adotaram um posicionamento parecido com o de outros grupos que já se manifestarem a respeito da tecnologia.

No comunicado, o G7 “reforça a posição de que leis, regulamentos, políticas e padrões relacionados à IA devem ser centrados no ser humano e baseados em valores democráticos, incluindo a proteção dos direitos humanos e liberdades fundamentais e a proteção da privacidade e dos dados pessoais”.

Entre as preocupações relacionados às IAs generativas, o G7 aponta o processamento de informações pessoais, sobretudo de menores de idade. O grupo também cita a necessidade de prover transparência sobre como as ferramentas funcionam e de implementar medidas de responsabilização sobre a cadeia de desenvolvimento.

Lançado em novembro do ano passado pela OpenAI, parceira da Microsoft, o ChatGPT rapidamente ganhou popularidade em todo o mundo e ligou o alerta sobre as potencialidades da IA. Após investigações individualizadas em alguns países europeus, a União Europeia (UE) criou, em abril deste ano, uma força-tarefa para fiscalizar a aplicação.

Os presidentes do Grupo Telefónica, José María Álvarez-Pallete, e da Microsoft, Brad Smith, são alguns dos executivos que já manifestaram preocupações associadas a uma eventual falta de controle no desenvolvimento de soluções de IA generativa.

Em março, um grupo de executivos, acadêmicos e especialistas em tecnologia publicou uma carta aberta pedindo uma pause de seis meses no treinamento de IA mais poderosa do que o GPT-4, versão mais poderosa do ChatGPT. Dois meses depois, foi a vez de outro grupo, incluindo líderes de Google, Microsoft e OpenAI, assinarem uma curta mensagem sinalizando que é preciso “mitigar o risco de extinção” da humanidade a partir da IA.

Avatar photo

Eduardo Vasconcelos

Jornalista e Economista

Artigos: 1136