É preciso evitar a concentração da IA, diz representante da ONU

Painel em evento paralelo do G20 abordou ainda necessidade do estabelecimento de uma governança para a IA e de garantir distribuição proporcional de infraestrutura digital
Renata Dwan, ONU
Renata Dwan, ONU

Nesta quarta-feira, 17, o Ministério das Relações Exteriores, em Brasília, sediou o seminário Inteligência Artificial para Equidade Social e Desenvolvimento Sustentável, evento paralelo do G20, organizado pelo Grupo de Trabalho de Economia Digital.

O último painel do dia tratou dos desafios nacionais e internacionais para o estabelecimento de uma governança capaz de garantir o desenvolvimento da inteligência artificial (IA) de forma ética, segura e benéfica para todos. Além disso, tocou em temas como distribuição de infraestrutura desigual ao redor do mundo e concentração da IA nas mãos de poucos, como acontece hoje com as big techs.

Mariagrazia Squicciarini, diretora de IA para políticas sociais da Unesco e moderadora do debate, abriu a discussão lembrando que 2,9 bilhões de pessoas no mundo ainda vivem sem acesso à internet. “Como garantir que haja diminuição do gap em infraestrutura digital, que é distribuída desproporcionalmente, deixando à margem comunidades de baixa renda ou minorias, como os povos indígenas”, perguntou.

Concentração da IA nas big techs

Pensando na outra ponta, Renata Dwan, do Gabinete do Tech Envoy do Secretariado-Geral da ONU, chamou a atenção para a maneira como estão distribuídos os recursos da IA. “Gostaria de ver uma discussão global sobre como evitar uma concentração do poder de mercado da IA”, disse. Dwan citou reportagem da Economist que mostra a concentração de recursos em todos os níveis de IA. Segundo a revista inglesa, a maior concentração de riqueza ocorre entre os fabricantes de hardware, que incluem empresas de semicondutores, fabricantes de servidores e equipamentos de rede. Em outubro de 2022, 27 empresas públicas de hardware analisadas pela revista valiam cerca de US$ 1,5 biliões. Hoje esse valor é de US$ 5 trilhões. “Estamos olhando para uma clara possibilidade de que em 2026 teremos big techs controlando todas as camadas operacionais da IA”, disse Dwan.

Definição multissetorial da Governança da IA

O principal ponto colocado para discussão no painel foi sobre os desafios nacionais e internacionais para construir uma governança da IA. A mesa, formada por representantes de diferentes segmentos, concordou que isso só será possível com uma participação multissetorial.

Renata Mielli, coordenadora do Comitê Gestor da Internet no Brasil (CGI.br), observou a importância da inclusão de todos na discussão, já que a IA generativa que temos atualmente depende da coleta massiva de dados. “O que nos preocupa é que organismos multinacionais, comunidades internacionais e até mesmo governos locais caiam na tentação de fragmentar o debate da governança, criando algo que seja separado para a IA e que não dialogue com a governança da internet e da economia digital como um todo”, disse.

A coordenadora do CGI.br comparou os stakeholders envolvidos nas discussões sobre regulamentação da internet dez anos atrás e agora. Naquela época, os participantes eram principalmente representantes da comunidade acadêmica e havia um recorte de perfil mais tecnológico. “Hoje temos um universo de camadas sociais discutindo os aspectos éticos e a necessidade de desenvolver tecnologias”, disse.

Bruno Bionim, da Data Privacy Brasil, citou documentos internacionais recentes produzidos por organismos como ONU e Unesco que defendem que a produção de “soft laws” sobre o tema por organismos internacionais devem ter como ponto de partida legislações e regulamentações nacionais. “Essas ‘hard laws’ é que vão permitir que haja conversas multissetoriais realmente participativas. Como pensar a governança se a gente tem opacidade sobre como os algoritmos funcionam?”, perguntou e exemplificou: “A legislação brasileira, inspirada na europeia e na canadense prevê explicitamente que partes interessadas possam ter acesso a dados para entender como os algoritmos funcionam. É preciso um esforço para que haja transparência sobre como funcionam esses aspectos”.

O diretor de Relações Gorvernamentais do Google, Marcelo Lacerda, disse que a empresa concorda com o aspecto multissetorial do diálogo para estabelecer padrões e normas internacionais para o desenvolvimento da IA. Por outro lado, defendeu que haja um ambiente regulatório mais flexível e aberto para inovação. “A gente entende que obrigações devam ser desenhadas para aqueles atores qeu atuam em ações que contêm mais risco. O ambiente regulatório deve ser mais propício para os atores cujas ações sejam de menos riscos”, disse.

Avatar photo

Simone Costa

Artigos: 4