Governo dos EUA terá acesso antecipado aos modelos de IA de OpenAI e Anthropic

Em acordo inédito, startups terão de abrir dados dos sistemas de IA para o governo norte-americano antes e depois do lançamento das soluções ao mercado; instituto diz que objetivo é mitigar riscos
OpenAI e Anthropic assinaram acordo de cooperação em IA com governo dos EUA
OpenAI e Anthropic são as primeiras startups de IA a fazer acordo com o governo dos EUA (crédito: Freepik)

As startups OpenAI e Anthropic fecharam acordos de colaboração com o governo dos Estados Unidos para pesquisa, teste e avaliação de modelos de Inteligência Artificial (IA). Na prática, o governo norte-americano terá acesso às soluções de IA dessas empresas antes e depois do lançamento para o público geral.

A OpenAI é responsável pelo ChatGPT, chatbot lançado em novembro de 2022 que deu início à corrida pela IA generativa. Já a Anthropic é uma startup fundada por ex-membros da OpenAI e que conta com aportes de Google e Amazon – também integra um fundo recentemente anunciado pela Cisco.

Em comunicado divulgado nesta quinta-feira, 29, o Instituto de Segurança em Inteligência Artificial (Artificial Intelligence Safety Institute) do governo dos Estados Unidos informou que assinou Memorandos de Entendimento (MoU, na sigla em inglês) com as duas empresas para viabilizar uma colaboração formal em pesquisas na área de IA. O objetivo é elaborar métodos de mitigação de riscos de segurança.

“Esses acordos são apenas o começo, mas são um marco importante à medida que trabalhamos para ajudar a administrar de forma responsável o futuro da IA”, afirmou Elizabeth Kelly, diretora do instituto, em nota. “A segurança é essencial para alimentar a inovação tecnológica revolucionária. Com esses acordos em vigor, estamos ansiosos para começar nossas colaborações técnicas com a Anthropic e a OpenAI para avançar a ciência da segurança da IA”, complementou.

A organização indicou que também planeja fornecer relatórios às startups sobre possíveis melhorias de segurança em seus modelos. O instituto norte-americano ainda vai trabalhar em “estreita colaboração” com um organismo britânico constituído com a mesma finalidade.

Os acordos foram fechados em um momento em que os laboratórios de IA enfrentam um escrutínio regulatório no País. Legisladores da Califórnia, por exemplo, têm debatido sobre o uso seguro e ético da tecnologia no território do estado.

O Instituto de Segurança em IA foi criado no ano passado como parte de um decreto do presidente Joe Biden, já prevendo a abertura dos dados dos modelos de IA. A organização integra o Instituto Nacional de Padrões e Tecnologia (NIST), do Departamento de Comércio dos Estados Unidos.

Avatar photo

Eduardo Vasconcelos

Jornalista e Economista

Artigos: 966