OpenAI cria comitê de segurança e começa a treinar novo modelo de IA

Grupo é formado por membros do conselho, incluindo o CEO, Sam Altman, além de diretores e especialistas externos; comitê deve apresentar medidas de proteção para IA em até 90 dias
OpenAI anuncia a criação de Comitê de Segurança e Proteção
Comitê de segurança da OpenAI é formado por membros do conselho, diretores e especialistas externos (crédito: Freepik)

Criadora do ChatGPT, a OpenAI anunciou, nesta terça-feira, 28, a criação de um Comitê de Segurança e Proteção. O grupo será liderado por membros do conselho de administração da startup, incluindo o CEO e fundador, Sam Altman.

“Este comitê será responsável por fazer recomendações a todo o conselho sobre decisões críticas de segurança e proteção para projetos e operações da OpenAI”, diz a empresa, em nota.

O comitê também deverá avaliar e desenvolver os processos de salvaguarda da startup especializada em Inteligência Artificial (IA) durante os próximos 90 dias, os quais, após esse período, serão encaminhados ao conselho de administração. A OpenAI ainda diz que, após a revisão do conselho, compartilhará publicamente a atualização sobre as recomendações de segurança e proteção.

A criação do comitê acontece em um momento em que a empresa se vê em meio a polêmicas. No início do mês, os cientistas-chefes Ilya Sutskever e Jan Leike deixaram a startup. Eles lideravam a chamada “equipe de superalinhamento”, responsável por garantir que o desenvolvimento da IA seguisse as diretrizes delineadas pela empresa.

Além disso, a gestão de Altman, que chegou a ser demitido e depois reintegrado no ano passado, tem sido criticada por ex-membros da empresa, no sentido de que o CEO quer acelerar projetos com base na tecnologia sem o acompanhamento de medidas eficazes de segurança.

Na prática, além de Altman, o Comitê de Segurança e Proteção será composto por outros três membros do conselho de administração: Bret Taylor (presidente), Adam D’Angelo (CEO da Quora) e Nicole Seligman (ex-presidente da Sony da América).

O grupo também será formado por especialistas técnicos e políticos da empresa: Aleksander Madry (chefe de Preparação), Lilian Weng (chefe de Sistemas de Segurança), John Schulman (chefe de Ciência de Alinhamento), Matt Knight (chefe de Segurança) e Jakub Pachocki (cientista-chefe).

Especialistas externos, como Rob Joyce, ex-diretor de segurança cibernética da Agência de Segurança Nacional dos Estados Unidos, e John Carlin, ex-funcionário do Departamento de Justiça do país, também serão consultados.

Próximo modelo de IA

No mesmo comunicado, a OpenAI confirmou que começou a treinar o seu “próximo modelo de fronteira”. “Antecipamos que os sistemas resultantes nos levarão ao próximo nível de capacidades em nosso caminho para a AGI [Inteligência Artificial Geral]”, destacou a empresa, citando um modelo teórico no qual a IA tem um potencial cognitivo similar ou superior ao do ser humano.

Neste mês, o laboratório lançou o GPT-4o, motor de IA capaz de interagir em tempo real com o usuário por meio de texto, áudio, imagem e vídeo. O sistema foi incorporado ao ChatGPT.

Avatar photo

Eduardo Vasconcelos

Jornalista e Economista

Artigos: 1137