OpenAI cria comitê de segurança e começa a treinar novo modelo de IA
Criadora do ChatGPT, a OpenAI anunciou, nesta terça-feira, 28, a criação de um Comitê de Segurança e Proteção. O grupo será liderado por membros do conselho de administração da startup, incluindo o CEO e fundador, Sam Altman.
“Este comitê será responsável por fazer recomendações a todo o conselho sobre decisões críticas de segurança e proteção para projetos e operações da OpenAI”, diz a empresa, em nota.
O comitê também deverá avaliar e desenvolver os processos de salvaguarda da startup especializada em Inteligência Artificial (IA) durante os próximos 90 dias, os quais, após esse período, serão encaminhados ao conselho de administração. A OpenAI ainda diz que, após a revisão do conselho, compartilhará publicamente a atualização sobre as recomendações de segurança e proteção.
A criação do comitê acontece em um momento em que a empresa se vê em meio a polêmicas. No início do mês, os cientistas-chefes Ilya Sutskever e Jan Leike deixaram a startup. Eles lideravam a chamada “equipe de superalinhamento”, responsável por garantir que o desenvolvimento da IA seguisse as diretrizes delineadas pela empresa.
Além disso, a gestão de Altman, que chegou a ser demitido e depois reintegrado no ano passado, tem sido criticada por ex-membros da empresa, no sentido de que o CEO quer acelerar projetos com base na tecnologia sem o acompanhamento de medidas eficazes de segurança.
Na prática, além de Altman, o Comitê de Segurança e Proteção será composto por outros três membros do conselho de administração: Bret Taylor (presidente), Adam D’Angelo (CEO da Quora) e Nicole Seligman (ex-presidente da Sony da América).
O grupo também será formado por especialistas técnicos e políticos da empresa: Aleksander Madry (chefe de Preparação), Lilian Weng (chefe de Sistemas de Segurança), John Schulman (chefe de Ciência de Alinhamento), Matt Knight (chefe de Segurança) e Jakub Pachocki (cientista-chefe).
Especialistas externos, como Rob Joyce, ex-diretor de segurança cibernética da Agência de Segurança Nacional dos Estados Unidos, e John Carlin, ex-funcionário do Departamento de Justiça do país, também serão consultados.
Próximo modelo de IA
No mesmo comunicado, a OpenAI confirmou que começou a treinar o seu “próximo modelo de fronteira”. “Antecipamos que os sistemas resultantes nos levarão ao próximo nível de capacidades em nosso caminho para a AGI [Inteligência Artificial Geral]”, destacou a empresa, citando um modelo teórico no qual a IA tem um potencial cognitivo similar ou superior ao do ser humano.
Neste mês, o laboratório lançou o GPT-4o, motor de IA capaz de interagir em tempo real com o usuário por meio de texto, áudio, imagem e vídeo. O sistema foi incorporado ao ChatGPT.