Pesquisador de segurança sai da OpenAI depois de 4 anos: “Estou assustado”

Aterrorizado com a rápida evolução da AGI e os riscos envolvidos, ex-funcionário da OpenAI conta sobre seus receios a respeito da segurança em IAs

Vitor Valeri
por | 28/01/2025 às 16:10

O pesquisador de segurança em inteligência artificial (IA) Steven Adler anunciou no X (ex-Twitter) na segunda-feira (27) que deixou a OpenAI e que está “assustado com a velocidade do desenvolvimento da IA”. Em uma sequência de posts, ele disse que havia saído a empresa em novembro de 2024 mas não deixou claro se pediu demissão ou se foi demitido.

Ele desabafou sobre o que sentiu ao trabalhar na OpenAI: “Uma corrida para desenvolver AGI é uma aposta muito arriscada”. De acordo com o ex-funcionário da OpenAI, “nenhum laboratório tem hoje uma solução para o alinhamento da IA” e “quanto mais rápido corremos, menos provável é que alguém encontre uma solução a tempo.”

Adler trabalhou na empresa que criou o ChatGPT por quatro anos — os últimos dois como líder de segurança em IA. Na função, ele fazia avaliações de capacidades perigosas, segurança/controle de agentes, AGI (Artificial General Intelligence), identidade online, dentre outras áreas correlacionadas à segurança em IA.

Métodos de controle para a IA

Sua primeira função na companhia foi de gerente técnico de programação, onde exercia atividades focadas na segurança e implantação do GPT-3.

O pensamento de Adler aponta para a questão do desenvolvimento de AGIs de forma responsável. Ele diz que é necessário ter regulamentações de segurança para evitar diversos problemas como, por exemplo, “métodos de controle, detecção de manipulação e casos de segurança”.

O professor da Universidade de Montreal e chefe do Instituto de Algoritmos de Aprendizagem de Montreal, Yoshua Bengio já chamou a atenção para a carta aberta publicada em junho de 2024, onde funcionários da OpenAI e do Google DeepMind falam sobre os riscos dos avanços das IAs e a necessidade de mitigá-los através da orientação da comunidade cientifica, dos formuladores de políticas e do público. Bengio disse:

“A primeira coisa que os governos precisam fazer é criar regulamentações que obriguem [as empresas] a se registrar quando desenvolverem esses sistemas de ponta, que são os maiores e custam centenas de milhões de dólares para serem treinados. Os governos devem saber onde eles estão e conhecer os detalhes específicos desses sistemas.”

Há uma semana atrás, o CEO da OpenAI, Sam Altman, declarou que não pretende anunciar uma AGI (inteligência artificial generativa) no próximo mês. Altman disse no X:

“O hype no Twitter hype está fora de controle novamente. Nós não vamos lançar a AGI próximo mês e nem a construímos ainda. Temos algumas coisas muito legais para vocês, mas por favor se acalmem e cortem 100x suas expectativas”

Outros profissionais de segurança em IA saíram da empresa

Em maio de 2024, a OpenAI acabou dissolvendo sua equipe especializada em segurança, segundo a Bloomberg. O desligamento de funcionários aconteceu após a saída de dois líderes do grupo, o co-fundador e cientista-chefe da desenvolvedora do ChatGPT, Ilya Sutskever, e Jan Leike, um profissional veterano na empresa.

Compartilhe:
Notícias mais populares