Home Economia Ilya Sutskever da OpenAI tem um plano para manter a IA superinteligente sob controle

Ilya Sutskever da OpenAI tem um plano para manter a IA superinteligente sob controle

Por Humberto Marchezini


A OpenAI foi fundada com a promessa de construir inteligência artificial que beneficie toda a humanidade – mesmo quando essa IA se torna consideravelmente mais inteligente do que os seus criadores. Desde a estreia do ChatGPT no ano passado e durante a recente crise de governação da empresa, as suas ambições comerciais têm sido mais proeminentes. Agora, a empresa diz que um novo grupo de pesquisa que trabalha na disputa pelas IAs superinteligentes do futuro está começando a dar frutos.

“AGI está se aproximando muito rapidamente”, diz Leopold Aschenbrenner, pesquisador da OpenAI envolvido com a equipe de pesquisa de Superalinhamento criada em julho. “Veremos modelos sobre-humanos, eles terão vastas capacidades e poderão ser muito, muito perigosos, e ainda não temos os métodos para controlá-los.” A OpenAI disse que dedicará um quinto de seu poder computacional disponível ao projeto Superalignment.

Um artigo de pesquisa divulgado hoje pela OpenAI apregoa resultados de experimentos projetados para testar uma maneira de permitir que um modelo de IA inferior guie o comportamento de um modelo muito mais inteligente, sem torná-lo menos inteligente. Embora a tecnologia envolvida esteja longe de ultrapassar a flexibilidade dos humanos, o cenário foi concebido para representar um tempo futuro em que os humanos terão de trabalhar com sistemas de IA mais inteligentes do que eles próprios.

Os pesquisadores da OpenAI examinaram o processo, chamado supervisão, que é usado para ajustar sistemas como o GPT-4, o grande modelo de linguagem por trás do ChatGPT, para serem mais úteis e menos prejudiciais. Atualmente, isso envolve humanos dando feedback ao sistema de IA sobre quais respostas são boas e quais são ruins. À medida que a IA avança, os investigadores estão a explorar formas de automatizar este processo para poupar tempo – mas também porque pensam que pode tornar-se impossível para os humanos fornecer feedback útil à medida que a IA se torna mais poderosa.

Em um experimento de controle usando o gerador de texto GPT-2 da OpenAI lançado pela primeira vez em 2019 para ensinar GPT-4, o sistema mais recente tornou-se menos capaz e semelhante ao sistema inferior. Os pesquisadores testaram duas ideias para corrigir isso. Um envolveu o treinamento de modelos progressivamente maiores para reduzir o desempenho perdido em cada etapa. No outro, a equipe adicionou um ajuste algorítmico ao GPT-4 que permitiu que o modelo mais forte seguisse a orientação do modelo mais fraco sem prejudicar seu desempenho tanto quanto normalmente aconteceria. Isto foi mais eficaz, embora os investigadores admitam que estes métodos não garantem que o modelo mais forte se comportará perfeitamente, e descrevem-no como um ponto de partida para futuras pesquisas.

“É ótimo ver a OpenAI abordando proativamente o problema de controle de IAs sobre-humanas”, diz Dan Hendryks, diretor do Center for AI Safety, uma organização sem fins lucrativos em São Francisco dedicada ao gerenciamento de riscos de IA. “Precisaremos de muitos anos de esforço dedicado para enfrentar esse desafio.”



Source link

Related Articles

Deixe um comentário