Aposta de Mark Zuckerberg dezenas de bilhões de dólares no “metaverso” apenas para serem ridicularizados pela ideia de uma rede social imersiva de realidade virtual a cada passo. No final das contas, sua promessa de adicionar pernas aos avatares digitais dos usuários (anteriormente representados como torsos flutuantes) pode ser o que a maioria das pessoas se lembra sobre o projeto mal concebido – se é que pensam nisso.
Mas embora o metaverso não tenha sido lançado, o frenesi em torno da inteligência artificial aumentou: 2023 foi repleto de especulações sobre a promessa de ferramentas, incluindo o ChatGPT baseado em texto da OpenAI e modelos de imagem generativos como Midjourney e Stable Diffusion, sem mencionar as pessoas que abusavam dessa mesma tecnologia para espalhar desinformação. A própria Meta começou a se afastar das demonstrações embaraçosas de Zuckerberg tomando Selfies de turistas VR em frente a uma Torre Eiffel de baixa resolução, até anúncios estranhos de parcerias para licenciar as vozes de Kendall Jenner, MrBeast, Snoop Dogg e Paris Hilton para o novo conjunto de “assistentes” de IA da empresa.
Na quinta-feira, Zuckerberg aumentou ainda mais o entusiasmo pelo jogo de IA do Meta com uma atualização de vídeo compartilhada no Instagram e no Threads. Parecendo um pouco sem dormir, o CEO disse que estava “aproximando os dois esforços de pesquisa de IA da Meta para apoiar nossos objetivos de longo prazo de construir inteligência geral, abri-la de forma responsável e torná-la disponível e útil para todos em todos os lugares”. nossas vidas diárias.” A reorganização envolve a combinação da divisão Fundamental AI Research (FAIR) da empresa com sua equipe de produtos GenAI, a fim de agilizar o acesso do usuário aos recursos de IA – o que, como apontou Zuckerberg, também requer um investimento maciço em unidades de processamento gráfico (GPUs), os chips que fornecem o poder de computação para modelos complexos de IA. Ele também disse que Meta está atualmente treinando o Llama 3, a versão mais recente de seu modelo generativo de linguagem grande. (E em um entrevista com o Beiraele reconheceu ter cortejado agressivamente pesquisadores e engenheiros para trabalhar em tudo isso.)
Mas o que este último impulso impulsiona a missão da Meta de alcançar na IA realmente significa? Os especialistas estão céticos em relação à noção utópica de Zuckerberg de contribuir para um bem maior abrindo o código-fonte de sua prometida “inteligência artificial geral” (isto é, disponibilizando publicamente o código do modelo para modificação e redistribuição) e, de fato, questionam se o Meta alcançará tal objetivo. avanço. Por enquanto, um AGI continua a ser um sistema autônomo puramente teórico, capaz de ensinar a si mesmo e de superar a inteligência humana.
“Honestamente, a parte da ‘inteligência geral’ é tão vaporosa quanto o ‘metaverso’”, diz David Thiel, arquiteto de big data e tecnólogo-chefe do Stanford Internet Observatory. Pedra rolando. Ele também considera a promessa de código aberto um tanto hipócrita, pois “dá a eles o argumento de que estão sendo tão transparentes quanto possível em relação à tecnologia”. Mas, observa Thiel, “quaisquer modelos que eles lançarem publicamente serão um pequeno subconjunto do que eles realmente usam internamente”.
Sarah Myers West, diretora administrativa da Instituto AI Agora, uma organização de pesquisa sem fins lucrativos, diz que o anúncio de Zuckerberg “parece claramente uma tática de relações públicas destinada a angariar boa vontade, ao mesmo tempo que ofusca o que é provavelmente uma corrida que viola a privacidade para se manter competitivo no jogo da IA”. Ela também acha que a abordagem sobre os objetivos e a ética da Meta é pouco convincente. “O jogo deles aqui não é uma questão de benefício, é uma questão de lucro”, diz ela. “O Meta realmente ampliou os limites do que significa ‘código aberto’ no contexto da IA, além do ponto em que essas palavras carregam qualquer significado (você poderia argumentar que o mesmo é verdade para a conversa sobre AGI). Até agora, os modelos de IA lançados pela Meta fornecem pouca visão ou transparência sobre aspectos-chave de como seus sistemas são construídos, apesar deste grande jogo de marketing e esforço de lobby.”
“Acho que muita coisa depende do que Meta, ou Mark, decide o que significa ‘responsavelmente’ em ‘código aberto responsável’”, diz Nate Sharadin, professor da Universidade de Hong Kong e membro do Centro de Segurança de IA. Um modelo de linguagem como o Llama (que foi anunciado como um modelo de código aberto, mas é criticado por alguns pesquisadores como bastante restritivo) pode ser usado de maneiras prejudiciais, diz Sharadin, mas seus riscos são mitigados porque o modelo em si não possui “raciocínio, planejamento, memória” e atributos cognitivos relacionados. No entanto, essas são as habilidades consideradas necessárias para a próxima geração de modelos de IA, “e certamente são o que você esperaria de uma inteligência ‘totalmente geral’”, diz ele. “Não tenho certeza por que Meta pensa que um modelo inteligente totalmente geral pode ser de código aberto de forma responsável.”
Quanto à aparência dessa hipotética AGI, Vincent Conitzer, diretor do Fundações do Laboratório Cooperativo de IA da Carnegie Mellon University e chefe de envolvimento técnico de IA no Instituto de Ética em IA da Universidade de Oxford, especula que Meta poderia começar com algo como Llama e expandir a partir daí. “Imagino que eles focarão sua atenção em grandes modelos de linguagem e provavelmente irão mais na direção multimodal, ou seja, tornar esses sistemas capazes de lidar com imagens, áudio e vídeo”, diz ele, assim como o Gemini do Google, lançado em dezembro. (O concorrente ChatGPT agora também pode “ver, ouvir e falar”, como afirma a OpenAI.) Conitzer acrescenta que, embora existam perigos no código aberto dessa tecnologia, a alternativa de apenas desenvolver estes modelos “às portas fechadas de empresas com fins lucrativos” também levanta problemas.
“Como sociedade, realmente não temos uma boa noção sobre exatamente com o que deveríamos nos preocupar – embora pareça haver muitas coisas com que nos preocupar – e para onde queremos que esses desenvolvimentos cheguem, muito menos ter o controle regulatório e outras ferramentas necessárias para orientá-los nessa direção”, diz ele. “Realmente precisamos de ação sobre isso, porque, enquanto isso, a tecnologia está avançando, e também a sua implantação no mundo.”
A outra questão, claro, é a privacidade, onde o Meta tem um histórico conturbado. “Eles têm acesso a enormes quantidades de informações altamente confidenciais sobre nós, mas simplesmente não sabemos se ou como as estão utilizando enquanto investem na construção de modelos como o Llama 2 e 3”, diz West. “A Meta provou repetidamente que não se pode confiar nos dados do usuário antes de chegar aos problemas endêmicos em LLMs com vazamento de dados. Não sei por que olharíamos para o outro lado quando eles incluíssem ‘código aberto’ e ‘AGI’ na mistura.” Sharadin diz que a política de privacidade da empresa, incluindo os termos de desenvolvimento de IA, “permite que eles coletem uma grande variedade de dados de usuários para fins de ‘fornecer e melhorar nossos produtos Meta’”. use suas informações do Facebook desta forma (enviando um forma pouco conhecida e raramente usada), “não há como verificar a retirada dos dados do corpus de treinamento”, afirma.
Conitzer observa que estamos diante de um futuro em que sistemas de IA como o Meta terão “modelos de indivíduos cada vez mais detalhados”, dizendo que isso pode exigir que repensemos completamente a nossa abordagem à privacidade online. “Talvez no passado eu tenha compartilhado algumas coisas publicamente e pensei que cada uma dessas coisas individualmente não era prejudicial para compartilhar”, diz ele. “Mas eu não percebi que a IA poderia estabelecer conexões entre as várias coisas que eu postei e as coisas que outras pessoas postaram, e que aprenderia algo sobre mim que eu realmente não queria que fosse divulgado.”
Em suma, então, o entusiasmo de Zuckerberg com a mais recente estratégia do Meta nas guerras cada vez mais ferozes da IA – que suplantou totalmente a sua exaltação sobre as glórias de um metaverso – parece pressagiar uma vigilância ainda mais invasiva. E está longe de ser claro que tipo de produto AGI o Meta poderá obter com isso, se conseguir criar essa mítica “inteligência geral”. Como a saga do metaverso provou, grandes pivôs dos gigantes da tecnologia nem sempre resultam em inovação real ou significativa.
Porém, se a bolha da IA também estourar, Zuckerberg certamente irá perseguir a tendência quente depois disso.