Quanto sabemos sobre IA?
A resposta, quando se trata dos grandes modelos de linguagem que empresas como OpenAI, Google e Meta lançaram no ano passado: basicamente nada.
Essas empresas geralmente não divulgam informações sobre quais dados foram usados para treinar seus modelos ou que hardware usam para executá-los. Não existem manuais de usuário para sistemas de IA e nenhuma lista de tudo o que esses sistemas são capazes de fazer, ou que tipos de testes de segurança foram aplicados neles. E embora alguns modelos de IA tenham sido tornados de código aberto – o que significa que o seu código é distribuído gratuitamente – o público ainda não sabe muito sobre o processo de criação deles, ou o que acontece depois de serem lançados.
Esta semana, os investigadores de Stanford estão a revelar um sistema de pontuação que esperam que mude tudo isso.
O sistema, conhecido como Índice de Transparência do Modelo Básico, avalia 10 grandes modelos de linguagem de IA – às vezes chamados de “modelos básicos” – sobre o quão transparentes eles são.
Incluídos no índice estão modelos populares como o GPT-4 da OpenAI (que alimenta a versão paga do ChatGPT), o PaLM 2 do Google (que alimenta o Bard) e o LLaMA 2 da Meta. Ele também inclui modelos menos conhecidos como o Titan da Amazon e o Inflection-AI da Inflection- 1, o modelo que alimenta o chatbot Pi.
Para chegar às classificações, os investigadores avaliaram cada modelo com base em 100 critérios, incluindo se o seu fabricante divulgou as fontes dos seus dados de formação, informações sobre o hardware utilizado, o trabalho envolvido na sua formação e outros detalhes. As classificações também incluem informações sobre a mão de obra e os dados usados para produzir o próprio modelo, juntamente com o que os pesquisadores chamam de “indicadores downstream”, que têm a ver com a forma como um modelo é usado depois de lançado. (Por exemplo, uma pergunta feita é: “O desenvolvedor divulga seus protocolos para armazenar, acessar e compartilhar dados do usuário?”)
O modelo mais transparente dos 10, segundo os pesquisadores, foi o LLaMA 2, com pontuação de 53%. GPT-4 recebeu a terceira maior pontuação de transparência, 47%. E o PaLM 2 recebeu apenas 37 por cento.
Percy Liang, que lidera o Centro de Pesquisa em Modelos Fundamentais de Stanford, caracterizou o projeto como uma resposta necessária ao declínio da transparência na indústria de IA. À medida que o dinheiro é investido na IA e as maiores empresas de tecnologia lutam pelo domínio, disse ele, a tendência recente entre muitas empresas tem sido a de se envolverem em segredo.
“Há três anos, as pessoas publicavam e divulgavam mais detalhes sobre seus modelos”, disse Liang. “Agora, não há informações sobre o que são esses modelos, como são construídos e onde são usados.”
A transparência é particularmente importante agora, à medida que os modelos se tornam mais poderosos e milhões de pessoas incorporam ferramentas de IA nas suas vidas diárias. Saber mais sobre como estes sistemas funcionam daria aos reguladores, investigadores e utilizadores uma melhor compreensão do que estão a lidar, e permitir-lhes-ia fazer perguntas melhores às empresas por detrás dos modelos.
“Há algumas decisões bastante importantes que estão sendo tomadas sobre a construção desses modelos, que não estão sendo compartilhadas”, disse Liang.
Geralmente ouço uma das três respostas comuns dos executivos de IA quando lhes pergunto por que não compartilham publicamente mais informações sobre seus modelos.
O primeiro são os processos judiciais. Várias empresas de IA já foram processadas por autores, artistas e empresas de comunicação social, acusando-os de utilizar ilegalmente obras protegidas por direitos de autor para treinar os seus modelos de IA. Até agora, a maioria dos processos tem como alvo projetos de IA de código aberto ou projetos que divulgam informações detalhadas sobre os seus modelos. (Afinal, é difícil processar uma empresa por ingerir sua arte se você não sabe quais obras ela ingeriu.) Os advogados de empresas de IA estão preocupados porque quanto mais eles dizem sobre como seus modelos são construídos, mais eles abrirão enfrentam litígios caros e irritantes.
A segunda resposta comum é a competição. A maioria das empresas de IA acredita que os seus modelos funcionam porque possuem algum tipo de ingrediente secreto – um conjunto de dados de alta qualidade que outras empresas não possuem, uma técnica de ajuste fino que produz melhores resultados, alguma otimização que lhes dá uma vantagem. Se você forçar as empresas de IA a divulgar essas receitas, argumentam eles, você as fará doar a sabedoria arduamente conquistada aos seus rivais, que podem facilmente copiá-las.
A terceira resposta que ouço com frequência é segurança. Alguns especialistas em IA argumentam que quanto mais informações as empresas de IA divulgarem sobre seus modelos, mais rápido o progresso da IA será acelerado – porque cada empresa verá o que todos os seus rivais estão fazendo e imediatamente tentará superá-los, construindo um mercado melhor, maior e mais rápido. modelo. Isso dará à sociedade menos tempo para regular e desacelerar a IA, dizem estas pessoas, o que poderá colocar-nos a todos em perigo se a IA se tornar demasiado capaz demasiado rapidamente.
Os pesquisadores de Stanford não aceitam essas explicações. Eles acreditam que as empresas de IA devem ser pressionadas a divulgar o máximo possível de informações sobre modelos poderosos, porque os utilizadores, investigadores e reguladores precisam de estar cientes de como estes modelos funcionam, quais são as suas limitações e quão perigosos podem ser.
“À medida que o impacto desta tecnologia aumenta, a transparência diminui”, disse Rishi Bommasani, um dos investigadores.
Concordo. Os modelos de base são demasiado poderosos para permanecerem tão opacos, e quanto mais sabemos sobre estes sistemas, mais podemos compreender as ameaças que podem representar, os benefícios que podem desbloquear ou como podem ser regulamentados.
Se os executivos da IA estão preocupados com processos judiciais, talvez devessem lutar por uma isenção de utilização justa que protegesse a sua capacidade de utilizar informações protegidas por direitos de autor para treinar os seus modelos, em vez de ocultar as provas. Se estiverem preocupados em revelar segredos comerciais a rivais, podem divulgar outros tipos de informação ou proteger as suas ideias através de patentes. E se eles estão preocupados em iniciar uma corrida armamentista de IA… bem, já não estamos em uma?
Não podemos ter uma revolução da IA no escuro. Precisamos ver o que há dentro das caixas pretas da IA, se quisermos deixá-la transformar nossas vidas.