Home Economia O Hype da IA ​​Generativa Parece Inescapável. Enfrente-o de Frente com a Educação

O Hype da IA ​​Generativa Parece Inescapável. Enfrente-o de Frente com a Educação

Por Humberto Marchezini


Arvind Narayanan, um professor de ciência da computação na Universidade de Princeton, é mais conhecido por denunciar o exagero em torno da inteligência artificial em seu Substack, Óleo de cobra AIescrito com o candidato a PhD Sayash Kapoor. Os dois autores lançaram recentemente um livro baseado em seu popular boletim informativo sobre as deficiências da IA.

Mas não se engane — eles não são contra o uso de novas tecnologias. “É fácil interpretar mal nossa mensagem como se dissesse que toda a IA é prejudicial ou duvidosa”, diz Narayanan. Ele deixa claro, durante uma conversa com a WIRED, que sua repreensão não é direcionada ao software em si, mas sim aos culpados que continuam a espalhar alegações enganosas sobre inteligência artificial.

Em Óleo de cobra AIos culpados por perpetuar o atual ciclo de propaganda enganosa são divididos em três grupos principais: as empresas que vendem IA, os pesquisadores que estudam IA e os jornalistas que cobrem IA.

Super-espalhadores de Hype

Empresas que alegam prever o futuro usando algoritmos são posicionadas como potencialmente as mais fraudulentas. “Quando sistemas de IA preditiva são implantados, as primeiras pessoas que eles prejudicam são frequentemente minorias e aquelas que já estão na pobreza”, escrevem Narayanan e Kapoor no livro. Por exemplo, um algoritmo usado anteriormente na Holanda por um governo local para prever quem pode cometer fraude de assistência social visava erroneamente mulheres e imigrantes que não falavam holandês.

Os autores também lançam um olhar cético em relação às empresas focadas principalmente em riscos existenciais, como inteligência geral artificial, o conceito de um algoritmo superpoderoso melhor que os humanos na execução de trabalho. No entanto, eles não zombam da ideia de AGI. “Quando decidi me tornar um cientista da computação, a capacidade de contribuir para a AGI era uma grande parte da minha própria identidade e motivação”, diz Narayanan. O desalinhamento vem de empresas que priorizam fatores de risco de longo prazo acima do impacto que as ferramentas de IA têm nas pessoas agora, um refrão comum que ouvi de pesquisadores.

Grande parte do hype e dos mal-entendidos também pode ser atribuída a pesquisas de má qualidade e não reproduzíveis, afirmam os autores. “Descobrimos que, em um grande número de campos, a questão do vazamento de dados leva a alegações excessivamente otimistas sobre o quão bem a IA funciona”, diz Kapoor. Vazamento de dados é essencialmente quando a IA é testada usando parte dos dados de treinamento do modelo — semelhante a distribuir as respostas aos alunos antes de realizar uma prova.

Enquanto os acadêmicos são retratados em Óleo de cobra AI ao cometerem “erros de manual”, os jornalistas são mais motivados de forma maliciosa e conscientemente estão errados, de acordo com os pesquisadores de Princeton: “Muitos artigos são apenas comunicados de imprensa reformulados e lavados como notícias”. Repórteres que evitam reportagens honestas em favor de manter seus relacionamentos com grandes empresas de tecnologia e proteger seu acesso aos executivos das empresas são notados como especialmente tóxicos.

Acho que as críticas sobre o jornalismo de acesso são justas. Em retrospecto, eu poderia ter feito perguntas mais duras ou mais inteligentes durante algumas entrevistas com as partes interessadas nas empresas mais importantes em IA. Mas os autores podem estar simplificando demais o assunto aqui. O fato de grandes empresas de IA me deixarem entrar não me impede de escrever artigos céticos sobre sua tecnologia, ou de trabalhar em peças investigativas que eu sei que vão irritá-las. (Sim, mesmo que façam acordos comerciais, como a OpenAI fez, com a empresa-mãe da WIRED.)

E notícias sensacionalistas podem ser enganosas sobre as verdadeiras capacidades da IA. Narayanan e Kapoor destacam a transcrição do chatbot de 2023 do colunista do New York Times Kevin Roose interagindo com a ferramenta da Microsoft intitulada “Bate-papo de IA do Bing: ‘Eu quero estar vivo. 😈’” como um exemplo de jornalistas semeando confusão pública sobre algoritmos sencientes. “Roose foi uma das pessoas que escreveu esses artigos”, diz Kapoor. “Mas acho que quando você vê manchete após manchete falando sobre chatbots querendo ganhar vida, isso pode ter um impacto muito grande na psique pública.” Kapoor menciona o ELIZA chatbot da década de 1960, cujos usuários rapidamente antropomorfizaram uma ferramenta rudimentar de IA, como um excelente exemplo do desejo duradouro de projetar qualidades humanas em meros algoritmos.



Source link

Related Articles

Deixe um comentário