O governo dos EUA está levando os potenciais perigos da IA mais a sério, após sua decisão de criar um Consórcio do Instituto de Segurança de Inteligência Artificial (AISIC) no início deste ano, com a Apple como membro.
Uma nova lei proposta tornaria ilegal o uso de deepfakes, e um órgão governamental realizará verificações de segurança na próxima versão do ChatGPT antes de ser lançada ao público…
Diretrizes de segurança de IA já em vigor
O governo Biden propôs um conjunto de diretrizes de segurança para novos produtos e serviços de IA no início deste ano, após serem anunciados pela vice-presidente Kamala Harris.
Embora a adesão às diretrizes seja (por enquanto) voluntária, todos os gigantes da tecnologia envolvidos no desenvolvimento de IA concordaram em fazê-lo. Isso inclui Apple, Amazon, Google, Meta, OpenAI e Microsoft.
A Lei NO FAKES tornaria os deepfakes ilegais
Uma das maiores preocupações sobre IA é a facilidade com que deepfakes podem ser criados. São fotos, gravações de áudio e vídeo de pessoas reais com aparência convincente, feitas para parecer que estão fazendo ou dizendo coisas completamente falsas.
Deepfakes foram usados para criar nus falsos não consensuais de todos, desde celebridades para colegiaise criar vídeos falsos e prejudiciais de políticos. Um exemplo recente foi um anúncio falso no qual Kamala Harris parecia dizer que era uma contratação de diversidade e uma “marionete do estado profundo”.
Um grupo bipartidário de senadores apresentou ontem a Lei NO FAKESo que tornaria ilegal criar deepfakes de pessoas reais sem seu consentimento.
O NO FAKES Act responsabilizaria indivíduos ou empresas por danos por produzir, hospedar ou compartilhar uma réplica digital de um indivíduo atuando em uma obra audiovisual, imagem ou gravação sonora na qual o indivíduo nunca apareceu ou aprovou de outra forma – incluindo réplicas digitais criadas por inteligência artificial generativa (IA). Um serviço online que hospeda a réplica não autorizada teria que remover a réplica mediante notificação de um detentor de direitos.
Isso não necessariamente eliminaria completamente o problema no que diz respeito aos políticos, pois haveria uma exclusão da Primeira Emenda para paródias, mas deveria reduzir significativamente o problema se aprovado.
Governo vai avaliar a próxima versão do ChatGPT
O CEO da OpenAI, Sam Altman, tem tweetou que a empresa concordou em dar à AISIC acesso antecipado ao próximo modelo ChatGPT, para que ele possa ser examinado quanto a problemas de segurança antes de seu lançamento público.
Nossa equipe tem trabalhado com o US AI Safety Institute em um acordo onde forneceríamos acesso antecipado ao nosso próximo modelo de fundação para que possamos trabalhar juntos para impulsionar a ciência das avaliações de IA. Estamos animados com isso!
foto por BolíviaInteligente sobre Desaparecer