O Openai disse na sexta-feira que descobriu evidências de que uma operação de segurança chinesa havia construído uma ferramenta de vigilância de inteligência artificial para reunir relatórios em tempo real sobre postagens anti-chinesas em serviços de mídia social nos países ocidentais.
Os pesquisadores da empresa disseram que haviam identificado essa nova campanha, que eles chamaram de revisão por pares, porque alguém que trabalha na ferramenta usou as tecnologias do OpenAI para depurar parte do código do computador que o sustenta.
Ben Nimmo, um investigador principal do Openai, disse que foi a primeira vez que a empresa descobriu uma ferramenta de vigilância de IA desse tipo.
“Às vezes, os atores de ameaças nos dão um vislumbre do que estão fazendo em outras partes da Internet devido à maneira como eles usam nossos modelos de IA”, disse Nimmo.
Houve preocupações crescentes de que a IA possa ser usada para vigilância, hackers de computadores, campanhas de desinformação e outros propósitos maliciosos. Embora pesquisadores como o Sr. Nimmo dizem que a tecnologia certamente pode permitir esses tipos de atividades, eles acrescentam que a IA também pode ajudar a identificar e interromper esse comportamento.
Nimmo e sua equipe acreditam que a ferramenta de vigilância chinesa é baseada na LLAMA, uma tecnologia de IA construída pela Meta, que abriu sua tecnologia, o que significa que compartilhou seu trabalho com desenvolvedores de software em todo o mundo.
Em um relatório detalhado sobre o uso de IA para fins maliciosos e enganosos, o Openai também disse que havia descoberto uma campanha chinesa separada, chamada de descontentamento patrocinado, que usou as tecnologias do OpenAI para gerar posts em inglês que criticaram os dissidentes chineses.
O mesmo grupo, disse o Openai, usou as tecnologias da empresa para traduzir artigos para o espanhol antes de distribuí -los na América Latina. Os artigos criticaram a sociedade e a política dos EUA.
Separadamente, os pesquisadores do OpenAI identificaram uma campanha, que se acredita estar no Camboja, que usou as tecnologias da empresa para gerar e traduzir comentários nas mídias sociais que ajudaram a gerar um golpe conhecido como “massacre de porco”, afirmou o relatório. Os comentários gerados pela IA foram usados para atrair homens na Internet e envolvê-los em um esquema de investimento.
(O New York Times processou o OpenAI e a Microsoft por violação de direitos autorais de conteúdo de notícias relacionado aos sistemas de IA. OpenAI e Microsoft negaram essas reivindicações.)
(Tagstotranslate) Inteligência artificial
Source link