Uma pesquisa gerada automaticamente que a Microsoft incorporou em sua plataforma de agregação de notícias ao lado de um artigo do Guardian foi “grosseira” e causou danos significativos à reputação do The Guardian, disse o jornal na quinta-feira.
A enquete, que foi postada na semana passada ao lado de um artigo sobre uma mulher que foi encontrado morto no banheiro de uma escola na Austrália, pediu aos leitores que especulassem sobre a causa da morte da mulher. Dava três opções: assassinato, acidente ou suicídio. O Guardian disse que a pesquisa foi criada usando inteligência artificial generativa, que pode gerar texto, imagens e outras mídias a partir de prompts.
Anna Bateson, executiva-chefe do Guardian Media Group, escreveu em uma carta à Microsoft que a pesquisa era “claramente um uso inapropriado da genAI”.
“Este tipo de aplicação não só é potencialmente angustiante para a família do indivíduo que é o sujeito da história, como também é profundamente prejudicial para a reputação duramente conquistada pelo Guardian de jornalismo confiável e sensível, e para a reputação dos jornalistas individuais. quem escreveu a história original”, escreveu Bateson na carta, endereçada a Brad Smith, vice-presidente e vice-presidente da Microsoft, na terça-feira. Bateson disse que o The Guardian já havia pedido à Microsoft que não aplicasse suas tecnologias experimentais aos artigos de notícias do Guardian devido aos riscos que representavam.
Um porta-voz do Guardian disse que a pesquisa foi “grosseira” e levou os comentaristas do Microsoft Start, a plataforma agregadora de notícias, a acreditar que a culpa era do The Guardian. Um leitor, sem saber que a enquete foi criada pela Microsoft, e não pelo The Guardian, escreveu: “Esta deve ser a enquete mais patética e nojenta que já vi. O autor deveria ter vergonha.” Outro comentou: “pesquisar o motivo da morte de uma pessoa? O que há de errado com você!!”
A Microsoft disse em comunicado que desativou as pesquisas geradas pela Microsoft para todos os artigos de notícias e que estava “investigando a causa do conteúdo impróprio”.
“Uma enquete não deveria ter aparecido ao lado de um artigo desta natureza e estamos tomando medidas para ajudar a evitar que esse tipo de erro ocorra novamente no futuro”, disse o comunicado.
A declaração do Guardian também criticou a Microsoft por deixar a pesquisa aberta por quatro dias. Foi removido na segunda-feiradepois que o The Guardian contatou a Microsoft, disse o porta-voz do Guardian.
O governo britânico organizou esta semana uma cimeira para discutir a segurança a longo prazo da inteligência artificial, que resultou em 28 governos, incluindo a China e os Estados Unidos, concordando em cooperar na gestão de riscos da IA.
Mas o acordo não conseguiu estabelecer objectivos políticos específicos, e o The Guardian e outros editores apelaram às empresas tecnológicas para especificarem como irão garantir a utilização segura da inteligência artificial. Em sua carta, Bateson pediu à Microsoft que especificasse como priorizaria fontes de notícias confiáveis, forneceria uma compensação justa pelo licenciamento e pelo uso do jornalismo e forneceria transparência e salvaguardas em torno de suas tecnologias.
Matt Rogerson, diretor de políticas públicas do The Guardian, disse que as empresas de tecnologia precisam determinar como lidar com situações quando o uso da inteligência artificial dá errado. A Microsoft não anexou uma nota ao artigo assumindo a responsabilidade pela pesquisa, disse ele.