Home Economia Como um distrito escolar de Iowa usou o ChatGPT para proibir livros

Como um distrito escolar de Iowa usou o ChatGPT para proibir livros

Por Humberto Marchezini


Para leitores ávidos, lendo um título como “Distrito escolar usa ChatGPT para ajudar a remover livros da biblioteca” pode ser fervente. como abutre colocá-lo no início desta semana, cria a sensação de que a ferramenta de inteligência artificial está mais uma vez “(eliminando) seu inimigo número 1: o trabalho original”. E isso é. Usando a orientação do ChatGPT, o Mason City Community School District removeu 19 títulos, incluindo o de Margaret Atwood O conto da serva e de Toni Morrison Amado– das prateleiras da biblioteca. Mas há outra verdade: os educadores que devem cumprir leis vagas sobre livros “adequados à idade” com “descrições ou representações visuais de um ato sexual” têm poucas opções.

Assinada pelo governador Kim Reynolds em maio, SF 496 de Iowa é um daqueles”direitos dos pais” Projetos de lei que se tornaram populares entre os legisladores republicanos ultimamente e buscam limitar a discussão sobre sexualidade e identidade de gênero nas escolas. (Alguns compararam o projeto de lei de Iowa à legislação “Don’t Say Gay” da Flórida). Diário do Globo de Mason City“simplesmente não é viável ler todos os livros e filtrar esses novos requisitos”.

Sob a superfície disso está um enigma único. Proibições amplas de conteúdo sexual que usam linguagem vaga como “adequado à idade” já deixam muito espaço para interpretação. Não importa se o que está no livro é o equivalente a slashfic softcore ou um relato angustiante de abuso sexual na infância. Agora, em Iowa, há um caso de IA – que nem sempre compreende totalmente as nuances da linguagem escrita – sendo solicitada a interpretar uma lei que já carece de nuances.

O resultado, então, são distritos como Mason City perguntando ao ChatGPT: “(insira o livro aqui) contém uma descrição ou representação de um ato sexual?” Se a resposta fosse sim, o livro era retirado das bibliotecas do distrito e guardado. Mas e quando a resposta não é nem sim nem não? A Bíblia, por exemplo, “contém passagens que abordam tópicos e relacionamentos sexuais, mas geralmente evita descrições explícitas de atos sexuais”, de acordo com o ChatGPT. A Bíblia não está na lista dos 19 livros que foram banidos, mas você pode ver como isso pode ficar confuso rapidamente. (David indo para a cama com Bate-Seba não é uma descrição de um ato sexual? Ué, tudo bem.)

Quando contei essa história para Exman, ela disse que obteve respostas semelhantes, onde ChatGPT dizia que um livro específico tinha representações sexuais, mas depois dava contexto. O exemplo que ela dá é o de Patricia McCormick Vendido, sobre uma jovem que é vendida para a prostituição. “O ChatGPT me deu o que eu caracterizaria como uma resposta ‘Sim, mas’”, diz Exman, mas “a lei não tem um ‘sim, mas’”. lista.

O Monitor é um coluna semanal dedicado a tudo o que acontece no mundo da cultura WIRED, de filmes a memes, TV ao Twitter.



Source link

Related Articles

Deixe um comentário