Home Saúde Especialistas alertam Congresso sobre os perigos que a IA representa para o jornalismo

Especialistas alertam Congresso sobre os perigos que a IA representa para o jornalismo

Por Humberto Marchezini


A IA representa uma grave ameaça ao jornalismo, alertaram especialistas no Congresso numa audiência na quarta-feira.

Executivos de mídia e especialistas acadêmicos testemunharam perante o Subcomitê Judiciário do Senado sobre Privacidade, Tecnologia e Lei sobre como a IA está contribuindo para o grande declínio do jornalismo alimentado pela tecnologia. Eles também falaram sobre questões de propriedade intelectual decorrentes do treinamento de modelos de IA no trabalho de jornalistas e levantaram alarmes sobre os perigos crescentes da desinformação alimentada pela IA.

“A ascensão das grandes tecnologias tem sido diretamente responsável pelo declínio das notícias locais”, disse o senador Richard Blumenthal, democrata de Connecticut e presidente do subcomitê. “Primeiro, Meta, Google e OpenAI estão usando o trabalho árduo de jornais e autores para treinar seus modelos de IA sem remuneração ou crédito. Para piorar a situação, esses modelos são então usados ​​para competir com jornais e emissoras, canibalizando o número de leitores e as receitas das instituições jornalísticas que geram o conteúdo em primeiro lugar.”

Grande tecnologia, IA e o declínio das notícias locais

As empresas tecnológicas e a indústria noticiosa têm estado em conflito desde o surgimento das plataformas digitais, há mais de uma década, o que resultou em lucros das plataformas tecnológicas, uma vez que muitas organizações noticiosas fecharam as portas. Pesquisadores da Medill School of Journalism, Media, Integrated Marketing Communications da Northwestern University encontrado que os EUA perderam quase um terço dos seus jornais e quase dois terços dos seus jornalistas desde 2005.

Países de todo o mundo estão a começar a tomar medidas para forçar as grandes tecnologias a apoiar as suas indústrias jornalísticas locais. Em junho de 2023, o Canadá aprovou um lei exigir que as empresas de tecnologia paguem aos meios de comunicação por qualquer conteúdo apresentado em suas plataformas. Austrália anteriormente passado uma lei semelhante em 2021. Nos EUA, legislação comparável foi proposto pelos senadores Amy Klobuchar, uma Democrata de Minnesota e John Kennedy, um republicano de Louisiana, ambos são membros do Subcomitê de Privacidade, Tecnologia e Legislação.

“Nos últimos anos, houve inúmeros estudos, investigações e litígios por parte do DOJ e da FTC nas últimas duas administrações que encontraram conduta anticompetitiva por parte dos distribuidores monopolistas de conteúdo de notícias”, Danielle Coffey, presidente e CEO da associação comercial News Media Alliance, disse na audiência. “Este desequilíbrio do mercado só será aumentado pela (IA generativa).”

Próximas batalhas de direitos autorais

Os sistemas generativos de IA – aqueles que são capazes de gerar texto, imagens ou outras mídias – devem ser treinados em grandes quantidades de dados. Para garantir o acesso a dados de texto de alta qualidade, o proeminente desenvolvedor de IA OpenAI fez parceria com a Associated Press, uma agência de notícias sem fins lucrativos sediada nos EUA, obtendo acesso a parte do arquivo da AP em troca do uso dos produtos da OpenAI. A OpenAI tem uma parceria semelhante com a Axel Springer, uma empresa de mídia multinacional alemã, como parte da qual o ChatGPT resumirá artigos de meios de comunicação de propriedade da Axel Springer e fornecerá links e atribuições.

Mas nem todos os meios de comunicação chegaram a acordos semelhantes. Em 27 de dezembro de 2023, o New York Tempos processado OpenAI e seu principal investidor e parceiro, a Microsoft. O ação judicial argumenta que os modelos da OpenAI foram treinados no New York Tempos’ e oferecer um produto concorrente, causando “bilhões de dólares em danos legais e reais”. OpenAI respondeu com um postagem no blog em 8 de janeiro de 2024, em que contestou o Tempos’ reivindicações legais e observou as várias ações que tomou para apoiar um ecossistema de notícias de saúde.

A Nova York Tempos o processo é o caso de direitos autorais de maior destaque entre muitos lançados contra desenvolvedores de IA. Em julho de 2023, a comediante Sarah Silverman e os autores Christopher Golden e Richard Kadrey processado OpenAI e Meta por treinarem seus modelos de IA em sua escrita sem sua permissão. E em janeiro de 2023, os artistas Kelly McKernan, Sarah Andersen e Karla Orti processaram Midjourney, Stability AI e DeviantArt – empresas que desenvolvem modelos de IA de geração de imagens – novamente por treinarem seus modelos de IA em seu trabalho. Em outubro, o juiz distrital dos EUA William Orrick demitido partes da ação, e os demandantes alteraram e reapresentaram a ação em novembro.

As ferramentas generativas de IA foram construídas com “bens roubados”, argumentou Roger Lynch, CEO da Condé Nast, uma empresa de mídia que possui publicações, incluindo o Nova iorquino, Com fioe QG, que pediu na audiência uma “intervenção do Congresso” para garantir que os desenvolvedores de IA paguem aos editores pelo seu conteúdo. “A quantidade de tempo que levaria para litigar, apelar, voltar ao recurso nos tribunais, talvez, finalmente, chegar ao Supremo Tribunal para resolver, entre agora e então, muitas, muitas empresas de mídia sairiam do negócio, ” ele disse.

No entanto, Curtis LeGeyt, presidente e CEO da associação comercial National Association of Broadcasters, disse que falar sobre legislação era “prematuro”, argumentando que as atuais proteções de direitos autorais deveriam ser aplicadas. “Se tivermos clareza de que a lei atual se aplica à IA generativa, vamos deixar o mercado funcionar”, disse ele.

Preocupações com desinformação

LeGeyt também alertou os senadores sobre os perigos que a desinformação gerada pela IA representa para o jornalismo. “O uso da IA ​​para adulterar, manipular ou apropriar-se indevidamente da imagem de personalidades confiáveis ​​do rádio ou da televisão corre o risco de espalhar desinformação ou até mesmo perpetuar a fraude”, disse ele.

LeGeyt também alertou sobre o aumento da carga imposta às redações que precisam examinar o conteúdo para determinar se ele é genuíno e preciso. “Após os recentes ataques terroristas de 7 de outubro em Israel, fotos e vídeos falsos atingiram um nível sem precedentes nas redes sociais em questão de minutos”, disse ele. “Dos milhares de vídeos que uma rede de transmissão analisou para relatar os ataques , apenas 10% deles eram autênticos e utilizáveis.”



Source link

Related Articles

Deixe um comentário