Há um reconhecimento crescente das ameaças de IA que podemos enfrentar à medida que as empresas avançam cada vez mais com a tecnologia de inteligência artificial. Em resposta a isto, o Departamento de Justiça dos EUA nomeou o seu primeiro agente federal responsável pela aplicação da lei focado na IA…
Departamento de Justiça dos EUA nomeia oficial de IA
Reuters relata a nomeação de um professor da Universidade de Princeton para o cargo.
Jonathan Mayer, professor da Universidade de Princeton que pesquisa tecnologia e direito, atuará como consultor-chefe de ciência e tecnologia e diretor de IA, disse o departamento.
“O Departamento de Justiça deve acompanhar os desenvolvimentos científicos e tecnológicos em rápida evolução, a fim de cumprir a nossa missão de defender o Estado de direito, manter o nosso país seguro e proteger os direitos civis”, disse o procurador-geral Merrick Garland num comunicado.
O risco de utilizar a IA para ajudar em actividades criminosas como fraude, e até mesmo na engenharia de produtos bioquímicos perigosos, foi recentemente destacado pela Casa Branca. A Apple foi uma das mais de 200 empresas e outras organizações que responderam a uma ordem executiva presidencial para ajudar a resolver o problema.
O DoJ afirma que Mayer será encarregado de ambos os lados da IA: a sua utilização por criminosos, mas também a utilização pelos EUA para derrotar ameaças de terroristas e de Estados-nação.
A vice-procuradora-geral Lisa Monaco disse que a tecnologia poderia ajudar os Estados Unidos a detectar e interromper planos terroristas e ações hostis de adversários norte-americanos. Mas ela disse que o departamento também está preocupado com o seu potencial para amplificar os preconceitos existentes, interferir nas eleições e criar novas oportunidades para os criminosos cibernéticos.
“Cada nova tecnologia é uma faca de dois gumes, mas a IA pode ser a lâmina mais afiada até agora”, disse Monaco.
Apelo à ação sobre deepfakes
Separadamente, Mashável relata que centenas de acadêmicos, políticos e líderes tecnológicos assinaram uma carta aberta expressando preocupação com os riscos dos chamados deepfakes: vídeos falsos gerados por IA que podem fazer qualquer pessoa parecer dizer qualquer coisa.
Além dos riscos óbvios de fraude, existe a preocupação com o uso de deepfakes para influenciar as eleições, fazendo com que os candidatos pareçam fazer declarações prejudiciais ou tomar ações ofensivas. Além disso, há preocupações de que mesmo o CSAM gerado por IA completamente fictício possa normalizar o abuso de crianças reais.
A carta aberta – que qualquer pessoa pode assinar – apela à adoção de legislação para abordar estas questões.
As novas leis devem:
- Criminalizar totalmente pornografia infantil falsa, mesmo quando apenas crianças fictícias são retratadas;
- Estabelecer penalidades criminais para qualquer pessoa que crie ou facilite conscientemente a disseminação de deepfakes prejudiciais; e
- Exigir desenvolvedores de software e distribuidores para evitar que seus produtos audiovisuais criem deepfakes prejudiciais e para serem responsabilizados se suas medidas preventivas forem facilmente contornadas.
foto por Kanchanara sobre Remover respingo
FTC: Usamos links de afiliados automotivos para geração de renda. Mais.