Home Empreendedorismo O Departamento de Segurança Interna está adotando a IA

O Departamento de Segurança Interna está adotando a IA

Por Humberto Marchezini


O Departamento de Segurança Interna viu em primeira mão as oportunidades e os riscos da inteligência artificial. Ele encontrou uma vítima de tráfico anos depois, usando uma ferramenta de IA que evocou a imagem de uma criança uma década mais velha. Mas também foi enganado em investigações por imagens falsas criadas pela IA

Agora, o departamento está se tornando a primeira agência federal a adotar a tecnologia com um plano para incorporar modelos generativos de IA em uma ampla gama de divisões. Em parceria com OpenAI, Anthropic e Meta, lançará programas piloto utilizando chatbots e outras ferramentas para ajudar a combater crimes de tráfico de drogas e seres humanos, treinar funcionários de imigração e preparar a gestão de emergências em todo o país.

A pressa para implementar a tecnologia ainda não comprovada faz parte de uma luta maior para acompanhar as mudanças provocadas pela IA generativa, que pode criar imagens e vídeos hiper-realistas e imitar a fala humana.

“Não se pode ignorar isso”, disse Alejandro Mayorkas, secretário do Departamento de Segurança Interna, em entrevista. “E se alguém não estiver inclinado a reconhecer e estar preparado para abordar o seu potencial para o bem e o seu potencial para o mal, será tarde demais e é por isso que estamos agindo rapidamente.”

O plano para incorporar IA generativa em toda a agência é a mais recente demonstração de como novas tecnologias como o ChatGPT da OpenAI estão a forçar até mesmo as indústrias mais sóbrias a reavaliar a forma como conduzem o seu trabalho. Ainda assim, é provável que agências governamentais como o DHS enfrentem um dos escrutínios mais rigorosos sobre a forma como utilizam a tecnologia, o que desencadeou um debate rancoroso porque, por vezes, provou ser pouco fiável e discriminatório.

Os membros do governo federal apressaram-se a formular planos após a ordem executiva do presidente Biden emitida no final do ano passado que determina a criação de padrões de segurança para IA e a sua adoção em todo o governo federal.

O DHS, que emprega 260 mil pessoas, foi criado após os ataques terroristas de 11 de Setembro e é encarregado de proteger os americanos dentro das fronteiras do país, incluindo o policiamento do tráfico de seres humanos e de drogas, a protecção de infra-estruturas críticas, a resposta a catástrofes e a patrulha de fronteiras.

Como parte de seu plano, a agência planeia contratar 50 especialistas em IA para trabalhar em soluções que mantenham a infra-estrutura crítica do país protegida contra ataques gerados por IA e para combater o uso da tecnologia para gerar material de abuso sexual infantil e criar armas biológicas.

Nos programas piloto, nos quais gastará 5 milhões de dólares, a agência utilizará modelos de IA como o ChatGPT para ajudar nas investigações de materiais de abuso infantil, tráfico de seres humanos e de drogas. Também trabalhará com empresas para vasculhar seus tesouros de dados baseados em texto para encontrar padrões que ajudem os investigadores. Por exemplo, um detetive que procura um suspeito dirigindo uma caminhonete azul poderá pesquisar, pela primeira vez, nas investigações de segurança interna, o mesmo tipo de veículo.

O DHS usará chatbots para treinar funcionários de imigração que trabalharam com outros funcionários e prestadores de serviços se passando por refugiados e requerentes de asilo. As ferramentas de IA permitirão que os funcionários obtenham mais treinamento com entrevistas simuladas. Os chatbots também analisarão informações sobre comunidades em todo o país para ajudá-las a criar planos de ajuda em desastres.

A agência divulgará os resultados de seus programas piloto até o final do ano, disse Eric Hysen, diretor de informação do departamento e chefe de IA.

A agência escolheu OpenAI, Anthropic e Meta para experimentar uma variedade de ferramentas e usará os provedores de nuvem Microsoft, Google e Amazon em seus programas piloto. “Não podemos fazer isso sozinhos”, disse ele. “Precisamos trabalhar com o setor privado para ajudar a definir o que é o uso responsável de uma IA generativa.”



Source link

Related Articles

Deixe um comentário