Home Tecnologia IA monitorando comunicações de funcionários sobre ‘crimes de pensamento’ no Slack e muito mais

IA monitorando comunicações de funcionários sobre ‘crimes de pensamento’ no Slack e muito mais

Por Humberto Marchezini


Várias grandes empresas dos EUA estão usando sistemas de monitoramento de IA para analisar as comunicações dos funcionários em aplicativos de negócios populares como Slack, Teams e Zoom…

Um modelo de IA afirma ser capaz de analisar o conteúdo e o sentimento de textos e imagens postados por funcionários, relata CNBC.

Algumas dessas ferramentas estão sendo usadas de maneiras relativamente inócuas – como avaliar as reações agregadas dos funcionários a coisas como novas políticas corporativas

“Não terá nomes de pessoas, para proteger a privacidade”, disse o CEO da Aware, Jeff Schumann. Em vez disso, disse ele, os clientes verão que “talvez a força de trabalho com mais de 40 anos nesta parte dos Estados Unidos esteja vendo as mudanças em (uma) política de forma muito negativa por causa do custo, mas todos os outros fora dessa faixa etária e a localização vê isso de forma positiva porque os impacta de uma maneira diferente.”

Mas outras ferramentas – incluindo outra oferecida pela mesma empresa – podem sinalizar postagens de indivíduos específicos.

As dezenas de modelos de IA da Aware, desenvolvidos para ler texto e processar imagens, também podem identificar bullying, assédio, discriminação, descumprimento, pornografia, nudez e outros comportamentos.

Chevron, Delta, Starbucks, T-Mobile e Walmart são apenas algumas das empresas que dizem usar esses sistemas. A Aware afirma ter analisado mais de 20 bilhões de interações entre mais de três milhões de funcionários.

Embora estes serviços se baseiem em ferramentas de monitorização não baseadas em IA utilizadas durante anos, alguns estão preocupados com o facto de terem mudado para o território orwelliano.

Jutta Williams, cofundadora da Humane Intelligence, organização sem fins lucrativos de responsabilidade de IA, disse que a IA acrescenta uma nova e potencialmente problemática ruga aos chamados programas de risco interno, que existem há anos para avaliar coisas como espionagem corporativa, especialmente em comunicações por e-mail.

Falando amplamente sobre IA de vigilância de funcionários, e não especificamente sobre a tecnologia da Aware, Williams disse à CNBC: “Muito disso se torna crime de pensamento”. Ela acrescentou: “Isso é tratar as pessoas como inventário de uma forma que nunca vi” (…)

Amba Kak, diretora executiva do AI Now Institute da Universidade de Nova York, preocupa-se em usar a IA para ajudar a determinar o que é considerado comportamento de risco.

“Isso resulta em um efeito inibidor sobre o que as pessoas dizem no local de trabalho”, disse Kak, acrescentando que a Comissão Federal de Comércio, o Departamento de Justiça e a Comissão de Oportunidades Iguais de Emprego expressaram preocupações sobre o assunto, embora ela não estivesse falando especificamente sobre A tecnologia da Aware. “Essas são tanto questões de direitos dos trabalhadores quanto de privacidade.”

Uma preocupação adicional é que mesmo os dados agregados podem ser facilmente desanonimizados quando reportados a um nível granular, “como idade, localização, divisão, tempo de serviço ou função do funcionário”.

foto por Andres Siimon sobre Remover respingo

FTC: Usamos links de afiliados automotivos para geração de renda. Mais.



Source link

Related Articles

Deixe um comentário