Se você está preocupado com a possibilidade de algoritmos de seleção de candidatos estarem entre você e o emprego dos seus sonhos, leia o livro de Hilke Schellmann O Algoritmo não vai aliviar sua mente. O novo livro do repórter investigativo e professor de jornalismo da NYU desmistifica como os departamentos de RH usam software de automação que não apenas propaga preconceitos, mas falha naquilo que afirmam fazer: encontrar o melhor candidato para o cargo.
Schellmann se fez passar por um possível caçador de empregos para testar alguns desses softwares, que vão desde rastreadores de currículos e testes baseados em videogames até avaliações de personalidade que analisam expressões faciais, entonações vocais e comportamento nas redes sociais. Uma ferramenta classificou-a como ideal para um emprego, embora ela falasse bobagens em alemão. Um algoritmo de avaliação de personalidade deu-lhe notas altas de “estabilidade” com base no uso do Twitter e uma classificação baixa com base em seu perfil no LinkedIn.
É o suficiente para fazer você querer excluir sua conta do LinkedIn e adotar a apropriação original, mas Schellmann também tem insights edificantes. Numa entrevista que foi editada para maior extensão e clareza, ela sugeriu como a sociedade poderia controlar a tecnologia tendenciosa de RH e ofereceu dicas práticas para quem procura emprego sobre como vencer os bots.
Caitlin Harrington: Você relatou sobre o uso de IA na contratação de Jornal de Wall Street, Revisão de tecnologia do MITe O guardião nos últimos anos. Em que momento você pensou, tenho um livro aqui?
Hilke Schellmann: Uma delas foi quando fui a uma das primeiras conferências de tecnologia de RH em 2018 e encontrei ferramentas de IA entrando no mercado. Eram cerca de 10 mil pessoas, centenas de fornecedores, muitos compradores e grandes empresas. Percebi que este era um mercado gigantesco e estava dominando o RH.
As empresas de software muitas vezes apresentam seus produtos como uma forma de eliminar o preconceito humano na contratação. Mas é claro que a IA pode absorver e reproduzir a tendência dos dados de treinamento que ingere. Você descobriu um analisador de currículo que ajustava as pontuações de um candidato ao detectar a frase “Afro-americano” em seu currículo.
Schellmann: É claro que as empresas dirão que suas ferramentas não têm preconceitos, mas como elas foram testadas? Alguém já investigou isso e não trabalha na empresa? O manual de uma empresa afirmava que a IA de contratação foi treinada com dados de estudantes universitários de 18 a 25 anos. Eles podem ter encontrado algo muito específico para jovens de 18 a 25 anos que não se aplica a outros trabalhadores nos quais a ferramenta foi usada.
Os danos que um gerente de contratação humano pode causar são limitados e, obviamente, devemos tentar evitar isso. Mas um algoritmo utilizado para avaliar centenas de milhares de trabalhadores, se apresentar falhas, pode prejudicar muito mais pessoas do que qualquer ser humano.
Agora, obviamente, os fornecedores não querem que as pessoas olhem para as caixas pretas. Mas acho que os empregadores também evitam olhar porque então têm uma negação plausível. Se encontrarem algum problema, poderá haver 500.000 pessoas que se candidataram a um emprego e poderão ter uma reclamação. É por isso que precisamos exigir mais transparência e testes.