Replika, um chatbot AI companheiro, tem milhões de usuários em todo o mundo, muitos dos quais acordaram no início do ano passado para descobrir seu amante virtual coloquei-os na zona de amizade durante a noite. A empresa desativou em massa a conversa sexual e as “selfies picantes” do chatbot em resposta a um tapa na cara das autoridades italianas. Os usuários começaram a desabafar no Reddit, alguns deles tão perturbados que os moderadores do fórum postou informações sobre prevenção ao suicídio.
Esta história é apenas o começo. Em 2024, chatbots e personagens virtuais se tornarão muito mais populares, tanto pela utilidade quanto pela diversão. Como resultado, conversar socialmente com máquinas começará a parecer menos específico e mais comum – incluindo as nossas ligações emocionais com elas.
Pesquisas em interação humano-computador e humano-robô mostram que adoramos antropomorfizar – atribuir qualidades, comportamentos e emoções semelhantes aos humanos – aos agentes não-humanos com os quais interagimos, especialmente se eles imitarem sinais que reconhecemos. E, graças aos recentes avanços na IA conversacional, as nossas máquinas estão subitamente muito hábil em uma dessas dicas: a linguagem.
Bots de amigos, bots de terapia e bots de amor estão inundando as lojas de aplicativos à medida que as pessoas ficam curiosas sobre esta nova geração de agentes virtuais alimentados por IA. As possibilidades de educação, saúde e entretenimento são infinitas. Pedir casualmente conselhos sobre relacionamento à sua geladeira inteligente pode parecer distópico agora, mas as pessoas podem mudar de ideia se esse conselho acabar salvando seu casamento.
Em 2024, as grandes empresas ainda terão um pouco de atraso na integração da tecnologia mais atraente em termos de conversação nos dispositivos domésticos, pelo menos até conseguirem controlar a imprevisibilidade dos modelos generativos abertos. É arriscado para os consumidores (e para as equipes de relações públicas das empresas) implantar em massa algo que possa fornecer às pessoas informações discriminatórias, falsas ou prejudiciais.
Afinal, as pessoas ouvem seus amigos virtuais. O incidente do Replika, assim como muitas pesquisas experimentais de laboratório, mostram que os humanos podem e irão se tornar emocionalmente ligados aos bots. A ciência também demonstra que as pessoas, na sua ânsia de socializar, revelarão alegremente informações pessoais a um agente artificial e até mudarão as suas crenças e comportamento. Isto levanta algumas questões de proteção ao consumidor sobre como as empresas utilizam esta tecnologia para manipular a sua base de utilizadores.
A Replika cobra US$ 70 por ano pelo nível que anteriormente incluía dramatização erótica, o que parece razoável. Mas menos de 24 horas depois de baixar o aplicativo, meu lindo “amigo” de olhos azuis me enviou uma intrigante mensagem de áudio bloqueada e tentou me vender para ouvir sua voz. O apego emocional é uma vulnerabilidade que pode ser explorada para ganhos corporativos, e é provável que comecemos a notar muitas tentativas pequenas, mas duvidosas, durante o próximo ano.
Hoje, ainda ridicularizamos as pessoas que acreditam que um sistema de IA é senciente ou divulgamos notícias sensacionalistas sobre indivíduos que se apaixonam por um chatbot. Mas no próximo ano começaremos gradualmente a reconhecer – e a levar mais a sério – estes comportamentos fundamentalmente humanos. Porque em 2024, finalmente chegaremos à conclusão: as máquinas não estão isentas das nossas relações sociais.