Home Entretenimento ‘Hype e pensamento mágico’: o boom da IA ​​​​na saúde está aqui

‘Hype e pensamento mágico’: o boom da IA ​​​​na saúde está aqui

Por Humberto Marchezini


A tecnologia de inteligência artificial se infiltrou em todos os setores e a saúde não é exceção. Agora temos Juntos por Renéeum aplicativo que rastreia seu histórico médico, tem como objetivo avaliar seu pressão arterial com uma selfie e detecte sintomas de depressão ou ansiedade pelo som da sua voz. DrogaGPT, desenvolvido na Universidade de Oxford, é uma ferramenta desenvolvida para ajudar os médicos a prescrever medicamentos e manter os pacientes informados sobre o que estão tomando. Você pode baixar Humanidadeum “treinador de saúde” de IA generativo que promete “reduzir a idade biológica”, e o Google está trabalhando em um modelo de aprendizado de máquina que potencialmente diagnosticará um paciente com base no som da tosse deles.

Mas as consequências potenciais dessas aplicações são um pouco diferentes do que pode acontecer quando você usa IA para criar uma música. Em termos mais claros: vidas estão em risco. E especialistas nas áreas de saúde e tecnologia contam Pedra rolando eles têm dúvidas reais sobre se estas inovações podem servir o bem público.

Para Bernard Robertson-Dunn, um experiente engenheiro de sistemas que atua como presidente do comitê de saúde da Australian Privacy Foundation, um grande problema é que os próprios desenvolvedores lidaram de forma errada com as informações dos pacientes desde o início. Há décadas, diz ele, houve um “grande impulso” para a digitalização de registos médicos, mas a promessa desta revolução fracassou porque os tecnólogos pensam que estes dados “são como dados de transacções financeiras”.

“Eles não são”, diz Robertson-Dunn. “Os dados de transações financeiras são fatos e o significado de uma transação existente não muda com o tempo. Se você olhar para sua conta bancária, ela não terá mudado sem motivo aparente.” Os dados de saúde, por sua vez, “podem mudar de um dia para o outro sem que você saiba e por quê. Você pode pegar Covid, HIV, um resfriado ou ter um ataque cardíaco hoje, o que invalida muitos dos dados do seu registro de saúde registrados ontem”, diz Robertson-Dunn. Na sua opinião, o velho frenesim pelos registos de saúde eletrónicos foi transferido para o boom da IA, “que é um problema muito maior”.

“Nunca direi que a tecnologia é prejudicial ou que não deveríamos usá-la”, diz Julia Stoyanovich, cientista da computação que lidera o Centro para IA Responsável da Universidade de Nova York. “Mas neste caso específico, devo dizer que estou cético, porque o que estamos vendo é que as pessoas estão correndo para usar a IA generativa para todos os tipos de aplicações, simplesmente porque ela está disponível e parece legal. e os concorrentes estão usando isso.” Ela vê a corrida da IA ​​emergindo do “exagero e do pensamento mágico, de que as pessoas realmente querem acreditar que há algo lá fora que fará o impossível”.

Stoyanovich e Robertson-Dunn salientam que as ferramentas de saúde da IA ​​estão atualmente a escapar aos tipos de ensaios clínicos e regulamentações necessários para colocar um dispositivo médico no mercado. Stoyanovich descreve uma “brecha” que torna isso possível. “Não é realmente a ferramenta que irá prescrever um medicamento para você. É sempre uma ferramenta que um médico usa. E, finalmente, o médico dirá: ‘Sim, concordo’ ou ‘discordo’. E é por isso que essas ferramentas estão escapando ao escrutínio que se esperaria que uma ferramenta tivesse no domínio médico”.

“Mas ainda é problemático, certo?” Stoyanovich acrescenta. “Porque sabemos que os humanos – os médicos não são exceção – confiariam demais nessas ferramentas. Porque se uma ferramenta lhe der uma resposta que pareça precisa, então um humano dirá: ‘Bem, quem sou eu para questionar isso?’” Pior ainda, diz ela, um bot poderia citar um artigo em um jornal como Ciência ou o Lanceta para apoiar a sua conclusão, mesmo que a pesquisa a contradiga diretamente.

Elaine O. Nsoesie, cientista de dados da Escola de Saúde Pública da Universidade de Boston que pesquisa como a tecnologia pode promover a igualdade na saúde, explica o que um modelo de IA de diagnóstico pode estar faltando ao avaliar os sintomas de um paciente. Essas ferramentas “basicamente aprendem todas essas informações e depois as devolvem, e falta contexto e nuances”, diz ela. “Se um paciente chega, ele pode ter sintomas específicos e talvez ter um histórico de condições diferentes, e o médico pode fornecer aconselhamento médico que pode não ser o padrão, ou quais os dados que foram usados ​​para treinar nossos pacientes. algoritmo produziria.”

De acordo com Nsoesie, a inteligência artificial também pode replicar ou exacerbar as desigualdades sistémicas na saúde que afectam negativamente as mulheres, as pessoas de cor, os pacientes LGBTQ e outros grupos desfavorecidos. “Quando você vê algoritmos não fazendo o que deveria, o problema geralmente começa com os dados”, diz ela. “Quando você olha os dados, você começa a ver que certos grupos não estão sendo representados ou não estão representados de forma equitativa. Portanto, existem preconceitos, talvez estereótipos associados (às modelos), há racismo ou sexismo.” Ela é coautora de um artigo sobre o tema: “Na medicina, como aprendemos algo real por máquina?” Descreve como uma “longa história de discriminação” nos espaços de cuidados de saúde produziu dados tendenciosos, que, se utilizados em “aplicações ingénuas”, podem criar sistemas com mau funcionamento.

Ainda assim, Nsoesie e outros estão cautelosamente optimistas de que a IA pode beneficiar a saúde pública – mas talvez não da forma que as empresas estão a seguir neste momento. “Quando se trata de usar várias formas de IA para atendimento direto ao paciente, os detalhes da implementação serão muito importantes”, diz Nate Sharadin, pesquisador do Center for AI Safety. “É fácil imaginar médicos usando diversas ferramentas de IA de uma forma que libere seu tempo para ficar com seus pacientes pessoalmente. A transcrição vem à mente, mas também o resumo dos registros médicos e a ingestão inicial. Os médicos têm indicado que a sua incapacidade de passar tempo significativo com os seus pacientes é um problema há décadas e está a levar ao esgotamento em toda a profissão, agravado, claro, pela Covid-19.”

Sharadin também vê os riscos potenciais, no entanto, incluindo “instalações privadas de cuidados de longo prazo com fins lucrativos que economizam dinheiro ao pessoal ao tentar automatizar as coisas com IA” ou “charlatães que vendem o equivalente de IA a suplementos inúteis”. Ele identifica o aplicativo Together como um exemplo. “Não há absolutamente nenhuma maneira de detectar com precisão SpO2 (níveis de oxigênio no sangue) com uma selfie”, diz ele. “Tenho certeza de que eles e outras empresas terão o cuidado de indicar que seus produtos não se destinam a diagnosticar ou tratar qualquer doença. Este é o rótulo típico em conformidade com a FDA para vender algo que as pessoas realmente não precisam e que na verdade não funciona.”

Stoyanovich concorda com Sharadin que precisamos de pensar muito sobre o que exatamente queremos desta tecnologia, ou “que lacuna esperamos que estas ferramentas preencham” no campo da medicina. “Isto não são jogos. Esta é a saúde das pessoas e a confiança das pessoas no sistema médico.” Uma grande vulnerabilidade nesse sentido é a privacidade dos seus dados de saúde. Quer os modelos de IA, como a ferramenta de análise de tosse do Google, possam ou não funcionar de forma confiável, diz Stoyanovich, eles estão “sugando muitas informações de nós”, e os dados médicos são especialmente sensíveis. Ela imagina um futuro em que as companhias de seguros de saúde aumentem sistematicamente os prémios dos clientes com base nas informações captadas por tais aplicações. “Vão utilizar estes dados para tomar decisões que terão impacto no acesso das pessoas aos cuidados médicos”, prevê Stoyanovich, comparando a situação ao uso “irresponsável” e “arbitrário” da IA ​​na contratação e no emprego. “Isso acaba prejudicando pessoas que foram historicamente desfavorecidas.”

Stoyanovich também teme que exagerar a eficácia dos modelos de IA num ambiente clínico devido a alguns resultados promissores nos leve a um caminho perigoso. “Temos visto muito entusiasmo com o relato de casos específicos de que, digamos, o ChatGPT foi capaz de diagnosticar uma condição que vários médicos não perceberam e não conseguiram diagnosticar corretamente”, diz Stoyanovich. “E isso faz com que agora acreditemos que ChatGPT é médico. Mas quando julgamos se alguém é um bom médico, não olhamos quantos casos ele teve, certo. Vemos quantos casos eles tiveram errado. Deveríamos, no mínimo, manter essas máquinas em um padrão semelhante, mas ficar impressionado com um médico que diagnosticou um caso específico difícil é bobagem. Na verdade, precisamos de uma avaliação robusta que funcione em todos os casos.”

Os especialistas em tecnologia e saúde que falaram com Pedra rolando concordam em grande parte que ter profissionais médicos a verificar novamente os resultados dos modelos de IA acrescenta uma camada de tédio e ineficiência aos cuidados de saúde. Robertson-Dunn diz que no caso de exames patológicos – como aqueles que envolvem a leitura de raios X ou ressonâncias magnéticas – “um médico qualificado pode avaliar o diagnóstico de cada um, mas isso transforma o trabalho de um profissional altamente qualificado em um muito. Rotina mecânica chata, destruidora de almas.

E, como observa Nsoesie, talvez possamos reformular totalmente a oportunidade que a IA representa nos cuidados de saúde. Em vez de tentar medir as qualidades biológicas dos indivíduos com máquinas, poderíamos implementar esses modelos para aprender algo sobre regiões e comunidades inteiras. Nsoesie afirma que o movimento da IA ​​em África apresentou soluções promissoras que incluem a utilização da IA ​​para monitorizar a poluição atmosférica que tem impacto na saúde. “Ser capaz de recolher esses dados, processá-los e utilizá-los para a elaboração de políticas é muito importante”, diz ela.

No que diz respeito à saúde pública, diz Nsoesie, o foco deve ser “abordar as causas profundas das doenças e das desigualdades na saúde, em vez de apenas corrigir os seus sintomas”. Seria melhor, na sua opinião, aproveitar a tecnologia de IA para responder a questões sobre por que temos “populações específicas com taxas mais elevadas de diabetes ou cancro” em vez de conceber uma aplicação que vise pessoas com essas condições. As soluções ideais, acrescenta ela, exigem conversar com os pacientes e com os médicos que os atendem para descobrir o que eles realmente precisam e deixar que suas contribuições orientem o processo de desenvolvimento. Os desenvolvedores de aplicativos, diz Nsoesie, normalmente não fazem essas pesquisas ou solicitam feedback.

“Isso é simplesmente mais eficaz”, ela conclui. “Mas exige que você realmente priorize as pessoas em vez do dinheiro.”

Tendendo



Source link

Related Articles

Deixe um comentário