Saúde
Alguns usuários compartilharam erros de Grok, como uma clavícula quebrada que foi erroneamente identificada como um ombro deslocado. Outros elogiaram: “Pedi para verificar meu tumor cerebral, nada mal”, escreveu um usuário ao lado de uma tomografia cerebral.
O logotipo do X, plataforma de mídia social anteriormente conhecida como Twitter, exibido em um smartphone em São Paulo, Brasil, no sábado, 31 de agosto de 2024. Tuane Fernandes/Bloomberg
Nas últimas semanas, os usuários do X enviaram raios X, ressonâncias magnéticas, tomografias computadorizadas e outras imagens médicas para Grok, o chatbot de inteligência artificial da plataforma, solicitando diagnósticos. O motivo: Elon Musk, dono do X, sugeriu isso.
“Este ainda é um estágio inicial, mas já é bastante preciso e se tornará extremamente bom.” Musk disse em uma postagem. A esperança é que, se um número suficiente de usuários alimentar a IA com suas varreduras, ela acabará se tornando boa em interpretá-las com precisão. Os pacientes poderiam obter resultados mais rápidos sem esperar por uma mensagem do portal ou usar o Grok como uma segunda opinião.
Alguns usuários compartilharam erros de Grok, como uma clavícula quebrada que foi erroneamente identificada como um ombro deslocado. Outros elogiaram: “Pedi para verificar meu tumor cerebral, nada mal”, escreveu um usuário ao lado de uma tomografia cerebral. Alguns médicos até concordaram, curiosos para testar se um chatbot poderia confirmar suas próprias descobertas.
Embora não tenha havido nenhuma chamada pública semelhante do Gemini do Google ou do ChatGPT da OpenAI, as pessoas também podem enviar imagens médicas para essas ferramentas.
A decisão de compartilhar informações tão confidenciais quanto os resultados da sua colonoscopia com um chatbot de IA alarmou alguns especialistas em privacidade médica.
“Esta é uma informação muito pessoal e você não sabe exatamente o que Grok fará com ela”, disse Bradley Malin, professor de informática biomédica na Universidade Vanderbilt que estudou aprendizado de máquina na área de saúde.
As possíveis consequências do compartilhamento de informações sobre saúde
Quando você compartilha suas informações médicas com médicos ou em um portal de pacientes, elas são protegidas pela Lei de Portabilidade e Responsabilidade de Seguros de Saúde, ou HIPAA, a lei federal que protege suas informações pessoais de saúde contra compartilhamento sem o seu consentimento. Mas só se aplica a determinadas entidades, como consultórios médicos, hospitais e seguradoras de saúde, bem como a algumas empresas com as quais trabalham.
Em outras palavras, o que você publica em uma conta de mídia social ou em outro lugar não está sujeito à HIPAA. É como dizer ao seu advogado que você cometeu um crime em vez de contar ao seu passeador de cães; um está vinculado ao privilégio advogado-cliente e o outro pode informar toda a vizinhança.
Por outro lado, quando as empresas de tecnologia fazem parceria com um hospital para obter dados, existem acordos detalhados sobre como eles são armazenados, compartilhados e usados, disse Malin.
“Postar informações pessoais no Grok é mais como ‘Uau! Vamos divulgar esses dados e esperar que a empresa faça o que eu quero que eles façam’”, disse Malin.
X não respondeu a um pedido de comentário. Em sua política de privacidade, a empresa disse que não venderá dados de usuários a terceiros, mas os compartilhará com “empresas relacionadas”. (Apesar do convite de Musk para compartilhar imagens médicas, a política também diz que X não tem como objetivo coletar informações pessoais confidenciais, incluindo dados de saúde.)
Matthew McCoy, professor assistente de ética médica e política de saúde na Universidade da Pensilvânia, observou que pode haver proteções muito claras em torno das informações de saúde enviadas para Grok que a empresa não descreveu publicamente. “Mas, como usuário individual, eu me sentiria confortável em contribuir com dados de saúde? Absolutamente não.
É importante lembrar que partes da sua presença on-line são compartilhadas e vendidas – quais livros você compra, por exemplo, ou quanto tempo você passa em um site. Todas essas são peças de um quebra-cabeça, que revelam uma imagem sua que as empresas podem usar para diversos fins, como marketing direcionado.
Considere um exame PET que mostre sinais precoces de que a doença de Alzheimer está se tornando parte de sua presença on-line, onde futuros empregadores, companhias de seguros ou até mesmo uma associação de proprietários de imóveis poderão encontrá-lo.
Leis como a Lei dos Americanos Portadores de Deficiência e a Lei de Não Discriminação de Informações Genéticas podem oferecer proteção contra a discriminação com base em certos fatores de saúde, mas existem exceções para algumas entidades, como seguros de cuidados de longo prazo e planos de seguro de vida. E os especialistas observaram que ainda existem outras formas de discriminação relacionadas com a saúde, mesmo que não sejam legais.
O risco de resultados imprecisos
Respostas imperfeitas podem ser aceitáveis para pessoas que estão apenas experimentando a ferramenta. Mas obter informações de saúde incorretas pode levar a testes ou outros cuidados caros que você realmente não precisa, disse Suchi Saria, diretor do laboratório de aprendizado de máquina e cuidados de saúde da Universidade Johns Hopkins.
Treinar um modelo de IA para produzir resultados precisos sobre a saúde de uma pessoa requer dados diversificados e de alta qualidade, além de profundo conhecimento em medicina, tecnologia, design de produtos e muito mais, disse Saria, que também é fundador da Bayesian Health, uma empresa que desenvolve IA. ferramentas para ambientes de cuidados de saúde. Qualquer coisa menos do que isso, disse ela, “é um pouco como um químico amador misturando ingredientes na pia da cozinha”.
Ainda assim, a IA é promissora quando se trata de melhorar as experiências dos pacientes e os resultados nos cuidados de saúde. Os modelos de IA já são capazes de ler mamografias e analisar dados de pacientes para encontrar candidatos para ensaios clínicos.
Algumas pessoas curiosas podem conhecer os riscos à privacidade e ainda assim se sentirem confortáveis em enviar seus dados para apoiar essa missão. Malin chama a prática de “altruísmo informacional”. “Se você acredita fortemente que a informação deveria estar disponível, mesmo que você não tenha proteção, vá em frente”, disse ele. “Mas comprador, cuidado.”
Este artigo apareceu originalmente em O jornal New York Times.
Alertas extras de notícias
Receba as últimas atualizações conforme elas acontecem.