O impacto do ChatGPT na área da Saúde
Parte de
Simone Edelmann
O ChatGPT é uma ferramenta baseada em inteligência artificial (IA) que gera respostas pormenorizadas e interativas baseadas em texto a partir de instruções do utilizador e que poderá conduzir a um aumento da produtividade e da rentabilidade no sistema de cuidados de saúde
As potenciais utilizações do ChatGPT incluem melhorias na telemedicina, na gestão de ensaios clínicos e na triagem de doentes
Antes de o ChatGPT ser implementado no sistema de cuidados de saúde, é necessário abordar várias questões, como a segurança dos doentes, a segurança dos dados e a responsabilidade
A inteligência artificial continua a transformar o setor da saúde, oferecendo ao setor uma tecnologia que permite maior produtividade e rentabilidade. A interação com os doentes, as aplicações administrativas, a tomada de decisão sobre tratamentos e a investigação médica já utilizam a IA de várias formas. A tecnologia tem um enorme potencial, especialmente em processos manuais complexos que os seres humanos não conseguem concluir de forma eficiente, como a otimização dos processos de investigação para a descoberta de medicamentos ou a identificação de novas tendências em conjuntos massivos de dados.
Uma nova ferramenta de IA está já a chamar a atenção pelo seu potencial para influenciar significativamente a comunidade dos cuidados de saúde. Ao gerar texto semelhante à linguagem humana, o ChatGPT tomou o mundo de assalto, criando um burburinho em torno da forma como poderia alterar o modo como criamos conteúdos, escrevemos código de programação e prestamos assistência ao cliente.
O ChatGPT é uma nova plataforma de conversação baseada em IA. É semelhante a um chatbot sofisticado que muitas empresas, como bancos e grandes superfícies comerciais, já utilizam. Está treinado para seguir um comando de instruções do utilizador e dar uma resposta rápida mas detalhada.
Exemplos de questões em que o ChatGPT pode ajudar:1
"Explica a computação quântica em termos simples."
“Alguma ideia criativa para o aniversário de uma criança de dez anos?”
“Como crio um pedido HTTP em Javascript?”
O ChatGPT gera uma resposta baseada em texto utilizando IA e redes neurais. O modelo de linguagem de grande dimensão foi lançado em novembro de 2022 e conquistou mais de 100 milhões de utilizadores exclusivos em apenas dois meses.2
A utilidade do ChatGPT já foi demonstrada para escrever código ou encontrar erros, escrever ensaios e poemas, ou fazer recomendações simples. Com as suas impressionantes capacidades, muitos especialistas elogiam a capacidade do ChatGPT para transformar o setor dos cuidados de saúde, promovendo os seus potenciais benefícios, mas muitos também estão cautelosos quanto às armadilhas da ferramenta e às incertezas em torno da sua utilização.
A IA e a aprendizagem automática podem proporcionar múltiplos benefícios em todo o setor dos cuidados de saúde, incluindo a melhoria dos fluxos de trabalho, mitigação da falta de pessoal, a partilha de conhecimentos especializados com prestadores de cuidados menos experientes e a melhoria do acesso dos doentes a informações médicas e serviços de saúde. O ChatGPT poderá aprofundar este progresso em várias áreas transversais aos sistemas de saúde.
A telemedicina, também conhecida como telessaúde, está a tornar-se uma ferramenta generalizada que permite aos doentes ligarem-se remotamente aos seus prestadores de cuidados de saúde no conforto das suas casas, eliminando a necessidade de se deslocarem a um consultório médico. Os serviços de telessaúde incluem a obtenção de resultados de exames, a gestão de receitas médicas e a monitorização remota de doenças crónicas, como a hipertensão arterial ou a diabetes. Os doentes podem até fazer perguntas médicas simples e receber respostas rapidamente.
Para impulsionar os serviços de telessaúde, o setor dos cuidados de saúde pode utilizar o ChatGPT para ajudar a marcar consultas e fornecer respostas automáticas a perguntas frequentes. Neste caso, o ChatGPT pode ajudar a reduzir o volume de trabalho dos prestadores de cuidados de saúde, de modo que estes não tenham de responder diretamente às perguntas, mas os doentes continuem a receber as informações de que necessitam em tempo útil.
Os ensaios clínicos são cruciais no processo de desenvolvimento de fármacos. Através destes estudos, as instituições prestadoras de cuidados de saúde obtêm uma melhor indicação da segurança, tolerabilidade e eficácia de uma nova terapêutica. No entanto, o recrutamento de doentes para ensaios clínicos pode ser um desafio significativo. Cerca de 55% dos ensaios são cancelados devido a uma baixa taxa de recrutamento de doentes. Para os ensaios de Fase III e IV, a eficácia média de recrutamento de doentes é inferior a 40%; a nível mundial, mais de 80% dos ensaios não conseguem completar o recrutamento atempadamente.3
Embora existam várias razões para o insucesso do recrutamento nos ensaios, algumas incluem a sobrecarga administrativa, a falta de doentes elegíveis, a sobrecarga com a gestão dos doentes e a falta de apoio logístico.4 Grande parte desta situação resulta da necessidade de os promotores dos ensaios clínicos selecionarem os doentes pessoalmente – uma causa significativa de aumento do tempo gasto pelos investigadores e respetivos custos salariais.
O ChatGPT pode potencialmente resolver estes problemas simplificando o processo de recrutamento. Mais especificamente, os doentes podem interagir com o ChatGPT, que pode verificar a sua elegibilidade. A ferramenta também pode fornecer aos doentes respostas a perguntas frequentes, assegurando que cada doente compreende o que esperar durante o período do ensaio, como o regime de tratamento e os exames e as consultas necessárias. Esta abordagem pode reduzir os custos e o tempo associados à seleção presencial dos doentes elegíveis para o ensaio.
Só nos EUA, um em cada cinco adultos sofre de doença mental todos os anos e 75% dos indivíduos desenvolvem doença mental até aos 24 anos.5 A nível mundial, a depressão é uma das principais causas de incapacidade, de acordo com a Organização Mundial de Saúde.6
Embora o ChatGPT não substitua um profissional médico ou um terapeuta com formação clínica, pode ser um recurso para a educação em matéria de saúde mental. O ChatGPT pode fornecer estratégias de autocontrolo, oferecer informações sobre problemas de saúde mental e encontrar prestadores de cuidados de saúde mental.7
Alguns defensores do ChatGPT acreditam que a tecnologia pode ser utilizada para problemas de saúde mental mais ligeiros e comuns, como a ansiedade, especialmente quando existe uma escassez de profissionais na área da saúde mental,8 tendo sido particularmente evidente durante a pandemia da COVID-19. Durante este período, muitas pessoas sofreram problemas de saúde mental.9 O ChatGPT poderia ter ajudado a mitigar falta de profissionais, respondendo a algumas perguntas quando as pessoas mais precisavam de respostas rápidas. de respostas rápidas para as suas perguntas.
Os prestadores de cuidados de saúde têm a tarefa de registar as consultas dos doentes, documentar os sintomas, as estratégias de tratamento e os diagnósticos. Em alguns casos, os prestadores utilizam vocabulário médico para descrever as suas notas clínicas. O ChatGPT pode ajudar a traduzir esta informação através de uma linguagem simples e acessível, para que as pessoas a possam compreender facilmente.
Especificamente, esta técnica poderia ajudar a reduzir o volume de trabalho dos médicos, fornecendo simultaneamente informações essenciais aos doentes em tempo útil. Numa perspetiva global, o ChatGPT poderá ajudar a traduzir dados médicos de diferentes idiomas, expandindo consideravelmente a interpretação a nível mundial dos conhecimentos clínicos.
Um estudo recente realizado por Lyu e colegas avaliou a capacidade do ChatGPT para traduzir relatórios de radiologia numa linguagem simples para doentes e prestadores de cuidados de saúde. Os investigadores descobriram que o ChatGPT traduziu com êxito relatórios de radiologia de exames de TAC de rastreio do cancro do pulmão e de exames de rastreio de metástases cerebrais por RM. De um modo geral, os dados demonstraram que o ChatGPT pode ajudar a fornecer informações clínicas.10
A triagem de doentes é a classificação que determina a necessidade e o local de tratamento adequados. Por exemplo, a triagem de doentes foi utilizada durante a pandemia de COVID-19 para garantir que as pessoas recebiam os cuidados corretos sem sobrecarregar clínicas e hospitais. Os profissionais de saúde aconselharam as pessoas com sintomas ligeiros a ficarem de quarentena em casa, enquanto aquelas com problemas respiratórios graves foram aconselhadas a dirigirem-se ao atendimento permanente ou às urgências.
Ao reduzir os tempos de espera, o ChatGPT pode ser utilizado para avaliar rapidamente as pessoas , o que normalmente seria feito por profissionais de saúde, reduzindo assim os erros humanos e permitindo simultaneamente que os médicos realizem outras tarefas de maior complexidade.11
A OpenAI, criadora do ChatGPT, enumerou várias limitações da ferramenta que podem dificultar a sua utilização nos cuidados de saúde. Seguem-se alguns excertos das limitações indicadas no site da OpenAI.1
“Por vezes, o ChatGPT escreve respostas que parecem plausíveis, mas que estão incorretas ou não fazem sentido. Corrigir este problema é um desafio”
“O ChatGPT é sensível a ajustes na formulação da entrada ou à tentativa de repetir a mesma pergunta várias vezes”
“O modelo é muitas vezes excessivamente verboso e recorre demasiado a certas expressões”
“Idealmente, o modelo faria perguntas esclarecedoras quando o utilizador apresentasse uma consulta ambígua. Em vez disso, os nossos modelos atuais geralmente tentam adivinhar o que o utilizador pretende”
“Embora tenhamos feito esforços para que o modelo recuse pedidos inadequados, por vezes responde a instruções que podem ser prejudiciais ou apresenta um comportamento tendencioso.”
Com as limitações do ChatGPT surgem várias questões éticas que têm de ser abordadas antes de a ferramenta de conversação com IA ser amplamente utilizada nas organizações de cuidados de saúde.
Uma questão importante será o facto das pessoas recorrerem ao ChatGPT para obterem o diagnóstico das suas doenças e pedirem recomendações de tratamento. As pessoas querem respostas rápidas e acessíveis. O problema é que os sintomas são intrinsecamente complexos e colocar tal informação no ChatGPT pode levar a problemas com a segurança dos tratamentos.
Uma vez que o ChatGPT é um modelo de linguagem de grande dimensão, a linguagem da qual a informação é extraída pode conter vieses e respostas inadequadas que comprometem a sua utilidade.12 É importante notar que ferramentas como o ChatGPT não substituirão completamente os conhecimentos dos médicos com formação clínica, mas funcionarão mais como uma ajuda para os prestadores de cuidados de saúde.
Uma questão adicional é que, até à data, o ChatGPT dispõe de conhecimentos limitados após o ano 2021.13 Uma vez que os cuidados de saúde estão em constante evolução, com novos resultados científicos e estudos clínicos a serem publicados todos os dias, esta limitação impediria os doentes de receberem as informações mais recentes.
Outra questão é a privacidade e a segurança dos dados.12 Em março, a OpenAI, criadora do ChatGPT, comunicou um erro que levou a que o histórico de conversações dos utilizadores fosse visível a outros utilizadores ativos e a uma "visibilidade não intencional de informações relacionadas com pagamentos" para uma pequena percentagem de subscritores do ChatGPT Plus.14 Embora a OpenAI tenha afirmado estar empenhada na privacidade dos utilizadores e na segurança dos dados, o anúncio causou agitação na comunidade de cibersegurança.15,16
A OpenAI afirmou que continua a concentrar-se na privacidade dos dados e na segurança da plataforma. Em abril, os criadores anunciaram que estão a oferecer aos utilizadores a possibilidade de gerir os seus dados, permitindo que os clientes desativem o histórico de conversação. Esta definição oferece algumas melhorias em termos de privacidade, uma vez que estas conversas não serão utilizadas para treinar modelos de ChatGPT.17
Por último, um problema global com o ChatGPT é a responsabilidade e as implicações legais em termos de quais as partes que seriam responsáveis por resolver estes problemas – os criadores da plataforma ou o sistema de saúde diretamente.18 Os líderes dos cuidados de saúde estão já a questionar a responsabilidade e a forma de mitigar os riscos da plataforma de IA.19,20
Os especialistas em tecnologia do setor da saúde ainda não determinaram a forma como o ChatGPT pode tratar os dados sensíveis das pessoas ou a utilização desses dados a longo prazo. Além disso, à medida que os especialistas em cuidados de saúde forem experimentando o ChatGPT, será crucial ver como os dados são tratados em conformidade com os enquadramentos legais, como a Health Insurance Portability and Accountability Act (HIPAA) nos EUA e o Regulamento Geral sobre a Proteção de Dados (RGPD) na UE.21,22 Em última análise, a utilização do ChatGPT e a monitorização por parte de organismos regulamentares ou governamentais irá, sem dúvida, variar de país para país.
No futuro, poderá ser necessário que a OpenAI trabalhe em estreita colaboração com o sistema de cuidados de saúde para garantir que os dados são examinados por especialistas em saúde, a fim de assegurar que as informações corretas são partilhadas com os utilizadores.
Desde a disponibilização de recursos de saúde mental até à triagem de pessoas para unidades de cuidados adequados, o ChatGPT tem o potencial de transformar drasticamente o sistema de saúde. Embora os criadores do ChatGPT tenham vindo a atualizar periodicamente a ferramenta, esta ainda está a dar os primeiros passos e está sujeita a várias limitações e desafios. Nesse sentido, o ChatGPT ainda tem dificuldade em ser totalmente implementado no sistema de saúde atual devido às suas atuais limitações técnicas.
À medida que a IA é cada mais integrada nos cuidados de saúde e a utilidade dos modelos de linguagem de grande dimensão é validada, os líderes dos cuidados de saúde têm de estar mais conscientes para a forma como estas tecnologias avançadas podem apoiar as suas organizações e do seu potencial para melhorar os resultados dos doentes.
Referências
OpenAI. Information available from https://openai.com/blog/chatgpt. [Accessed May 2023]
Milmo D. (2023). The Guardian. Article available from https://www.theguardian.com/technology/2023/feb/02/chatgpt-100-million-users-open-ai-fastest-growing-app. [Accessed May 2023]
Desai M. (2020) Perspect Clin Res. 11(2): 51–53. Article available from https://www.ncbi.nlm.nih.gov/pmc/articles/PMC7342339/. [Accessed May 2023]
Sampat K. (2021). Clinical Trial Podcast. Article available from https://clinicaltrialpodcast.com/patient-recruitment-failure-clinical-trials/. [Accessed May 2023]
National Alliance on Mental Health. (2023). Article available from https://www.nami.org/mhstats. [Accessed May 2023]
World Health Organization (WHO). Information available from https://www.who.int/health-topics/mental-health. [Accessed May 2023]
Pratt N. (2023). Psychiatric Times. Article available from https://www.psychiatrictimes.com/view/chatgpt-artificial-intelligence-mental-health. [Accessed May 2023]
Hale E. (2023). Al Jazeera. Article available from https://www.aljazeera.com/economy/2023/4/27/could-your-next-therapist-be-ai-tech-raises-hopes-concerns. [Accessed May 2023]
USAFacts. (2021). Article available from https://usafacts.org/articles/over-one-third-of-americans-live-in-areas-lacking-mental-health-professionals/. [Accessed May 2023]
Lyu Q et al. (2023). arXiv. 2303.09038v3. Article available from https://arxiv.org/abs/2303.09038. [Accessed May 2023]
Bhattaram S et al. (2023). Am J Emerg Med. S0735-6757(23)00142-0. Article available from https://doi.org/10.1016/j.ajem.2023.03.027. [Accessed May 2023]
Asch D. (2023) NEJM Catalyst. Article available from https://catalyst.nejm.org/doi/full/10.1056/CAT.23.0043. [Accessed May 2023]
Open AI. (2023). Article available from https://help.openai.com/en/articles/6783457-what-is-chatgpt [Accessed June 2023]
Open AI. (2023) https://openai.com/blog/march-20-chatgpt-outage [Accessed June 2023]
Cyber Security Hub. (2023) Article available from https://www.cshub.com/data/news/openai-confirms-chatgpt-data-breach [Accessed June 2023]
Security Intelligence. (2023). Article available from https://securityintelligence.com/articles/chatgpt-confirms-data-breach/ [Accessed June 2023]
Open AI. (2023). Article available from https://openai.com/blog/new-ways-to-manage-your-data-in-chatgpt [Accessed June 2023]
Eliot L. (2023). Forbes. Article available from https://www.forbes.com/sites/lanceeliot/2023/04/10/when-you-use-chatgpt-you-could-be-legally-liable-ai-ethics-and-law-experts-warn/?sh=40ee06397c34. [Accessed May 2023]
Med City News. (2023). Article available from https://medcitynews.com/2023/04/healthcare-leaders-must-come-together-to-mitigate-chatgpt-risks-experts-urge/ [Accessed June 2023]
Chief Healthcare Executive. (2023). Article available from https://www.chiefhealthcareexecutive.com/view/managing-the-benefits-and-risks-of-ai-in-healthcare-jon-moore [Accessed June 2023]
Harvey Castro. (2023). Article available from https://www.kevinmd.com/2023/02/ai-in-health-care-meeting-hipaa-standards-with-chatgpt.html [Accessed June 2023]
Clothilde Goujard and Gian Volpicelli. (2023). Article available from https://www.politico.eu/article/chatgpt-world-regulatory-pain-eu-privacy-data-protection-gdpr/ [Accessed June 2023]
Autora
Ph.D.
Editora em HealthcareTransformers.com
Simone Edelmann é editora e colaboradora da Healthcare Transformers.com na Roche Diagnostics. Após concluir o doutoramento no Instituto de Biotecnologia da Universidade de Lausanne, Suíça, encontrou a sua paixão na área das comunicações médicas e científicas. ..
NP-PT-00233 | Abril 2025
Roche Sistemas de Diagnósticos, Lda.
Estrada Nacional, 249 -1
2720-413 Amadora. Portugal
Tel.: +351 21 425 70 00