Webinar APM debate a utilização do ChatGPT e Inteligência Artificial na Medicina

Setor vem sendo impactado gradativamente pela tecnologia e poder utilizá-la a favor da profissão é fundamental para o desenvolvimento

A utilização do ChatGPT e da Inteligência Artificial é um tema que vem ocupando cada vez mais espaço em diferentes âmbitos, e na Medicina não é diferente. O setor vem sendo gradativamente acompanhado pela tecnologia, e poder utilizá-la a favor da profissão é fundamental para o desenvolvimento. Pensando nisso, no dia 5 de julho, 5 de julho, a Associação Paulista de Medicina (APM), que promove Global Summit Telemedicne & Digital Health APM, realizou Webinar trazendo “ChatGPT, Inteligência Artificial, Utilização na Medicina” como tema central das apresentações.

Contando com o presidente da APM, José Luiz Gomes do Amaral, como apresentador, e o diretor de Economia Médica e Saúde Baseada em Evidências, Álvaro Atallah, como moderador, as palestras foram de Nelson Akamine, especialista em Clínica Médica, Medicina Intensiva e Informática em Saúde; Andreia Cristina Feitosa do Carmo, bibliotecária da Escola Paulista de Medicina da Universidade Federal de São Paulo; e Aline Rocha, farmacêutica e mestre em Ciências.

Uso na Saúde

Iniciando as apresentações, Akamine trouxe o tema “O que é e o que não é ChatGPT e seus usos na Saúde”. De acordo com o médico, a enorme maioria das pessoas, incluindo especialistas, não sabe o que é inteligência artificial por ser um tema muito complexo, difícil e que exige um grande nível de abstração. Apesar do ChatGPT ter uma perspectiva muito ampliada na Saúde, boa parte dos profissionais ainda não tem capacidade de abstrair os limitantes, saber a sua importância e identificar o potencial de generalização trazida pela ferramenta.

Segundo o especialista, o ChatGPT é um modelo que conflui a linguística e a ciência de dados, ou seja, a matemática e a estatística. “A sigla GPT significa Generative Pre-trained Transformer. Transformer é um sistema que processa grandes volumes de texto, estabelecendo relacionamentos e sendo capaz de produzir frases lógicas. Pre-trained, porque para conseguir ter uma resposta lógica, o contexto da conversa tem que ser definido. E Generative, pois o texto que ele produz é ou tenta ser, na maioria das vezes, inédito.”

O palestrante recorda que quanto mais aberta a pergunta que é feita ao chat, mais aberta será a resposta – e que à medida em que se delimitam contextos e a ferramenta passa a entender determinados termos, ela também reconhece um profissional de Saúde, direcionando a conversa para o contexto sugerido pelo Chat. O GPT passou de “base transformer” para “instruct transformer”, o que significa que em uma conversa não depende mais exclusivamente de dados factuais, conseguindo desenvolver o diálogo apenas por meio da base lógica.

Apesar de recente – a primeira versão do ChatGPT foi lançada em junho de 2018 –, a ferramenta já está alcançando notáveis patamares. “Em sua primeira versão, o GPT trazia 40 GB de informação factual, sendo capaz de construir 117 milhões de regras de composição de texto e encadeamento de palavras. Essa projeção cresceu de maneira exponencial, de tal maneira que, na quarta versão, uma quantidade que é superior a 52 TB, já gerou mais do que 100 trilhões de regras de encadeamento de palavras. Tais regras de associação ultrapassam qualquer projeção científica que possamos imaginar.”

O fato de conseguir dominar mais de 89 idiomas e atualmente estar vinculado a imagens pode ser um fenômeno educativo, sobretudo para a área da Saúde. Inclusive, o Chat tem a possibilidade de facilitar termos de prontuário e prescrição, fazer relatos integrais de avaliações, registrar visualmente o atendimento, trazer modulação e formulação, além de fornecer suporte à tomada de decisões – levando reconhecimento de padrões e comparação multidimensional.

No entanto, apesar de proporcionar facilidades que podem servir como grandes fontes de auxílio, é preciso se atentar à utilização do GPT. “Ele pode ser ruim pelo viés de desinformação, já que alguém pode estar repassando um dado factual que é mentiroso e isso estar sendo replicado, gerando respostas não confiáveis. Pode criar um ambiente de dependência excessiva, além de haver o risco de o Chat responder de uma maneira tendenciosa, enganosa ou que seja interessante do ponto de vista malicioso ou de golpes”, completa.

Acesso

Em seguida, Andreia do Carmo conduziu a apresentação sobre “Como ter acesso e como responder perguntas com o ChatGPT”. Segundo a palestrante, uma das principais preocupações de professores em relação ao Chat é a autenticidade na produção dos textos de seus alunos. Para ela, não há substituto para a criatividade humana, e as ferramentas de inteligência artificial simbolizam novos passos e novos desenvolvimentos, possibilitando, assim, uma compreensão mais ampla sobre como utilizar este recurso na prática clínica.

O foco da bibliotecária foi falar sobre os prompts – instruções ou perguntas para solicitar uma resposta. São formuladas de forma fácil e inteligível, com palavras-chave para que se tenha a melhor resposta possível, ou seja, é um modelo de orientação para respostas mais precisas e relevantes. Eles são divididos entre “prompt ruim”, que é completamente genérico e pode repassar informações que não sejam suficientes para a pergunta; “prompt médio”, que é mais amplo e fornece especificidades sobre público-alvo e métodos de prevenção, por exemplo; e “prompt ótimo”, que é quando ele consegue responder com melhor evidência, gerando respostas mais úteis e informativas aos usuários.

“Os prompts são muito utilizáveis na Saúde. O ChatGPT pode orientar muito bem a como responder de forma mais efetiva a condição de um paciente, porque tem rapidez e eficiência, então eu consigo respostas mais rápidas dentro de um contexto, além de economia, já que consigo concentrar a minha prática clínica. A ferramenta também faz revisão de literatura e traz contextos muito bons para dados, então é possível pedir para que descreva ou construa uma planilha de Excel customizada, o que é bem interessante”, explica.

A especialista aponta que, apesar das facilidades, é necessário desconfiar das informações repassadas pelo Chat – e que, caso haja alguma desconfiança em relação à veracidade destas, basta perguntar para a ferramenta se foi ela quem as criou, já que o GPT não foi treinado para mentir. Além disso, Andreia também destaca que, mesmo o Chat tendo uma série de comandos na área de estatística e cálculo, o usuário precisa saber como realizar a solicitação e ter discernimento sobre o assunto.

“Ele tem comandos para cálculos, intervalos de confiança, realiza análises de variância e de dados experimentais. Porém, tudo isso só poderá ser produzido caso se tenha os conhecimentos úteis para utilizar esses comandos. O que é importante dentro de tudo isso? Precisão e veracidade das informações. O ChatGPT é muito bom, mas existem muitas informações que não são verdadeiras, porque ele começa a juntar as peças para oferecer uma resposta, por isso, pedimos para verificar se a informação fornecida tem uma fonte válida. Como o próprio Chat diz, as informações nele coletadas vão até setembro de 2021, então é necessário se atentar às informações exageradas e sensacionalistas e verificar a data, porque tem esse limite”, conclui.  

Revisões Cochrane

Finalizando as apresentações, Aline Rocha apresentou dados referentes ao tema “Evidências de revisões Cochrane comparadas com as do ChatGPT”. Ela indicou que o Chat nada mais é do que um gerador de texto e, por isso, não sabe com embasamento o que está falando, podendo apresentar informações não verdadeiras, enquanto as revisões Cochrane, por sua vez, são consideradas o padrão ouro quando se trata de evidências.

A especialista explica o que são as revisões e como elas funcionam na prática. “São revisões sistemáticas de estudos científicos que resumem a melhor evidência disponível para determinada temática. Elas são conduzidas pela Colaboração Cochrane, uma organização independente e sem fins lucrativos. As revisões seguem um processo rigoroso para identificar, avaliar e combinar estudos com base em uma busca abrangente da literatura científica, por meio de estratégias. Os dados são extraídos e analisados de forma sistemática, permitindo uma avaliação global dos efeitos de determinadas intervenções.”

Para comparar a utilização das revisões com o ChatGPT, Aline demonstra que foram simulados dois diferentes casos. Enquanto o Chat traz informações muito rasas – e que às vezes não correspondem ao que foi solicitado – a revisão Cochrane traz o contexto do problema, sendo muito mais completa. Ela conta como foram os métodos, os critérios de seleção, como os dados foram coletados e analisados e os principais resultados. Além disso, apresenta questões metodológicas, trazendo os estudos que foram utilizados, os desfechos clínicos dos pacientes e as conclusões dos autores. É uma fonte de informação rica e vasta.

“Os modelos do ChatGPT são treinados com dados oriundos de fontes públicas. Ele funciona com base em padrões e estruturas de aprendizados durante o treinamento. Com ele, é preciso ser crítico ao receber a informação, e isso é muito mais perigoso para uma pessoa leiga conseguir identificar o quão verdadeira aquela informação é ou não. Nós tivemos uma ascensão gigantesca ao Chat e é fato que estamos vivendo em um ponto de inflexão, em que tudo vai mudar por conta do avanço da inteligência artificial, como já está mudando, e o senso crítico ainda é imprescindível para qualquer tomada de decisão, principalmente quando se trata de evidências”, finalizou.

O presidente da APM concluiu a transmissão destacando que o tema “inteligência artificial” vai estar presente em muitas reuniões da entidade daqui para a frente. “A Associação Paulista de Medicina tem, desde o início da pandemia de Covid-19, praticado esses webinars. Há três anos, a ideia era estarmos ao lado dos médicos naquele momento de dificuldade, em que o isolamento se fazia necessário, mas percebemos que isso nos aproximou demais e essa aproximação fica cada vez mais intensa. Portanto, sinto que teremos que encontrar um programa de discussão permanente na APM sobre inteligência artificial.”     

Compartilhe