Por que a inteligência artificial ainda enfrenta desafios de adoção na área da saúde?

Data 10 de agosto de 2022

Por: Gabriel Drumond* 

 

Apesar de muitos avanços, apenas algumas ferramentas baseadas em IA foram realmente implementadas nos vários sistemas de saúde. A dificuldade na transparência e qualidade dos dados, além da capacidade de médicos e pacientes de confiar em algoritmos, são gargalos para esta evolução.

 

A qualidade da fonte de dados e, portanto, dos próprios dados é uma das principais preocupações de quem lida com tecnologia em ambientes de saúde. De fato, nem sempre é possível estabelecer a qualidade dos dados e o acesso ao código fonte do algoritmo.

 

Além disso, ainda não há estudos publicados suficientes para apoiar diretamente algoritmos que foram testados in silico e podem não refletir a prática clínica.

 

Então, como você estabelece a qualidade dos dados? O segredo está na qualidade do banco de dados!

 

Dados pré-processados de boa qualidade são ainda mais importantes que os algoritmos mais poderosos, na medida em que modelos de Machine Learning treinados com dados ruins podem ser prejudiciais à análise que você está tentando fazer, fornecendo resultados pouco acurados.

 

Dados brutos do mundo real - ou seja, não estruturados - na forma de texto, imagens, vídeo, etc., são confusos. Não só pode conter erros e inconsistências, mas também muitas vezes são incompletos e não tem um design regular e uniforme.

 

As etapas mais comuns em um pipeline de pré-processamento são:

 

  • Dados incompatíveis: quando você coleta dados de várias fontes, eles podem vir em formatos diferentes.

 

  • Valores de dado misto: Talvez fontes diferentes usem descritores diferentes para recursos – homem ou masculino, por exemplo.

 

  • Estratégia de outlier: Outliers podem ter um enorme impacto nos resultados da análise de dados. Existem diferentes estratégias para lidar com os outliers, como remover as ocorrências ou imputar o valor.

 

  • Dados ausentes: Existem várias maneiras de corrigir dados ausentes, mas as duas mais comuns são ignorar os campos ou imputar dados ausentes com a média (ou mediana) para valores numéricos, ou dados mais presentes para valores categóricos, ou média móvel em séries temporais.

 

  • Binning: Se os dados forem ruidosos ou heterogêneos, você pode usar binning. Ele classifica os dados de um amplo conjunto em grupos menores de dados mais semelhantes.

 

  • Padronização: a padronização (ou normalização) dimensiona os dados em um intervalo normalizado para que você possa compará-los com mais precisão.

 

  • Recurso combinado: cria uma nova variável a partir de dois ou mais recursos.

 

  • Seleção de recursos: A seleção de recursos é o processo de decidir quais variáveis ​​(recursos, características, categorias etc.) são mais importantes para sua análise.

 

Aversão ao algoritmo

 

Mesmo quando presentes, algoritmos de suporte à decisão clínica raramente são utilizados, contribuindo para a chamada aversão ao algoritmo.

 

A aversão ao algoritmo pode ser mitigada trabalhando na transparência dos dados e nos próprios algoritmos. Por exemplo, fornecendo mais transparência sobre os conjuntos de dados usados para o treinamento inicial. Ou fornecer mais informações sobre a construção dos algoritmos em uma linguagem mais compreensível para os médicos, e talvez permitindo, em nível local, a possibilidade de integrar o conjunto de dados com os dados do paciente para ajudar a treinar a rede neural. 

 

Mais progressos serão feitos quando soluções de IA de código aberto baseadas em dados abertos estiverem disponíveis. Esses aplicativos estariam disponíveis diretamente para médicos e profissionais de saúde que poderiam ajudar a construir os algoritmos com evidências diretas do paciente.

 

Em conclusão, será necessário que os médicos adotem a IA para implementação substancial apoiada por validação clínica e autorizações de mercado.

 

*Médico da Saúde Digital

Receba todas novidades no seu e-mail