Nos últimos anos, a inteligência artificial (IA) fez um progresso impressionante na análise de dados de imagem e texto, especialmente por meio de modelos de linguagem de visão (VLMs) que vinculam imagens e texto.
Esses modelos têm aplicações promissoras na área médica, ajudando a analisar imagens médicas, como raios-X ou ressonâncias magnéticas, e combinando-as com descrições de texto correspondentes para auxiliar a equipe médica a fazer diagnósticos.
No entanto, uma fraqueza significativa dos sistemas de IA atuais, que muitas vezes é ignorada, é sua incapacidade de detectar negações corretamente.
Na medicina, a distinção precisa entre a presença e a ausência de sintomas ou sinais de doença é crucial.
A capacidade de identificar corretamente “não” ou “nenhum sinal de” é essencial na análise de imagens médicas.
Tais erros podem fazer com que os pacientes recebam tratamentos desnecessários ou, pior, que uma condição real seja ignorada.
Os modelos atuais de visão e linguagem que combinam imagens e texto têm dificuldades consideráveis em interpretar corretamente as negações.
Em testes onde os modelos tiveram que pesquisar imagens com base na presença ou ausência de certos objetos, eles mostraram alta precisão na hora de identificar objetos. Mas quando eles foram solicitados a procurar imagens que não continham um objeto específico, a precisão caiu significativamente.
Isso ocorre porque esses modelos geralmente são focados na confirmação e na afirmação positiva. Isso significa que eles tendem a confirmar a presença de algo em vez de detectar sua ausência — um problema que pode levar a erros graves, especialmente na análise de imagens médicas.
Na aplicação médica das tecnologias de IA, é particularmente importante entender o significado das negações e implementá-las corretamente.
Um modelo incapaz de detectar que “não há sinais de pneumonia” pode dar um resultado falsamente positivo, levando a tratamentos desnecessários ou até mesmo a decisões médicas incorretas.
Já existem abordagens iniciais para resolver os problemas com a detecção de negação. Uma solução possível seria treinar especificamente modelos de IA com conjuntos de dados que contenham negações.
Dessa forma, os modelos poderiam aprender a reconhecer e processar corretamente o significado de “não” ou “não” em um contexto médico. No entanto, este ainda é um primeiro o.
É importante que desenvolvimentos futuros não apenas melhorem a capacidade da IA de detectar negação, mas também sua capacidade de entender o contexto de uma situação e responder corretamente.
A incapacidade dos modelos de IA de interpretar corretamente as negações representa um obstáculo significativo ao uso generalizado dessas tecnologias na medicina. Apesar do progresso feito na melhoria das capacidades de detecção de negativos, ainda há muito trabalho a ser feito.
Somente dessa forma a inteligência artificial poderá ser utilizada como ferramenta segura e eficiente no diagnóstico e tratamento médico.
Vision-Language Models Do Not Understand Negation. 16 de janeiro, 2025. Alhamoud, et al.