Escrevo esse artigo de Alexandria, VA (EUA), onde participo do primeiro congresso de inteligência artificial em imagens médicas, o C-MIMI (Conference on Machine Intelligence in Medical Imaging), promovido pela SIIM (Society for Imaging Informatics in Medicine).
O evento contou com a presença de cerca de mais de 200 participantes, que assistiram a 16 apresentações de trabalhos científicos, além de aulas e palestras.
Os trabalhos apresentados surpreenderam não só pelos resultados, mas pela variedade de temas abordados. De algoritmos para leitura de idade óssea à predição de deleção do braço cromossomal 1p/19q em gliomas de baixo grau, é difícil achar uma área da radiologia em que as técnicas de machine learning não possam ser aplicadas.
Para quem não entendeu nada do que escrevi, permitam-me fazer um breve resumo da ópera.
Não é recente a ideia de usarmos computadores para avaliação de imagens médicas. Há anos já conseguimos expressivos resultados com as técnicas de CAD (computer-aided diagnosis), especialmente em mamografias e detecção de nódulos pulmonares.
Basicamente grande parte do trabalho do radiologista é varrer as imagens com os olhos e detectar padrões, de normalidade e de doença. Somente a partir disso é que podemos classificar esses padrões, aplicando nosso conhecimento acumulado para tentar chegar o mais perto possível de um diagnóstico.
Acontece que detectar padrões é uma tarefa fácil para computadores. Um pouco mais difícil é extrair as características desses padrões. Mas com as características identificadas corretamente, novamente se torna fácil classificar esse padrão.
Mas se o CAD existe faz tempo, por que ele não emplacou? Por que raramente temos essa ferramenta à nossa disposição, e quando temos, ela não parece funcionar bem?
Talvez porque estávamos fazendo as coisas do jeito errado. Ou pelo menos não da melhor maneira.
Mas não somos só nós radiologistas que estamos interessados em fazer com que o computador “leia” e “entenda” as imagens. Existe grande interesse em se aplicar esse tipo de tecnologia não só em imagens médicas, mas em fotos, desenhos, filmes. A análise visual é uma das principais áreas de interesse da inteligência artificial. Muita gente investe nisso desde o surgimento dos primeiros computadores. Microsoft, Google, Facebook, Baidu, Amazon, IBM, todos tem seus times de pesquisa em análise de imagens.
As coisas começaram a melhorar na última década. Alguns fatores fizeram com que esse campo começasse a entrar num ritmo exponencial de evolução. O principal deles foi o advento das redes neurais: sistemas de “aprendizagem” que simulam o funcionamento do neocórtex. Nelas, milhões de “neurônios” altamente interconectados se auto regulam para criar um rede de processamento de informação.
Essas redes também não são novidade, mas somente hoje temos poder computacional suficiente para explorar seu potencial. Cientistas encontraram nas GPUs (unidades de processamento gráficos) o hardware ideal para criarem suas redes neurais. Sim, estou falando das placas de vídeo, mais especificamente aquelas usadas pelos gamers.
Mais dois fatores foram cruciais para o rápido estabelecimento das CNNs (convolutional neural networks) como técnica favorita para machine learning de imagens (dos 16 trabalhos apresentados no congresso somente um utilizava outra técnica). E ambos tem a ver com a ImageNet.
A ImageNet é um projeto desenvolvido para criar um banco de dados gigantesco de imagens anotadas para serem usadas em pesquisas de machine learning. Sim, para treinarmos as máquinas, precisamos (nem sempre) de imagens anotadas, ou seja, imagens com a descrição do seu conteúdo. No nosso caso, imagine uma imagem do cérebro onde um humano “anote” nela: “cérebro”, “tomografia”, “tumor” etc.
Agora que temos as redes, o hardware para processamento, e o material de estudo (imagens anotadas), já podemos treinar nossas máquinas. E muita gente tem feito isso. Graças também às competições promovidas na Internet para ver quem cria os melhores algoritmos. Desafios lançados pela ImageNet e Kaggle, entre outros, estimularam por exemplo o surgimento do famoso algoritmo criado pelo Google que foi capaz de detectar gatos em vídeos do Youtube, sem ninguém ensinar antes o que era um gato. O computador foi capaz de criar o conceito de gato sozinho.
E se você pensa que isso ainda é coisa de ficção científica, saiba que esse algoritmos são usados milhões de vezes diariamente, quando o Facebook identifica um rosto numa foto, ou quando você pesquisa um foto no Google Photos por “Arco do Triunfo” e ele acha aquela sua foto nas férias com o monumento ao fundo. O aplicativo sensação dos últimos meses, o Prisma, usa esses algoritmos para simular o estilo de pintura dos grandes mestres e escolas.
Em breve teremos algoritmos nos nossos PACS que nos ajudarão a detectar lesões, classificar achados, priorizar estudos numa worklist, dar recomendações de conduta e follow-up, separar exames normais dos alterados, resgatar dados clínicos relevantes de um prontuário, ajudar nos diagnósticos diferenciais e até elaborar os laudos.
Mas a inteligência artificial não vai substituir o radiologista. Vai sim torná-lo mais rápido, preciso e eficiente. E isso vai ocorrer de forma gradual, quase que imperceptível. Do mesmo jeito que não percebemos que uma inteligência artificial começou a prever nossas buscas no Google enquanto mal começamos a digitar. Da mesma forma que não nos sentimos ameaçados quando a Amazon começou a nos sugerir produtos que invariavelmente acabamos comprando. Porque para nós humanos, inteligência artificial é sim uma coisa de ficção científica; uma vez que ela vira realidade, passa a ser apenas mais uma tecnologia banal e útil.