dc.description.abstract |
RESUMO: As radiografias de tórax, ou raios X de tórax, são os exames de imagem mais utilizados
diariamente nos hospitais. Responsável por auxiliar na detecção de inúmeras patologias e
achados que interferem diretamente na vida do paciente, esse exame é, portanto,
fundamental na triagem dos pacientes. O uso de técnicas de visão computacional
atrelada ao aprendizado profundo auxiliam na tomada de decisão por parte do médico
radiologista, fornecendo uma segunda opinião e consequentemente reduzindo custos
operacionais. Diante disso, este trabalho propõe uma metodologia hierárquica e baseada
em um comitê de Redes Neurais Convolucionais (Convolutional Neural Networks - CNNs)
para auxiliar no diagnóstico de exames de raios X de tórax, inicialmente rastreando-os
com alta probabilidade de serem normais ou anormais e posterior detecção da patologia.
No desenvolvimento da etapa de triagem deste estudo, foi utilizado um conjunto de
dados com imagens de raios-X de incidências frontal e lateral. Para a construção do
modelo ensemble, foram avaliadas as arquiteturas VGG-16, ResNet50, DenseNet121,
MobileNetV2 e NasNetMobile comumente utilizadas na classificação de radiografias de
tórax. Um Limiar de Confiança (CTR) foi usado para definir as previsões em Normal de
Alta Confiança (HCn), classificação Borderline (BC) ou Anormal de Alta Confiança (HCa).
Nos testes realizados, foram alcançados resultados bastante promissores: 54,63 % dos
exames foram classificados com alta confiança; dos exames normais, 32% foram
classificados como HCn com uma taxa de falsa descoberta (FDR) de 1,68%; e quanto
aos exames anormais, 23% foram classificados como HCa com 4,91% taxa de falsas
omissões (FOR). Na etapa de detecção de anormalidades, avaliamos as arquiteturas com
diferentes pré-treinamentos. No entanto, o melhor resultado foi obtido com a VGG-16
pré-treinada com a base de dados proposta no desenvolvimento da triagem com 352.460
imagens. Foram utilizadas duas bases de dados para avaliar essa etapa, são elas: NIH
Chest X-rays 14 com 112.120 imagens, onde foi obtida a AUC média de 0,8484 e
CheXpert com 224.316 imagens com AUC média de 0,8736. Os resultados obtidos nas
duas etapas desenvolvidas na metodologia proposta são promissores, ressaltando que o
modelo pré-treinado na triagem e avaliado na classificação de anormalidades, apresentou
o melhor resultado, ressaltando a contribuição da hierarquia na classificação dos exames.
ABSTRACT: Chest radiographs, or chest X-rays, are hospitals’ most commonly used imaging tests.
This test is essential in patient screening and assists in detecting numerous pathologies
and findings that directly interfere with the patient’s life. Using computer vision techniques
linked to deep learning assists the radiologist in decision-making, providing a second
opinion and reducing operating costs. Given this, this work proposes a hierarchical
methodology based on a Convolutional Neural Networks (CNNs) committee to assist in
diagnosing chest X-ray exams, initially screening them with a high probability of being
normal or abnormal and subsequently detecting the pathology. In the development of the
screening stage of this study, a dataset with X-ray images of frontal and lateral incidences
was used. The VGG-16, ResNet50, DenseNet121, MobileNetV2, and NasNetMobile
architectures commonly used in chest radiograph classification were evaluated to build the
ensemble model. A Confidence Threshold (CTR) was used to define the predictions in
High Confidence Normal (HCn), Borderline (BC), or High Confidence Abnormal (HCa). In
the tests performed, very promising results were achieved: 54.63% of the exams were
classified with high confidence; of the normal exams, 32% were classified as HCn with a
false discovery rate (FDR) of 1.68%; and as for the abnormal exams, 23% were classified
as HCa with a false omission rate (FOR) of 4.91%. In the abnormality detection stage, we
evaluated the architectures with different pre-training. However, the best result was
obtained with VGG-16 pre-trained with the base used in the development of the screening.
Two databases were used to evaluate this step: NIH Chest X-rays 14 with 112,120 images,
with an average AUC of 0.8484, and CheXpert with 224,316 images with an average AUC
of 0.8736. The results obtained in the two steps developed in the proposed methodology
are promising, highlighting that the model pre-trained in screening and evaluated in the
classification of abnormalities presented the best result, highlighting the contribution of the
hierarchy in the classification of exams. |
pt_BR |