Capítulo 46 Desempenho diagnóstico


46.1 Características


46.1.1 Quais são as características de estudos de desempenho diagnóstico?


46.2 Tabelas 2x2


46.2.1 O que é uma tabela de confusão 2x2?

  • Tabela de confusão é uma matriz de 2 linhas por 2 colunas que permite analisar o desempenho de classificação de uma variável dicotômica (padrão-ouro ou referência) versus outra variável dicotômica (novo teste).348


46.2.2 Como analisar o desempenho diagnóstico em tabelas 2x2?

  • Verdadeiro-positivo (\(VP\)): caso com a condição presente e corretamente identificado como tal.349

  • Falso-negativo (\(FN\)): caso com a condição presente e erroneamente identificado como ausente.349

  • Verdadeiro-negativo (\(VN\)): controle sem a condição presente e corretamente identificados como tal.349

  • Falso-positivo (\(FP\)): controle sem a condição presente e erroneamente identificado como presente.349


Tabela 46.1: Tabela de confusão 2x2 para análise de desempenho diagnóstico de testes e variáveis dicotômicas.
Condição presente Condição ausente Total
Teste positivo \(VP\) \(FP\) \(VP+FP\)
Teste negativo \(FN\) \(VN\) \(FN+VN\)
Total \(VP+FN\) \(FP+VN\) \(N=VP+VN+FP+FN\)


  • Tabelas de confusão também podem ser visualizadas em formato de árvores de frequência.348
Árvore de frequência do desempenho diagnóstico de uma tabela de confusão 2x2 representando um método novo (dicotômico) comparado ao método padrão-ouro ou referência (dicotômico).

Figura 46.1: Árvore de frequência do desempenho diagnóstico de uma tabela de confusão 2x2 representando um método novo (dicotômico) comparado ao método padrão-ouro ou referência (dicotômico).



46.2.3 Quais probabilidades caracterizam o desempenho diagnóstico de um teste em tabelas 2x2?

  • Sensibilidade (\(SEN\)), equação (46.1): Proporção de verdadeiro-positivos dentre aqueles com a condição.349

\[\begin{equation} \tag{46.1} SEN = \dfrac{VP}{VP+FN} \end{equation}\]

  • Especificidade (\(ESP\)), equação (46.2): Proporção de verdadeiro-negativos dentre aqueles sem a condição.349


\[\begin{equation} \tag{46.2} ESP = \dfrac{VN}{VN+FP} \end{equation}\]


Trade-off entre sensibilidade e especificidade em função do limiar de probabilidade (t) para um modelo de classificação.

Figura 46.2: Trade-off entre sensibilidade e especificidade em função do limiar de probabilidade (t) para um modelo de classificação.


  • Valor preditivo positivo (\(VPP\)), equação (46.3): Proporção de casos corretamente identificados como verdadeiro-positivos.349


\[\begin{equation} \tag{46.3} VPP = \dfrac{VP}{VP+FP} \end{equation}\]


  • Valor preditivo negativo (\(VPN\)), equação (46.4): Proporção de controles corretamente identificados como verdadeiro-negativos.349


\[\begin{equation} \tag{46.4} VPN = \dfrac{VN}{VN+FN} \end{equation}\]


  • Razão de verossimilhança positiva (\(LR+\)), equação (46.5): Quantifica o quanto a probabilidade de a condição estar presente aumenta quando o teste é positivo.REF?

\[\begin{equation} \tag{46.5} LR+ = \dfrac{SEN}{1 - ESP} = \dfrac{VP/(VP+FN)}{FP/(FP+VN)} \end{equation}\]


  • Razão de verossimilhança negativa (\(LR-\)), equação (46.6): Quantifica o quanto a probabilidade de a condição estar presente diminui quando o teste é negativo.REF?

\[\begin{equation} \tag{46.6} LR- = \dfrac{1 - SEN}{ESP} = \dfrac{FN/(VP+FN)}{VN/(FP+VN)} \end{equation}\]


  • Acurácia (\(ACU\)), equação (46.7): Proporção de casos e controles corretamente identificados.349


\[\begin{equation} \tag{46.7} ACU = \dfrac{VP+VN}{VP+VN+FP+FN} \end{equation}\]


  • Razão de chances diagnóstica (\(DOR\)), equações (46.8), (46.9) e (46.10): Razão entre a chance de um teste ser positivo quando a condição está presente e a chance de um teste ser positivo quando a condição está ausente.351

\[\begin{equation} \tag{46.8} DOR = \dfrac{VP}{FN} \div \dfrac{FP}{VN} = \dfrac{VP \cdot VN}{FP \cdot FN} \end{equation}\]


\[\begin{equation} \tag{46.9} DOR = \dfrac{SEN/(1-SEN)}{(1-ESP)/ESP} = \dfrac{SEN \cdot ESP}{(1-SEN) \cdot (1-ESP)} \end{equation}\]

\[\begin{equation} \tag{46.10} DOR = \dfrac{LR+}{LR-} \end{equation}\]


Tabela 46.2: Probabilidades calculados a partir da tabela de confusão 2x2 para análise de desempenho diagnóstico de testes e variáveis dicotômicas.
Condição presente Condição ausente Total Probabilidades
Teste positivo \(VP\) \(FP\) \(VP+FP\) \(VPP = \frac{VP}{VP+FP}\)
Teste negativo \(FN\) \(VN\) \(FN+VN\) \(VPN = \frac{VN}{VN+FN}\)
Total \(VP+FN\) \(FP+VN\) \(N=VP+VN+FP+FN\)
Probabilidades \(SEN = \frac{VP}{VP+FN}\) \(ESP = \frac{VN}{VN+FP}\) \(ACU = \frac{VP+VN}{VP+VN+FP+FN}\)  \(DOR = \frac{VP \cdot VN}{FP \cdot FN}\)




46.3 Tabelas 2x3


46.3.1 O que é uma tabela de confusão 2x3?

  • É a extensão da tabela 2×2 que inclui uma terceira decisão (deferimento/boundary) além de aceitar (positivo) e rejeitar (negativo).353

  • As colunas** representam as decisões** (\(POS\), \(BND\), \(NEG\)) e as linhas representam a verdade de referência (condição presente vs ausente).353

  • Essa formulação vem do arcabouço de Three-Way Decisions (3WD), que particiona o universo em três regiões por dois limiares \(\alpha\) e \(\beta\).353


46.3.2 Como as regiões POS, BND e NEG são definidas?

  • Dado um escore ou probabilidade condicional \(Pr(C\mid[x])\) para a classe \(C\), classifica-se como \(POS\) (aceitar) quando \(Pr(C\mid[x]) \ge \alpha\), como \(BND\) (deferir) quando \(\beta < Pr(C\mid[x]) < \alpha\) e como \(NEG\) (rejeitar) quando \(Pr(C\mid[x]) \le \beta\), sendo que os limiares \((\alpha,\beta)\) determinam simultaneamente as três regiões e os trade-offs entre acurácia e comprometimento.353


46.3.3 Qual é o formato de uma tabela 2×3?

  • Estrutura geral (linhas = condição real; colunas = decisão):
Tabela 46.3: Tabela de confusão 3-vias (2×3) com totais: referência vs decisão (3WD).
POS (aceitar) BND (deferir) NEG (rejeitar) Total
Condição presente (C) \(|POS\cap C|\) \(|BND\cap C|\) \(|NEG\cap C|\) \(|POS\cap C|+|BND\cap C|+|NEG\cap C|\)
Condição ausente (\(C^c\)) \(|POS\cap C^c|\) \(|BND\cap C^c|\) \(|NEG\cap C^c|\) \(|POS\cap C^c|+|BND\cap C^c|+|NEG\cap C^c|\)
Total \(|POS\cap C|+|POS\cap C^c|\) \(|BND\cap C|+|BND\cap C^c|\) \(|NEG\cap C|+|NEG\cap C^c|\) \(N\)


46.3.4 Quais são as medidas básicas na 2×3?

  • Acurácia em POS (\(M_{PT}\)), equação (46.11): Proporção de positivos corretamente identificados na região POS.353

\[\begin{equation} \tag{46.11} M_{PT} = \dfrac{|POS \cap C|}{|POS|} \end{equation}\]

  • Erro em POS (\(M_{PF}\)), equação (46.12): Proporção de negativos incorretamente classificados na região POS.353

\[\begin{equation} \tag{46.12} M_{PF} = \dfrac{|POS \cap C^{c}|}{|POS|} \end{equation}\]

  • Acurácia em NEG (\(M_{NF}\)), equação (46.13): Proporção de negativos corretamente identificados na região NEG.353

\[\begin{equation} \tag{46.13} M_{NF} = \dfrac{|NEG \cap C^{c}|}{|NEG|} \end{equation}\]

  • Erro em NEG (\(M_{NT}\)), equação (46.14): Proporção de positivos incorretamente classificados na região NEG.353

\[\begin{equation} \tag{46.14} M_{NT} = \dfrac{|NEG \cap C|}{|NEG|} \end{equation}\]

  • Frações em BND (\(M_{BT}\) e \(M_{BF}\)), equações (46.15) e (46.16): Proporção de deferimentos verdadeiros e falsos.353

\[\begin{equation} \tag{46.15} M_{BT} = \dfrac{|BND \cap C|}{|BND|} \end{equation}\] \[\begin{equation} \tag{46.16} M_{BF} = \dfrac{|BND \cap C^{c}|}{|BND|} \end{equation}\]


46.3.5 Como escolher os limiares \(\alpha\) e \(\beta\)?

  • Os limiares \((\alpha,\beta)\) controlam o tamanho das regiões \(POS\), \(NEG\) e \(BND\) e, portanto, os trade-offs entre “acertar mais” (acurácia nas regiões) e “decidir mais” (comprometimento; menos deferimentos).353


46.3.6 Quando preferir 3-vias em vez de 2×2?

  • Quando o custo de erro é assimétrico e/ou há incerteza relevante.353

  • O deferimento (\(BND\)) evita decisões precipitadas e permite avaliação adicional, equilibrando acurácia e cobertura.353

  • É particularmente útil em triagens diagnósticas com etapas confirmatórias.353


46.4 Curvas ROC


46.4.1 O que representa a curva ROC?

  • A relação entre sensibilidade (\(SEN\)) no eixo vertical e \(1 - ESP\) no eixo horizontal.354

  • Cada ponto na curva corresponde a um ponto de corte possível do teste.354


46.4.2 Quais são os tipos de curva ROC?

  • Curva empírica: conecta diretamente os pontos obtidos a partir dos diferentes pontos de corte observados.355

  • Curva suavizada (paramétrica): assume uma distribuição binormal e gera uma curva ajustada por máxima verossimilhança.355


46.4.3 Como definir o melhor ponto de corte?

  • O ponto de corte em uma curva ROC representa um balanço entre sensibilidade e especificidade, ou seja, a taxa de verdadeiros positivos e a taxa de falsos positivos.354,355

  • O método de Youden (equação (46.17) maximiza a diferença entre a taxa de verdadeiros positivos e a taxa de falsos positivos. O ponto de corte ideal será aquele com maior valor de \(Y\).127

\[\begin{equation} \tag{46.17} Y = SEN + ESP - 1 \end{equation}\]

  • O método da distância Euclidiana ((46.18) minimiza a distância entre um ponto da curva ROC e o ponto (0,1), que representa sensibilidade perfeita (\(SEN = 100%\)) e especificidade perfeita (\(ESP = 100%\)). O ponto de corte ideal será aquele com menor valor de \(D\).356

\[\begin{equation} \tag{46.18} D = \sqrt{(1 - SEN)^2 + (1 - ESP)^2} \end{equation}\]


46.4.4 O que é a área sob a curva (AUROC)?

  • A área sob a curva ROC (AUC ou AUROC) quantifica o poder de discriminação ou desempenho diagnóstico na classificação de uma variável dicotômica.357

  • A área sob a curva (\(AUC\)) resume o desempenho global e representa a probabilidade de o teste classificar corretamente um caso positivo selecionado aleatoriamente em relação a um caso negativo selecionado aleatoriamente.354


46.4.5 Como calcular a AUC?

  • Método não paramétrico: soma das áreas trapezoidais sob a curva empírica. Pode subestimar AUC quando os dados são discretos.355

  • Método paramétrico (binormal): mais robusto para dados em escala ordinal (ex: categorias diagnósticas), com viés reduzido.355

  • AUC deve sempre vir acompanhada de intervalo de confiança (IC95%).355



46.4.6 Como interpretar a área sob a curva (ROC)?

  • A área sob a curva AUC varia no intervalo \([0.5; 1]\), com valores mais elevados indicando melhor discriminação ou desempenho do modelo de classificação.357

  • As interpretações qualitativas (isto é: pobre/fraca/baixa, moderada/razoável/aceitável, boa ou muito boa/alta/excelente) dos valores de área sob a curva são arbitrários e não devem ser considerados isoladamente.357

  • Modelos de classificação com valores altos de área sob a curva podem ser enganosos se os valores preditos por esses modelos não estiverem adequadamente calibrados.357

  • Diferenças pequenas entre AUCs podem não ser estatisticamente significativas.354

  • A interpretação clínica pode ser equivocada se não houver teste estatístico adequado.354

  • Se as curvas vêm do mesmo conjunto de pacientes, aplique o teste de DeLong.354

  • Se as curvas vêm de amostras independentes, use métodos como Dorfman-Alf.354


46.4.7 Por que uma AUC menor que 0.5 está errada?

  • Porque indica desempenho pior que o acaso.354

  • Geralmente decorre de seleção incorreta da direção do teste ou da variável de estado.354

  • Verifique se o software está configurado para maiores valores indicam presença do evento ou o inverso.354

  • Ajuste a direção do teste para que \(AUC ≥ 0.5\).354


Curva ROC (Receiver Operating Characteristic) para um modelos de classificação com diferentes desempenhos diagnósticos.

Figura 46.3: Curva ROC (Receiver Operating Characteristic) para um modelos de classificação com diferentes desempenhos diagnósticos.


46.4.8 Como analisar o desempenho diagnóstico em desfechos com distribuição trimodal na população?

  • Limiares duplos podem ser utilizados para análise de desempenho diagnóstico de testes com distribuição trimodal.359


46.5 Gráficos crosshair


46.5.1 O que um gráfico crosshair?



46.6 Interpretação da validade de um teste


46.6.1 Que itens devem ser verificados na interpretação de um estudo de validade?

  • O novo teste foi comparado junto ao método padrão-ouro.349

  • As probabilidades pontuais estimadas que caracterizam o desempenho diagnóstico do novo teste são altas e adequadas para sua aplicação clínica.349

  • Os intervalos de confiança estimados para as probabilidades do novo teste são estreitos e adequadas para sua aplicação clínica.349

  • O novo teste possui adequada confiabilidade intra/inter examinadores.349

  • O estudo de validação incluiu um espectro adequado da amostra.349

  • Todos os participantes realizaram ambos o novo teste e o padrão-ouro no estudo de validação.349

  • Os examinadores do novo teste estavam cegados para o resultado do teste padrão-ouro.349


46.7 Diretrizes para redação


46.7.1 Quais são as diretrizes para redação de estudos diagnósticos?



Citar como:
Ferreira, Arthur de Sá. Ciência com R: Perguntas e respostas para pesquisadores e analistas de dados. Rio de Janeiro: 1a edição,


Referências

127.
Youden WJ. Index for rating diagnostic tests. Cancer. 1950;3(1):32–35. doi:10.1002/1097-0142(1950)3:1<32::aid-cncr2820030106>3.0.co;2-3
348.
Steckelberg A, Balgenorth A, Berger J, Mühlhauser I. Explaining computation of predictive values: 2 × 2 table versus frequency tree. A randomized controlled trial [ISRCTN74278823]. BMC Medical Education. 2004;4(1). doi:10.1186/1472-6920-4-13
349.
Greenhalgh T. How to read a paper: Papers that report diagnostic or screening tests. BMJ. 1997;315(7107):540–543. doi:10.1136/bmj.315.7107.540
350.
Neth H, Gaisbauer F, Gradwohl N, Gaissmaier W. riskyr: Rendering Risk Literacy more Transparent.; 2022. https://CRAN.R-project.org/package=riskyr.
351.
Glas AS, Lijmer JG, Prins MH, Bonsel GJ, Bossuyt PMM. The diagnostic odds ratio: a single indicator of test performance. Journal of Clinical Epidemiology. 2003;56(11):1129–1135. doi:10.1016/s0895-4356(03)00177-x
352.
Kuhn, Max. Building Predictive Models in R Using the caret Package. Journal of Statistical Software. 2008;28(5):1–26. doi:10.18637/jss.v028.i05
353.
Xu J, Zhang Y, Miao D. Three-way confusion matrix for classification: A measure driven view. Information Sciences. 2020;507:772–794. doi:10.1016/j.ins.2019.06.064
354.
He Z, Zhang Q, Song M, Tan X, Wang W. Four overlooked errors in ROC analysis: how to prevent and avoid. BMJ Evidence-Based Medicine. 2024;30(3):208–211. doi:10.1136/bmjebm-2024-113078
355.
Park SH, Goo JM, Jo CH. Receiver Operating Characteristic (ROC) Curve: Practical Review for Radiologists. Korean Journal of Radiology. 2004;5(1):11. doi:10.3348/kjr.2004.5.1.11
356.
Park SH, Goo JM, Jo CH. UniODA vs ROC Analysis: Computing the “optimal” cut-point. Optimal Data Analysis. 2014;3(14):117–120. https://odajournal.com/wp-content/uploads/2019/01/v3a29.pdf.
357.
Hond AAH de, Steyerberg EW, Calster B van. Interpreting area under the receiver operating characteristic curve. The Lancet Digital Health. 2022;4(12):e853–e855. doi:10.1016/s2589-7500(22)00188-1
358.
Robin X, Turck N, Hainard A, et al. pROC: an open-source package for R and S+ to analyze and compare ROC curves. BMC Bioinformatics. 2011;12:77. doi:10.1186/1471-2105-12-77
359.
Ferreira ADS, Meziat-Filho N, Ferreira APA. Double threshold receiver operating characteristic plot for three-modal continuous predictors. Computational Statistics. 2021;36(3):2231–2245. doi:10.1007/s00180-021-01080-9
360.
Phillips B, Stewart LA, Sutton AJ. Cross hairs plots for diagnostic meta-analysis. Research Synthesis Methods. 2010;1(3-4):308–315. doi:10.1002/jrsm.26
361.
Sousa-Pinto PD with contributions from B. mada: Meta-Analysis of Diagnostic Accuracy.; 2022. https://CRAN.R-project.org/package=mada.
362.
Bossuyt PM, Reitsma JB, Bruns DE, et al. STARD 2015: an updated list of essential items for reporting diagnostic accuracy studies. BMJ. outubro 2015:h5527. doi:10.1136/bmj.h5527