Capítulo 43 Aprendizado de máquina
43.1 Aprendizado de máquina
43.1.1 O que é aprendizado de máquina?
Treinar um modelo significa resolver um problema matemático no qual um conjunto de observações (dados) é usado para ajustar um modelo. Esse modelo busca capturar tendências gerais dos dados, ignorando particularidades excessivas para evitar sobreajuste (overfitting).351
O processo deriva do conceito estatístico de regressão e corresponde, em essência, à solução de um problema em que há mais restrições do que graus de liberdade.351
Figura 43.1: Mapa mental de algoritmos de aprendizado de máquina.
O pacote fastml352 fornece a função train_models para treinar algoritmos de aprendizado de máquina em dados de treinamento pré-processados.
43.2 Tipos de aprendizado
43.2.1 O que é aprendizado supervisionado?
Aprendizado supervisionado é um paradigma em que um conjunto de variáveis preditoras (entradas) é utilizado para prever uma variável resposta previamente rotulada, seja ela quantitativa (regressão) ou qualitativa (classificação).353
O algoritmo aprende padrões gerais a partir de exemplos observados, guiado por um objetivo explícito de predição.353
Durante o treinamento, o modelo ajusta seus parâmetros para minimizar uma função de erro que compara valores previstos com rótulos verdadeiros, buscando equilíbrio entre ajuste aos dados e capacidade de generalização.353
43.2.4 Quais são os limites do progresso em classificadores supervisionados?
Os maiores ganhos de acurácia vêm de modelos simples, como análise discriminante linear; métodos mais sofisticados oferecem apenas ganhos marginais.354
O aumento da complexidade do modelo traz retornos decrescentes em termos de redução da taxa de erro.354
43.2.5 Quais problemas práticos limitam a generalização de classificadores?
Population drift: mudanças na distribuição dos dados ao longo do tempo degradam a performance de modelos.354
Sample selectivity bias: amostras de treino podem não representar a população futura, levando a superestimação de desempenho.354
Erros de rótulo e definições arbitrárias de classes comprometem a validade dos modelos.354
43.3 Fluxo de desenvolvimento de modelos
43.3.1 Qual é o fluxo típico de desenvolvimento de modelos de aprendizado de máquina?
Preparação e limpeza dos dados.355
Divisão em conjuntos de treinamento, validação e teste.355
Treinamento do modelo.355
Ajuste de hiperparâmetros.355
Avaliação do desempenho do modelo.355
Validação em dados independentes.355
43.3.2 O que são conjuntos de treinamento, validação e teste?
O desenvolvimento de modelos de aprendizado de máquina geralmente envolve a divisão do conjunto de dados em subconjuntos de treinamento e validação, permitindo avaliar o desempenho do modelo em dados não utilizados durante o ajuste dos parâmetros.355
Conjunto de treinamento: usado para ajustar os parâmetros do modelo.355
Conjunto de validação: usado para comparar modelos e ajustar hiperparâmetros.355
Conjunto de teste: usado apenas para avaliar o desempenho final do modelo.355
43.4 Principais algoritmos
43.4.1 Quais são os principais algoritmos de aprendizado de máquina?
Modelos de regressão não penalizados, modelos de regressão penalizados, modelos baseados em árvores, modelos baseados em vizinhos, redes neurais, máquinas de vetores de suporte, Naive Bayes e ensembles do tipo Superlearner.356
Do ponto de vista matemático, redes neurais não contradizem a estatística clássica; elas a estendem, substituindo modelos explícitos por representações aprendidas.REF?
| Modelos de regressão | Redes neurais artificiais | Papel conceitual |
|---|---|---|
| Variável preditora (x) | Neurônio de entrada | Informação observada fornecida ao modelo |
| Coeficiente (β) | Peso (w) | Intensidade e direção da influência da variável |
| Intercepto (β₀) | Viés (b) | Deslocamento da fronteira de decisão |
| Combinação linear (β₀ + Σ βᵢxᵢ) | Soma ponderada (Σ wᵢxᵢ + b) | Agregação das entradas antes da não linearidade |
| Função de ligação (link) | Função de ativação | Introdução de não linearidade |
| Regressão linear | Neurônio linear | Modelo puramente linear |
| Regressão logística | Perceptron com ativação sigmoide | Classificação binária probabilística |
| Log-odds | Entrada da função sigmoide | Escala interna antes da probabilidade |
| Predição (ŷ) | Saída do neurônio | Resposta estimada do modelo |
| Função de perda | Função de perda (loss) | Quantificação do erro de predição |
| Máxima verossimilhança | Otimização da função de perda | Ajuste dos parâmetros do modelo |
| Gradiente da verossimilhança | Retropropagação (backpropagation) | Direção de atualização dos parâmetros |
| Regularização (L1, L2) | Penalização de pesos (weight decay) | Controle de complexidade e overfitting |
| Interações explícitas | Interações aprendidas implicitamente | Modelagem de efeitos combinados |
| Modelo interpretável | Modelo geralmente opaco | Trade-off entre interpretação e flexibilidade |
43.4.2 Por que estudos comparativos entre classificadores podem ser enganosos?
Resultados dependem da experiência do pesquisador com cada método, da escolha dos conjuntos de dados e do critério de avaliação usado.354
Diferenças pequenas em acurácia frequentemente desaparecem quando se consideram incertezas reais de aplicação.354
43.5 Regressão logística
43.5.1 O que é regressão logística?
Modelos logísticos são casos de regressão linear generalizada em que a resposta \(Y\) é binária.316
A equação (35.5) modela a razão de chances (odds) em função dos preditores.316
\[\begin{equation} \tag{35.5} \log\left(\frac{p}{1-p}\right) = \beta_0 + \beta_1 X + ... + \beta_n X_n \end{equation}\]
\[\begin{equation} \tag{35.6} g(p) = \log\left(\frac{p}{1-p}\right) \end{equation}\]
Figura 43.2: Regressão logística.
43.5.2 Por que utilizar regressão logística em problemas de classificação?
Quando a variável resposta é categórica, um método comum para estimar probabilidades e realizar classificação é a regressão logística, que modela a probabilidade de pertencimento a uma classe em função de variáveis preditoras.357
Diferentemente da regressão linear, que pode produzir valores fora do intervalo \([0,1]\), a regressão logística utiliza uma função sigmoide que transforma combinações lineares de preditores em probabilidades válidas.357
A função logística relaciona a probabilidade \(p\) ao logaritmo da razão de chances (log-odds), produzindo uma relação linear entre o log-odds e os preditores.357
Essa formulação permite interpretar os coeficientes do modelo como efeitos aditivos sobre o log-odds do evento de interesse.357
Uma vez estimados os parâmetros, a probabilidade prevista pode ser obtida pela transformação inversa, o que gera uma curva signmóide, adequada para modelar transições graduais entre classes.357
43.6 Máquina de vetores de suporte
43.6.1 O que são máquinas de vetores de suporte?
Máquinas de Vetores de Suporte (SVM) são métodos supervisionados que buscam encontrar um hiperplano que maximize a margem entre classes, utilizando apenas os vetores de suporte — os pontos mais próximos da fronteira decisória.353
O equilíbrio entre margem e penalização de erros é controlado pelo hiperparâmetro \(C\), que regula o trade-off entre viés e variância.353
Valores elevados de \(C\) reduzem violações da margem, mas aumentam risco de overfitting; valores menores favorecem margens mais amplas e maior regularização.353
43.7 K-nearest neighbours
43.7.1 O que é K-nearest neighbours?
O algoritmo k-nearest neighbors (kNN) classifica novos pontos com base na maioria de votos entre os \(k\) vizinhos mais próximos. Diferentemente da SVM linear, não assume fronteira paramétrica específica, sendo considerado método não paramétrico.353
O valor de \(k\) atua como parâmetro de regularização: valores pequenos produzem fronteiras altamente flexíveis (alta variância), enquanto valores maiores produzem fronteiras mais suaves (maior viés).353
43.8 Árvores de decisão
43.8.1 O que são árvores de decisão?
São modelos de aprendizado supervisionado que dividem os dados em ramos e folhas, representando regras de decisão de forma hierárquica.239
Podem lidar eficientemente com grandes conjuntos de dados sem pressupor estrutura paramétrica complexa.238
São aplicáveis a variáveis contínuas e discretas, tanto como preditoras quanto como desfechos.238
Figura 43.3: Exemplo de árvore de decisão para predizer depressão a partir de idade, tabagismo e sintomas.
43.8.2 Quais são os principais usos de árvores de decisão?
Seleção de variáveis relevantes em cenários com muitos preditores, como registros clínicos eletrônicos.238
Avaliação da importância relativa das variáveis, com base na redução da pureza dos nós ou da acurácia ao remover variáveis.238
Tratamento de valores ausentes, seja classificando-os como categoria própria ou imputando-os por previsão dentro da árvore.238
Predição de novos casos a partir de dados históricos.238
Manipulação de dados, colapsando categorias muito numerosas ou subdividindo variáveis contínuas assimétricas.238
43.8.3 Quais são os componentes básicos de uma árvore de decisão?
Nós raiz (ou de decisão): subdividem todos os registros iniciais.238
Nós internos (ou de chance): representam subdivisões intermediárias.238
Nós folha (ou finais): resultados finais após sucessivas divisões.238
Ramos: representam condições “se-então”, ligando nós em sequência até a classificação final.238
43.8.4 Como árvores de decisão realizam as divisões nos dados?
Árvores de decisão são construídas por um processo iterativo de particionamento do espaço dos preditores, no qual os dados são divididos em subconjuntos cada vez mais homogêneos em relação ao desfecho.358
Em cada etapa, o algoritmo avalia todos os possíveis pontos de divisão de uma variável preditora e seleciona aquele que maximiza o ganho de informação, isto é, a redução da mistura de classes entre os subconjuntos resultantes.358
O processo de divisão continua recursivamente até que seja atingido um critério de parada, como número mínimo de observações por nó, profundidade máxima da árvore ou redução mínima do erro.358
Alternativamente, a árvore pode ser inicialmente construída em sua forma completa e posteriormente simplificada por poda (pruning), geralmente utilizando validação cruzada para remover ramos pouco informativos e reduzir o risco de overfitting.358
43.8.5 Como funcionam splitting, stopping e pruning?
Splitting: divide registros em subconjuntos mais homogêneos com base em métricas como entropia, índice de Gini e ganho de informação.238
Stopping: evita árvores excessivamente complexas ao definir parâmetros como número mínimo de registros por nó ou profundidade máxima.238
Pruning: reduz árvores grandes eliminando ramos pouco informativos, usando validação ou métodos como qui-quadrado.238
43.8.6 Quais são as vantagens e limitações de árvores de decisão?
Vantagens: simplificam relações complexas; são intuitivas e fáceis de interpretar; não exigem pressupostos de distribuição; lidam bem com valores ausentes e dados enviesados; são robustas a outliers.238
Limitações: podem sofrer overfitting ou underfitting em amostras pequenas; podem selecionar variáveis correlacionadas sem relação causal real.238
43.8.7 Espaço de decisão em árvores de decisão vs. regressão logística
A regressão logística assume relações lineares entre variáveis e log-odds.239
Árvores de decisão permitem capturar relações não lineares e interações de forma automática.239
Figura 43.4: Comparação entre modelos de regressão logística e árvore de decisão.
O pacote h2o359 fornece funções construir modelos de aprendizado de máquina.
O pacote correctR339 fornece as funções kfold_ttest, repkfold_ttest e resampled_ttest para calcular estatística para comparação de modelos de aprendizado de máquina em amostras dependentes.
O pacote caret@caret fornece um conjunto de funções para pré-processamento, ajuste, avaliação e comparação de modelos de aprendizado de máquina.
O pacote mlr3@mlr3 fornece funções para fluxos de trabalho complexos, incluindo pré-processamento, ajuste de hiperparâmetros e integração com diversos algoritmos.
43.11 K-means Clustering
43.11.1 O que é K-means clustering?
O k-means clustering é um algoritmo de aprendizado não supervisionado utilizado para particionar um conjunto de dados em \(k\) grupos, de modo que observações dentro do mesmo grupo apresentem maior similaridade entre si do que em relação às observações de outros grupos.360
O método pode ser interpretado como um problema de quantização de dados, no qual se busca representar um conjunto de \(N\) observações em um espaço vetorial \(d\) d-dimensional por meio de \(k\) centros ou centroides.360
O objetivo do algoritmo é minimizar a soma dos quadrados das distâncias entre cada ponto e o centroide do cluster ao qual pertence, conhecida como within-cluster sum of squares (\(WCSS\)) ou sum of squared errors (\(SSE\)).360
43.11.2 Existe um número “ótimo” de clusters?
Diferentemente de muitos problemas de aprendizado supervisionado, não existe necessariamente um único número correto de clusters.360
A análise de clusters deve ser vista como uma técnica exploratória, na qual diferentes soluções podem revelar estruturas relevantes em diferentes níveis de granularidade.360
A escolha do número de clusters deve considerar não apenas critérios quantitativos, mas também interpretação substantiva e conhecimento do domínio.360
43.11.3 Como escolher o número de clusters?
Um dos principais desafios na aplicação do algoritmo k-means é determinar o número apropriado de clusters \(k\), uma vez que esse parâmetro precisa ser especificado antes da execução do algoritmo.360
O algoritmo busca minimizar a soma dos quadrados das distâncias entre cada observação e o centroide do cluster mais próximo, conhecida como soma dos quadrados dentro dos clusters (within-cluster sum of squares, \(WCSS\) ou \(SSE\)).360
Como o valor da \(SSE\) tende a diminuir conforme aumenta o número de clusters, torna-se necessário utilizar algum critério para identificar um valor de \(k\) que represente uma boa estrutura nos dados.360
43.11.4 Por que o método do “cotovelo” pode ser problemático?
O método do cotovelo (elbow method) consiste em plotar a \(SSE\) em função do número de clusters e escolher o ponto em que ocorre uma mudança abrupta na inclinação da curva.360
A intuição é que, após certo número de clusters, o ganho em redução do erro passa a apresentar retornos decrescentes.360
Entretanto, curvas semelhantes podem surgir mesmo quando os dados não possuem estrutura de clusters real.360
Em muitos conjuntos de dados reais, o ponto de “cotovelo” não é claramente identificável, o que torna a escolha subjetiva.360
- Diferentes heurísticas para detectar automaticamente o cotovelo frequentemente produzem resultados inconsistentes ou dependentes da escala dos dados.360
43.12 Análise de componentes principais
43.12.1 O que é análise de componentes principais?
A análise de componentes principais (Principal Component Analysis, PCA) é uma técnica estatística amplamente utilizada para redução de dimensionalidade, para representar dados de alta dimensão por um conjunto menor de variáveis, preservando o máximo possível da variabilidade original.361
O primeiro componente principal é definido como a direção, de comprimento unitário, que maximiza a variância dos dados projetados. Ele corresponde ao eixo ao longo do qual os dados apresentam a maior dispersão, concentrando a maior quantidade de informação estatística disponível.361
O segundo componente principal é a direção que maximiza a variância restante, sob a condição de ser ortogonal ao primeiro componente. Essa restrição garante que cada novo componente adicione informação nova, não redundante, à representação dos dados.361
Esse procedimento é repetido para os componentes subsequentes, de forma que cada componente principal seja ortogonal aos anteriores e capture a maior variância possível ainda não explicada, resultando em uma ordenação natural dos componentes por importância.361
Ao final do processo, a PCA produz uma base ortogonal que impõe uma geometria específica à representação dos dados, restringindo a forma como os dados podem ser reconstruídos a partir dos componentes principais.361
Embora os componentes principais descrevam de maneira eficiente a variabilidade dos dados, eles nem sempre correspondem aos fatores geradores subjacentes do fenômeno estudado. A PCA pode ainda introduzir padrões artificiais, criando uma aparência de estrutura que não reflete necessariamente os processos reais de geração dos dados.361
Figura 43.5: Análise de Componentes Principais (PCA). O PC1 maximiza variância total, mas pode não alinhar com o fator latente real (z1).
O pacote mlr3@mlr3 fornece funções para fluxos de trabalho complexos, incluindo pré-processamento, ajuste de hiperparâmetros e integração com diversos algoritmos.
43.13 Métricas de distância e similaridade
43.13.1 O que é uma métrica?
- Uma métrica é uma função que quantifica a distância entre dois objetos em um espaço vetorial, obedecendo propriedades como não-negatividade, identidade, simetria e desigualdade triangular.REF?
43.13.2 Quais são as principais métricas?
\[\begin{equation} \tag{43.1} d(x, y) = \sum_{i=1}^{n} |x_i - y_i| \end{equation}\]
- Distância Euclidiana (43.2): raiz quadrada da soma dos quadrados das diferenças entre as coordenadas dos pontos.REF?
\[\begin{equation} \tag{43.2} d(x, y) = \sqrt{\sum_{i=1}^{n} (x_i - y_i)^2} \end{equation}\]
- Distância Minkowski: (43.3): generalização das distâncias de Manhattan e Euclidiana, onde o parâmetro \(p\) determina a ordem da métrica. Para \(p=1\), é equivalente à distância de Manhattan; para \(p=2\), é equivalente à distância Euclidiana.REF?
\[\begin{equation} \tag{43.3} d(x, y) = \left( \sum_{i=1}^{n} |x_i - y_i|^p \right)^{\frac{1}{p}} \end{equation}\]
- Distância Chebyshev (43.4): máximum das diferenças absolutas entre as coordenadas dos pontos, representando a distância em um espaço onde o movimento é permitido em todas as direções.REF?
\[\begin{equation} \tag{43.4} d(x, y) = \max_{i} |x_i - y_i| \end{equation}\]
- Similaridade cosseno (43.5): medida de similaridade entre dois vetores que calcula o cosseno do ângulo entre eles, variando de -1 (totalmente opostos) a 1 (totalmente semelhantes).REF?
\[\begin{equation} \tag{43.5} \text{similaridade}(x, y) = \frac{x \cdot y}{\|x\| \|y\|} \end{equation}\]
- Distância de Hamming (43.6): número de posições em que os símbolos correspondentes de duas sequências de igual comprimento são diferentes, frequentemente usada para medir a diferença entre strings ou códigos binários.REF?
\[\begin{equation} \tag{43.6} d(x, y) = \sum_{i=1}^{n} \mathbf{1}(x_i \neq y_i) \end{equation}\]
- Índice de Jaccard (43.7): medida de similaridade entre conjuntos, calculada como a razão entre a interseção e a união dos conjuntos, variando de 0 (sem elementos em comum) a 1 (conjuntos idênticos).REF?
\[\begin{equation} \tag{43.7} \text{similaridade}(A, B) = \frac{|A \cap B|}{|A \cup B|} \end{equation}\]
Figura 43.6: Visualização de diferentes métricas de distância e similaridade.
43.13.3 Como escolher a métrica adequada?
- A escolha da métrica depende do tipo de dados (contínuos, categóricos, binários), da escala das variáveis, da presença de outliers e do objetivo da análise (agrupamento, classificação, etc.).REF?
43.13.4 Quais métricas são indicadas para avaliar modelos preditivos?
- A área sob a curva ROC (AUROC) como medida de discriminação, um gráfico de calibração para avaliar a concordância entre probabilidades estimadas e proporções observadas, uma medida de utilidade clínica como o net benefit por meio de decision curve analysis, e um gráfico que mostre a distribuição das probabilidades preditas por categoria de desfecho.362,363
43.13.5 Quais métricas são consideradas inadequadas ou problemáticas?
Todas as métricas puramente baseadas em classificação dependente de limiar são consideradas impróprias para limiares clinicamente relevantes, exceto quando o limiar é 0,5 ou igual à prevalência verdadeira.362
Métricas derivadas da matriz de confusão não devem ser usadas isoladamente como critério principal de avaliação, pois dependem fortemente da escolha do limiar e não refletem diretamente a utilidade clínica, especialmente em contextos clínicos ou em dados desbalanceados.362
O F-score \(F_{\beta}\) pode produzir classificações de modelos inconsistentes com a utilidade clínica, favorecendo modelos menos úteis em cenários reais de decisão médica.363
O F-score \(F_{\beta}\) exige a dicotomização das probabilidades preditas, o que é indesejável em modelos, já que a tomada de decisão frequentemente depende de uma faixa contínua de riscos e de limiares que variam entre indivíduos e contextos.363
O F1-score (\(F1\)) é explicitamente desencorajado como métrica principal porque não tem um foco claro em desempenho estatístico e é uma medida inadequada dentro de sua própria categoria conceitual.362
43.14 Avaliação de modelos de classificação
43.14.1 Por que é importante avaliar o desempenho de um modelo de classificação?
- Para evitar estimativas otimistas de desempenho, modelos devem ser avaliados em dados que não foram utilizados durante o treinamento. Essa separação entre dados de treinamento e validação permite estimar a capacidade de generalização do algoritmo em novos dados.355
43.14.2 O que é uma matriz de confusão 2x2?
A matriz de confusão é uma tabela de contingência 2×2 utilizada para avaliar o desempenho de um classificador binário, comparando as classes verdadeiras observadas com as classes previstas pelo modelo.364
Em aprendizado supervisionado, ela permite decompor os erros de classificação e analisar como o modelo se comporta em relação a cada classe.364
43.14.3 Como interpretar uma matriz de confusão 2x2?
Verdadeiro-positivo (\(VP\)): instância cuja classe verdadeira é positiva e foi corretamente classificada como positiva.364
Falso-negativo (\(FN\)): instância positiva que foi incorretamente classificada como negativa.364
Verdadeiro-negativo (\(VN\)): instância negativa corretamente classificada como negativa.364
Falso-positivo (\(FP\)): instância negativa incorretamente classificada como positiva.364
| Classe predita correta | Classe predita incorreta | Total | |
|---|---|---|---|
| Classe verdadeira correta | \(VP\) | \(FP\) | \(VP+FP\) |
| Classe verdadeira incorreta | \(FN\) | \(VN\) | \(FN+VN\) |
| Total | \(VP+FN\) | \(FP+VN\) | \(N=VP+VN+FP+FN\) |
43.14.4 Quais métricas caracterizam o desempenho de um classificador?
- Acurácia (\(ACU\)) (43.8): Proporção de classificações corretas (verdadeiros-positivos e verdadeiros-negativos) em relação ao total de casos.364
\[\begin{equation} \tag{43.8} ACU = \dfrac{VP + VN}{VP + FN + VN + FP} \end{equation}\]
- Precisão (\(PRE\)) (43.9): Proporção de verdadeiro-positivos dentre aqueles classificados como positivos.364
\[\begin{equation} \tag{43.9} PRE = \dfrac{VP}{VP + FP} \end{equation}\]
- Revocação (\(REV\)) (43.10): Proporção de verdadeiro-positivos dentre aqueles com a condição, equivalente à sensibilidade.364
\[\begin{equation} \tag{43.10} REV = \dfrac{VP}{VP + FN} \end{equation}\]
- F-beta score (\(F_{\beta}\)) (43.11): Média harmônica ponderada entre precisão e revocação, onde \(\beta < 1\) prioriza precisão (\(PRE\)) e \(\beta > 1\) prioriza sensibilidade \(SEN\) ou \(REV\).363
\[\begin{equation} \tag{43.11} F_{\beta} = \dfrac{(1+\beta^{2}) \times TP}{(1+\beta^{2}) \times TP + \beta^{2} \times FN + FP} \end{equation}\]
- F1-score (\(F1\)) (43.12): Média harmônica entre precisão e revocação, balanceando ambos os aspectos do desempenho (\(\beta = 1\)).364
\[\begin{equation} \tag{43.12} F1 = 2 \times \dfrac{PRE \times REV}{PRE + REV} \end{equation}\]
43.15 Baselines em classificação
43.15.1 O que são baselines?
- Baselines são modelos extremamente simples que ignoram as variáveis preditoras e produzem previsões com base apenas na distribuição das classes ou em estratégias aleatórias simples.365
43.15.2 Por que é necessário comparar classificadores com um baseline?
A avaliação de um classificador requer a comparação com um nível mínimo de desempenho esperado, denominado baseline.365
O objetivo de um baseline é estabelecer um ponto de referência para determinar se um modelo preditivo realmente apresenta desempenho superior ao acaso ou a estratégias triviais.365
Sem essa referência, métricas aparentemente altas podem ser enganosas, especialmente em conjuntos de dados com desbalanceamento de classes.365
43.15.3 Quais são os principais classificadores baseline?
Baselines baseados em aleatoriedade produzem distribuições de desempenho (por exemplo, acurácia média próxima de 0,5 em classificação binária), de modo que a superioridade de um modelo deve ser avaliada em relação à variabilidade esperada desses valores.365
Esses modelos ignoram completamente as variáveis preditoras e, portanto, representam estratégias mínimas de classificação.365
Predição aleatória uniforme (uniform random): cada classe é prevista com igual probabilidade, independentemente da distribuição observada nos dados.365
Predição aleatória proporcional (proportional random): as classes são previstas aleatoriamente, mas respeitando as proporções observadas no conjunto de treinamento.365
Predição da classe mais frequente (most frequent): o modelo sempre prevê a classe mais comum no conjunto de dados.365
43.15.4 Como o desbalanceamento de classes afeta o baseline?
Em conjuntos de dados balanceados, os baselines uniforme e proporcional tendem a apresentar desempenho semelhante.365
Em dados desbalanceados, o baseline proporcional frequentemente apresenta maior acurácia e especificidade, mas sensibilidade muito baixa para a classe minoritária.365
O baseline da classe mais frequente pode apresentar acurácia elevada mesmo sem qualquer capacidade real de discriminação.365
Por isso, métricas devem sempre ser interpretadas em relação ao desempenho esperado de um baseline apropriado.365
43.15.5 Como usar baselines na avaliação de modelos?
O desempenho de um classificador deve ser considerado relevante apenas quando supera claramente o desempenho esperado do baseline.365
Em dados desbalanceados, o baseline proporcional geralmente é o mais adequado, pois incorpora a distribuição real das classes.365
Em aplicações com eventos raros, pode ser apropriado utilizar o baseline da classe mais frequente como referência prática.365
Em alguns casos, pode-se avaliar a distribuição de desempenho do baseline por simulação para determinar limiares estatisticamente superiores ao acaso.365
43.16 Desbalanceamento de classes
43.16.1 O que é desbalanceamento de classes (class imbalance)?
- Ocorre quando as classes do desfecho (por exemplo, presença vs. ausência de um evento) não estão igualmente representadas nos dados de treinamento.REF?
43.16.2 Por que o desbalanceamento é um problema?
Modelos podem aprender a priorizar a classe mais frequente, obtendo alta acurácia global, mas baixo desempenho para a classe minoritária.REF?
Isso pode comprometer métricas como sensibilidade, especificidade e, em alguns casos, a calibração.REF?
43.16.3 Quais são as abordagens mais comuns para lidar com desbalanceamento de classes?
Reamostragem aleatória: superamostragem da classe minoritária; subamostragem da classe majoritária).REF?
Ajuste de pesos: penaliza mais os erros na classe menos frequente.REF?
Alteração do limiar de decisão: muda o ponto de corte de probabilidade para otimizar métricas específicas.REF?
43.16.4 Qual é o impacto do desbalanceamento de classes na calibração de modelos?
Corrigir o desbalanceamento de classes nem sempre melhora a calibração e, em alguns casos, pode piorá-la.366
Em simulações computacionais, modelos sem correção tiveram calibração igual ou superior aos corrigidos.366
A piora observada foi caracterizada por superestimação do risco, nem sempre reversível com re-calibração.366
Ferreira, Arthur de Sá. Ciência com R: Perguntas e respostas para pesquisadores e analistas de dados. Rio de Janeiro: 1a edição,