Skip to content

Latest commit

 

History

History
52 lines (29 loc) · 3.32 KB

metrics.md

File metadata and controls

52 lines (29 loc) · 3.32 KB

Métricas e matriz de confusão

Exemplo de uma matriz de confusão

  • Esse modelo é de um caso de predição de transações frauduentas
Capturar
  • Elemento na posição (0,0): representa a quantidade de classificações Verdadeiros Negativos, ou seja, a quantidade de vezes que o modelo acertou a predição negativa conforme os dados reais. No exemplo, o classificador previu corretamente 25377 casos em que o resultado foi de transações não fraudulentas.
  • Elemento na posição (0,1): representa a quantidade de classificações Falsos Positivos, ou seja, a quantidade de vezes que o modelo previu incorretamente um resultado como positivo. No exemplo, o classificador previu, incorretamente, 4 casos em que o resultado foi fraude, sendo que a predição correta deveria ser de não fraude.
  • Elemento na posição (1,0): representa a quantidade de classificações Falsos Negativos, ou seja, a quantidade de vezes que o modelo previu incorretamente um resultado como negativo. No exemplo, o classificador previu incorretamente 22 casos em que o resultado foi de não fraude, sendo que a predição correta deveria ser fraude.
  • Elemento na posição (1,1): representa a quantidade de classificações Verdadeiros Positivos, ou seja, a quantidade de vezes que o modelo acertou a predição positiva conforme os dados reais. No exemplo, o classificador previu corretamente 1 caso em que houve fraude.

Métricas

Acurácia/Accuracy: avalia a proporção de acertos em relação a todas as previsões realizadas. É obtida somando a diagonal principal da matriz e dividindo pela soma de todos os valores.

imagem4

  • Para o exemplo dado seria:

imagem5


Sensibilidade/Revocação/Recall: avalia a proporção de verdadeiros positivos dentre todos os valores positivos reais. É obtida dividindo os verdadeiros positivos pela soma de positivos reais.

imagem6

  • Para o exemplo dado seria:

imagem7


Precisão/Precision: avalia a proporção de verdadeiros positivos dentre as predições dadas como positivas pelo modelo. É obtida dividindo os verdadeiros positivos pela soma das previsões positivas.

imagem8

  • Para o exemplo dado seria:

imagem9


F1 Score: é o equilíbrio entre a sensibilidade e a precisão, sendo a média harmônica entre as duas métricas.

imagem10

  • Para o exemplo dado seria:

imagem11