Calculadora F1 (Machine Learning)
Usa Precisión + Recall o, alternativamente, TP, FP y FN. Fórmula: F1 = 2 × (Precisión × Recall) / (Precisión + Recall)
¿Qué es una calculadora F1?
Una calculadora F1 te ayuda a medir el rendimiento de un modelo de clasificación, especialmente cuando las clases están desbalanceadas. En vez de mirar solo el accuracy, el F1-score combina dos métricas críticas: precisión y recall.
Esto es muy útil en problemas como detección de fraude, spam, diagnóstico médico o análisis de riesgo, donde cometer ciertos errores puede costar mucho. El F1-score resume ese equilibrio en un único valor entre 0 y 1.
Cómo se interpreta el F1-score
- F1 cercano a 1: excelente equilibrio entre precisión y recall.
- F1 alrededor de 0.5: desempeño intermedio; hay margen de mejora importante.
- F1 cercano a 0: el modelo está fallando para identificar correctamente los positivos.
Recuerda: no existe un “buen F1” universal. Depende del contexto de negocio, del costo de los errores y de la dificultad del problema.
Fórmulas clave
Desde precisión y recall
F1 = 2 × (P × R) / (P + R), donde:
- P (Precisión): de los positivos predichos, cuántos fueron correctos.
- R (Recall): de los positivos reales, cuántos detectó el modelo.
Desde matriz de confusión
Si tienes TP, FP y FN, también puedes calcularlo directamente: F1 = 2TP / (2TP + FP + FN).
Nuestra calculadora soporta ambos caminos, así puedes usar el formato de datos que ya tengas.
Cuándo usar F1 y cuándo no
Usa F1 cuando:
- Las clases están desbalanceadas (por ejemplo, 95% negativos y 5% positivos).
- Te importa tanto evitar falsos positivos como falsos negativos.
- Necesitas una métrica compacta para comparar versiones de modelo.
Considera otras métricas cuando:
- Los costos de FP y FN no son similares (quizá quieras priorizar recall o precisión).
- Necesitas análisis por umbral (ROC-AUC, PR-AUC).
- Quieres medir calibración probabilística y no solo clasificación final.
Ejemplo rápido
Supón que tu modelo de detección de fraude logró: TP = 120, FP = 30, FN = 25. Al ingresar esos valores en la calculadora:
- Precisión = 120 / (120 + 30) = 0.80
- Recall = 120 / (120 + 25) ≈ 0.8276
- F1 ≈ 0.8136
Resultado: el modelo tiene un equilibrio sólido, aunque todavía podrías optimizar para reducir FP o FN según tu objetivo operativo.
Buenas prácticas para mejorar tu F1
- Ajusta el umbral de clasificación, no te quedes con 0.5 por defecto.
- Trabaja en la calidad de datos y en el etiquetado.
- Evalúa feature engineering orientado a separar mejor las clases positivas.
- Usa validación cruzada para evitar mejoras “accidentales”.
- Monitorea drift de datos en producción y reentrena cuando sea necesario.
Preguntas frecuentes
¿Puedo ingresar porcentajes?
Sí. Puedes escribir 0.84 o 84%. La calculadora interpreta ambos formatos.
¿Necesito completar todos los campos?
No. Puedes completar precisión y recall o, en su lugar, TP, FP y FN. Si completas ambos, la calculadora prioriza precisión y recall.
¿Qué pasa si el resultado es muy bajo?
Generalmente significa que el modelo no está equilibrando bien detecciones correctas y errores. Revisa datos, umbrales y features antes de pasar a producción.