calculadora f1

Calculadora F1 (Machine Learning)

Usa Precisión + Recall o, alternativamente, TP, FP y FN. Fórmula: F1 = 2 × (Precisión × Recall) / (Precisión + Recall)

Acepta decimal o porcentaje.

¿Qué es una calculadora F1?

Una calculadora F1 te ayuda a medir el rendimiento de un modelo de clasificación, especialmente cuando las clases están desbalanceadas. En vez de mirar solo el accuracy, el F1-score combina dos métricas críticas: precisión y recall.

Esto es muy útil en problemas como detección de fraude, spam, diagnóstico médico o análisis de riesgo, donde cometer ciertos errores puede costar mucho. El F1-score resume ese equilibrio en un único valor entre 0 y 1.

Cómo se interpreta el F1-score

  • F1 cercano a 1: excelente equilibrio entre precisión y recall.
  • F1 alrededor de 0.5: desempeño intermedio; hay margen de mejora importante.
  • F1 cercano a 0: el modelo está fallando para identificar correctamente los positivos.

Recuerda: no existe un “buen F1” universal. Depende del contexto de negocio, del costo de los errores y de la dificultad del problema.

Fórmulas clave

Desde precisión y recall

F1 = 2 × (P × R) / (P + R), donde:

  • P (Precisión): de los positivos predichos, cuántos fueron correctos.
  • R (Recall): de los positivos reales, cuántos detectó el modelo.

Desde matriz de confusión

Si tienes TP, FP y FN, también puedes calcularlo directamente: F1 = 2TP / (2TP + FP + FN).

Nuestra calculadora soporta ambos caminos, así puedes usar el formato de datos que ya tengas.

Cuándo usar F1 y cuándo no

Usa F1 cuando:

  • Las clases están desbalanceadas (por ejemplo, 95% negativos y 5% positivos).
  • Te importa tanto evitar falsos positivos como falsos negativos.
  • Necesitas una métrica compacta para comparar versiones de modelo.

Considera otras métricas cuando:

  • Los costos de FP y FN no son similares (quizá quieras priorizar recall o precisión).
  • Necesitas análisis por umbral (ROC-AUC, PR-AUC).
  • Quieres medir calibración probabilística y no solo clasificación final.

Ejemplo rápido

Supón que tu modelo de detección de fraude logró: TP = 120, FP = 30, FN = 25. Al ingresar esos valores en la calculadora:

  • Precisión = 120 / (120 + 30) = 0.80
  • Recall = 120 / (120 + 25) ≈ 0.8276
  • F1 ≈ 0.8136

Resultado: el modelo tiene un equilibrio sólido, aunque todavía podrías optimizar para reducir FP o FN según tu objetivo operativo.

Buenas prácticas para mejorar tu F1

  • Ajusta el umbral de clasificación, no te quedes con 0.5 por defecto.
  • Trabaja en la calidad de datos y en el etiquetado.
  • Evalúa feature engineering orientado a separar mejor las clases positivas.
  • Usa validación cruzada para evitar mejoras “accidentales”.
  • Monitorea drift de datos en producción y reentrena cuando sea necesario.

Preguntas frecuentes

¿Puedo ingresar porcentajes?

Sí. Puedes escribir 0.84 o 84%. La calculadora interpreta ambos formatos.

¿Necesito completar todos los campos?

No. Puedes completar precisión y recall o, en su lugar, TP, FP y FN. Si completas ambos, la calculadora prioriza precisión y recall.

¿Qué pasa si el resultado es muy bajo?

Generalmente significa que el modelo no está equilibrando bien detecciones correctas y errores. Revisa datos, umbrales y features antes de pasar a producción.

🔗 Related Calculators