Saltar al contenido

Una suave introducción a las funciones de pérdida de XGBoost

29 de marzo de 2021

XGBoost es una implementación poderosa y popular del algoritmo de conjunto de aumento de gradiente.

Un aspecto importante en la configuración de modelos XGBoost es la elección de la función de pérdida que se minimiza durante el entrenamiento del modelo.

los función de pérdida deben coincidir con el tipo de problema de modelado predictivo, de la misma manera, debemos elegir las funciones de pérdida adecuadas en función de los tipos de problemas con redes neuronales de aprendizaje profundo.

En este tutorial, descubrirá cómo configurar las funciones de pérdida para los modelos de conjuntos XGBoost.

Después de completar este tutorial, sabrá:

  • Especificar las funciones de pérdida que se utilizan al entrenar conjuntos XGBoost es un paso fundamental, al igual que las redes neuronales.
  • Cómo configurar las funciones de pérdida de XGBoost para tareas de clasificación binarias y de clases múltiples.
  • Cómo configurar las funciones de pérdida de XGBoost para tareas de modelado predictivo de regresión.

Empecemos.

Una suave introducción a las funciones de pérdida de XGBoost

Una suave introducción a las funciones de pérdida de XGBoost
Foto de Kevin Rheese, algunos derechos reservados.

Descripción general del tutorial

Este tutorial se divide en tres partes; son:

  1. Funciones XGBoost y Loss
  2. XGBoost Loss para clasificación
  3. XGBoost Loss for Regression

Funciones XGBoost y Loss

Extreme Gradient Boosting, o XGBoost para abreviar, es una implementación eficiente de código abierto del algoritmo de aumento de gradiente. Como tal, XGBoost es un algoritmo, un proyecto de código abierto y una biblioteca de Python.

Fue desarrollado inicialmente por Tianqi Chen y fue descrito por Chen y Carlos Guestrin en su artículo de 2016 titulado «XGBoost: A Scalable Tree Boosting System».

Está diseñado para ser computacionalmente eficiente (por ejemplo, rápido de ejecutar) y altamente efectivo, quizás más efectivo que otras implementaciones de código abierto.

XGBoost admite una variedad de diferentes problemas de modelado predictivo, sobre todo clasificación y regresión.

XGBoost se entrena minimizando la pérdida de una función objetiva frente a un conjunto de datos. Como tal, la elección de la función de pérdida es un hiperparámetro crítico y está directamente relacionado con el tipo de problema que se está resolviendo, al igual que las redes neuronales de aprendizaje profundo.

La implementación permite especificar la función objetivo mediante el «objetivo”Se utilizan hiperparámetros y valores predeterminados sensibles que funcionan en la mayoría de los casos.

Sin embargo, sigue habiendo cierta confusión por parte de los principiantes sobre qué función de pérdida utilizar al entrenar modelos XGBoost.

Veremos más de cerca cómo configurar la función de pérdida para XGBoost en este tutorial.

Antes de comenzar, configuremos.

XGBoost se puede instalar como una biblioteca independiente y se puede desarrollar un modelo XGBoost utilizando la API scikit-learn.

El primer paso es instalar la biblioteca XGBoost si aún no está instalada. Esto se puede lograr usando el administrador de paquetes pip python en la mayoría de las plataformas; por ejemplo:

A continuación, puede confirmar que la biblioteca XGBoost se instaló correctamente y se puede utilizar ejecutando el siguiente script.

La ejecución del script imprimirá su versión de la biblioteca XGBoost que ha instalado.

Tu versión debe ser igual o superior. De lo contrario, debe actualizar su versión de la biblioteca XGBoost.

Es posible que tenga problemas con la última versión de la biblioteca. No es tu culpa.

A veces, la versión más reciente de la biblioteca impone requisitos adicionales o puede ser menos estable.

Si tiene errores al intentar ejecutar el script anterior, le recomiendo cambiar a la versión 1.0.1 (o inferior). Esto se puede lograr especificando la versión a instalar en el comando pip, de la siguiente manera:

Si ve un mensaje de advertencia, puede ignorarlo con seguridad por ahora. Por ejemplo, a continuación se muestra un ejemplo de un mensaje de advertencia que puede ver y puede ignorar:

Recomendado:  Microsoft AI Research presenta DeepSpeed-MII, una nueva biblioteca Python de código abierto de DeepSpeed ​​que acelera más de 20 000 modelos de aprendizaje profundo ampliamente utilizados

Si necesita instrucciones específicas para su entorno de desarrollo, consulte el tutorial:

La biblioteca XGBoost tiene su propia API personalizada, aunque usaremos el método a través de las clases contenedoras de scikit-learn: XGBRegressor y XGBClassifier. Esto nos permitirá utilizar el conjunto completo de herramientas de la biblioteca de aprendizaje automático scikit-learn para preparar datos y evaluar modelos.

Ambos modelos operan de la misma manera y toman los mismos argumentos que influyen en cómo se crean y agregan los árboles de decisión al conjunto.

Para obtener más información sobre cómo utilizar la API de XGBoost con scikit-learn, consulte el tutorial:

A continuación, echemos un vistazo más de cerca a cómo configurar la función de pérdida para XGBoost en problemas de clasificación.

XGBoost Loss para clasificación

Las tareas de clasificación implican predecir una etiqueta o probabilidad para cada clase posible, dada una muestra de entrada.

Hay dos tipos principales de tareas de clasificación con etiquetas mutuamente excluyentes: clasificación binaria que tiene dos etiquetas de clase y clasificación de varias clases que tiene más de dos etiquetas de clase.

  • Clasificación binaria: Tarea de clasificación con dos etiquetas de clase.
  • Clasificación de clases múltiples: Tarea de clasificación con más de dos etiquetas de clase.

Para obtener más información sobre los diferentes tipos de tareas de clasificación, consulte el tutorial:

XGBoost proporciona funciones de pérdida para cada uno de estos tipos de problemas.

Es típico en el aprendizaje automático entrenar un modelo para predecir la probabilidad de pertenencia a una clase para tareas de probabilidad y si la tarea requiere etiquetas de clase nítidas para posprocesar las probabilidades predichas (por ejemplo, usar argmax).

Este enfoque se usa cuando se entrena redes neuronales de aprendizaje profundo para la clasificación y también se recomienda cuando se usa XGBoost para la clasificación.

La función de pérdida utilizada para predecir probabilidades de problemas de clasificación binaria es «binario: logístico«Y la función de pérdida para predecir probabilidades de clase para problemas de varias clases es»multi: softprob“.

  • «multi: logístico“: Función de pérdida XGBoost para clasificación binaria.
  • «multi: softprob“: Función de pérdida XGBoost para clasificación de clases múltiples.

Estos valores de cadena se pueden especificar mediante el «objetivo”Hiperparámetro al configurar su modelo XGBClassifier.

Por ejemplo, para clasificación binaria:

Y, para clasificación de clases múltiples:

Es importante destacar que si no especifica el «objetivo«Hiperparámetro, el Clasificador XGB elegirá automáticamente una de estas funciones de pérdida según los datos proporcionados durante el entrenamiento.

Podemos hacer esto concreto con un ejemplo trabajado.

El siguiente ejemplo crea un conjunto de datos de clasificación binario sintético, se ajusta a un Clasificador XGB en el conjunto de datos con hiperparámetros predeterminados, luego imprime la configuración del objetivo del modelo.

Al ejecutar el ejemplo, el modelo se ajusta al conjunto de datos e imprime la configuración de la función de pérdida.

Podemos ver que el modelo elige automáticamente una función de pérdida para la clasificación binaria.

Recomendado:  Cómo crear transformaciones de datos personalizadas para Scikit-Learn

Alternativamente, podemos especificar el objetivo y ajustar el modelo, confirmando que se utilizó la función de pérdida.

Al ejecutar el ejemplo, el modelo se ajusta al conjunto de datos e imprime la configuración de la función de pérdida.

Podemos ver el modelo utilizado para especificar una función de pérdida para la clasificación binaria.

Repitamos este ejemplo en un conjunto de datos con más de dos clases. En este caso, tres clases.

El ejemplo completo se enumera a continuación.

Al ejecutar el ejemplo, el modelo se ajusta al conjunto de datos e imprime la configuración de la función de pérdida.

Podemos ver que el modelo eligió automáticamente una función de pérdida para la clasificación de clases múltiples.

Alternativamente, podemos especificar manualmente la función de pérdida y confirmar que se usó para entrenar el modelo.

Al ejecutar el ejemplo, el modelo se ajusta al conjunto de datos e imprime la configuración de la función de pérdida.

Podemos ver el modelo utilizado para especificar una función de pérdida para la clasificación de clases múltiples.

Por último, existen otras funciones de pérdida que puede utilizar para la clasificación, que incluyen: «binario: logitraw» y «binario: bisagra«Para clasificación binaria y»multi: softmax”Para clasificación de clases múltiples.

Puedes ver una lista completa aquí:

A continuación, echemos un vistazo a las funciones de pérdida de XGBoost para la regresión.

XGBoost Loss for Regression

La regresión se refiere a problemas de modelado predictivo donde se predice un valor numérico dada una muestra de entrada.

Aunque predecir una probabilidad suena como un problema de regresión (es decir, una probabilidad es un valor numérico), generalmente no se considera un problema de modelado predictivo de tipo regresión.

Recomendado:  Diferencia entre retropropagación y descenso de gradiente estocástico

La función objetivo XGBoost que se utiliza al predecir valores numéricos es la «reg: squarederror» función de pérdida.

  • «Reg: squarederror»: Función de pérdida para problemas de modelado predictivo de regresión.

Este valor de cadena se puede especificar mediante el «objetivo«Hiperparámetro al configurar su XGBRegressor modelo.

Por ejemplo:

Es importante destacar que si no especifica el «objetivo«Hiperparámetro, el XGBRegressor elegirá automáticamente esta función objetivo por usted.

Podemos hacer esto concreto con un ejemplo trabajado.

El siguiente ejemplo crea un conjunto de datos de regresión sintético, se ajusta a un XGBRegressor en el conjunto de datos, luego imprime la configuración del objetivo del modelo.

Al ejecutar el ejemplo, el modelo se ajusta al conjunto de datos e imprime la configuración de la función de pérdida.

Podemos ver que el modelo elige automáticamente una función de pérdida para la regresión.

Alternativamente, podemos especificar el objetivo y ajustar el modelo, confirmando que se utilizó la función de pérdida.

Al ejecutar el ejemplo, el modelo se ajusta al conjunto de datos e imprime la configuración de la función de pérdida.

Podemos ver que el modelo utilizó la función de pérdida especificada para la regresión.

Por último, existen otras funciones de pérdida que puede utilizar para la regresión, que incluyen: «reg: squarelogerror«,»reg: logístico«,»reg: pseudohubererror«,»reg: gamma«, y «reg: tweedie“.

Puedes ver una lista completa aquí:

Otras lecturas

Esta sección proporciona más recursos sobre el tema si desea profundizar.

Tutoriales

API

Resumen

En este tutorial, descubrió cómo configurar funciones de pérdida para modelos de conjuntos XGBoost.

Específicamente, aprendiste:

  • Especificar las funciones de pérdida que se utilizan al entrenar conjuntos XGBoost es un paso crítico al igual que las redes neuronales.
  • Cómo configurar las funciones de pérdida de XGBoost para tareas de clasificación binarias y de clases múltiples.
  • Cómo configurar las funciones de pérdida de XGBoost para tareas de modelado predictivo de regresión.

¿Tiene usted alguna pregunta?
Haga sus preguntas en los comentarios a continuación y haré todo lo posible para responder.

¡Descubra las competiciones ganadoras de algoritmos!

XGBoost con Python

Desarrolle sus propios modelos XGBoost en minutos

… con solo unas pocas líneas de Python

Descubra cómo en mi nuevo libro electrónico:
XGBoost con Python

Cubre tutoriales de autoaprendizaje me gusta:
Fundamentos de algoritmos, Escalada, Hiperparámetros, y mucho más…

Lleve el poder de XGBoost a sus propios proyectos

Sáltese los académicos. Solo resultados.

Mira lo que hay dentro