53. Modeling → Classification and Regression → Tree Induction → Decision Tree

Este operador aprende árboles de decisión, tanto de datos nominales como numéricos. Los árboles de decisión son potentes métodos de clasificación, que con frecuencia también se pueden entender fácilmente. Para clasificar un ejemplo, se recorre el árbol desde arriba hacia abajo. Cada nodo de un árbol de decisión se etiqueta con un atributo. El valor del ejemplo para este atributo determina cuál de los arcos resultantes se toma. Para atributos nominales, hay un arco que sale por cada valor posible del atributo, y para atributos numéricos los arcos salientes se etiquetan con intervalos disjuntos.

Este aprendiz de árbol de decisión funciona de forma similar a C4.5 de Quinlan o CART. En términos generales, el algoritmo de árbol de inducción trabaja de la siguiente manera. Cuando se crea un nuevo nodo
en un momento determinado, se elige un atributo para maximizar el poder discriminativo de ese nodo con respecto a los ejemplos asignados al subárbol particular. Este poder discriminativo se mide por un criterio
que puede ser seleccionado por el usuario (obtener información, tasa de ganancia, índice de Gini, etc.)

El algoritmo se detiene en varios casos:

  • Ningún atributo alcanza un determinado umbral (minimum_gain).
  • Se alcanza la profundidad máxima.
  • Hay menos de un cierto número de ejemplos (minimal_size_for_split) en el subárbol actual.

Por último, se poda el árbol, es decir, se quitan las hojas que no aumentan el poder discriminativo de todo el árbol.