Decision tree: Es un algoritmo de aprendizaje supervisado no paramétrico, que se utiliza tanto para tareas de clasificación como de regresión. Tiene una estructura jerárquica, de árbol, que consta de un nodo raíz, ramas, nodos internos y nodos de hoja.
Random Forest: Es un algoritmo de aprendizaje automático que combina los resultados de múltiples árboles de decisión para obtener un único resultado. Su facilidad de uso y flexibilidad han impulsado su adopción, ya que gestiona problemas tanto de clasificación como de regresión.
Existen distintos tipos de árboles de decisiones, como lo son:
-
Iterative Dichotomiser (ID3): Este algoritmo aprovecha la entropía y la ganancia de información como métricas para evaluar las divisiones de los candidatos.
-
C4.5: Este algoritmo se considera una iteración posterior de ID3.. Puede utilizar la ganancia de información o los ratios de ganancia para evaluar los puntos de división dentro de los árboles de decisión.
-
Árboles de clasificación y regresión (CART): Este algoritmo suele utilizar la impureza de Gini para identificar el atributo ideal para dividir. La impureza de Gini mide la frecuencia con la que se clasifica erróneamente un atributo elegido al azar. Al evaluar utilizando la impureza de Gini, un valor más bajo es más ideal.