Muy buenas, tengo algunas dudas sobre gradient boosting que quizás alguien pueda resolverme. gbm.step, del paquete dismo, tarda mucho más que gbm, del paquete gbm. Yo había asumido que es porque busca el número óptimo de árboles por validación cruzada. He visto, sin embargo, que gbm también te da ese número óptimo, y con modelo$cv.fitted te da, además, las predicciones sobre las muestras OOB de la VC, lo que me permite representarlas frente a a variable objetivo y evaluar, además, la capacidad predictiva del algoritmo con R2. gbm.step te da directamente esa varianza, con modelo$cv.statistics[3], pero no consigo las predicciones sobre las OOB para representarlas frente a la variable objetivo. En resumen, mis dos cuestiones son: ¿qué hace gbm.step que no hace gbm, si tarda tanto? ¿es posible obtener con gbm.step esas predicciones sobre las OOB? Gracias, como siempre, Manuel [[alternative HTML version deleted]]