search for: comportan

Displaying 13 results from an estimated 13 matches for "comportan".

2018 Apr 19
2
Interpretación NA's
...R> lm(ventas ~ precios, df) Call: lm(formula = ventas ~ precios, data = df) Coefficients: (Intercept) precios 2.174 NA ?Qu? significa que aparezca NA en la regresi?n y el intercepto con ese valor(2.174)? La pregunta surge a raz?n de que otros subconjuntos de datos se comportan bien con una regresi?n lineal. Entiendo que por el comportamiento de los datos salen esos resultados, sin embargo no logro realizar un interpretaci?n correcta y mucho menos qu? hacer o c?mo proceder con este subconjunto de datos o como explicarlo a gente de negocio. Por favor ?alguien me podr?a...
2018 Apr 19
2
Interpretación NA's
...R> lm(ventas ~ precios, df) Call: lm(formula = ventas ~ precios, data = df) Coefficients: (Intercept) precios 2.174 NA ?Qu? significa que aparezca NA en la regresi?n y el intercepto con ese valor(2.174)? La pregunta surge a raz?n de que otros subconjuntos de datos se comportan bien con una regresi?n lineal. Entiendo que por el comportamiento de los datos salen esos resultados, sin embargo no logro realizar un interpretaci?n correcta y mucho menos qu? hacer o c?mo proceder con este subconjunto de datos o como explicarlo a gente de negocio. Por favor ?alguien me podr?a...
2014 Nov 26
2
Duda sobre cómo analizar un experimento factorial con algoritmos de extracción de características, clustering y clasificación como factores
...ego más adelante intentaré darle una > explicación semántica del estado que representa). > > Por cada conjunto resultado (ahora, etiquetado) de aplicar una > técnica de extracción de características y otro de clustering, quiero > probar distintos clasificadores, para ver cómo se comportan con esa > agrupación. Por tanto, obtendré varios errores asociados a clasificación > porqué haré cross-validation. > > De esta forma, si pruebo 2 algoritmos de extracción de > características, 3 de clustering y 4 de clasificación, tengo un > experimento factorial 2x3x4, ¿no?...
2014 Nov 26
2
Duda sobre cómo analizar un experimento factorial con algoritmos de extracción de características, clustering y clasificación como factores
Hola, Daniel: Quizá deberías ser más explícito porque de la información que suministras yo solo te puedo decir que no veo la relación entre los 3 tipos de algoritmos que nombras: - un análisis de componentes principales puede ser una fase previa de los otros dos - hacer un cluster es un tipo de aprendizaje no supervisado, mientras que un clasificador normalmente es utilizado en aprendizaje
2014 Nov 26
2
Duda sobre cómo analizar un experimento factorial con algoritmos de extracción de características, clustering y clasificación como factores
...; explicación semántica del estado que representa). >> > >> > Por cada conjunto resultado (ahora, etiquetado) de aplicar una >> > técnica de extracción de características y otro de clustering, >quiero >> > probar distintos clasificadores, para ver cómo se comportan con esa >> > agrupación. Por tanto, obtendré varios errores asociados a >clasificación >> > porqué haré cross-validation. >> > >> > De esta forma, si pruebo 2 algoritmos de extracción de >> > características, 3 de clustering y 4 de clasificación,...
2017 Jun 02
2
CV en R
...ltados (y > tienes que añadir los parámetros, que has omitido) > > Después graficas usando un mapa de calor para ver qué combinación de > parámetros te da el mejor resultado (en abscisas ntree y en ordenadas > nodesize). Una vez que veas los intervalos de parámetros que mejor se > comportan, afinas el resultado con otra validación cruzada: > > > > for(i in 1:15){ > > > > numeros<-sample(1:1500,1500*0.7) > > > > train<-datos[numeros,] > > > > test<-datos[-numeros,] > > > > > > #modeloRF > > > > resul...
2017 Jun 02
2
CV en R
Buenas, Puse los modelos lo mas simplificados, para centrar el tiro en el tema que me preocupa. Es una pena no poder hablar cara a cara, porque por email puedo sonar algo borde, pero no es así, al contrario estoy enormemente agradecido por tu ayuda, pero le veo un problema. Me dices que use un list para ir guardando el modelo, pero tal y como he propuesto en el bucle for, el modelo se crea 10
2017 Jun 02
5
CV en R
...na lista donde metes los resultados (y tienes que añadir los parámetros, que has omitido) Después graficas usando un mapa de calor para ver qué combinación de parámetros te da el mejor resultado (en abscisas ntree y en ordenadas nodesize). Una vez que veas los intervalos de parámetros que mejor se comportan, afinas el resultado con otra validación cruzada: for(i in 1:15){ numeros<-sample(1:1500,1500*0.7) train<-datos[numeros,] test<-datos[-numeros,] #modeloRF resultadoRF <- list() modelo.rf<-randomForest(respuesta~,train) prediccion<-predict(modelo.rf,test)...
2017 Jun 02
2
CV en R
...na lista donde metes los resultados (y tienes que añadir los parámetros, que has omitido) Después graficas usando un mapa de calor para ver qué combinación de parámetros te da el mejor resultado (en abscisas ntree y en ordenadas nodesize). Una vez que veas los intervalos de parámetros que mejor se comportan, afinas el resultado con otra validación cruzada: for(i in 1:15){ numeros<-sample(1:1500,1500*0.7) train<-datos[numeros,] test<-datos[-numeros,] #modeloRF resultadoRF <- list() modelo.rf<-randomForest(respuesta~,train) prediccion<-predict(modelo.rf,test)...
2017 Jun 02
2
CV en R
...na lista donde metes los resultados (y tienes que añadir los parámetros, que has omitido) Después graficas usando un mapa de calor para ver qué combinación de parámetros te da el mejor resultado (en abscisas ntree y en ordenadas nodesize). Una vez que veas los intervalos de parámetros que mejor se comportan, afinas el resultado con otra validación cruzada: for(i in 1:15){ numeros<-sample(1:1500,1500*0.7) train<-datos[numeros,] test<-datos[-numeros,] #modeloRF resultadoRF <- list() modelo.rf<-randomForest(respuesta~,train) prediccion<-predict(modelo.rf,test)...
2017 Jun 03
2
CV en R
...ltados (y > tienes que añadir los parámetros, que has omitido) > > Después graficas usando un mapa de calor para ver qué combinación de > parámetros te da el mejor resultado (en abscisas ntree y en ordenadas > nodesize). Una vez que veas los intervalos de parámetros que mejor se > comportan, afinas el resultado con otra validación cruzada: > > > > for(i in 1:15){ > > > > numeros<-sample(1:1500,1500*0.7) > > > > train<-datos[numeros,] > > > > test<-datos[-numeros,] > > > > > > #modeloRF > > > > resul...
2017 Jun 04
2
CV en R
...s que añadir los parámetros, que has omitido) >> >> Después graficas usando un mapa de calor para ver qué combinación de >> parámetros te da el mejor resultado (en abscisas ntree y en ordenadas >> nodesize). Una vez que veas los intervalos de parámetros que mejor se >> comportan, afinas el resultado con otra validación cruzada: >> >> >> >> for(i in 1:15){ >> >> >> >> numeros<-sample(1:1500,1500*0.7) >> >> >> >> train<-datos[numeros,] >> >> >> >> test<-datos[-numeros,] &...
2017 Jun 04
2
CV en R
...ámetros, que has omitido) >>> >>> Después graficas usando un mapa de calor para ver qué combinación de >>> parámetros te da el mejor resultado (en abscisas ntree y en ordenadas >>> nodesize). Una vez que veas los intervalos de parámetros que mejor se >>> comportan, afinas el resultado con otra validación cruzada: >>> >>> >>> >>> for(i in 1:15){ >>> >>> >>> >>> numeros<-sample(1:1500,1500*0.7) >>> >>> >>> >>> train<-datos[numeros,] >>> &g...