search for: midatasets

Displaying 11 results from an estimated 11 matches for "midatasets".

Did you mean: midataset
2017 Jun 02
5
CV en R
Buenas, Estoy haciendo modelos y comparando cual es mejor. Para ello, uso CV de 10 folds. Por ejemplo, hago la comparativa entre un svm y un randomForest para una serie de datos, por ello hago: midataset<-import..... #datos es un dataframe de 1500 filas y 15 variables for(i in 1:10){ numeros<-sample(1:1500,1500*0.7) train<-datos[numeros,] test<-datos[-numeros,] #modeloRF
2012 Apr 05
1
[LLVMdev] GSoC Proposal: Profiling Enhancements
...ounts, so differing behaviour on the hot/cold samples should be observed. Performance will be evaluated using "test-suite" again, though with one addition. To ensure that the produced code is not over-specialised to the training profiling data an additional set of data will be used. MiDatasets (http://ctuning.org/wiki/index.php/CTools:CBench:Downloads) provides alternatives inputs for the MiBench suite, so that will be used to test this. The next large chunk of work will be to make use of the exisiting path profiling code (PathProfiling.cpp). Superblock Formation will be done via T...
2017 Jun 02
2
CV en R
Es que es justo ahi donde no se como hacerlo. Es decir, dentro del bucle for hago las comprobaciones train test, y me da que de media el mejor es randomForest, pero claro, no me estoy quedando con el modelo, ya que no se va guardando....Entonces es cuando no se como seguir para quedarme con ese modelo.... ________________________________ De: Isidro Hidalgo Arellano <ihidalgo en
2017 Jun 02
2
CV en R
Buenas, Puse los modelos lo mas simplificados, para centrar el tiro en el tema que me preocupa. Es una pena no poder hablar cara a cara, porque por email puedo sonar algo borde, pero no es así, al contrario estoy enormemente agradecido por tu ayuda, pero le veo un problema. Me dices que use un list para ir guardando el modelo, pero tal y como he propuesto en el bucle for, el modelo se crea 10
2017 Jun 02
2
CV en R
Hola, Eso es justamente lo que hace "caret" de una manera muy sencilla y sin que tú te tengas que preocupar de quedarte con el mejor bucket (del CV) o con la mejor combinación en tu "grid search". Te recomiendo que uses "caret" para esto.... Puedes incluso evaluar los dos algoritmos "RF" y "svm" a la vez y conocer realmente el nivel de precisión
2017 Jun 02
5
CV en R
Una vez que tienes la técnica y los parámetros óptimos resultantes de la validación cruzada, ya tienes el modelo que necesitas, NO tienes que hacer nada más. Si vuelves a modelar con todos los datos todo el trabajo de validación que has hecho lo envías a hacer gárgaras. Estarías construyendo un modelo con sobreajuste. Para quedarte tranquilo, haz la prueba, coge el modelo resultante de la
2017 Jun 02
2
CV en R
El algoritmo en sí no, pero si quieres ajustar los parámetros (número de árboles, tamaño del nodo, etc.) hay que hacerlo. En la práctica te puedo asegurar que hay diferencia entre usar 500 árboles o 100, igual que el tamaño del nodo que cojas; afinar los parámetros puede suponer ajustar bastante los resultados. Un saludo Isidro Hidalgo Arellano Observatorio del Mercado de Trabajo
2017 Jun 02
2
CV en R
No, llega un momento en el que más árboles no te supone mejoría, e incluso funciona peor. Que funcione peor lo atribuyo al ruido, porque en teoría no tiene mucho sentido, la verdad... Pero no he probado a coger más árboles de los "necesarios". Lo probaré… Un saludo De: Jesús Para Fernández [mailto:j.para.fernandez en hotmail.com] Enviado el: viernes, 02 de junio de 2017 14:54
2017 Jun 03
2
CV en R
?Hola, Puedes ver aquí un ejemplo de cómo comparar varios modelos usando "caret". https://stackoverflow.com/questions/14800021/statistics-of-prediction-for-multiple-models-with-caret O mejor en el propio manual de "caret", en esta sección: https://topepo.github.io/caret/model-training-and-tuning.html#exploring-and-comparing-resampling-distributions Y como recomendación te
2017 Jun 04
2
CV en R
Si nos dices el tipo de problema que estás intentando solucionar y el tamaño del dataset podemos recomendarte algo más. En tu pseudo-código mezclas algoritmos supervisados y no-supervisados. Además de ranger, daría alguna oportunidad a "gbm" o como no a "xgboost". Y éstos los probaría dentro de H2O. Saludos, Carlos Ortega www.qualityexcellence.es El 4 de junio de 2017,
2017 Jun 04
2
CV en R
H2O va bien (muy bien) tanto en un ordenador sobremesa/portátil y sobre un clúster. En uno de sobremesa si tienes buena RAM y muchos cores, mejor. Y no tienes porqué usar Spark si no necesitas una solución tiempo real o "near real-time". H2O tiene otra solución para interaccionar con Spark (Sparkling Water). Incluso sobre un clúster, puedes usar "sparklyr" y