Displaying 20 results from an estimated 10000 matches similar to: "Has For bucle be impooved in R"
2017 Aug 07
0
Has For bucle be impooved in R
The lapply loop and the for loop have very similar speed characteristics. Differences seen are almost always due to how you use memory in the body of the loop. This fact is not new. You may be under the incorrect assumption that using lapply is somehow equivalent to "vectorization", which it is not.
--
Sent from my phone. Please excuse my brevity.
On August 7, 2017 7:29:58 AM PDT,
2017 Aug 07
1
Has For bucle be impooved in R
Dear Jesus,
The difference is marginal when each code chunk does the same things. Your
for loop does not yields the same output as the lapply. Here is the cleaned
version of your code.
n<-10000
set.seed(123)
x<-rnorm(n)
y<-x+rnorm(n)
rand.data<-data.frame(x,y)
k<-100
samples <- split(sample(n), rep(seq_len(k),length=n))
library(microbenchmark)
microbenchmark(
"for"
2017 Jun 02
2
CV en R
Es que es justo ahi donde no se como hacerlo.
Es decir, dentro del bucle for hago las comprobaciones train test, y me da que de media el mejor es randomForest, pero claro, no me estoy quedando con el modelo, ya que no se va guardando....Entonces es cuando no se como seguir para quedarme con ese modelo....
________________________________
De: Isidro Hidalgo Arellano <ihidalgo en
2017 Jun 02
2
CV en R
Buenas,
Puse los modelos lo mas simplificados, para centrar el tiro en el tema que me preocupa.
Es una pena no poder hablar cara a cara, porque por email puedo sonar algo borde, pero no es así, al contrario estoy enormemente agradecido por tu ayuda, pero le veo un problema.
Me dices que use un list para ir guardando el modelo, pero tal y como he propuesto en el bucle for, el modelo se crea 10
2017 Jun 02
2
CV en R
Hola,
Eso es justamente lo que hace "caret" de una manera muy sencilla y sin que
tú te tengas que preocupar de quedarte con el mejor bucket (del CV) o con
la mejor combinación en tu "grid search".
Te recomiendo que uses "caret" para esto....
Puedes incluso evaluar los dos algoritmos "RF" y "svm" a la vez y conocer
realmente el nivel de precisión
2017 Jun 02
5
CV en R
Buenas,
Estoy haciendo modelos y comparando cual es mejor. Para ello, uso CV de 10 folds.
Por ejemplo, hago la comparativa entre un svm y un randomForest para una serie de datos, por ello hago:
midataset<-import.....
#datos es un dataframe de 1500 filas y 15 variables
for(i in 1:10){
numeros<-sample(1:1500,1500*0.7)
train<-datos[numeros,]
test<-datos[-numeros,]
#modeloRF
2017 Jun 02
5
CV en R
Una vez que tienes la técnica y los parámetros óptimos resultantes de la
validación cruzada, ya tienes el modelo que necesitas, NO tienes que hacer
nada más. Si vuelves a modelar con todos los datos todo el trabajo de
validación que has hecho lo envías a hacer gárgaras. Estarías construyendo
un modelo con sobreajuste.
Para quedarte tranquilo, haz la prueba, coge el modelo resultante de la
2017 Jun 02
2
CV en R
No, llega un momento en el que más árboles no te supone mejoría, e incluso
funciona peor. Que funcione peor lo atribuyo al ruido, porque en teoría no
tiene mucho sentido, la verdad... Pero no he probado a coger más árboles de
los "necesarios". Lo probaré…
Un saludo
De: Jesús Para Fernández [mailto:j.para.fernandez en hotmail.com]
Enviado el: viernes, 02 de junio de 2017 14:54
2017 Jun 02
2
CV en R
El algoritmo en sí no, pero si quieres ajustar los parámetros (número de árboles, tamaño del nodo, etc.) hay que hacerlo.
En la práctica te puedo asegurar que hay diferencia entre usar 500 árboles o 100, igual que el tamaño del nodo que cojas; afinar los parámetros puede suponer ajustar bastante los resultados.
Un saludo
Isidro Hidalgo Arellano
Observatorio del Mercado de Trabajo
2017 Jun 03
2
CV en R
?Hola,
Puedes ver aquí un ejemplo de cómo comparar varios modelos usando "caret".
https://stackoverflow.com/questions/14800021/statistics-of-prediction-for-multiple-models-with-caret
O mejor en el propio manual de "caret", en esta sección:
https://topepo.github.io/caret/model-training-and-tuning.html#exploring-and-comparing-resampling-distributions
Y como recomendación te
2017 Jun 04
2
CV en R
Si nos dices el tipo de problema que estás intentando solucionar y el
tamaño del dataset podemos recomendarte algo más.
En tu pseudo-código mezclas algoritmos supervisados y no-supervisados.
Además de ranger, daría alguna oportunidad a "gbm" o como no a "xgboost". Y
éstos los probaría dentro de H2O.
Saludos,
Carlos Ortega
www.qualityexcellence.es
El 4 de junio de 2017,
2017 Jun 04
2
CV en R
H2O va bien (muy bien) tanto en un ordenador sobremesa/portátil y sobre un
clúster. En uno de sobremesa si tienes buena RAM y muchos cores, mejor. Y
no tienes porqué usar Spark si no necesitas una solución tiempo real o
"near real-time". H2O tiene otra solución para interaccionar con Spark
(Sparkling Water).
Incluso sobre un clúster, puedes usar "sparklyr" y
2016 Apr 21
5
Calcular Error en modelo lineal
Enun ejemplo real estoy viendo como el intervalo de confianza usando lo que me comentas me ha salido mucho más pequeño de lo que la realidad luego refleja. ¿Cómo es esto posible??
Es decir, veo que para valores de 2,70 obtengo una respuesta de entre 2,69 y 2,90 y sin embargo luego en la realidad tengo valores entre 2,20 y 3
Gracias
Jesús
From: jorgeivanvelez en gmail.com
Date: Thu, 21 Apr
2023 Feb 16
1
SVM plot duda
Estimados
En este modelo no puedo hacer el plot(svmfit,df11 ) #AQUI NO TRABAJA
Le adjunto Excel
library(readxl)
df11
attach(df11)
df11$fallecido=factor(df11$fallecido)
# Selección de una submuestra del 70% de los datos
set.seed(101)
tamano.total <- nrow(df11)
tamano.entreno <- round(tamano.total*0.7)
datos.indices <- sample(1:tamano.total , size=tamano.entreno)
datos.entreno <-
2023 Feb 16
1
SVM plot duda
Hola,
El mensaje es claro: el modelo svmfit no existe, tú has llamado al ajuste ?modelo?. De todas formas, aparte de eso tendrías que especificar qué dimensiones (variables predictivas) quieres representar. Si miras en la ayuda de ?plot.svm lo tienes explicado.
Esto sí funcionaría:
plot(modelo,df11, LDH ~ INL )
Gracias por proporcionar el código y los datos para poder reproducir el error.
Un
2014 Nov 06
4
Duda_Observed vs Predicted
Buenos días a todxs,
Estoy comparando la predicción de los valores (0, 1, 2, 3,.....hasta 13)
frente a los observados.
Con la idea de comparar el modelo Zero inflated y el Binomial negativo y
ver cual presenta mas distancia frente a las predicciones observadas.
Para ello introduzco los códigos en la consola:
#Modelo ZIM
pred<-round(colSums(predict(zeroinfl, type="prob") [,1:14]))
2016 Apr 21
2
Calcular Error en modelo lineal
Buenas, una pregunta.
Si yo estoy calculando un modelo lineal, el caso más simple, 1 variable respuesta y una variable explicativa y creo un modelo, me da un R2 del 80% y quiero ver como es esa relacion entre las variables, para calcular el error de predicción del modelo, basta con ver el intervalo de confianza del modelo e irme a los extremos?
Por si no me he expresado bien, un ejemplo tonto:
2017 Jun 12
3
Bucle for que se salte los errores
Buenas, ¿como puedo hacer que el bucle for se salte el error que salta cuando i<-0 en el codigo que paso??
count <- 0
for(i in -2:2){
z<-1/i
z<-z*z
modelo<-lm(z~1)
}
Gracias
[[alternative HTML version deleted]]
2014 Nov 06
3
Duda_Observed vs Predicted
Hola Javier,
Si, cuando hablo de valor observado me refiero al valor real en campo y el
predicho al que estiman los modelos. Disculpa, que no lo detallase así
desde el principio.
En mi caso trabajo con dos diferentes: Zero inflated y Binomial Negativo y
me gustaría comprobar que diferencia (distancia) existe entre cada uno de
ellos y la realidad.
Estoy trabajando con los siguientes paquetes:
2017 Jun 12
2
Bucle for que se salte los errores
Otra opcio es no incluir en 0
For (i in c(-2,-1,1,2)
El 12 jun. 2017 14:43, <Guillermo.Vinue en uv.es> escribió:
Hola,
Creo que sería añadir if(i == 0) next
Saludos,
Guillermo
> Buenas, ?como puedo hacer que el bucle for se salte el error que salta
cuando i<-0 en el codigo que paso??
>
>
>
> count <- 0
> for(i in -2:2){
> z<-1/i
> z<-z*z
>