Displaying 19 results from an estimated 19 matches for "insuficientes".
Did you mean:
insuficiente
2017 Jun 27
2
Problema en lectura de datos. Memoria insuficiente
Si de hecho he utilizado el read_spss por el tema de las labels. Pero
obtengo el mismo mensaje de problema de memoria.
Antonio
2017-06-27 10:30 GMT-05:00 Freddy Omar López Quintero <
freddy.lopez.quintero en gmail.com>:
>
> 2017-06-27 11:10 GMT-04:00 Antonio Rodriguez Andres <
> antoniorodriguezandres70 en gmail.com>:
>
>> El
>> survey solo tiene los datos en
2017 Jun 27
2
Problema en lectura de datos. Memoria insuficiente
Freddy
Que archivo has intentado leer el del VWS o el de la link que te envié?
2017-06-27 11:33 GMT-05:00 Freddy Omar López Quintero <
freddy.lopez.quintero en gmail.com>:
>
> 2017-06-27 11:42 GMT-04:00 Antonio Rodriguez Andres <
> antoniorodriguezandres70 en gmail.com>:
>
>> Estaba usando el ESS pero me he dado cuenta que si tiene csv, yo lo bajé
>> de aquí
2017 Jun 27
2
Problema en lectura de datos. Memoria insuficiente
Gracias Eric
Actualmente no tengo SPSS instalado en mi computador ni tengo licencia. El
survey solo tiene los datos en formato SPSS o en formato de STATA (.dta).
Creo que estos últimos se pueden leer con read.dta, de la library(foreign).
Pero entiendo que darán el mismo problema
2017-06-26 17:08 GMT-05:00 eric <ericconchamunoz en gmail.com>:
> Hola antonio, cuando tengo que leer datos
2017 Jun 27
2
Problema en lectura de datos. Memoria insuficiente
Estaba usando el ESS pero me he dado cuenta que si tiene csv, yo lo bajé de
aquí en formato SPSS pero me da el error de falta de memoria
http://www.europeansocialsurvey.org/downloadwizard/
2017-06-27 10:38 GMT-05:00 Freddy Omar López Quintero <
freddy.lopez.quintero en gmail.com>:
>
> 2017-06-27 11:34 GMT-04:00 Antonio Rodriguez Andres <
> antoniorodriguezandres70 en
2017 Jun 24
4
Problema en lectura de datos. Memoria insuficiente
Buenos días
Estoy intentando leer una base de datos correspondiente al World Values
Survey desde 1981 a 2014. Contiene variables por columnas, y observaciones
correspondientes a individuos
de diferentes países. Podría tener como aprox. 1000 variables, y mas de
60,000 individuos por año. Esta es la información que obtengo de mi RStudio.
> sessionInfo()R version 3.3.2 (2016-10-31)
Platform:
2018 Oct 24
2
Problemas de cache con shiny
Buenas comunidad,
Estoy intentando desarrollar una app en Shiny, mi so es Debian, y no consigo que me muestre los cambios que hago. Tengo la app cacheada!!!
He buscado en google, (duckduckgo) pero no encuentro la respuesta..
Un saludo
Jes?s
[[alternative HTML version deleted]]
2018 Oct 24
2
Problemas de cache con shiny
..._______
From: miguel.angel.rodriguez.muinos en sergas.es <miguel.angel.rodriguez.muinos en sergas.es>
Sent: Wednesday, October 24, 2018 10:28:37 AM
To: j.para.fernandez en hotmail.com; r-help-es en r-project.org
Subject: Re: Problemas de cache con shiny
Hola Jesús.
Los datos que aportas son insuficientes para poder responderte.
Cómo estás trabajando?
1.- En RStudio y ejecutando todo en local? A través del navegador? del visor de RStudio?
2.- Trabajas con Shiny contra un server? (debian)
Supongamos que lo haces, en local, desde RStudio y usando el "run external" para poder visualizarlo en...
2012 May 08
1
FILLED CONTOUR
...I try to run the code appear two errors:
1. in if (del == 0 && to == 0) return(to) :
valor ausente donde TRUE/FALSE es necesario (missing value where TRUE/FALSE needed)
2. Error en filled.contour(x = as.numeric(new.ages), y = as.numeric(depths), :
valores insuficientes de 'x' o 'y' (insufficient values of 'x' or 'y').
This is the code that I trying to run
ML.contamana<-read.table("contamana_age_mod.txt" ,header=T,sep="\t",na.strings = "NA")
head(ML.contamana)
depths<-read.table("co...
2017 Jun 02
5
CV en R
Buenas,
Estoy haciendo modelos y comparando cual es mejor. Para ello, uso CV de 10 folds.
Por ejemplo, hago la comparativa entre un svm y un randomForest para una serie de datos, por ello hago:
midataset<-import.....
#datos es un dataframe de 1500 filas y 15 variables
for(i in 1:10){
numeros<-sample(1:1500,1500*0.7)
train<-datos[numeros,]
test<-datos[-numeros,]
#modeloRF
2017 Jun 02
2
CV en R
Es que es justo ahi donde no se como hacerlo.
Es decir, dentro del bucle for hago las comprobaciones train test, y me da que de media el mejor es randomForest, pero claro, no me estoy quedando con el modelo, ya que no se va guardando....Entonces es cuando no se como seguir para quedarme con ese modelo....
________________________________
De: Isidro Hidalgo Arellano <ihidalgo en
2017 Jun 02
2
CV en R
Buenas,
Puse los modelos lo mas simplificados, para centrar el tiro en el tema que me preocupa.
Es una pena no poder hablar cara a cara, porque por email puedo sonar algo borde, pero no es así, al contrario estoy enormemente agradecido por tu ayuda, pero le veo un problema.
Me dices que use un list para ir guardando el modelo, pero tal y como he propuesto en el bucle for, el modelo se crea 10
2016 Dec 30
3
Trabajar con un dataset muy grande
hola a todos,
Me gustaria saber qué haceis cuando el dataset para trabsjar es tan grande
que R no lo soporta.
Lo troceo con alguna otra herramienta?
Cual?
Gracias y feliz año!
Victoria
> _______________________________________________
> R-help-es mailing list
> R-help-es en r-project.org <javascript:;>
> https://stat.ethz.ch/mailman/listinfo/r-help-es
>
--
Enviado con
2017 Jun 02
2
CV en R
Hola,
Eso es justamente lo que hace "caret" de una manera muy sencilla y sin que
tú te tengas que preocupar de quedarte con el mejor bucket (del CV) o con
la mejor combinación en tu "grid search".
Te recomiendo que uses "caret" para esto....
Puedes incluso evaluar los dos algoritmos "RF" y "svm" a la vez y conocer
realmente el nivel de precisión
2017 Jun 02
5
CV en R
Una vez que tienes la técnica y los parámetros óptimos resultantes de la
validación cruzada, ya tienes el modelo que necesitas, NO tienes que hacer
nada más. Si vuelves a modelar con todos los datos todo el trabajo de
validación que has hecho lo envías a hacer gárgaras. Estarías construyendo
un modelo con sobreajuste.
Para quedarte tranquilo, haz la prueba, coge el modelo resultante de la
2017 Jun 02
2
CV en R
El algoritmo en sí no, pero si quieres ajustar los parámetros (número de árboles, tamaño del nodo, etc.) hay que hacerlo.
En la práctica te puedo asegurar que hay diferencia entre usar 500 árboles o 100, igual que el tamaño del nodo que cojas; afinar los parámetros puede suponer ajustar bastante los resultados.
Un saludo
Isidro Hidalgo Arellano
Observatorio del Mercado de Trabajo
2017 Jun 02
2
CV en R
No, llega un momento en el que más árboles no te supone mejoría, e incluso
funciona peor. Que funcione peor lo atribuyo al ruido, porque en teoría no
tiene mucho sentido, la verdad... Pero no he probado a coger más árboles de
los "necesarios". Lo probaré…
Un saludo
De: Jesús Para Fernández [mailto:j.para.fernandez en hotmail.com]
Enviado el: viernes, 02 de junio de 2017 14:54
2017 Jun 03
2
CV en R
?Hola,
Puedes ver aquí un ejemplo de cómo comparar varios modelos usando "caret".
https://stackoverflow.com/questions/14800021/statistics-of-prediction-for-multiple-models-with-caret
O mejor en el propio manual de "caret", en esta sección:
https://topepo.github.io/caret/model-training-and-tuning.html#exploring-and-comparing-resampling-distributions
Y como recomendación te
2017 Jun 04
2
CV en R
Si nos dices el tipo de problema que estás intentando solucionar y el
tamaño del dataset podemos recomendarte algo más.
En tu pseudo-código mezclas algoritmos supervisados y no-supervisados.
Además de ranger, daría alguna oportunidad a "gbm" o como no a "xgboost". Y
éstos los probaría dentro de H2O.
Saludos,
Carlos Ortega
www.qualityexcellence.es
El 4 de junio de 2017,
2017 Jun 04
2
CV en R
H2O va bien (muy bien) tanto en un ordenador sobremesa/portátil y sobre un
clúster. En uno de sobremesa si tienes buena RAM y muchos cores, mejor. Y
no tienes porqué usar Spark si no necesitas una solución tiempo real o
"near real-time". H2O tiene otra solución para interaccionar con Spark
(Sparkling Water).
Incluso sobre un clúster, puedes usar "sparklyr" y