similar to: ORACLE SQL/ LEER DATOS EN R

Displaying 20 results from an estimated 2000 matches similar to: "ORACLE SQL/ LEER DATOS EN R"

2017 Dec 06
2
ORACLE SQL/ LEER DATOS EN R
Con oracle puedes usar, si tu máquina es de 64bits la librería Roracle que va muy bien y no es muy complicada de instalar. Hay que distinguir 2 cosas, cuando accedes a la base de datos y allí haces la consulta, eso da igual si lo haces con RODBC o Roracle y cuando cargas los datos en tu data.frame, en esta operación, ya no está usando el gestor de base de datos sino tu propio R. La velocidad y
2017 Dec 06
3
STATA base de datos
OK. Lee primero los datos, guarda el data.frame (.RData o en un .csv o lo que quieras). Sal de RStudio o incluso reinicia el ordenador para liberar el máximo de memoria. Y comienza una nueva sesión con RStudio cargando los datos con "fread()". Por otro lado, este conjunto de datos ¿cómo es de grande (filas y columnas)?. ¿Y qué máquina tienes?. ¿Cuanta RAM tienes?. Gracias, Carlos.
2017 Dec 06
3
STATA base de datos
Estimados Pienso que falta memoria, aparte de las sugerencias ya aportadas, de pronto se podrían colocar algunos rm(liberar_de_memoria), para no tener ocupado espacio que no es requerido porque ese paso ya fue realizado. Javier Rubén Marcuzzi El 6 de diciembre de 2017, 13:58, Antonio Rodriguez Andres < antoniorodriguezandres70 en gmail.com> escribió: > Carlos > He tecleado lo
2017 Dec 06
2
STATA base de datos
Pero entonces, ¿has leído ya el fichero en RStudio? ¿lo has convertido de Stata a csv o algún otro formato que con el que puedas trabajar en RStudio?. ¿O ahora el problema es que has convertido el fichero pero no puedes hacer ningún tipo de análisis porque tu equipo no tiene suficientes recursos?... Gracias, Carlos. El 6 de diciembre de 2017, 13:09, Antonio Rodriguez Andres <
2014 Jun 03
5
Cargar csv de 16GB en R
Hola, Estoy todavía dando mis primeros pasos en R y una de las cosas que tengo que hacer es trabajar con un csv de 16 GB. Consta de 10 columnas, 7 númericas He probado varias cosas entre ellas  los paquetes  'colbycol', data.table, ff , etc,  pero nada, mi ordenador de queda frito. Por cierto, tiene 8GB de RAM y Windows 8 ¿Debo trocear previamente el csv,me recomendais algún paquete en
2017 Dec 06
3
STATA base de datos
Tengo una base de datos muy grande en formato Stata, (dta), he probado a leerla con el paquete foreign, y el comando read.dta, pero como tiene 28 variables y casi medio millon de individuos, cuando pruebo a hacer graficas o algo, me sale problema de memoria. Entonces, una solucion es intentar pasar de STATA a CSV y luego usar el comando fread, y finalmente cargar los datos como RData. SIn
2017 Dec 06
2
STATA base de datos
Freddy el archivo lo leo en segundos en Stata. puedo probar el paquete heaven. Pero si recuerdo me dio problemas en RStudio El 6/12/2017 13:03, "Freddy Omar López Quintero" <freddy.vate01 en gmail.com> escribió: > El mié, 06-12-2017 a las 12:55 +0100, Antonio Rodriguez Andres escribió: > > me sale problema > de memoria. > > > Pregunta posiblemente tonta:
2017 Jun 27
2
Problema en lectura de datos. Memoria insuficiente
Estaba usando el ESS pero me he dado cuenta que si tiene csv, yo lo bajé de aquí en formato SPSS pero me da el error de falta de memoria http://www.europeansocialsurvey.org/downloadwizard/ 2017-06-27 10:38 GMT-05:00 Freddy Omar López Quintero < freddy.lopez.quintero en gmail.com>: > > 2017-06-27 11:34 GMT-04:00 Antonio Rodriguez Andres < > antoniorodriguezandres70 en
2010 Nov 19
2
help
Hola, Tengo la base de datos de un censo agropecuario el cual está en formato de SPSS, cuando cuando ejecuto el comando para introducirlo a R, despues de permanecer lento R, aparece esto: Error: cannot allocate vector of size 1.6 Mb Hasta aquí llega y no introduce ninguna observación. Mi pregunta es si existe alguna solución, talvez aumentar la memoria de R?? Imagino que como ustedes han
2014 Jun 03
4
Cargar csv de 16GB en R
Estoy de acuerdo con la observación de Joan, yo supe utilizar formas para trabajar con más memoria de la configurada como base, pero tengamos en cuenta que una vez importados los datos, cualquier operación estará entre la memoria física y la virtual, es todo un desafío y dependerá del análisis estadístico (me refiero a los algoritmos que ordenen al CPU). Mi experiencia cuándo trabaje con muchos
2009 Aug 07
5
Cantidad de datos
Buenas, tengo 30 000 000 de datos, y el R no me deja trabajar, como podria corregir eso problema para trabajar con los 30 000 000, mintras es estoy trabajando cada 1 000 000 pero no es igual. Espero puedan ayudarme saludos -- Manuel Bonilla
2013 Jan 24
2
Importar grandes volumenes de datos
Hola tod@s   Estoy subiendo información pero esta es extensa y R no me permite tengo 18''000.000  de registros con 30 campos, alguien puede indicarme como subir esta informacion o no es posible?   Gracias por su ayuda [[alternative HTML version deleted]]
2015 Dec 22
2
Cannot allocate vector of size
Hola Rubén, Totalmente de acuerdo con los consejos de Carlos. Ten en cuenta que aunque R disponga de varios (bastantes) GB de memoria, algunos de los objetos que va creando durante el proceso pueden consumirla por completo. Es decir, que aunque tu ordenador tenga 64GB de RAM, es posible que no queden 10 GB libres para almacenar un objeto (porque ya hay demasiados objetos grandes en la
2017 Jun 27
2
Problema en lectura de datos. Memoria insuficiente
Gracias Eric Actualmente no tengo SPSS instalado en mi computador ni tengo licencia. El survey solo tiene los datos en formato SPSS o en formato de STATA (.dta). Creo que estos últimos se pueden leer con read.dta, de la library(foreign). Pero entiendo que darán el mismo problema 2017-06-26 17:08 GMT-05:00 eric <ericconchamunoz en gmail.com>: > Hola antonio, cuando tengo que leer datos
2015 Dec 21
2
Cannot allocate vector of size
Hola a tod en s, Soy nuevo en R-help-es, por lo que perdonadme si debería haber mandado este email a una sección en particular. Quería consultaros un error que me aparece en R al hacer una matriz de disimilitud a partir de una tabla con 6000 columnas x 11000 filas. El mensaje que da R es "cannot allocate vector of size 10Gb", y me resulta extraño ya que tengo 64 Gb de RAM disponible.
2017 Jun 22
2
Ayuda R no puede hubicar un vector de 42gb
http://go.cloudera.com/ml-h20-es-webinar?src=email1&elqTrackId=af5517eab2f543afbb31a0686d9ca566&elq=c68d9a8c25ba4b12944b8065d8a06e33&elqaid=4541&elqat=1&elqCampaignId= El 22 de junio de 2017, 22:59, Carlos Ortega <cof en qualityexcellence.es> escribió: > Hola, > > Tendrás RStudioServer en un nodo frontera de tu clúster. Y cuando lees > algo te lo estás
2014 Jun 04
2
Cargar csv de 16GB en R
Es cierto que R carga los objetos en memoria, pero ésta puede ser memoria RAM + Virtual. Yo he trabajado con data frames mayores que la memoria física. Es cierto que esto ralentiza las operaciones. Lo que marca realmente los límites de la memoria es la versión del sistema operativo y de R, que han de ser de 64 bits. En un sistema de 32 bits el direccionamiento teórico máximo es de 4 Gbytes, pero
2015 Dec 22
2
Cannot allocate vector of size
Yo creo que el problema principal está en betapart.core(), que crea y mantiene simultáneamente en memoria varios objetos de alrededor de 1 Gb que luego combina en una lista... Probablemente es entre las líneas el código de betaper.core donde hay que ir eliminando objetos. Saludos, Marcelino El 22/12/2015 a las 18:26, Carlos J. Gil Bellosta escribió: > Hola, ¿qué tal? > > Yo no
2014 Jun 04
3
Cargar csv de 16GB en R
No soy experto en data mining con R, sé que existe algún paquete al respecto, pero no sé si R sería lo más adecuado para cantidades ingentes de datos… Saludos, Juan Carmona. De: Eduardo Bieñkowski [mailto:edukoski@gmail.com] Enviado el: miércoles, 04 de junio de 2014 17:07 Para: Joan Carmona CC: Isidro Hidalgo; r-help-es Asunto: Re: [R-es] Cargar csv de 16GB en R Si pero que pasaría
2015 Dec 23
2
Cannot allocate vector of size
Antes de nada, me gustaría daros las gracias por toda vuestra ayuda. He estado probando todo lo que me habéis dicho a la vez, y no hay manera, sigo teniendo el problema con el espacio. En cuanto al tamaño de la base de datos, es más grande de lo que puse, me equivoqué y puse el tamaño de una base anterior con la que estuve trabajando, la actual tiene 36866 filas x 6500 columnas. He seguido todas