search for: millones

Displaying 20 results from an estimated 54 matches for "millones".

2015 May 04
2
Muestreo de bases de datos.-
...S) migró a R y ansioso me contó que iba a ejecutar las rutinas que había traducido de SAS a R y luego de intentar ejecutarlas nada le funcionó porque, ingenuamente, quería hacer cosas para las cuales R no está diseñado (operaciones en la base de datos) y porque leyó TODOS los datos de una consulta (millones de registros) e intentó correr algún procedimiento (!). Me dijo que SAS corre todo lo que él necesita y pues quedó tristemente decepcionado. Yo le dije que es corriente tomar una muestra de los datos para calibrar los modelos que se van a necesitar y que no es necesario utilizar los millones de re...
2015 May 05
2
Muestreo de bases de datos
...ado (operaciones en la base de datos)..". Precisamente la mayor parte de mi trabajo en R se realiza vinculadolo a un servidor Microsoft SQL Server y lo cierto es que, hasta ahora, "se entienden" muy bien entre ellos. Cierto es que, en mi caso, la mayor parte del flujo de datos (con millones de registros como norma general) va de R hacia el SQL, puesto que utilizo R para descargar los datos, organizarlos y depurarlos antes de subirlos al SQL server. Al principio me inquietaba mucho el tiempo (horas en algún caso) en el que la consola de R se mostraba "pensando" hasta que se...
2002 Apr 08
1
glmm
Hello, I would like to fit generalized linear mixed models but I did not find the package allowing such procedure. R help under nlme package gives me "glmmPQL(MASS)" but this file does not appear in contributed packages. Thanks in advance for your answer. Alexandre MILLON -.-.-.-.-.-.-.-.-.-.-.-.-.-.-.-.-.-.-.-.-.-.-.-.-.-.-.-.-.-.-.-.-.-.-.-.-.-.-.- r-help mailing list -- Read
2003 Sep 19
0
Saludos desde Madrid
Hola amig@: Me llamo Ver?nica. Te escribo desde Madrid, Espa?a y formo parte de un equipo del Movimiento Humanista. Hoy son ya millones de personas las que experimentan c?mo la sociedad en que vivimos se deshumaniza d?a a d?a. El ser humano ha perdido todo valor, el mundo se mueve en torno al dinero y en base al ego?smo, mientras las personas van quedando cada vez m?s desamparadas. De este modo, mientras cada uno est? preocupado d...
2014 Dec 09
2
Optimizar paste0()?
Hola a todos, Me gustaria construir un vector a partir de otros dos. Ejemplo: x <- 1:3 y <- 4:6 d <- data.frame(x, y) d$z <- with(d, paste0(x, ":", y, "-ABC")) d El problema es "d" tiene ~70 millones de filas y toma mucho tiempo construir el vector "z". Alguna sugerencia? Muchas gracias, Jorge Velez [[alternative HTML version deleted]]
2016 Sep 26
2
Listado de Valores
Hola Comunidad, Una duda Como hago para saber los valores que hay en un campo de un Frame? Tengo un csv con mas de un millon de registros y en un campo de fecha quiero ver cuales fechas salen Muchas Gracias [[alternative HTML version deleted]]
2015 May 06
2
Resumen de R-help-es, Vol 75, Envío 7
...ñado (operaciones en la base de datos)..". Precisamente la mayor parte de mi trabajo en R se realiza vinculadolo a un servidor Microsoft SQL Server y lo cierto es que, hasta ahora, "se entienden" muy bien entre ellos. Cierto es que, en mi caso, la mayor parte del flujo de datos (con millones de registros como norma general) va de R hacia el SQL, puesto que utilizo R para descargar los datos, organizarlos y depurarlos antes de subirlos al SQL server. Al principio me inquietaba mucho el tiempo (horas en algún caso) en el que la consola de R se mostraba "pensando" hasta que se...
2014 Dec 09
3
Optimizar paste0()?
...ia construir un vector a partir de otros dos. >> >> Ejemplo: >> >> x <- 1:3 >> y <- 4:6 >> d <- data.frame(x, y) >> d$z <- with(d, paste0(x, ":", y, "-ABC")) >> d >> >> El problema es "d" tiene ~70 millones de filas y toma mucho tiempo >> construir el vector "z". >> Alguna sugerencia? >> >> Muchas gracias, >> Jorge Velez >> >> [[alternative HTML version deleted]] >> >> _______________________________________________ >> R-hel...
2003 Feb 18
4
glm and overdispersion
Hi, I am performing glm with binomial family and my data show slight overdispersion (HF<1.5). Nevertheless, in order to take into account for this heterogeneity though weak, I use F-test rather than Chi-square (Krackow & Tkadlec, 2001). But surprisingly, outputs of this two tests are exactly similar. What is the reason and how can I scale the output by overdispersion ?? Thank you,
2011 May 25
3
Bases de datos, comas y puntos.-
Estimados compañeros, Les contaré mi problema: supongamos que tengo millones de datos en un manejador famoso de base de datos al cual, por restricciones impuestas desde la alta gerencia, no puedo modificar en un ápice. Este manejador utiliza siempre (siempre) comas en lugar de puntos para separar decimales. Yo trabajo con R (naturalmente) y hago mis consultas a la base de d...
2011 Oct 04
1
joining tables
Hello everyone, I know this is very basic question for you people. I'm working with mani diferent tables, but everyone has the same variables. (V1, V2, V3). The only think that I need to do is to put together this tables. In other words, creating just one big table with all the cases showed in the smaller tables. For example: tabla1<-data.frame(v1,v2,v3) tabla2<-data.frame(v1,v2,v3)
2012 Nov 17
1
fast parallel crawling of file systems
Hi, I use a disk space inventory tool called TreeSizePro to scan file filesystems on windows and linux boxes. On Linux systems I export these shares via samba to scan them. TreeSizePro is multi-threaded (32 crawlers) and I run it on windows 7. I am scanning file systems that are local to the linux servers and also nfs mounts that are re-exported via samba. If I scan a windows 2008 server I can
2012 Jul 19
2
rsync takes a long time to start doing any transfers
I want to use rsync with a cloud based rsync provider to do off-site backing up of a large (1TB) dataset which consists of 32 million+ files spread out in 300 directories. So the amount of files in any one directory can be quite large (upwards of 2 million). Rsync doesn't seem to cope with this well - even doing local copies in a directory with several thousands of files takes a long time to
2014 Mar 10
4
Frecuencia absoluta acumulada por individuo y por año
Hola, Hola a todos, Os escribo porque no consigo finalizar el script necesario para realizar lo que a continuación planteo. Partiendo de un data frame (2 millones de casos), tengo: > datos2 ID FECHA YEAR CANTIDAD 1 100 2005-08-02 2005 1 2 100 2005-10-19 2005 2 3 100 2007-02-09 2007 1 4 100 2007-10-25 2007 1 5 100 2007-10-29 2007 1 6 120 2006-05-11 2006 1 7 120 2006-08-17 2006 5 8 120 2006-10-15 200...
2014 Dec 09
3
Optimizar paste0()?
...Ejemplo: > > > > x <- 1:3 > > y <- 4:6 > > d <- data.frame(x, y) > > d$z <- with(d, paste0(x, ":", y, "-ABC")) > > d > > > > El problema es "d" tiene ~70 millones de filas y toma mucho > tiempo > > construir el vector "z". > > Alguna sugerencia? > > > > Muchas gracias, > > Jorge Velez > > > > [[alternative HTML version deleted]] > > > >...
2015 May 28
2
La ejecución de mi script R es muy lenta
En el correo anterior se me olvidó mencionar que trabajo con Rstudio El 28 de mayo de 2015, 15:18, MªLuz Morales <mlzmrls en gmail.com> escribió: > Hola, > soy nueva en esta lista y también en R. Yo he realizado un script en R > que carga dos archivos csv, uno de ellos con casi 2 millones de filas. El > programa carga esos archivos a data frame, y se trata simplemente de > seleccionar ciertos datos, hacer alguna operación (media, minimo, máximo) > y presentarlos en una tabla que tendrá 4000 filas. La ejecución de este > programa ha tardado casi 3 horas!!!!, podéis decir...
2017 Jan 15
3
¿Está R perdiendo la batalla?
Hace poco me puse al tema del big data y la verdad es que een este campo la decisión parece clara. Python ahora mismo está un paso por delante de R, aunque sparklyR puede igualar la contienda. Pero lo que me empieza a preocupar es que parece que si nos alejamos del Big Data, Python tb está ganando adeptos a pasos agigantados. ¿Está perdiendo R la batalla? [[alternative HTML version deleted]]
2013 Jun 13
4
¿Alguna explicación para este fenómeno? (Relativo al uso de memoria)
...mail.com> escribió: > Estimados > > ¿que pasa con opciones como bigdata o semejantes? Tendría que probar, leer, > etc., pero puede ser que algún algoritmo distinto solucione esos problemas. > Recuerdo una presentación que creo que la realizó alguno de la lista donde > utilizaba millones de datos, eran de aeropuertos, tráfico aéreo, algo de eso > había leído en una oportunidad. > > Javier Marcuzzi > > -----Original Message----- From: Jose Luis Cañadas > Sent: Thursday, June 13, 2013 3:42 PM > To: r-help-es en r-project.org > Subject: Re: [R-es] ¿Alguna expli...
2016 Apr 12
2
Procesos paralelos
Hola, ¿qué tal? Si la base de datos de destino es SQL Server, ¿por qué no pruebas con la función dbBulkCopy del paquete https://github.com/agstudy/rsqlserver? Debería poder cargar millones de registros en segundos. Al menos, en una única transacción en lugar de múltiples como con sqlSave. Un saludo, Carlos J. Gil Bellosta http://www.datanalytics.com El día 12 de abril de 2016, 11:55, <miguel.angel.rodriguez.muinos en sergas.es> escribió: > Hola José Luis. > > Te da...
2013 Jun 13
2
¿Alguna explicación para este fenómeno? (Relativo al uso de memoria)
Interesante... y preocupante. No propuso alguien, no hace mucho, reescribir R desde el principio por este tipo de cosas? El 13/06/13 20:04, Carlos Ortega escribió: > Hola, > > Si este comportamiento se ve con cualquier data.frame que luego conviertas > a lista: > >> >> v <- 1:10 >> w <- split(v, 1:2) >> w > $`1` > [1] 1 3 5 7 9 > > $`2`