Displaying 20 results from an estimated 54 matches for "millones".
2015 May 04
2
Muestreo de bases de datos.-
...S) migró a R y ansioso me contó que iba a ejecutar
las rutinas que había traducido de SAS a R y luego de intentar ejecutarlas
nada le funcionó porque, ingenuamente, quería hacer cosas para las cuales R
no está diseñado (operaciones en la base de datos) y porque leyó TODOS los
datos de una consulta (millones de registros) e intentó correr algún
procedimiento (!). Me dijo que SAS corre todo lo que él necesita y pues
quedó tristemente decepcionado.
Yo le dije que es corriente tomar una muestra de los datos para calibrar
los modelos que se van a necesitar y que no es necesario utilizar los
millones de re...
2015 May 05
2
Muestreo de bases de datos
...ado (operaciones en la base de datos)..".
Precisamente la mayor parte de mi trabajo en R se realiza vinculadolo a un servidor Microsoft SQL Server y lo cierto es que, hasta ahora, "se entienden" muy bien entre ellos.
Cierto es que, en mi caso, la mayor parte del flujo de datos (con millones de registros como norma general) va de R hacia el SQL, puesto que utilizo R para descargar los datos, organizarlos y depurarlos antes de subirlos al SQL server.
Al principio me inquietaba mucho el tiempo (horas en algún caso) en el que la consola de R se mostraba "pensando" hasta que se...
2002 Apr 08
1
glmm
Hello,
I would like to fit generalized linear mixed models but I did not find
the package allowing such procedure.
R help under nlme package gives me "glmmPQL(MASS)" but this file does
not appear in contributed packages.
Thanks in advance for your answer.
Alexandre MILLON
-.-.-.-.-.-.-.-.-.-.-.-.-.-.-.-.-.-.-.-.-.-.-.-.-.-.-.-.-.-.-.-.-.-.-.-.-.-.-.-
r-help mailing list -- Read
2003 Sep 19
0
Saludos desde Madrid
Hola amig@:
Me llamo Ver?nica. Te escribo desde Madrid, Espa?a y formo parte de un equipo del Movimiento Humanista.
Hoy son ya millones de personas las que experimentan c?mo la sociedad en que vivimos se deshumaniza d?a a d?a. El ser humano ha perdido todo valor, el mundo se mueve en torno al dinero y en base al ego?smo, mientras las personas van quedando cada vez m?s desamparadas. De este modo, mientras cada uno est? preocupado d...
2014 Dec 09
2
Optimizar paste0()?
Hola a todos,
Me gustaria construir un vector a partir de otros dos.
Ejemplo:
x <- 1:3
y <- 4:6
d <- data.frame(x, y)
d$z <- with(d, paste0(x, ":", y, "-ABC"))
d
El problema es "d" tiene ~70 millones de filas y toma mucho tiempo
construir el vector "z".
Alguna sugerencia?
Muchas gracias,
Jorge Velez
[[alternative HTML version deleted]]
2016 Sep 26
2
Listado de Valores
Hola Comunidad,
Una duda
Como hago para saber los valores que hay en un campo de un Frame?
Tengo un csv con mas de un millon de registros y en un campo de fecha quiero ver cuales fechas salen
Muchas Gracias
[[alternative HTML version deleted]]
2015 May 06
2
Resumen de R-help-es, Vol 75, Envío 7
...ñado (operaciones en la base de datos)..".
Precisamente la mayor parte de mi trabajo en R se realiza vinculadolo a un servidor Microsoft SQL Server y lo cierto es que, hasta ahora, "se entienden" muy bien entre ellos.
Cierto es que, en mi caso, la mayor parte del flujo de datos (con millones de registros como norma general) va de R hacia el SQL, puesto que utilizo R para descargar los datos, organizarlos y depurarlos antes de subirlos al SQL server.
Al principio me inquietaba mucho el tiempo (horas en algún caso) en el que la consola de R se mostraba "pensando" hasta que se...
2014 Dec 09
3
Optimizar paste0()?
...ia construir un vector a partir de otros dos.
>>
>> Ejemplo:
>>
>> x <- 1:3
>> y <- 4:6
>> d <- data.frame(x, y)
>> d$z <- with(d, paste0(x, ":", y, "-ABC"))
>> d
>>
>> El problema es "d" tiene ~70 millones de filas y toma mucho tiempo
>> construir el vector "z".
>> Alguna sugerencia?
>>
>> Muchas gracias,
>> Jorge Velez
>>
>> [[alternative HTML version deleted]]
>>
>> _______________________________________________
>> R-hel...
2003 Feb 18
4
glm and overdispersion
Hi,
I am performing glm with binomial family and my data show slight
overdispersion (HF<1.5). Nevertheless, in order to take into account for
this heterogeneity though weak, I use F-test rather than Chi-square
(Krackow & Tkadlec, 2001). But surprisingly, outputs of this two tests
are exactly similar. What is the reason and how can I scale the output
by overdispersion ??
Thank you,
2011 May 25
3
Bases de datos, comas y puntos.-
Estimados compañeros,
Les contaré mi problema: supongamos que tengo millones de datos en un
manejador famoso de base de datos al cual, por restricciones impuestas
desde la alta gerencia, no puedo modificar en un ápice. Este manejador
utiliza siempre (siempre) comas en lugar de puntos para separar
decimales. Yo trabajo con R (naturalmente) y hago mis consultas a la
base de d...
2011 Oct 04
1
joining tables
Hello everyone,
I know this is very basic question for you people. I'm working with mani diferent tables, but everyone has the same variables. (V1, V2, V3). The only think that I need to do is to put together this tables. In other words, creating just one big table with all the cases showed in the smaller tables.
For example:
tabla1<-data.frame(v1,v2,v3)
tabla2<-data.frame(v1,v2,v3)
2012 Nov 17
1
fast parallel crawling of file systems
Hi, I use a disk space inventory tool called TreeSizePro to scan file
filesystems on windows and linux boxes. On Linux systems I export
these shares via samba to scan them. TreeSizePro is multi-threaded (32
crawlers) and I run it on windows 7. I am scanning file systems that
are local to the linux servers and also nfs mounts that are
re-exported via samba.
If I scan a windows 2008 server I can
2012 Jul 19
2
rsync takes a long time to start doing any transfers
I want to use rsync with a cloud based rsync provider to do off-site
backing up of a large (1TB) dataset which consists of 32 million+ files
spread out in 300 directories. So the amount of files in any one directory
can be quite large (upwards of 2 million).
Rsync doesn't seem to cope with this well - even doing local copies in a
directory with several thousands of files takes a long time to
2014 Mar 10
4
Frecuencia absoluta acumulada por individuo y por año
Hola,
Hola a todos,
Os escribo porque no consigo finalizar el script necesario para realizar lo que a continuación planteo. Partiendo de un data frame (2 millones de casos), tengo:
> datos2
ID FECHA YEAR CANTIDAD
1 100 2005-08-02 2005 1
2 100 2005-10-19 2005 2
3 100 2007-02-09 2007 1
4 100 2007-10-25 2007 1
5 100 2007-10-29 2007 1
6 120 2006-05-11 2006 1
7 120 2006-08-17 2006 5
8 120 2006-10-15 200...
2014 Dec 09
3
Optimizar paste0()?
...Ejemplo:
> >
> > x <- 1:3
> > y <- 4:6
> > d <- data.frame(x, y)
> > d$z <- with(d, paste0(x, ":", y, "-ABC"))
> > d
> >
> > El problema es "d" tiene ~70 millones de filas y toma mucho
> tiempo
> > construir el vector "z".
> > Alguna sugerencia?
> >
> > Muchas gracias,
> > Jorge Velez
> >
> > [[alternative HTML version deleted]]
> >
> >...
2015 May 28
2
La ejecución de mi script R es muy lenta
En el correo anterior se me olvidó mencionar que trabajo con Rstudio
El 28 de mayo de 2015, 15:18, MªLuz Morales <mlzmrls en gmail.com> escribió:
> Hola,
> soy nueva en esta lista y también en R. Yo he realizado un script en R
> que carga dos archivos csv, uno de ellos con casi 2 millones de filas. El
> programa carga esos archivos a data frame, y se trata simplemente de
> seleccionar ciertos datos, hacer alguna operación (media, minimo, máximo)
> y presentarlos en una tabla que tendrá 4000 filas. La ejecución de este
> programa ha tardado casi 3 horas!!!!, podéis decir...
2017 Jan 15
3
¿Está R perdiendo la batalla?
Hace poco me puse al tema del big data y la verdad es que een este campo la decisión parece clara. Python ahora mismo está un paso por delante de R, aunque sparklyR puede igualar la contienda.
Pero lo que me empieza a preocupar es que parece que si nos alejamos del Big Data, Python tb está ganando adeptos a pasos agigantados. ¿Está perdiendo R la batalla?
[[alternative HTML version deleted]]
2013 Jun 13
4
¿Alguna explicación para este fenómeno? (Relativo al uso de memoria)
...mail.com> escribió:
> Estimados
>
> ¿que pasa con opciones como bigdata o semejantes? Tendría que probar, leer,
> etc., pero puede ser que algún algoritmo distinto solucione esos problemas.
> Recuerdo una presentación que creo que la realizó alguno de la lista donde
> utilizaba millones de datos, eran de aeropuertos, tráfico aéreo, algo de eso
> había leído en una oportunidad.
>
> Javier Marcuzzi
>
> -----Original Message----- From: Jose Luis Cañadas
> Sent: Thursday, June 13, 2013 3:42 PM
> To: r-help-es en r-project.org
> Subject: Re: [R-es] ¿Alguna expli...
2016 Apr 12
2
Procesos paralelos
Hola, ¿qué tal?
Si la base de datos de destino es SQL Server, ¿por qué no pruebas con
la función dbBulkCopy del paquete
https://github.com/agstudy/rsqlserver? Debería poder cargar millones
de registros en segundos. Al menos, en una única transacción en lugar
de múltiples como con sqlSave.
Un saludo,
Carlos J. Gil Bellosta
http://www.datanalytics.com
El día 12 de abril de 2016, 11:55,
<miguel.angel.rodriguez.muinos en sergas.es> escribió:
> Hola José Luis.
>
> Te da...
2013 Jun 13
2
¿Alguna explicación para este fenómeno? (Relativo al uso de memoria)
Interesante... y preocupante.
No propuso alguien, no hace mucho, reescribir R desde el principio por
este tipo de cosas?
El 13/06/13 20:04, Carlos Ortega escribió:
> Hola,
>
> Si este comportamiento se ve con cualquier data.frame que luego conviertas
> a lista:
>
>>
>> v <- 1:10
>> w <- split(v, 1:2)
>> w
> $`1`
> [1] 1 3 5 7 9
>
> $`2`