Displaying 6 results from an estimated 6 matches for "crecido".
Did you mean:
parecido
2013 Jun 13
4
¿Alguna explicación para este fenómeno? (Relativo al uso de memoria)
...cada una de las tablas resultantes. Aunque
no se usasen.
He convertido los factores a caracter, he vuelto a trocear el df
resultante y el resultado ha sido:
> object.size(empresas)
33052680 bytes
> object.size(loans)
3813944 bytes
Es decir, con _overhead_ el tamaño del objeto resultante ha crecido en
un orden de magnitud (asumible), no en tres o cuatro (no asumible).
¿Seré yo el único al que los dichosos factores le han hecho perder
horas y horas de trabajo?
Salud,
Carlos J. Gil Bellosta
http://www.datanalytics.com
El día 13 de junio de 2013 20:54, Marcuzzi, Javier Rubén
<javier.rube...
2003 Sep 19
0
Saludos desde Madrid
...cupado de sus propios problemas, todos vivimos cada vez peor.
Sin embargo los humanistas sabemos que el absurdo de la globalizaci?n dirigida, pensada s?lo en t?rminos econ?micos por los grandes bancos y multinacionales, no va a triunfar. Existe otro proceso de mundializaci?n donde el ser humano ha crecido internamente y se encamina a la formaci?n de una Naci?n Humana Universal. Hay una nueva sensibilidad en el ser humano que experimenta que cualquier cosa que pase en cualquier punto del planeta termina por afectarle a uno mismo. Este es un proceso hist?rico irreversible y as? lo sienten ya en su cor...
2013 Jun 13
1
¿Alguna explicación para este fenómeno? (Relativo al uso de memoria)
...t; He convertido los factores a caracter, he vuelto a trocear el df
> resultante y el resultado ha sido:
>
>> object.size(empresas)
>
> 33052680 bytes
>>
>> object.size(loans)
>
> 3813944 bytes
>
> Es decir, con _overhead_ el tamaño del objeto resultante ha crecido en
> un orden de magnitud (asumible), no en tres o cuatro (no asumible).
>
> ¿Seré yo el único al que los dichosos factores le han hecho perder
> horas y horas de trabajo?
>
> Salud,
>
> Carlos J. Gil Bellosta
> http://www.datanalytics.com
>
>
> El día 13 de juni...
2013 Jun 13
1
¿Alguna explicación para este fenómeno? (Relativo al uso de memoria)
...; He convertido los factores a caracter, he vuelto a trocear el df
> resultante y el resultado ha sido:
>
> object.size(empresas)
>>
> 33052680 bytes
>
>> object.size(loans)
>>
> 3813944 bytes
>
> Es decir, con _overhead_ el tamaño del objeto resultante ha crecido en
> un orden de magnitud (asumible), no en tres o cuatro (no asumible).
>
> ¿Seré yo el único al que los dichosos factores le han hecho perder
> horas y horas de trabajo?
>
> Salud,
>
> Carlos J. Gil Bellosta
> http://www.datanalytics.com
>
>
> El día 13 de juni...
2013 Jun 13
0
¿Alguna explicación para este fenómeno? (Relativo al uso de memoria)
...cada una de las tablas resultantes. Aunque
no se usasen.
He convertido los factores a caracter, he vuelto a trocear el df
resultante y el resultado ha sido:
> object.size(empresas)
33052680 bytes
> object.size(loans)
3813944 bytes
Es decir, con _overhead_ el tamaño del objeto resultante ha crecido en
un orden de magnitud (asumible), no en tres o cuatro (no asumible).
¿Seré yo el único al que los dichosos factores le han hecho perder
horas y horas de trabajo?
Salud,
Carlos J. Gil Bellosta
http://www.datanalytics.com
El día 13 de junio de 2013 20:54, Marcuzzi, Javier Rubén
<javier.rube...
2013 Jun 13
2
¿Alguna explicación para este fenómeno? (Relativo al uso de memoria)
Interesante... y preocupante.
No propuso alguien, no hace mucho, reescribir R desde el principio por
este tipo de cosas?
El 13/06/13 20:04, Carlos Ortega escribió:
> Hola,
>
> Si este comportamiento se ve con cualquier data.frame que luego conviertas
> a lista:
>
>>
>> v <- 1:10
>> w <- split(v, 1:2)
>> w
> $`1`
> [1] 1 3 5 7 9
>
> $`2`