Buenas tardes, Tengo varios conjuntos de datos formato txt, cuyo numero de filas es 1,200 y el numero de columnas (por ahora) varia entre 80,000 y 180,000. Aunque leer uno de esos archivos no es tarea facil, es algo que puedo lograr con algo de paciencia. Estoy interesado en agregar una columna (despues de la 5a columna) a cada archivo y luego exportar el resultado. Asi, un archivo con 80,000 columnas terminara con 80,001 e igual numero de filas. La columna a agregar la calculo utilizando un algoritmo ya definido. Desafortunadamente es poco eficiente hacer lo que quiero leyendo el archivo completo y por eso decidi escribirle a la lista. Agradezco cualquier sugerencia. Muchisimas gracias por su ayuda. Saludos, Jorge.- [[alternative HTML version deleted]]
Hola ¿podría tener sentido gestionar esos ficheros a través de una base de datos de modo que solo escribas la columna en la tabla? (o las tablas) si quieres mantener un archivo por tabla aunque seguramente es más eficiente añadir una columna que indique de qué fichero se trata. NOTA: Si esto sirve tendrás que trasponer los ficheros porque el número máximo de columnas por tabla suele rondar los 4196. En este caso añadirías una fila en la tabla en lugar de una columna al fichero Salduos J. Ordieres El 02/04/2013 8:01, Jorge I Velez escribió:> Buenas tardes, > > Tengo varios conjuntos de datos formato txt, cuyo numero de filas es 1,200 > y el numero de columnas (por ahora) varia entre 80,000 y 180,000. > > Aunque leer uno de esos archivos no es tarea facil, es algo que puedo > lograr con algo de paciencia. Estoy interesado en agregar una columna > (despues de la 5a columna) a cada archivo y luego exportar el resultado. > Asi, un archivo con 80,000 columnas terminara con 80,001 e igual numero de > filas. La columna a agregar la calculo utilizando un algoritmo ya > definido. > > Desafortunadamente es poco eficiente hacer lo que quiero leyendo el archivo > completo y por eso decidi escribirle a la lista. Agradezco cualquier > sugerencia. > > Muchisimas gracias por su ayuda. > > Saludos, > Jorge.- > > [[alternative HTML version deleted]] > > _______________________________________________ > R-help-es mailing list > R-help-es en r-project.org > https://stat.ethz.ch/mailman/listinfo/r-help-es >-- Firma Industriales ------------------------------------------------------------------------ Preserve the environment. Before printing this message, make sure it is necessary. This communication contains confidential information. It is for the exclusive use of the intended addressee. If you are not the intended addressee, please note that any form of distribution, copying or use of this communication or the information in it is strictly prohibited by law. If you have received this communication in error, please immediately notify the sender by reply e-mail and destroy this message. Thank for your cooperation. ------------ próxima parte ------------ Se ha borrado un adjunto en formato HTML... URL: <https://stat.ethz.ch/pipermail/r-help-es/attachments/20130402/6864ede5/attachment-0001.html> ------------ próxima parte ------------ A non-text attachment was scrubbed... Name: sig_jom.png Type: image/png Size: 70391 bytes Desc: no disponible URL: <https://stat.ethz.ch/pipermail/r-help-es/attachments/20130402/6864ede5/attachment-0001.png>
Estimado Joaquin, Muchas gracias por la sugerencia. La utilizacion de una base de datos podria funcionar, pero, aunque trabajo en OS X, temo que esto pueda generar un problema de memoria. Lo otro que quizas no me ayude es que cada archivo tiene caracteristicas diferentes y la variable que debo calcular es unica para cada uno. Alguna otra alternativa? Gracias de nuevo, Jorge.- 2013/4/2 J_Ordieres <>> Hola > > ¿podría tener sentido gestionar esos ficheros a través de una base de > datos de modo que solo escribas la columna en la tabla? (o las tablas) si > quieres mantener un archivo por tabla aunque seguramente es más eficiente > añadir una columna que indique de qué fichero se trata. > > NOTA: Si esto sirve tendrás que trasponer los ficheros porque el número > máximo de columnas por tabla suele rondar los 4196. En este caso añadirías > una fila en la tabla en lugar de una columna al fichero > > Salduos > J. Ordieres > > El 02/04/2013 8:01, Jorge I Velez escribió: > > Buenas tardes, > > Tengo varios conjuntos de datos formato txt, cuyo numero de filas es 1,200 > y el numero de columnas (por ahora) varia entre 80,000 y 180,000. > > Aunque leer uno de esos archivos no es tarea facil, es algo que puedo > lograr con algo de paciencia. Estoy interesado en agregar una columna > (despues de la 5a columna) a cada archivo y luego exportar el resultado. > Asi, un archivo con 80,000 columnas terminara con 80,001 e igual numero de > filas. La columna a agregar la calculo utilizando un algoritmo ya > definido. > > Desafortunadamente es poco eficiente hacer lo que quiero leyendo el archivo > completo y por eso decidi escribirle a la lista. Agradezco cualquier > sugerencia. > > Muchisimas gracias por su ayuda. > > Saludos, > Jorge.- > > [[alternative HTML version deleted]] > > _______________________________________________ > R-help-es mailing listR-help-es en r-project.orghttps://stat.ethz.ch/mailman/listinfo/r-help-es > > > -- > > ------------------------------ > > Preserve the environment. Before printing this message, make sure it is > necessary. > This communication contains confidential information. It is for the > exclusive use of the intended addressee. > If you are not the intended addressee, please note that any form of > distribution, copying or use of this communication or the information in it > is strictly prohibited by law. > If you have received this communication in error, please immediately > notify the sender by reply e-mail and destroy this message. > Thank for your cooperation. >------------ próxima parte ------------ Se ha borrado un adjunto en formato HTML... URL: <https://stat.ethz.ch/pipermail/r-help-es/attachments/20130402/cdf1751e/attachment-0001.html> ------------ próxima parte ------------ A non-text attachment was scrubbed... Name: no disponible Type: image/png Size: 70391 bytes Desc: no disponible URL: <https://stat.ethz.ch/pipermail/r-help-es/attachments/20130402/cdf1751e/attachment-0001.png>
Hola Jorge, Esto que comentas en un proceso batch en shell script lo veo bastante inmediato. Si los ficheros tienen formato tabular, cada uno se puede cortar (comando "cut" en Unix) por las filas que quieras y pegar filas (paste), la nueva y las del resto del fichero cortado. Vaya, a lo mejor me paso de optimista pero recuerdo haber hecho cosas parecidas hace bastante tiempo de esta misma forma... de forma bastante inmediata. Saludos, Carlos Ortega www.qualityexcellence.es El 2 de abril de 2013 08:01, Jorge I Velez <jorgeivanvelez@gmail.com>escribió:> Buenas tardes, > > Tengo varios conjuntos de datos formato txt, cuyo numero de filas es 1,200 > y el numero de columnas (por ahora) varia entre 80,000 y 180,000. > > Aunque leer uno de esos archivos no es tarea facil, es algo que puedo > lograr con algo de paciencia. Estoy interesado en agregar una columna > (despues de la 5a columna) a cada archivo y luego exportar el resultado. > Asi, un archivo con 80,000 columnas terminara con 80,001 e igual numero de > filas. La columna a agregar la calculo utilizando un algoritmo ya > definido. > > Desafortunadamente es poco eficiente hacer lo que quiero leyendo el archivo > completo y por eso decidi escribirle a la lista. Agradezco cualquier > sugerencia. > > Muchisimas gracias por su ayuda. > > Saludos, > Jorge.- > > [[alternative HTML version deleted]] > > _______________________________________________ > R-help-es mailing list > R-help-es@r-project.org > https://stat.ethz.ch/mailman/listinfo/r-help-es >-- Saludos, Carlos Ortega www.qualityexcellence.es [[alternative HTML version deleted]]
Estimado Jorge Si no recuerdo mal, había un programa que sugería acomodar los datos del resultado utilizando awk, en mac creo que es gawk y estaría instalado, el manejo es semejante a los data.frame, uno de los dos me ayudo a comprender el otro. Por copiar solo un ejemplo (desde http://www.linuxtotal.com.mx/index.php?cont=info__tips_021): #> awk ''$3 >= 500 {print $1 $5 $7 }'' FS=":" /etc/passwd Javier El 2 de abril de 2013 06:07, Carlos Ortega <cof@qualityexcellence.es>escribió:> Hola Jorge, > > Esto que comentas en un proceso batch en shell script lo veo bastante > inmediato. > Si los ficheros tienen formato tabular, cada uno se puede cortar (comando > "cut" en Unix) por las filas que quieras y pegar filas (paste), la nueva y > las del resto del fichero cortado. > > Vaya, a lo mejor me paso de optimista pero recuerdo haber hecho cosas > parecidas hace bastante tiempo de esta misma forma... de forma bastante > inmediata. > > Saludos, > Carlos Ortega > www.qualityexcellence.es > > > > El 2 de abril de 2013 08:01, Jorge I Velez <jorgeivanvelez@gmail.com > >escribió: > > > Buenas tardes, > > > > Tengo varios conjuntos de datos formato txt, cuyo numero de filas es > 1,200 > > y el numero de columnas (por ahora) varia entre 80,000 y 180,000. > > > > Aunque leer uno de esos archivos no es tarea facil, es algo que puedo > > lograr con algo de paciencia. Estoy interesado en agregar una columna > > (despues de la 5a columna) a cada archivo y luego exportar el resultado. > > Asi, un archivo con 80,000 columnas terminara con 80,001 e igual numero > de > > filas. La columna a agregar la calculo utilizando un algoritmo ya > > definido. > > > > Desafortunadamente es poco eficiente hacer lo que quiero leyendo el > archivo > > completo y por eso decidi escribirle a la lista. Agradezco cualquier > > sugerencia. > > > > Muchisimas gracias por su ayuda. > > > > Saludos, > > Jorge.- > > > > [[alternative HTML version deleted]] > > > > _______________________________________________ > > R-help-es mailing list > > R-help-es@r-project.org > > https://stat.ethz.ch/mailman/listinfo/r-help-es > > > > > > -- > Saludos, > Carlos Ortega > www.qualityexcellence.es > > [[alternative HTML version deleted]] > > > _______________________________________________ > R-help-es mailing list > R-help-es@r-project.org > https://stat.ethz.ch/mailman/listinfo/r-help-es > >[[alternative HTML version deleted]]
Hola, Sí, awk era otra opción en la que había pensado, lo que ocurre es que teniendo como tiene Jorge ficheros con un número tan grande de columnas lo hace bastante complicado de usar, habría que definir primero las columnas del primer grupo, insertar la que se desea (esto habría que importarlo a awk) y luego definir las del segundo grupo para terminar juntando todo. Aunque esto se puede optimizar...bastante.. En cambio "cut" permite definir un rango de columnas a cortar... es una de sus opciones por defecto. Por ejemplo, en "pseudo-código" sería algo así (si quiero cortar por la columna 40,000 de unos ficheros que tiene 80,000 columnas): *para el conjunto de ficheros* cut -f 1-40000 file_in_i > file_tmpA cut -f 40001-80000 file_in_i > file_tmpB paste file_tmpA *fille_con_columna_a_añadir* file_tmpB > file_Nuevo_Extendido *end* En ejecución puedes comprobar de los ficheros a procesar el número de campos que tiene con awk (awk '' {print NF} '' file_in > file_out) y adaptar el punto de corte de "cut" (si en 40000 o en 60000) en el programa shell. Pero vaya, no sería mucho más complicado ni extenso. Detalles del comando cut: http://es.wikipedia.org/wiki/Cut_(Unix) Saludos, Carlos Ortega www.qualtiyexcellence.es El 2 de abril de 2013 19:26, Javier Marcuzzi < javier.ruben.marcuzzi@gmail.com> escribió:> Estimado Jorge > > Si no recuerdo mal, había un programa que sugería acomodar los datos del > resultado utilizando awk, en mac creo que es gawk y estaría instalado, el > manejo es semejante a los data.frame, uno de los dos me ayudo a comprender > el otro. > > Por copiar solo un ejemplo (desde > http://www.linuxtotal.com.mx/index.php?cont=info__tips_021): > > #> awk ''$3 >= 500 {print $1 $5 $7 }'' FS=":" /etc/passwd > > Javier > > > > > El 2 de abril de 2013 06:07, Carlos Ortega <cof@qualityexcellence.es>escribió: > > Hola Jorge, >> >> Esto que comentas en un proceso batch en shell script lo veo bastante >> inmediato. >> Si los ficheros tienen formato tabular, cada uno se puede cortar (comando >> "cut" en Unix) por las filas que quieras y pegar filas (paste), la nueva y >> las del resto del fichero cortado. >> >> Vaya, a lo mejor me paso de optimista pero recuerdo haber hecho cosas >> parecidas hace bastante tiempo de esta misma forma... de forma bastante >> inmediata. >> >> Saludos, >> Carlos Ortega >> www.qualityexcellence.es >> >> >> >> El 2 de abril de 2013 08:01, Jorge I Velez <jorgeivanvelez@gmail.com >> >escribió: >> >> > Buenas tardes, >> > >> > Tengo varios conjuntos de datos formato txt, cuyo numero de filas es >> 1,200 >> > y el numero de columnas (por ahora) varia entre 80,000 y 180,000. >> > >> > Aunque leer uno de esos archivos no es tarea facil, es algo que puedo >> > lograr con algo de paciencia. Estoy interesado en agregar una columna >> > (despues de la 5a columna) a cada archivo y luego exportar el resultado. >> > Asi, un archivo con 80,000 columnas terminara con 80,001 e igual >> numero de >> > filas. La columna a agregar la calculo utilizando un algoritmo ya >> > definido. >> > >> > Desafortunadamente es poco eficiente hacer lo que quiero leyendo el >> archivo >> > completo y por eso decidi escribirle a la lista. Agradezco cualquier >> > sugerencia. >> > >> > Muchisimas gracias por su ayuda. >> > >> > Saludos, >> > Jorge.- >> > >> > [[alternative HTML version deleted]] >> > >> > _______________________________________________ >> > R-help-es mailing list >> > R-help-es@r-project.org >> > https://stat.ethz.ch/mailman/listinfo/r-help-es >> > >> >> >> >> -- >> Saludos, >> Carlos Ortega >> www.qualityexcellence.es >> >> [[alternative HTML version deleted]] >> >> >> _______________________________________________ >> R-help-es mailing list >> R-help-es@r-project.org >> https://stat.ethz.ch/mailman/listinfo/r-help-es >> >> >-- Saludos, Carlos Ortega www.qualityexcellence.es [[alternative HTML version deleted]]
Estimado Carlos: ¿sirve lo siguiente? m <- matrix(sample(10*10), ncol=10) m m2 <- rbind( m[1:5,], 1:10, m[6:10,] ) m3 <- cbind( m[,1:8], 1:10, m[,9:10] ) m <- cbind( m[,1:8], 50001:50010, m[,9:10] ) m Javier El 2 de abril de 2013 16:07, Carlos Ortega <cof@qualityexcellence.es>escribió:> Hola, > > Sí, awk era otra opción en la que había pensado, lo que ocurre es que > teniendo como tiene Jorge ficheros con un número tan grande de columnas lo > hace bastante complicado de usar, habría que definir primero las columnas > del primer grupo, insertar la que se desea (esto habría que importarlo a > awk) y luego definir las del segundo grupo para terminar juntando todo. > Aunque esto se puede optimizar...bastante.. > > En cambio "cut" permite definir un rango de columnas a cortar... es una de > sus opciones por defecto. > Por ejemplo, en "pseudo-código" sería algo así (si quiero cortar por la > columna 40,000 de unos ficheros que tiene 80,000 columnas): > > *para el conjunto de ficheros* > > cut -f 1-40000 file_in_i > file_tmpA > cut -f 40001-80000 file_in_i > file_tmpB > paste file_tmpA *fille_con_columna_a_añadir* file_tmpB > > file_Nuevo_Extendido > > *end* > > En ejecución puedes comprobar de los ficheros a procesar el número de > campos que tiene con awk (awk '' {print NF} '' file_in > file_out) y adaptar > el punto de corte de "cut" (si en 40000 o en 60000) en el programa shell. > Pero vaya, no sería mucho más complicado ni extenso. > > Detalles del comando cut: > http://es.wikipedia.org/wiki/Cut_(Unix) > > Saludos, > Carlos Ortega > www.qualtiyexcellence.es > > > El 2 de abril de 2013 19:26, Javier Marcuzzi < > javier.ruben.marcuzzi@gmail.com> escribió: > > Estimado Jorge >> >> Si no recuerdo mal, había un programa que sugería acomodar los datos del >> resultado utilizando awk, en mac creo que es gawk y estaría instalado, el >> manejo es semejante a los data.frame, uno de los dos me ayudo a comprender >> el otro. >> >> Por copiar solo un ejemplo (desde >> http://www.linuxtotal.com.mx/index.php?cont=info__tips_021): >> >> #> awk ''$3 >= 500 {print $1 $5 $7 }'' FS=":" /etc/passwd >> >> >> Javier >> >> >> >> >> El 2 de abril de 2013 06:07, Carlos Ortega <cof@qualityexcellence.es>escribió: >> >> Hola Jorge, >>> >>> Esto que comentas en un proceso batch en shell script lo veo bastante >>> inmediato. >>> Si los ficheros tienen formato tabular, cada uno se puede cortar (comando >>> "cut" en Unix) por las filas que quieras y pegar filas (paste), la nueva >>> y >>> las del resto del fichero cortado. >>> >>> Vaya, a lo mejor me paso de optimista pero recuerdo haber hecho cosas >>> parecidas hace bastante tiempo de esta misma forma... de forma bastante >>> inmediata. >>> >>> Saludos, >>> Carlos Ortega >>> www.qualityexcellence.es >>> >>> >>> >>> El 2 de abril de 2013 08:01, Jorge I Velez <jorgeivanvelez@gmail.com >>> >escribió: >>> >>> > Buenas tardes, >>> > >>> > Tengo varios conjuntos de datos formato txt, cuyo numero de filas es >>> 1,200 >>> > y el numero de columnas (por ahora) varia entre 80,000 y 180,000. >>> > >>> > Aunque leer uno de esos archivos no es tarea facil, es algo que puedo >>> > lograr con algo de paciencia. Estoy interesado en agregar una columna >>> > (despues de la 5a columna) a cada archivo y luego exportar el >>> resultado. >>> > Asi, un archivo con 80,000 columnas terminara con 80,001 e igual >>> numero de >>> > filas. La columna a agregar la calculo utilizando un algoritmo ya >>> > definido. >>> > >>> > Desafortunadamente es poco eficiente hacer lo que quiero leyendo el >>> archivo >>> > completo y por eso decidi escribirle a la lista. Agradezco cualquier >>> > sugerencia. >>> > >>> > Muchisimas gracias por su ayuda. >>> > >>> > Saludos, >>> > Jorge.- >>> > >>> > [[alternative HTML version deleted]] >>> > >>> > _______________________________________________ >>> > R-help-es mailing list >>> > R-help-es@r-project.org >>> > https://stat.ethz.ch/mailman/listinfo/r-help-es >>> > >>> >>> >>> >>> -- >>> Saludos, >>> Carlos Ortega >>> www.qualityexcellence.es >>> >>> [[alternative HTML version deleted]] >>> >>> >>> _______________________________________________ >>> R-help-es mailing list >>> R-help-es@r-project.org >>> https://stat.ethz.ch/mailman/listinfo/r-help-es >>> >>> >> > > > -- > Saludos, > Carlos Ortega > www.qualityexcellence.es >[[alternative HTML version deleted]]
m2 y m3 son pruebas, no tienen sentido en el correo anterior, a mi se me mezclaron correos. El 2 de abril de 2013 18:17, Javier Marcuzzi < javier.ruben.marcuzzi@gmail.com> escribió:> Estimado Carlos: > > ¿sirve lo siguiente? > m <- matrix(sample(10*10), ncol=10) > m > m2 <- rbind( m[1:5,], 1:10, m[6:10,] ) > m3 <- cbind( m[,1:8], 1:10, m[,9:10] ) > m <- cbind( m[,1:8], 50001:50010, m[,9:10] ) > m > > Javier > > > El 2 de abril de 2013 16:07, Carlos Ortega <cof@qualityexcellence.es>escribió: > >> Hola, >> >> Sí, awk era otra opción en la que había pensado, lo que ocurre es que >> teniendo como tiene Jorge ficheros con un número tan grande de columnas lo >> hace bastante complicado de usar, habría que definir primero las columnas >> del primer grupo, insertar la que se desea (esto habría que importarlo a >> awk) y luego definir las del segundo grupo para terminar juntando todo. >> Aunque esto se puede optimizar...bastante.. >> >> En cambio "cut" permite definir un rango de columnas a cortar... es una >> de sus opciones por defecto. >> Por ejemplo, en "pseudo-código" sería algo así (si quiero cortar por la >> columna 40,000 de unos ficheros que tiene 80,000 columnas): >> >> *para el conjunto de ficheros* >> >> cut -f 1-40000 file_in_i > file_tmpA >> cut -f 40001-80000 file_in_i > file_tmpB >> paste file_tmpA *fille_con_columna_a_añadir* file_tmpB > >> file_Nuevo_Extendido >> >> *end* >> >> En ejecución puedes comprobar de los ficheros a procesar el número de >> campos que tiene con awk (awk '' {print NF} '' file_in > file_out) y adaptar >> el punto de corte de "cut" (si en 40000 o en 60000) en el programa shell. >> Pero vaya, no sería mucho más complicado ni extenso. >> >> Detalles del comando cut: >> http://es.wikipedia.org/wiki/Cut_(Unix) >> >> Saludos, >> Carlos Ortega >> www.qualtiyexcellence.es >> >> >> El 2 de abril de 2013 19:26, Javier Marcuzzi < >> javier.ruben.marcuzzi@gmail.com> escribió: >> >> Estimado Jorge >>> >>> Si no recuerdo mal, había un programa que sugería acomodar los datos del >>> resultado utilizando awk, en mac creo que es gawk y estaría instalado, el >>> manejo es semejante a los data.frame, uno de los dos me ayudo a comprender >>> el otro. >>> >>> Por copiar solo un ejemplo (desde >>> http://www.linuxtotal.com.mx/index.php?cont=info__tips_021): >>> >>> #> awk ''$3 >= 500 {print $1 $5 $7 }'' FS=":" /etc/passwd >>> >>> >>> >>> Javier >>> >>> >>> >>> >>> El 2 de abril de 2013 06:07, Carlos Ortega <cof@qualityexcellence.es>escribió: >>> >>> Hola Jorge, >>>> >>>> Esto que comentas en un proceso batch en shell script lo veo bastante >>>> inmediato. >>>> Si los ficheros tienen formato tabular, cada uno se puede cortar >>>> (comando >>>> "cut" en Unix) por las filas que quieras y pegar filas (paste), la >>>> nueva y >>>> las del resto del fichero cortado. >>>> >>>> Vaya, a lo mejor me paso de optimista pero recuerdo haber hecho cosas >>>> parecidas hace bastante tiempo de esta misma forma... de forma bastante >>>> inmediata. >>>> >>>> Saludos, >>>> Carlos Ortega >>>> www.qualityexcellence.es >>>> >>>> >>>> >>>> El 2 de abril de 2013 08:01, Jorge I Velez <jorgeivanvelez@gmail.com >>>> >escribió: >>>> >>>> > Buenas tardes, >>>> > >>>> > Tengo varios conjuntos de datos formato txt, cuyo numero de filas es >>>> 1,200 >>>> > y el numero de columnas (por ahora) varia entre 80,000 y 180,000. >>>> > >>>> > Aunque leer uno de esos archivos no es tarea facil, es algo que puedo >>>> > lograr con algo de paciencia. Estoy interesado en agregar una columna >>>> > (despues de la 5a columna) a cada archivo y luego exportar el >>>> resultado. >>>> > Asi, un archivo con 80,000 columnas terminara con 80,001 e igual >>>> numero de >>>> > filas. La columna a agregar la calculo utilizando un algoritmo ya >>>> > definido. >>>> > >>>> > Desafortunadamente es poco eficiente hacer lo que quiero leyendo el >>>> archivo >>>> > completo y por eso decidi escribirle a la lista. Agradezco cualquier >>>> > sugerencia. >>>> > >>>> > Muchisimas gracias por su ayuda. >>>> > >>>> > Saludos, >>>> > Jorge.- >>>> > >>>> > [[alternative HTML version deleted]] >>>> > >>>> > _______________________________________________ >>>> > R-help-es mailing list >>>> > R-help-es@r-project.org >>>> > https://stat.ethz.ch/mailman/listinfo/r-help-es >>>> > >>>> >>>> >>>> >>>> -- >>>> Saludos, >>>> Carlos Ortega >>>> www.qualityexcellence.es >>>> >>>> [[alternative HTML version deleted]] >>>> >>>> >>>> _______________________________________________ >>>> R-help-es mailing list >>>> R-help-es@r-project.org >>>> https://stat.ethz.ch/mailman/listinfo/r-help-es >>>> >>>> >>> >> >> >> -- >> Saludos, >> Carlos Ortega >> www.qualityexcellence.es >> > >[[alternative HTML version deleted]]