search for: sparkly

Displaying 20 results from an estimated 508 matches for "sparkly".

Did you mean: sparkle
2002 Nov 18
0
Spark Press Release
........................................................... SPARK PRESS RELEASE :: One Year Of Interactive IP Video ........................................................... SPARK CELEBRATES ONE YEAR OF IP VIDEO SERVICE World's First Totally IP VIDEO Based Service Indianapolis, Indiana - November 11th, 2002 - While the telecommunications world heaved and shrugged under a collapsing
2017 Jul 01
2
OFFTOPIC: SPARK Y H2O
Buenas erreros!! Una cuestión de las que tengo ciertas dudas es saber en que se diferencian Spark y H2o, si son competencia, si valen para lo mismo o no.... Según lo poco que se, Spark es una manera de agilizar el Map-Reduce, y con la libreria MLlib, puedes hacer datamining de grandes datasheets, y si lo conectas con R o con Python, puedes usar ese lenguaje. H2O es una herramienta que nos
2010 Jan 05
1
[LLVMdev] bug
[spark at oxygen llvm]$ llvmc -clang ~/a.c /home2/yjhuang/tools/bin/../lib/gcc/x86_64-unknown-linux-gnu/4.4.2/../../../../x86_64-unknown-linux-gnu/bin/ld: warning: cannot find entry symbol mit-llvm-bc; defaulting to 00000000004003c0 llc: bitcode didn't read correctly. Reason: Bitcode stream should be a multiple of 4 bytes in length 出现error,加-v选项,发现是clang -x c -emit-llvm-bc /home2/spark/a.c -o
2017 Jan 04
3
Big data con R
Hola. Últimamente ha habido en la lista varios hilos sobre análisis de grandes volúmenes de datos con R. Las alternativas que se han mencionado son: - Usar una máquina más potente, vía Amazon Web Services, por ejemplo - Paralelización con openMp - h2o y su paquete para R, - Paquete sparklyr como wrapper de los algoritmos de spark, Y por supuesto, utilizar muestreo o incluso si tenemos grandes volúmenes de datos, utilizar varias muestras para ajustar los modelos. A todo esto, se añade ahora la disponibilidad en SparkR de los algoritmos de spark (en la versión 2.1 de spark liberada h...
2016 Dec 05
2
Big data con R o phyton?
Merece la pena aprender python para Big data con Spark o usando la libreria que acaba de salir para R es suficiente? Qué creeis? [[alternative HTML version deleted]]
2016 Oct 11
2
Alto rendimiento
...mérica del sur comienza la primavera, desde la ventana miro la parra contando las posibles uvas, siempre aparece un ave que se arrima a la ventana o incluso llegan hasta la computadora como si supiesen usarla. Ahora en R. En ese esquema un modelo lineal tendría que ir con mlib que es aportada por sparklyr, en ese caso tendría toda la capacidad de proceso, pero no en un ml tradicional como modelo <- lm (y ~ var1 + var2). En otras palabras http://spark.rstudio.com/mllib.html aporta beneficios, pero lo que está por fuera correría como el R de CRAN con un hilo del procesador. Los otros días vi el...
2017 Jun 22
4
Question
Hi, I am using Spark and the Sparklyr library in R. I have a file with several lines. For example A B C awer.ttp.net Code 554 abcd.ttp.net Code 747 asdf.ttp.net Part 554 xyz.ttp.net Part 747 I want to split just column A of the table and I want a new row added to the table D, with v...
2016 Oct 11
2
Alto rendimiento
Estimados En el sitio de https://www.rstudio.com/ hay un aviso sobre http://spark.rstudio.com/index.html ( sparklyr ). Microsoft publico un artículo donde comparan el R Server que está dentro de SQL server (o por separado, depende un poco), o el Microsoft R, junto con algunas librerías que se pueden compilar y obtener lo mismo en Ubuntu. Supongamos que tengo el dinero como para comprar por ejemplo http://www....
2011 Jun 24
3
Fwd: Extract element of a list based on an index value
> Dear list, > > I have some data on a geneaology, here is a subset: > warmerge[1:11,c(1,6,25)] > Warrior SibID birth.year > 1100 3793 2013 1926 > 4 2013 2024 1934 > 1094 3769 2024 1918 > 632 2747 2037 1928 > 176 2083 2039 1944 > 187 2085 2039 1949 > 192 2086 2039 NA > 495
2008 Jan 10
10
Webmail Recommendation
Hi, I want to install webmail. I am using Dovecot with Exim4. Recommendations requested please. Thanks Peter Sparkes
2016 Oct 11
2
Alto rendimiento
...ing), ahí tienen sus algoritmos propietarios que puedes complementarlos con "R" y gran parte de las librerías que están en CRAN. ? En este caso, en lo que te ayuda estar en su cloud si quieres usar sólo la parte de "R" es en tener por debajo máquinas con mucha RAM. ? Lo de "sparklyr": o Si te montas varias máquinas en un clúster como dices e instalas Linux sobre el que pones Hadoop y Spark puedes con esta librería de RStudio trabajar en modo distribuido. ? El configurar un clúster de este tipo no es trivial....hay ejemplos comentado por ahí de cómo hacerlo en EC2 Amazon....
2007 May 02
6
templating problems - rhel4, 0.22.3
Using RPMs for el4 (0.22.3). Been trying to get templates to work, but have found problems. I created a very small template, and this works well, variables substitute, great. I tried a much larger one (an httpd.conf), and puppetmaster crashed. the remote puppetd first reported an SSL certificate problem, then on seconds run, "cannot connect to server." Hacked the template down to
2017 Jun 22
1
Question
...ed as a local variable. Thanks, Amrith > On Jun 22, 2017, at 4:15 PM, David Winsemius <dwinsemius at comcast.net> wrote: > > >> On Jun 22, 2017, at 11:22 AM, Amrith Deepak <adeepak at apple.com> wrote: >> >> Hi, >> >> I am using Spark and the Sparklyr library in R. >> >> I have a file with several lines. For example >> >> A B C >> awer.ttp.net Code 554 >> abcd.ttp.net Code 747 >> asdf.ttp.net Part 554 >> xyz.ttp.net Part 747 >> I want to s...
2017 Oct 04
2
Leer parquet files desde R
Buenas a todos. Ya sé que con sparkR o sparklyr puedo leer fácilmente ficheros con formato parquet, pero ¿hay alguna forma de leerlos sin tener que arrancar spark? Mi situación es que tengo unos ficheros en formato parquet en s3 y quiero leerlos desde una instancia pequeñita de amazon EC2 que quiero mantener sin instalarle spark. Estoy bichea...
2010 Jan 05
1
Multivariate Poisson GLM??
Dear R Users, I'm working on a problem where I have a multivariate response vector of counts and a continuous predictor. I've thought about doing this the same way you would do a Multvariate regression model with normally distributed data, but since these data are counts, they are probably better modeled with a Poisson distribution. For example y1<-rpois(100,3.5) y2<-rpois(100,1.5)
2007 Sep 27
1
Reading SAS SD2 Data file
I am trying to read a SAS dataset into R that is in a .SD2 format, which is the Version 6 standard format from SAS. I see the routines that read the SAS XPORT format (foreign, Hmisc), but is there any way to read this one? Any help would be greatly appreciated. Corey Sparks Corey Sparks Assistant Professor Department of Demography and Organization Studies University of Texas-San Antonio One UTSA
2017 Oct 04
2
Leer parquet files desde R
Hola Carlos. spark_read_parquet es de sparklyr y necesita un sparkcontext inicializado para leer el fichero de parquet. El mié., 4 oct. 2017 22:11, Carlos Ortega <cof en qualityexcellence.es> escribió: > Hola José Luis, > > ¿Has probado directamente con "dplyr"?... > > spark_read_parquet > <https://spark....
2005 Jan 31
16
PXE boot Centos 4.0beta problems
Has anyone yet tried PXE booting the vmlinuz/initrd.img set from Centos 4.0beta2? I have a pxelinux setup that is booting 3.4 PXE images fine, but the equivalent setup for 4.0beta loads the kernel and then splashes the monitor full of multicolor random characters. Not a good start to an install... Anyone had luck? Any changes for PXE boots known for 4.0? Thanks in advance. -Alan
2015 Dec 11
2
SVM hadoop
Hola Mª Luz, Te cuento un poco mi visión: Lo primero de todo es tener claro qué quiero hacer exactamente en paralelo, se me ocurren 3 escenarios: (1) Aplicar un modelo en este caso SVM sobre unos datos muy grandes y por eso necesito hadoop/spark (2) Realizar muchos modelos SVM sobre datos pequeños (por ejemplo uno por usuario) y por eso necesito hadoop/spark para parelilizar estos procesos
2019 Jan 07
2
Runnable R packages
On Mon, 7 Jan 2019 at 22:09, Gergely Dar?czi <daroczig at rapporter.net> wrote: > > Dear David, sharing some related (subjective) thoughts below. > > You can provide your app as a Docker image, so that the end-user > simply calls a "docker pull" and then "docker run" -- that can be done > from a user-friendly script as well. > Of course, this requires