Displaying 20 results from an estimated 508 matches for "sparkly".
Did you mean:
sparkle
2002 Nov 18
0
Spark Press Release
...........................................................
SPARK PRESS RELEASE :: One Year Of Interactive IP Video
...........................................................
SPARK CELEBRATES ONE YEAR OF IP VIDEO SERVICE
World's First Totally IP VIDEO Based Service
Indianapolis, Indiana - November 11th, 2002 -
While the telecommunications world heaved and
shrugged under a collapsing
2017 Jul 01
2
OFFTOPIC: SPARK Y H2O
Buenas erreros!!
Una cuestión de las que tengo ciertas dudas es saber en que se diferencian Spark y H2o, si son competencia, si valen para lo mismo o no....
Según lo poco que se, Spark es una manera de agilizar el Map-Reduce, y con la libreria MLlib, puedes hacer datamining de grandes datasheets, y si lo conectas con R o con Python, puedes usar ese lenguaje.
H2O es una herramienta que nos
2010 Jan 05
1
[LLVMdev] bug
[spark at oxygen llvm]$ llvmc -clang ~/a.c
/home2/yjhuang/tools/bin/../lib/gcc/x86_64-unknown-linux-gnu/4.4.2/../../../../x86_64-unknown-linux-gnu/bin/ld:
warning: cannot find entry symbol mit-llvm-bc; defaulting to
00000000004003c0
llc: bitcode didn't read correctly.
Reason: Bitcode stream should be a multiple of 4 bytes in length
出现error,加-v选项,发现是clang -x c -emit-llvm-bc /home2/spark/a.c -o
2017 Jan 04
3
Big data con R
Hola.
Últimamente ha habido en la lista varios hilos sobre análisis de grandes
volúmenes de datos con R.
Las alternativas que se han mencionado son:
- Usar una máquina más potente, vía Amazon Web Services, por ejemplo
- Paralelización con openMp
- h2o y su paquete para R,
- Paquete sparklyr como wrapper de los algoritmos de spark,
Y por supuesto, utilizar muestreo o incluso si tenemos grandes volúmenes de
datos, utilizar varias muestras para ajustar los modelos.
A todo esto, se añade ahora la disponibilidad en SparkR de los algoritmos
de spark (en la versión 2.1 de spark liberada h...
2016 Dec 05
2
Big data con R o phyton?
Merece la pena aprender python para Big data con Spark o usando la libreria que acaba de salir para R es suficiente? Qué creeis?
[[alternative HTML version deleted]]
2016 Oct 11
2
Alto rendimiento
...mérica del sur comienza la primavera, desde la ventana miro la parra contando las posibles uvas, siempre aparece un ave que se arrima a la ventana o incluso llegan hasta la computadora como si supiesen usarla.
Ahora en R.
En ese esquema un modelo lineal tendría que ir con mlib que es aportada por sparklyr, en ese caso tendría toda la capacidad de proceso, pero no en un ml tradicional como modelo <- lm (y ~ var1 + var2).
En otras palabras http://spark.rstudio.com/mllib.html aporta beneficios, pero lo que está por fuera correría como el R de CRAN con un hilo del procesador.
Los otros días vi el...
2017 Jun 22
4
Question
Hi,
I am using Spark and the Sparklyr library in R.
I have a file with several lines. For example
A B C
awer.ttp.net Code 554
abcd.ttp.net Code 747
asdf.ttp.net Part 554
xyz.ttp.net Part 747
I want to split just column A of the table and I want a new row added to the table D, with v...
2016 Oct 11
2
Alto rendimiento
Estimados
En el sitio de https://www.rstudio.com/ hay un aviso sobre http://spark.rstudio.com/index.html ( sparklyr ).
Microsoft publico un artículo donde comparan el R Server que está dentro de SQL server (o por separado, depende un poco), o el Microsoft R, junto con algunas librerías que se pueden compilar y obtener lo mismo en Ubuntu.
Supongamos que tengo el dinero como para comprar por ejemplo http://www....
2011 Jun 24
3
Fwd: Extract element of a list based on an index value
> Dear list,
>
> I have some data on a geneaology, here is a subset:
> warmerge[1:11,c(1,6,25)]
> Warrior SibID birth.year
> 1100 3793 2013 1926
> 4 2013 2024 1934
> 1094 3769 2024 1918
> 632 2747 2037 1928
> 176 2083 2039 1944
> 187 2085 2039 1949
> 192 2086 2039 NA
> 495
2008 Jan 10
10
Webmail Recommendation
Hi,
I want to install webmail. I am using Dovecot with Exim4.
Recommendations requested please.
Thanks
Peter Sparkes
2016 Oct 11
2
Alto rendimiento
...ing), ahí tienen sus algoritmos propietarios que puedes complementarlos con "R" y gran parte de las librerías que están en CRAN.
? En este caso, en lo que te ayuda estar en su cloud si quieres usar sólo la parte de "R" es en tener por debajo máquinas con mucha RAM.
? Lo de "sparklyr":
o Si te montas varias máquinas en un clúster como dices e instalas Linux sobre el que pones Hadoop y Spark puedes con esta librería de RStudio trabajar en modo distribuido.
? El configurar un clúster de este tipo no es trivial....hay ejemplos comentado por ahí de cómo hacerlo en EC2 Amazon....
2007 May 02
6
templating problems - rhel4, 0.22.3
Using RPMs for el4 (0.22.3). Been trying to get templates to work, but
have found problems.
I created a very small template, and this works well, variables
substitute, great.
I tried a much larger one (an httpd.conf), and puppetmaster crashed.
the remote puppetd first reported an SSL certificate problem, then on
seconds run, "cannot connect to server."
Hacked the template down to
2017 Jun 22
1
Question
...ed as a local variable.
Thanks,
Amrith
> On Jun 22, 2017, at 4:15 PM, David Winsemius <dwinsemius at comcast.net> wrote:
>
>
>> On Jun 22, 2017, at 11:22 AM, Amrith Deepak <adeepak at apple.com> wrote:
>>
>> Hi,
>>
>> I am using Spark and the Sparklyr library in R.
>>
>> I have a file with several lines. For example
>>
>> A B C
>> awer.ttp.net Code 554
>> abcd.ttp.net Code 747
>> asdf.ttp.net Part 554
>> xyz.ttp.net Part 747
>> I want to s...
2017 Oct 04
2
Leer parquet files desde R
Buenas a todos.
Ya sé que con sparkR o sparklyr puedo leer fácilmente ficheros con formato
parquet, pero ¿hay alguna forma de leerlos sin tener que arrancar spark?
Mi situación es que tengo unos ficheros en formato parquet en s3 y quiero
leerlos desde una instancia pequeñita de amazon EC2 que quiero mantener sin
instalarle spark.
Estoy bichea...
2010 Jan 05
1
Multivariate Poisson GLM??
Dear R Users,
I'm working on a problem where I have a multivariate response vector of
counts and a continuous predictor.
I've thought about doing this the same way you would do a Multvariate
regression model with normally distributed data, but since these data are
counts, they are probably better modeled with a Poisson distribution.
For example
y1<-rpois(100,3.5)
y2<-rpois(100,1.5)
2007 Sep 27
1
Reading SAS SD2 Data file
I am trying to read a SAS dataset into R that is in a .SD2 format, which
is the Version 6 standard format from SAS.
I see the routines that read the SAS XPORT format (foreign, Hmisc), but
is there any way to read this one?
Any help would be greatly appreciated.
Corey Sparks
Corey Sparks
Assistant Professor
Department of Demography and Organization Studies
University of Texas-San Antonio
One UTSA
2017 Oct 04
2
Leer parquet files desde R
Hola Carlos.
spark_read_parquet es de sparklyr y necesita un sparkcontext inicializado
para leer el fichero de parquet.
El mié., 4 oct. 2017 22:11, Carlos Ortega <cof en qualityexcellence.es>
escribió:
> Hola José Luis,
>
> ¿Has probado directamente con "dplyr"?...
>
> spark_read_parquet
> <https://spark....
2005 Jan 31
16
PXE boot Centos 4.0beta problems
Has anyone yet tried PXE booting the vmlinuz/initrd.img
set from Centos 4.0beta2?
I have a pxelinux setup that is booting 3.4 PXE images
fine, but the equivalent setup for 4.0beta loads the
kernel and then splashes the monitor full of multicolor
random characters. Not a good start to an install...
Anyone had luck? Any changes for PXE boots known for 4.0?
Thanks in advance.
-Alan
2015 Dec 11
2
SVM hadoop
Hola Mª Luz,
Te cuento un poco mi visión:
Lo primero de todo es tener claro qué quiero hacer exactamente en paralelo,
se me ocurren 3 escenarios:
(1) Aplicar un modelo en este caso SVM sobre unos datos muy grandes y por
eso necesito hadoop/spark
(2) Realizar muchos modelos SVM sobre datos pequeños (por ejemplo uno por
usuario) y por eso necesito hadoop/spark para parelilizar estos procesos
2019 Jan 07
2
Runnable R packages
On Mon, 7 Jan 2019 at 22:09, Gergely Dar?czi <daroczig at rapporter.net> wrote:
>
> Dear David, sharing some related (subjective) thoughts below.
>
> You can provide your app as a Docker image, so that the end-user
> simply calls a "docker pull" and then "docker run" -- that can be done
> from a user-friendly script as well.
> Of course, this requires