Displaying 20 results from an estimated 508 matches for "spark".
Did you mean:
spare
2002 Nov 18
0
Spark Press Release
...........................................................
SPARK PRESS RELEASE :: One Year Of Interactive IP Video
...........................................................
SPARK CELEBRATES ONE YEAR OF IP VIDEO SERVICE
World's First Totally IP VIDEO Based Service
Indianapolis, Indiana - November 11th, 2002 -
While the telecommunications world heaved...
2017 Jul 01
2
OFFTOPIC: SPARK Y H2O
Buenas erreros!!
Una cuestión de las que tengo ciertas dudas es saber en que se diferencian Spark y H2o, si son competencia, si valen para lo mismo o no....
Según lo poco que se, Spark es una manera de agilizar el Map-Reduce, y con la libreria MLlib, puedes hacer datamining de grandes datasheets, y si lo conectas con R o con Python, puedes usar ese lenguaje.
H2O es una herramienta que nos...
2010 Jan 05
1
[LLVMdev] bug
[spark at oxygen llvm]$ llvmc -clang ~/a.c
/home2/yjhuang/tools/bin/../lib/gcc/x86_64-unknown-linux-gnu/4.4.2/../../../../x86_64-unknown-linux-gnu/bin/ld:
warning: cannot find entry symbol mit-llvm-bc; defaulting to
00000000004003c0
llc: bitcode didn't read correctly.
Reason: Bitcode stream should be...
2017 Jan 04
3
Big data con R
Hola.
Últimamente ha habido en la lista varios hilos sobre análisis de grandes
volúmenes de datos con R.
Las alternativas que se han mencionado son:
- Usar una máquina más potente, vía Amazon Web Services, por ejemplo
- Paralelización con openMp
- h2o y su paquete para R,
- Paquete sparklyr como wrapper de los algoritmos de spark,
Y por supuesto, utilizar muestreo o incluso si tenemos grandes volúmenes de
datos, utilizar varias muestras para ajustar los modelos.
A todo esto, se añade ahora la disponibilidad en SparkR de los algoritmos
de spark (en la versión 2.1 de spark liberada...
2016 Dec 05
2
Big data con R o phyton?
Merece la pena aprender python para Big data con Spark o usando la libreria que acaba de salir para R es suficiente? Qué creeis?
[[alternative HTML version deleted]]
2016 Oct 11
2
Alto rendimiento
...mérica del sur comienza la primavera, desde la ventana miro la parra contando las posibles uvas, siempre aparece un ave que se arrima a la ventana o incluso llegan hasta la computadora como si supiesen usarla.
Ahora en R.
En ese esquema un modelo lineal tendría que ir con mlib que es aportada por sparklyr, en ese caso tendría toda la capacidad de proceso, pero no en un ml tradicional como modelo <- lm (y ~ var1 + var2).
En otras palabras http://spark.rstudio.com/mllib.html aporta beneficios, pero lo que está por fuera correría como el R de CRAN con un hilo del procesador.
Los otros días vi e...
2017 Jun 22
4
Question
Hi,
I am using Spark and the Sparklyr library in R.
I have a file with several lines. For example
A B C
awer.ttp.net Code 554
abcd.ttp.net Code 747
asdf.ttp.net Part 554
xyz.ttp.net Part 747
I want to split just column A of the table and I want a new row added to the...
2016 Oct 11
2
Alto rendimiento
Estimados
En el sitio de https://www.rstudio.com/ hay un aviso sobre http://spark.rstudio.com/index.html ( sparklyr ).
Microsoft publico un artículo donde comparan el R Server que está dentro de SQL server (o por separado, depende un poco), o el Microsoft R, junto con algunas librerías que se pueden compilar y obtener lo mismo en Ubuntu.
Supongamos que tengo el dinero como par...
2011 Jun 24
3
Fwd: Extract element of a list based on an index value
...gt;
> $`2040`
> [1] 2050
>
> gives me the first element of each list, but my question is how
> could I get something like this for a non-fixed i corresponding to
> my index?
>
> Any suggestions would be greatly appreciated.
>
> Best,
> Corey
>
>
> Corey Sparks
> Assistant Professor
> Department of Demography
> College of Public Policy
> 501 West Durango Blvd
> Monterrey Building 2.270C
> San Antonio, TX 78207
> corey.sparks 'at' utsa.edu
> 210 458 3166
> Latitude: 29.423614 / Longitude: -98.504282
>
2008 Jan 10
10
Webmail Recommendation
Hi,
I want to install webmail. I am using Dovecot with Exim4.
Recommendations requested please.
Thanks
Peter Sparkes
2016 Oct 11
2
Alto rendimiento
...ing), ahí tienen sus algoritmos propietarios que puedes complementarlos con "R" y gran parte de las librerías que están en CRAN.
? En este caso, en lo que te ayuda estar en su cloud si quieres usar sólo la parte de "R" es en tener por debajo máquinas con mucha RAM.
? Lo de "sparklyr":
o Si te montas varias máquinas en un clúster como dices e instalas Linux sobre el que pones Hadoop y Spark puedes con esta librería de RStudio trabajar en modo distribuido.
? El configurar un clúster de este tipo no es trivial....hay ejemplos comentado por ahí de cómo hacerlo en EC2 Amazo...
2007 May 02
6
templating problems - rhel4, 0.22.3
...onnect to server."
Hacked the template down to about 3k... puppetmaster did not crash, but
the resulting file on the client was badly truncated.
Are there known problems either with Puppet 0.22.3 on templating, or on
Ruby 1.8.1 as shipped by Red Hat (actually Centos)?
Thanks
-Alan
--
Alan Sparks, UNIX/Linux Systems Integration and Administration
<asparks@doublesparks.net>
2017 Jun 22
1
Question
This function won?t work with objects in spark as you can?t do a dfda$a in spark as it?s not stored as a local variable.
Thanks,
Amrith
> On Jun 22, 2017, at 4:15 PM, David Winsemius <dwinsemius at comcast.net> wrote:
>
>
>> On Jun 22, 2017, at 11:22 AM, Amrith Deepak <adeepak at apple.com> wrote:
>>
>&g...
2017 Oct 04
2
Leer parquet files desde R
Buenas a todos.
Ya sé que con sparkR o sparklyr puedo leer fácilmente ficheros con formato
parquet, pero ¿hay alguna forma de leerlos sin tener que arrancar spark?
Mi situación es que tengo unos ficheros en formato parquet en s3 y quiero
leerlos desde una instancia pequeñita de amazon EC2 que quiero mantener sin
instalarle spark.
E...
2010 Jan 05
1
Multivariate Poisson GLM??
...indicating that a multivariate response vector isn't allowed in glm
fit.pois<-glm(cbind(y1,y2,y3)~x, data=dat, family=poisson)
Error: (subscript) logical subscript too long
If anyone has experience with a multivariate Poisson response vector I would
gladly appreciate any suggestions.
Corey Sparks
--
Corey Sparks
Assistant Professor
Department of Demography and Organization Studies
University of Texas at San Antonio
501 West Durango Blvd
Monterey Building 2.270C
San Antonio, TX 78207
210-458-3166
corey.sparks 'at' utsa.edu
https://rowdyspace.utsa.edu/users/ozd504/www/index.htm
2007 Sep 27
1
Reading SAS SD2 Data file
I am trying to read a SAS dataset into R that is in a .SD2 format, which
is the Version 6 standard format from SAS.
I see the routines that read the SAS XPORT format (foreign, Hmisc), but
is there any way to read this one?
Any help would be greatly appreciated.
Corey Sparks
Corey Sparks
Assistant Professor
Department of Demography and Organization Studies
University of Texas-San Antonio
One UTSA Circle
San Antonio TX 78249
Phone: 210 458 6858
corey.sparks@utsa.edu
[[alternative HTML version deleted]]
2017 Oct 04
2
Leer parquet files desde R
Hola Carlos.
spark_read_parquet es de sparklyr y necesita un sparkcontext inicializado
para leer el fichero de parquet.
El mié., 4 oct. 2017 22:11, Carlos Ortega <cof en qualityexcellence.es>
escribió:
> Hola José Luis,
>
> ¿Has probado directamente con "dplyr"?...
>
> spark_read_parq...
2005 Jan 31
16
PXE boot Centos 4.0beta problems
Has anyone yet tried PXE booting the vmlinuz/initrd.img
set from Centos 4.0beta2?
I have a pxelinux setup that is booting 3.4 PXE images
fine, but the equivalent setup for 4.0beta loads the
kernel and then splashes the monitor full of multicolor
random characters. Not a good start to an install...
Anyone had luck? Any changes for PXE boots known for 4.0?
Thanks in advance.
-Alan
2015 Dec 11
2
SVM hadoop
Hola Mª Luz,
Te cuento un poco mi visión:
Lo primero de todo es tener claro qué quiero hacer exactamente en paralelo,
se me ocurren 3 escenarios:
(1) Aplicar un modelo en este caso SVM sobre unos datos muy grandes y por
eso necesito hadoop/spark
(2) Realizar muchos modelos SVM sobre datos pequeños (por ejemplo uno por
usuario) y por eso necesito hadoop/spark para parelilizar estos procesos
en muchas máquinas y acabar en un tiempo finito.
(3) Con un modelo ya realizado en local sobre una muestra quiero hacer
predicciones "predict&qu...
2019 Jan 07
2
Runnable R packages
On Mon, 7 Jan 2019 at 22:09, Gergely Dar?czi <daroczig at rapporter.net> wrote:
>
> Dear David, sharing some related (subjective) thoughts below.
>
> You can provide your app as a Docker image, so that the end-user
> simply calls a "docker pull" and then "docker run" -- that can be done
> from a user-friendly script as well.
> Of course, this requires