search for: sparks

Displaying 20 results from an estimated 502 matches for "sparks".

Did you mean: spares
2002 Nov 18
0
Spark Press Release
........................................................... SPARK PRESS RELEASE :: One Year Of Interactive IP Video ........................................................... SPARK CELEBRATES ONE YEAR OF IP VIDEO SERVICE World's First Totally IP VIDEO Based Service Indianapolis, Indiana - November 11th, 2002 - While the telecommunications world heaved and shrugged under a collapsing
2017 Jul 01
2
OFFTOPIC: SPARK Y H2O
Buenas erreros!! Una cuestión de las que tengo ciertas dudas es saber en que se diferencian Spark y H2o, si son competencia, si valen para lo mismo o no.... Según lo poco que se, Spark es una manera de agilizar el Map-Reduce, y con la libreria MLlib, puedes hacer datamining de grandes datasheets, y si lo conectas con R o con Python, puedes usar ese lenguaje. H2O es una herramienta que nos
2010 Jan 05
1
[LLVMdev] bug
[spark at oxygen llvm]$ llvmc -clang ~/a.c /home2/yjhuang/tools/bin/../lib/gcc/x86_64-unknown-linux-gnu/4.4.2/../../../../x86_64-unknown-linux-gnu/bin/ld: warning: cannot find entry symbol mit-llvm-bc; defaulting to 00000000004003c0 llc: bitcode didn't read correctly. Reason: Bitcode stream should be a multiple of 4 bytes in length 出现error,加-v选项,发现是clang -x c -emit-llvm-bc /home2/spark/a.c -o
2017 Jan 04
3
Big data con R
Hola. Últimamente ha habido en la lista varios hilos sobre análisis de grandes volúmenes de datos con R. Las alternativas que se han mencionado son: - Usar una máquina más potente, vía Amazon Web Services, por ejemplo - Paralelización con openMp - h2o y su paquete para R, - Paquete sparklyr como wrapper de los algoritmos de spark, Y por supuesto, utilizar muestreo o incluso si tenemos
2016 Dec 05
2
Big data con R o phyton?
Merece la pena aprender python para Big data con Spark o usando la libreria que acaba de salir para R es suficiente? Qué creeis? [[alternative HTML version deleted]]
2016 Oct 11
2
Alto rendimiento
Estimado Carlos Gil Bellosta ¿Cómo está usted? En estos lados de América del sur comienza la primavera, desde la ventana miro la parra contando las posibles uvas, siempre aparece un ave que se arrima a la ventana o incluso llegan hasta la computadora como si supiesen usarla. Ahora en R. En ese esquema un modelo lineal tendría que ir con mlib que es aportada por sparklyr, en ese caso tendría
2017 Jun 22
4
Question
Hi, I am using Spark and the Sparklyr library in R. I have a file with several lines. For example A B C awer.ttp.net Code 554 abcd.ttp.net Code 747 asdf.ttp.net Part 554 xyz.ttp.net Part 747 I want to split just column A of the table and I want a new row added to the table D, with values awe, abcd, asdf, and xyz. I am trying to use a command in
2016 Oct 11
2
Alto rendimiento
Estimados En el sitio de https://www.rstudio.com/ hay un aviso sobre http://spark.rstudio.com/index.html ( sparklyr ). Microsoft publico un artículo donde comparan el R Server que está dentro de SQL server (o por separado, depende un poco), o el Microsoft R, junto con algunas librerías que se pueden compilar y obtener lo mismo en Ubuntu. Supongamos que tengo el dinero como para comprar por
2011 Jun 24
3
Fwd: Extract element of a list based on an index value
...gt; > $`2040` > [1] 2050 > > gives me the first element of each list, but my question is how > could I get something like this for a non-fixed i corresponding to > my index? > > Any suggestions would be greatly appreciated. > > Best, > Corey > > > Corey Sparks > Assistant Professor > Department of Demography > College of Public Policy > 501 West Durango Blvd > Monterrey Building 2.270C > San Antonio, TX 78207 > corey.sparks 'at' utsa.edu > 210 458 3166 > Latitude: 29.423614 / Longitude: -98.504282 >
2008 Jan 10
10
Webmail Recommendation
Hi, I want to install webmail. I am using Dovecot with Exim4. Recommendations requested please. Thanks Peter Sparkes
2016 Oct 11
2
Alto rendimiento
Estimado Carlos Ortega Comprendo que hay que tener el paquete compilado para acceder al alto rendimiento, por lo cuál si está todo preparado para trabajar en un clúster y para aprovechar múltiples hilos, no habría problemas, calculo que si una librería no tiene esa tecnología no traería inconvenientes, ¿o por el contrario si está distribuido crea varias instancias y al correr separadas hay
2007 May 02
6
templating problems - rhel4, 0.22.3
...onnect to server." Hacked the template down to about 3k... puppetmaster did not crash, but the resulting file on the client was badly truncated. Are there known problems either with Puppet 0.22.3 on templating, or on Ruby 1.8.1 as shipped by Red Hat (actually Centos)? Thanks -Alan -- Alan Sparks, UNIX/Linux Systems Integration and Administration <asparks@doublesparks.net>
2017 Jun 22
1
Question
This function won?t work with objects in spark as you can?t do a dfda$a in spark as it?s not stored as a local variable. Thanks, Amrith > On Jun 22, 2017, at 4:15 PM, David Winsemius <dwinsemius at comcast.net> wrote: > > >> On Jun 22, 2017, at 11:22 AM, Amrith Deepak <adeepak at apple.com> wrote: >> >> Hi, >> >> I am using Spark and the
2017 Oct 04
2
Leer parquet files desde R
Buenas a todos. Ya sé que con sparkR o sparklyr puedo leer fácilmente ficheros con formato parquet, pero ¿hay alguna forma de leerlos sin tener que arrancar spark? Mi situación es que tengo unos ficheros en formato parquet en s3 y quiero leerlos desde una instancia pequeñita de amazon EC2 que quiero mantener sin instalarle spark. Estoy bicheando la librería https://github.com/cloudyr/aws.s3 y va
2010 Jan 05
1
Multivariate Poisson GLM??
...indicating that a multivariate response vector isn't allowed in glm fit.pois<-glm(cbind(y1,y2,y3)~x, data=dat, family=poisson) Error: (subscript) logical subscript too long If anyone has experience with a multivariate Poisson response vector I would gladly appreciate any suggestions. Corey Sparks -- Corey Sparks Assistant Professor Department of Demography and Organization Studies University of Texas at San Antonio 501 West Durango Blvd Monterey Building 2.270C San Antonio, TX 78207 210-458-3166 corey.sparks 'at' utsa.edu https://rowdyspace.utsa.edu/users/ozd504/www/index.htm
2007 Sep 27
1
Reading SAS SD2 Data file
I am trying to read a SAS dataset into R that is in a .SD2 format, which is the Version 6 standard format from SAS. I see the routines that read the SAS XPORT format (foreign, Hmisc), but is there any way to read this one? Any help would be greatly appreciated. Corey Sparks Corey Sparks Assistant Professor Department of Demography and Organization Studies University of Texas-San Antonio One UTSA Circle San Antonio TX 78249 Phone: 210 458 6858 corey.sparks@utsa.edu [[alternative HTML version deleted]]
2017 Oct 04
2
Leer parquet files desde R
Hola Carlos. spark_read_parquet es de sparklyr y necesita un sparkcontext inicializado para leer el fichero de parquet. El mié., 4 oct. 2017 22:11, Carlos Ortega <cof en qualityexcellence.es> escribió: > Hola José Luis, > > ¿Has probado directamente con "dplyr"?... > > spark_read_parquet >
2005 Jan 31
16
PXE boot Centos 4.0beta problems
Has anyone yet tried PXE booting the vmlinuz/initrd.img set from Centos 4.0beta2? I have a pxelinux setup that is booting 3.4 PXE images fine, but the equivalent setup for 4.0beta loads the kernel and then splashes the monitor full of multicolor random characters. Not a good start to an install... Anyone had luck? Any changes for PXE boots known for 4.0? Thanks in advance. -Alan
2015 Dec 11
2
SVM hadoop
Hola Mª Luz, Te cuento un poco mi visión: Lo primero de todo es tener claro qué quiero hacer exactamente en paralelo, se me ocurren 3 escenarios: (1) Aplicar un modelo en este caso SVM sobre unos datos muy grandes y por eso necesito hadoop/spark (2) Realizar muchos modelos SVM sobre datos pequeños (por ejemplo uno por usuario) y por eso necesito hadoop/spark para parelilizar estos procesos
2019 Jan 07
2
Runnable R packages
On Mon, 7 Jan 2019 at 22:09, Gergely Dar?czi <daroczig at rapporter.net> wrote: > > Dear David, sharing some related (subjective) thoughts below. > > You can provide your app as a Docker image, so that the end-user > simply calls a "docker pull" and then "docker run" -- that can be done > from a user-friendly script as well. > Of course, this requires