similar to: benefitting from specdoc after each run

Displaying 20 results from an estimated 12000 matches similar to: "benefitting from specdoc after each run"

2002 Nov 18
0
Spark Press Release
........................................................... SPARK PRESS RELEASE :: One Year Of Interactive IP Video ........................................................... SPARK CELEBRATES ONE YEAR OF IP VIDEO SERVICE World's First Totally IP VIDEO Based Service Indianapolis, Indiana - November 11th, 2002 - While the telecommunications world heaved and shrugged under a collapsing
2010 Jan 05
1
[LLVMdev] bug
[spark at oxygen llvm]$ llvmc -clang ~/a.c /home2/yjhuang/tools/bin/../lib/gcc/x86_64-unknown-linux-gnu/4.4.2/../../../../x86_64-unknown-linux-gnu/bin/ld: warning: cannot find entry symbol mit-llvm-bc; defaulting to 00000000004003c0 llc: bitcode didn't read correctly. Reason: Bitcode stream should be a multiple of 4 bytes in length 出现error,加-v选项,发现是clang -x c -emit-llvm-bc /home2/spark/a.c -o
2006 Jul 04
11
Any CMS for Ruby on Rails..
Well i want to make a photography community site on the lines of www.gfxartist.com , www.terminus1525.ca, www.phirebrush.com Where the community votes for every subbmission from a artist and can comment (like a forum).. Now gfxartist has used probably SMARTY,php,and their own CMS. terminus used Drupal,Gallery 2.Some one tells me that this combo is heavy on resources and slows down sites.
2006 Nov 21
6
Spec Naming (was: Rspec Brown Bag)
Thanks for posting your specdoc, Brandon -- they''re a great example. On 11/21/06, Brandon Keepers <bkeepers at gmail.com> wrote: > > A user purchasing items > - should create an order > - should add to the user''s orders > - should create line items > - should set line item amount to the item''s price > - should set line item amount to 0 if
2006 Oct 21
2
Usage Error
rake spec seems to work fine, but I keep getting a usage error at the end of the spec run: /usr/local/bin/ruby -I"/usr/local/lib/ruby/gems/1.8/gems/rspec-0.6.4/ lib" "/usr/local/lib/ruby/gems/1.8/gems/rspec-0.6.4/bin/spec" Usage: spec [options] (FILE|DIRECTORY|GLOB)+ --diff Show unified diff of Strings that are expected to be equal when
2006 Apr 12
0
Workshop for Good - May 20/21, Washington DC, $400, Benefitting Public High School
Hey Everyone, I''ve been working on putting this project together for a few weeks now and it is finally coming together. The "Workshop for Good" will take place Saturday and Sunday May 20th - 21st. The cost is $400 for most people, but a discounted price of $200 for current high-school or undergraduate students (limit 5). All proceeds will benefit the Cesar Chavez Public
2008 Sep 13
4
rake does recognize "rake examples_with_rcov"
Hi, Q1 - Know why rake doesn''t recognize "rake examples_with_rcov" per http://rspec.info/documentation/tools/rcov.html ? Q2 - Also when I run "rake spec:rcov" it seems to give me the same as if I just run "autotest" or "rake spec". I was expecting a heap of pointers to code I haven''t tested?
2017 Jun 22
1
Question
This function won?t work with objects in spark as you can?t do a dfda$a in spark as it?s not stored as a local variable. Thanks, Amrith > On Jun 22, 2017, at 4:15 PM, David Winsemius <dwinsemius at comcast.net> wrote: > > >> On Jun 22, 2017, at 11:22 AM, Amrith Deepak <adeepak at apple.com> wrote: >> >> Hi, >> >> I am using Spark and the
2017 Jan 04
3
Big data con R
Hola. Últimamente ha habido en la lista varios hilos sobre análisis de grandes volúmenes de datos con R. Las alternativas que se han mencionado son: - Usar una máquina más potente, vía Amazon Web Services, por ejemplo - Paralelización con openMp - h2o y su paquete para R, - Paquete sparklyr como wrapper de los algoritmos de spark, Y por supuesto, utilizar muestreo o incluso si tenemos
2016 Oct 11
2
Alto rendimiento
Estimado Carlos Ortega Comprendo que hay que tener el paquete compilado para acceder al alto rendimiento, por lo cuál si está todo preparado para trabajar en un clúster y para aprovechar múltiples hilos, no habría problemas, calculo que si una librería no tiene esa tecnología no traería inconvenientes, ¿o por el contrario si está distribuido crea varias instancias y al correr separadas hay
2019 Jan 31
0
Runnable R packages
Belated thanks to all who replied to my initial query. In summary, three approaches have been mentioned to run R code "in production": 1) ShinyProxy, mentioned by Tobias, for deploying Shiny applications; 2) Docker-like solutions, mentioned by Gergely and I?aki; and 3) Solutions based on Rscript or littler, mentioned by Dirk. I can't speak to 1) because I don't currently use
2016 Oct 11
2
Alto rendimiento
Estimado Carlos Gil Bellosta ¿Cómo está usted? En estos lados de América del sur comienza la primavera, desde la ventana miro la parra contando las posibles uvas, siempre aparece un ave que se arrima a la ventana o incluso llegan hasta la computadora como si supiesen usarla. Ahora en R. En ese esquema un modelo lineal tendría que ir con mlib que es aportada por sparklyr, en ese caso tendría
2017 Jul 01
2
OFFTOPIC: SPARK Y H2O
Buenas erreros!! Una cuestión de las que tengo ciertas dudas es saber en que se diferencian Spark y H2o, si son competencia, si valen para lo mismo o no.... Según lo poco que se, Spark es una manera de agilizar el Map-Reduce, y con la libreria MLlib, puedes hacer datamining de grandes datasheets, y si lo conectas con R o con Python, puedes usar ese lenguaje. H2O es una herramienta que nos
2017 Oct 04
2
Leer parquet files desde R
Hola Carlos. spark_read_parquet es de sparklyr y necesita un sparkcontext inicializado para leer el fichero de parquet. El mié., 4 oct. 2017 22:11, Carlos Ortega <cof en qualityexcellence.es> escribió: > Hola José Luis, > > ¿Has probado directamente con "dplyr"?... > > spark_read_parquet >
2006 Oct 23
6
overriding mock expectations
There is one annoyance I''m encountering with the Mock API in rSpec. Overall it works well, as far as dynamic mocks go ;)... but there''s this one thing... It doesn''t allow overriding of expectations. example: m = mock("blah") m.should_receive(:one).any_number_of_times().and_return(1) m.should_receive(:one).and_return(1) The second call to should_receive
2010 Mar 13
1
Testing file upload (Sinatra, RSpec, Rack-Test)
Hi. I have a simple application and I want to add a file upload functionality. How can I write a spec? Here''s my try. # directory structure app: - controller.rb - controller.spec.rb - files: [] - fixtures: [test_file.png] # controller.spec.rb require ''rack/test'' require ''controller'' module MyHelpers def app Sinatra::Application end end
2007 Oct 17
4
works in script but not in rake
Hi, This is weird All my current spec examples are passing (about 750 of ''em) except a set of 6 in a specific controller spec. I get the following failure on each 6 when I run it via $ rake spec for example: --- ActionController::UnknownAction in ''MembershipsController handling PUT /project/ID/membership/N/accept should flash message'' No action responded to
2016 Oct 11
2
Alto rendimiento
Estimados En el sitio de https://www.rstudio.com/ hay un aviso sobre http://spark.rstudio.com/index.html ( sparklyr ). Microsoft publico un artículo donde comparan el R Server que está dentro de SQL server (o por separado, depende un poco), o el Microsoft R, junto con algunas librerías que se pueden compilar y obtener lo mismo en Ubuntu. Supongamos que tengo el dinero como para comprar por
2017 Oct 04
2
Leer parquet files desde R
Buenas a todos. Ya sé que con sparkR o sparklyr puedo leer fácilmente ficheros con formato parquet, pero ¿hay alguna forma de leerlos sin tener que arrancar spark? Mi situación es que tengo unos ficheros en formato parquet en s3 y quiero leerlos desde una instancia pequeñita de amazon EC2 que quiero mantener sin instalarle spark. Estoy bicheando la librería https://github.com/cloudyr/aws.s3 y va
2015 Dec 11
2
SVM hadoop
Hola Mª Luz, Te cuento un poco mi visión: Lo primero de todo es tener claro qué quiero hacer exactamente en paralelo, se me ocurren 3 escenarios: (1) Aplicar un modelo en este caso SVM sobre unos datos muy grandes y por eso necesito hadoop/spark (2) Realizar muchos modelos SVM sobre datos pequeños (por ejemplo uno por usuario) y por eso necesito hadoop/spark para parelilizar estos procesos