Displaying 20 results from an estimated 12000 matches similar to: "benefitting from specdoc after each run"
2002 Nov 18
0
Spark Press Release
...........................................................
SPARK PRESS RELEASE :: One Year Of Interactive IP Video
...........................................................
SPARK CELEBRATES ONE YEAR OF IP VIDEO SERVICE
World's First Totally IP VIDEO Based Service
Indianapolis, Indiana - November 11th, 2002 -
While the telecommunications world heaved and
shrugged under a collapsing
2010 Jan 05
1
[LLVMdev] bug
[spark at oxygen llvm]$ llvmc -clang ~/a.c
/home2/yjhuang/tools/bin/../lib/gcc/x86_64-unknown-linux-gnu/4.4.2/../../../../x86_64-unknown-linux-gnu/bin/ld:
warning: cannot find entry symbol mit-llvm-bc; defaulting to
00000000004003c0
llc: bitcode didn't read correctly.
Reason: Bitcode stream should be a multiple of 4 bytes in length
出现error,加-v选项,发现是clang -x c -emit-llvm-bc /home2/spark/a.c -o
2006 Jul 04
11
Any CMS for Ruby on Rails..
Well i want to make a photography community site on the lines of
www.gfxartist.com , www.terminus1525.ca, www.phirebrush.com
Where the community votes for every subbmission from a artist and can
comment (like a forum)..
Now gfxartist has used probably SMARTY,php,and their own CMS.
terminus used Drupal,Gallery 2.Some one tells me that this combo is
heavy on resources and slows down sites.
2006 Nov 21
6
Spec Naming (was: Rspec Brown Bag)
Thanks for posting your specdoc, Brandon -- they''re a great example.
On 11/21/06, Brandon Keepers <bkeepers at gmail.com> wrote:
>
> A user purchasing items
> - should create an order
> - should add to the user''s orders
> - should create line items
> - should set line item amount to the item''s price
> - should set line item amount to 0 if
2006 Oct 21
2
Usage Error
rake spec seems to work fine, but I keep getting a usage error at the
end of the spec run:
/usr/local/bin/ruby -I"/usr/local/lib/ruby/gems/1.8/gems/rspec-0.6.4/
lib" "/usr/local/lib/ruby/gems/1.8/gems/rspec-0.6.4/bin/spec"
Usage: spec [options] (FILE|DIRECTORY|GLOB)+
--diff Show unified diff of Strings
that are expected to be equal when
2006 Apr 12
0
Workshop for Good - May 20/21, Washington DC, $400, Benefitting Public High School
Hey Everyone,
I''ve been working on putting this project together for a few weeks now
and it is finally coming together. The "Workshop for Good" will take
place Saturday and Sunday May 20th - 21st. The cost is $400 for most
people, but a discounted price of $200 for current high-school or
undergraduate students (limit 5). All proceeds will benefit the Cesar
Chavez Public
2008 Sep 13
4
rake does recognize "rake examples_with_rcov"
Hi,
Q1 - Know why rake doesn''t recognize "rake examples_with_rcov" per
http://rspec.info/documentation/tools/rcov.html ?
Q2 - Also when I run "rake spec:rcov" it seems to give me the same as
if I just run "autotest" or "rake spec". I was expecting a heap of
pointers to code I haven''t tested?
2017 Jun 22
1
Question
This function won?t work with objects in spark as you can?t do a dfda$a in spark as it?s not stored as a local variable.
Thanks,
Amrith
> On Jun 22, 2017, at 4:15 PM, David Winsemius <dwinsemius at comcast.net> wrote:
>
>
>> On Jun 22, 2017, at 11:22 AM, Amrith Deepak <adeepak at apple.com> wrote:
>>
>> Hi,
>>
>> I am using Spark and the
2017 Jan 04
3
Big data con R
Hola.
Últimamente ha habido en la lista varios hilos sobre análisis de grandes
volúmenes de datos con R.
Las alternativas que se han mencionado son:
- Usar una máquina más potente, vía Amazon Web Services, por ejemplo
- Paralelización con openMp
- h2o y su paquete para R,
- Paquete sparklyr como wrapper de los algoritmos de spark,
Y por supuesto, utilizar muestreo o incluso si tenemos
2016 Oct 11
2
Alto rendimiento
Estimado Carlos Ortega
Comprendo que hay que tener el paquete compilado para acceder al alto rendimiento, por lo cuál si está todo preparado para trabajar en un clúster y para aprovechar múltiples hilos, no habría problemas, calculo que si una librería no tiene esa tecnología no traería inconvenientes, ¿o por el contrario si está distribuido crea varias instancias y al correr separadas hay
2019 Jan 31
0
Runnable R packages
Belated thanks to all who replied to my initial query. In summary, three
approaches have been mentioned to run R code "in production": 1)
ShinyProxy, mentioned by Tobias, for deploying Shiny applications; 2)
Docker-like solutions, mentioned by Gergely and I?aki; and 3) Solutions
based on Rscript or littler, mentioned by Dirk.
I can't speak to 1) because I don't currently use
2016 Oct 11
2
Alto rendimiento
Estimado Carlos Gil Bellosta
¿Cómo está usted? En estos lados de América del sur comienza la primavera, desde la ventana miro la parra contando las posibles uvas, siempre aparece un ave que se arrima a la ventana o incluso llegan hasta la computadora como si supiesen usarla.
Ahora en R.
En ese esquema un modelo lineal tendría que ir con mlib que es aportada por sparklyr, en ese caso tendría
2017 Jul 01
2
OFFTOPIC: SPARK Y H2O
Buenas erreros!!
Una cuestión de las que tengo ciertas dudas es saber en que se diferencian Spark y H2o, si son competencia, si valen para lo mismo o no....
Según lo poco que se, Spark es una manera de agilizar el Map-Reduce, y con la libreria MLlib, puedes hacer datamining de grandes datasheets, y si lo conectas con R o con Python, puedes usar ese lenguaje.
H2O es una herramienta que nos
2017 Oct 04
2
Leer parquet files desde R
Hola Carlos.
spark_read_parquet es de sparklyr y necesita un sparkcontext inicializado
para leer el fichero de parquet.
El mié., 4 oct. 2017 22:11, Carlos Ortega <cof en qualityexcellence.es>
escribió:
> Hola José Luis,
>
> ¿Has probado directamente con "dplyr"?...
>
> spark_read_parquet
>
2006 Oct 23
6
overriding mock expectations
There is one annoyance I''m encountering with the Mock API in rSpec.
Overall it works well, as far as dynamic mocks go ;)... but there''s
this one thing... It doesn''t allow overriding of expectations.
example:
m = mock("blah")
m.should_receive(:one).any_number_of_times().and_return(1)
m.should_receive(:one).and_return(1)
The second call to should_receive
2010 Mar 13
1
Testing file upload (Sinatra, RSpec, Rack-Test)
Hi.
I have a simple application and I want to add a file upload
functionality. How can I write a spec?
Here''s my try.
# directory structure
app:
- controller.rb
- controller.spec.rb
- files: []
- fixtures: [test_file.png]
# controller.spec.rb
require ''rack/test''
require ''controller''
module MyHelpers
def app
Sinatra::Application
end
end
2007 Oct 17
4
works in script but not in rake
Hi,
This is weird
All my current spec examples are passing (about 750 of ''em) except a
set of 6 in a specific controller spec. I get the following failure
on each 6 when I run it via
$ rake spec
for example:
---
ActionController::UnknownAction in ''MembershipsController handling
PUT /project/ID/membership/N/accept should flash message''
No action responded to
2016 Oct 11
2
Alto rendimiento
Estimados
En el sitio de https://www.rstudio.com/ hay un aviso sobre http://spark.rstudio.com/index.html ( sparklyr ).
Microsoft publico un artículo donde comparan el R Server que está dentro de SQL server (o por separado, depende un poco), o el Microsoft R, junto con algunas librerías que se pueden compilar y obtener lo mismo en Ubuntu.
Supongamos que tengo el dinero como para comprar por
2017 Oct 04
2
Leer parquet files desde R
Buenas a todos.
Ya sé que con sparkR o sparklyr puedo leer fácilmente ficheros con formato
parquet, pero ¿hay alguna forma de leerlos sin tener que arrancar spark?
Mi situación es que tengo unos ficheros en formato parquet en s3 y quiero
leerlos desde una instancia pequeñita de amazon EC2 que quiero mantener sin
instalarle spark.
Estoy bicheando la librería https://github.com/cloudyr/aws.s3 y va
2015 Dec 11
2
SVM hadoop
Hola Mª Luz,
Te cuento un poco mi visión:
Lo primero de todo es tener claro qué quiero hacer exactamente en paralelo,
se me ocurren 3 escenarios:
(1) Aplicar un modelo en este caso SVM sobre unos datos muy grandes y por
eso necesito hadoop/spark
(2) Realizar muchos modelos SVM sobre datos pequeños (por ejemplo uno por
usuario) y por eso necesito hadoop/spark para parelilizar estos procesos