Displaying 20 results from an estimated 296 matches for "corpuses".
2014 Jun 17
2
No es un problema de tm tienes doc.corpus vacío
No es un problema de tm ni de SnowfallC ni de mcapply (por el path
utilizas linux, en windows mcapply según el manual no va bien)
No defines bien los objetos que pasas. Pasas doc.corpus en lugar de
corpus ( o asignas a corpus en lugar de a doc.corpus) .
Depura los programas cuando salga un error de objeto, como te pone en el
Error que pasas .
Temporalmente lo tienes arreglado en
2015 Apr 10
5
Loop sobre muchos data frames
Jorge
Gracias por el consejo. Aparentemente no lo estoy aplicando bien, pues el
objeto que obtengo no contiene lo que quiero.
Me explico, al ejecutar
txt <- vector('list', length = length(names)) #names el el vector donde ya
tenía almacenada la lista de txt's
for(i in seq_along(txt)){
txt[[i]] <- Corpus(VectorSource(names[i]))
}
obtengo el objeto txt:
> class(txt)
[1]
2011 Nov 17
3
merging corpora and metadata
Greetings!
I loose all my metadata after concatenating corpora. This is an
example of what happens:
> meta(corpus.1)
MetaID cid fid selfirst selend fname
1 0 1 11 2169 2518 WCPD-2001-01-29-Pg217.scrb
2 0 1 14 9189 9702 WCPD-2003-01-13-Pg39.scrb
3 0 1 14 2109 2577 WCPD-2003-01-13-Pg39.scrb
....
....
17 0
2014 Jun 18
2
No es un problema de tm tienes doc.corpus vacío
Creo que lo que quieres hacer necesita esta línea de código justo después de
cargar el paquete tm:
inmortal = unlist(strsplit(inmortal, " ", fixed = T))
De esta forma, trabajas con palabras, y NO con las frases enteras...
Un saludo
Isidro Hidalgo Arellano
Observatorio Regional de Empleo
Consejería de Empleo y Economía
http://www.jccm.es
> -----Mensaje original-----
> De:
2012 Oct 25
2
Minería de texto
Cordial Saludo
Actualmente estoy realizando una función para gráficar una nube de palabras el código que tengo es el siguiente:
library(twitteR)library(tm)library(wordcloud)library(RXKCD)library(RColorBrewer)
tweets=searchTwitter(''@afflorezr'', n=1500)
generateCorpus= function(tweets,my.stopwords=c(),min.freq){ #Install the textmining library require(tm) require(wordcloud)
2015 Apr 12
2
Loop sobre muchos data frames
Jorge, estimados colaboradores de R-help
Estuve tratando de utilizar un script para uno de los pasos en mi análisis,
que es transformar cada uno de los corpus en mi espacio de trabajo en un
objeto TermDocumentMatrix
Tengo un vector llamado bNames que lista todos los corpus que quiero pasar
a TDM, y construí los siguientes comandos:
tdm.n1 <- vector('list', length = length(bNames))
2015 Apr 10
3
Loop sobre muchos data frames
Hola a todos!
Estoy en un proyecto de text mining y por razones de los recursos con que
cuento tuve que separar los archivos de texto de input del proyecto en
muchos archivos pequeños.
Luego de transformar cada uno de estos archivos en un corpus separado,
puedo aplicar limpieza sobre cada corpus, buscar n-gramas, construir cada
termDocumentMatrix y finalmente reunir todo en una sola TDM.
Pero
2014 Jun 18
3
No es un problema de tm tienes doc.corpus vacío
Muchas gracias isidro,
a la noche reinstalo R y os digo si me ha funcionado. Perdona mi ignorancia
de novato pero no he entendido muy bien eso de avisar al desarrollador.
Entiendo que es a los de los paquetes, no?
un saludo!
ruben
El 18 de junio de 2014, 13:10, Isidro Hidalgo <ihidalgo@jccm.es> escribió:
> Ya he visto que tampoco así funciona.
> Sí te puedo decir que me ha dejado
2012 Dec 13
2
Tamaño de la matriz de términos y memoria. Paquete TM
Hola a todos!
Tengo algunos problemas con el tamaño de la matriz de términos que obtengo. Los comandos que utilizo son los siguientes:
# carga librerias
library(tm)
library(wordcloud)
library(Rstem)
library(Snowball)
# lee el documento UTF-8 y lo convierte a ASCII
txt <-
2010 Feb 01
1
strings plots
Hi all !
I'm new in this list and newbie about R
I'm trying to use R scripts (as in the attached file) for creating some distributions plots of data retrieved by a workflow(with Rserve, to be precise).
I was able to do it (even if not in a beatiful way, I have to improve it especially about labels and coordinates) with number inputs like :
2009 Nov 03
1
Can't pass file name as parameter to Corpus function
I'm working on a small project to extract high-frequency terms from a
document and then display those terms in web page. To this end, I've to pass
the file name as parameter to the Corpus function to build a corpus of only
one document. I can build the corpus using the code below interactively in
R. But calling the function with a file name as the parameter I got the
error message saying
2009 Jan 15
1
How to Solve the Error( error:cannot allocate vector of size 1.1 Gb)
Hi, Gurus
Thanks to your good helps, I have managed starting the use of a text
mining package so called "tm" in R under the OS of Win XP.
However, during running the tm package, I got another mine like memory problem.
What is a the best way to solve this memory problem among increasing a
physical RAM, or doing other recipes, etc?
###############################
###### my R
2009 Sep 15
2
S3 objects in S4 slots
Hello,
I am the maintainer of the stringkernels package and have come across
a problem with using S3 objects in my S4 classes.
Specifically, I have an S4 class with a slot that takes a text corpus
as a list of character vectors. tm (version 0.5) saves corpora as
lists with a class attribute of c("VCorpus", "Corpus", "list"). I
don't actually need the
2011 Jan 24
1
Extracting information from text data
Hi R-Users,
Thanks in advance.
I am using R-2.12.0 on Windows XP.
I am trying to produce an n X m matrix from text data stored in different files. Where n = number of words (say w1, w2, …, wn). M is the number of documents (say d1, d2, …, dm)
A. Using package tm
I am using package tm to do the job. I have provided the code below:
> my.corpus <- Corpus(DirSource(my.path),
2007 Dec 28
1
logistic mixed effects models with lmer
I have a question about some strange results I get when using lmer to
build a logistic mixed effects model. I have a data set of about 30k
points, and I'm trying to do backwards selection to reduce the number
of fixed effects in my model. I've got 3 crossed random effects and
about 20 or so fixed effects. At a certain point, I get a model (m17)
where the fixed effects are like this
2010 Oct 08
1
Get a list of all terms in an indexed corpus
Hello,
I have a corpus that I have indexed with xapian/xappy and I would now
like to generate a corpus-specific list of stopwords. (This is a
technical corpus, so a typical stopword list wouldn't be helpful.)
My first thought was to ask the xapian database for a list of terms
followed by their frequency. My intuition is that I could probably bring
together a list of stopwords by examining
2010 Aug 17
1
TM Package - Corpus function - Memory Allocation Problems
I'm using R 2.11.1 on Win XP (32-bit) with 3 GB of RAM. My data has
(only) 16.0 MB.
I want to create a VCorpus object using the Corpus function in the tm
package but I'm running into Memory allocation issues: "Error: cannot
allocate vector of size 372 Kb".
My data is stored in a csv file which I've imported with "read.csv" and
then used the following to create
2010 May 14
2
Samba and active Directory
hi all,
yes the good old topic where most people have a problem with :)
I have a Windows 2003 Active Directory Server und want that users on
this directory are able to login on a Samba Share.
The authentication with wbinfo -a user%password works and I already
joined the domain with
net ads join
I am also able to authenticate as directory user with his directory
password, BUT only if this
2019 May 04
2
read.table() fails with https in R 3.6 but not in R 3.5
In versions of R prior to 3.6.0 the following invocation succeeds,
returning the data frame shown:
> read.table("https://www.dwds.de/r/stat?corpus=kern&cnt=tokens&date=decade&format=text", header=TRUE)
Dekade Anzahl
1 1900 11467254
2 1910 13023370
3 1920 13434601
4 1930 13296355
5 1940 12121250
6 1950 13191131
7 1960 10587420
8 1970 10944129
9
2009 Jul 17
3
Ayuda con el paquete de text mining (TM)
Estimados, les escribo para consultar, lo siguiente:
Estoy haciendo un trabajo de text mining y necesito importar una serie de
textos para preprocesarlos, es decir eliminar los Stopwords, hacer stemming,
eliminar signos de puntuación etc. Esto último lo puedo realizar con los
datasets que trae la librería TM. Lo que no puedo lograr es importar texto
desde algún medio a pesar que existe funciones