SCM

SCM Repository

[tm] Diff of /pkg/R/corpus.R
ViewVC logotype

Diff of /pkg/R/corpus.R

Parent Directory Parent Directory | Revision Log Revision Log | View Patch Patch

trunk/R/textmin/R/textdoccol.R revision 52, Sat Aug 12 12:43:39 2006 UTC pkg/R/corpus.R revision 950, Thu May 14 15:17:18 2009 UTC
# Line 1  Line 1 
1  # Author: Ingo Feinerer  # Author: Ingo Feinerer
2    
3  setGeneric("TextDocCol", function(object, inputType = "CSV", stripWhiteSpace = FALSE, toLower = FALSE) standardGeneric("TextDocCol"))  FCorpus <- function(object, readerControl = list(language = "eng")) {
4  setMethod("TextDocCol",      if (is.null(readerControl$language))
5            c("character"),          readerControl$language <- "eng"
6            function(object, inputType = "CSV", stripWhiteSpace = FALSE, toLower = FALSE) {  
7                # Add a new type for each unique input source format      if (!object@Vectorized)
8                type <- match.arg(inputType,c("CSV", "RCV1", "REUT21578", "REUT21578_XML", "RIS"))          stop("Source is not vectorized")
9                switch(type,  
10                       # Text in a special CSV format      tdl <- lapply(mapply(c, pGetElem(object), id = seq_len(object@Length), SIMPLIFY = FALSE),
11                       # For details on the file format see the R documentation file                    function(x) readSlim(x[c("content", "uri")],
12                       # The first argument is a directory with .csv files                                         readerControl$language,
13                       "CSV" = {                                         as.character(x$id)))
                          filelist <- dir(object, pattern = ".csv", full.names = TRUE)  
                          tdl <- sapply(filelist,  
                                        function(file) {  
                                            m <- as.matrix(read.csv(file, header = FALSE))  
                                            l <- vector("list", dim(m)[1])  
                                            for (i in 1:dim(m)[1]) {  
                                                author <- ""  
                                                datetimestamp <- date()  
                                                description <- ""  
                                                id <- as.integer(m[i,1])  
                                                corpus <- as.character(m[i,2:dim(m)[2]])  
                                                if (stripWhiteSpace)  
                                                    corpus <- gsub("[[:space:]]+", " ", corpus)  
                                                if (toLower)  
                                                    corpus <- tolower(corpus)  
                                                origin <- "CSV"  
                                                heading <- ""  
14    
15                                                 l[[i]] <- new("PlainTextDocument", .Data = corpus, Author = author, DateTimeStamp = datetimestamp,      new("FCorpus", .Data = tdl)
                                                              Description = description, ID = id, Origin = origin, Heading = heading)  
16                                             }                                             }
17                                             l  
18                                         })  PCorpus <- function(object,
19                           if (length(filelist) > 1)                      readerControl = list(reader = object@DefaultReader, language = "eng"),
20                               tdcl <- new("TextDocCol", .Data = unlist(tdl, recursive = FALSE))                      dbControl = list(dbName = "", dbType = "DB1"),
21                           else                      ...) {
22                               tdcl <- new("TextDocCol", .Data = tdl)      if (is.null(readerControl$reader))
23                       },          readerControl$reader <- object@DefaultReader
24                       # Read in text documents in XML Reuters Corpus Volume 1 (RCV1) format      if (is(readerControl$reader, "FunctionGenerator"))
25                       # The first argument is a directory with the RCV1 XML files          readerControl$reader <- readerControl$reader(...)
26                       "RCV1" = {      if (is.null(readerControl$language))
27                           filelist <- dir(object, pattern = ".xml", full.names = TRUE)          readerControl$language <- "eng"
28                           tdl <- sapply(filelist,  
29                                         function(file) {      if (!filehash::dbCreate(dbControl$dbName, dbControl$dbType))
30                                             tree <- xmlTreeParse(file)          stop("error in creating database")
31                                             xmlApply(xmlRoot(tree), parseNewsItemPlain, stripWhiteSpace, toLower)      db <- filehash::dbInit(dbControl$dbName, dbControl$dbType)
32                                         })  
33                           if (length(filelist) > 1)      # Allocate memory in advance if length is known
34                               tdcl <- new("TextDocCol", .Data = unlist(tdl, recursive = FALSE))      tdl <- if (object@Length > 0)
35                           else          vector("list", as.integer(object@Length))
                              tdcl <- new("TextDocCol", .Data = tdl)  
                      },  
                      # Read in text documents in Reuters-21578 XML (not SGML) format  
                      # Typically the first argument will be a directory where we can  
                      # find the files reut2-000.xml ... reut2-021.xml  
                      "REUT21578" = {  
                          filelist <- dir(object, pattern = ".xml", full.names = TRUE)  
                          tdl <- sapply(filelist,  
                                        function(file) {  
                                            tree <- xmlTreeParse(file)  
                                            xmlApply(xmlRoot(tree), parseReutersPlain, stripWhiteSpace, toLower)  
                                        })  
                          if (length(filelist) > 1)  
                              tdcl <- new("TextDocCol", .Data = unlist(tdl, recursive = FALSE))  
36                           else                           else
37                               tdcl <- new("TextDocCol", .Data = tdl)          list()
38                       },  
39                       "REUT21578_XML" = {      counter <- 1
40                           filelist <- dir(object, pattern = ".xml", full.names = TRUE)      while (!eoi(object)) {
41                           tdl <- sapply(filelist,          object <- stepNext(object)
42                                         function(file) {          elem <- getElem(object)
43                                             parseReutersXML(file)          doc <- readerControl$reader(elem, readerControl$language, as.character(counter))
44                                         })          filehash::dbInsert(db, ID(doc), doc)
45                           tdcl <- new("TextDocCol", .Data = tdl)          if (object@Length > 0) tdl[[counter]] <- ID(doc)
46                       },          else tdl <- c(tdl, ID(doc))
47                       # Read in HTML documents as used by http://ris.bka.gv.at/vwgh          counter <- counter + 1
                      "RIS" = {  
                          filelist <- dir(object, pattern = ".html", full.names = TRUE)  
                          tdl <- sapply(filelist,  
                                        function(file) {  
                                            # Ignore warnings from misformed HTML documents  
                                            suppressWarnings(RISDoc <- parseRISPlain(file, stripWhiteSpace, toLower))  
                                            if (!is.null(RISDoc)) {  
                                                l <- list()  
                                                l[[length(l) + 1]] <- RISDoc  
                                                l  
48                                             }                                             }
                                        })  
                          tdcl <- new("TextDocCol", .Data = tdl)  
                      })  
               tdcl  
           })  
49    
50  # Parse an Austrian RIS HTML document      df <- data.frame(MetaID = rep(0, length(tdl)), stringsAsFactors = FALSE)
51  parseRISPlain <- function(file, stripWhiteSpace = FALSE, toLower = FALSE) {      filehash::dbInsert(db, "DMetaData", df)
52      author <- ""      dmeta.df <- data.frame(key = "DMetaData", subset = I(list(NA)))
53      datetimestamp <- date()  
54      description <- ""      cmeta.node <- new("MetaDataNode",
55                          NodeID = 0,
56                          MetaData = list(create_date = as.POSIXlt(Sys.time(), tz = "GMT"), creator = Sys.getenv("LOGNAME")),
57                          children = list())
58    
59      tree <- htmlTreeParse(file)      new("PCorpus", .Data = tdl, DMetaData = dmeta.df, CMetaData = cmeta.node, DBControl = dbControl)
60      htmlElem <- unlist(tree$children$html$children)  }
61    
62      if (is.null(htmlElem))  # The "..." are additional arguments for the FunctionGenerator reader
63          stop(paste("Empty document", file, "cannot be processed."))  SCorpus <- Corpus <- function(object,
64                        readerControl = list(reader = object@DefaultReader, language = "eng"),
65                        ...) {
66        if (is.null(readerControl$reader))
67            readerControl$reader <- object@DefaultReader
68        if (is(readerControl$reader, "FunctionGenerator"))
69            readerControl$reader <- readerControl$reader(...)
70        if (is.null(readerControl$language))
71            readerControl$language <- "eng"
72    
73        # Allocate memory in advance if length is known
74        tdl <- if (object@Length > 0)
75            vector("list", as.integer(object@Length))
76        else
77            list()
78    
79        if (object@Vectorized)
80            tdl <- lapply(mapply(c, pGetElem(object), id = seq_len(object@Length), SIMPLIFY = FALSE),
81                          function(x) readerControl$reader(x[c("content", "uri")],
82                                                           readerControl$language,
83                                                           as.character(x$id)))
84        else {
85            counter <- 1
86            while (!eoi(object)) {
87                object <- stepNext(object)
88                elem <- getElem(object)
89                doc <- readerControl$reader(elem, readerControl$language, as.character(counter))
90                if (object@Length > 0)
91                    tdl[[counter]] <- doc
92                else
93                    tdl <- c(tdl, list(doc))
94                counter <- counter + 1
95            }
96        }
97    
98      textElem <- htmlElem[which(regexpr("text.value", names(htmlElem)) > 0)]      df <- data.frame(MetaID = rep(0, length(tdl)), stringsAsFactors = FALSE)
99      names(textElem) <- NULL      cmeta.node <- new("MetaDataNode",
100                          NodeID = 0,
101                          MetaData = list(create_date = as.POSIXlt(Sys.time(), tz = "GMT"), creator = Sys.getenv("LOGNAME")),
102                          children = list())
103    
104      corpus <- paste(textElem, collapse = " ")      new("SCorpus", .Data = tdl, DMetaData = df, CMetaData = cmeta.node)
105    }
106    
107      year <- substring(corpus, regexpr("..../../", corpus), regexpr("..../../", corpus) + 3)  setGeneric("tmMap", function(object, FUN, ..., lazy = FALSE) standardGeneric("tmMap"))
108      senat <- substring(corpus, regexpr("..../../", corpus) + 5, regexpr("..../../", corpus) + 6)  setMethod("tmMap",
109      number <- substring(corpus, regexpr("..../../", corpus) + 8, regexpr("..../../", corpus) + 11)            signature(object = "FCorpus", FUN = "function"),
110              function(object, FUN, ..., lazy = FALSE) {
111                  if (lazy)
112                      warning("lazy mapping is deactivated")
113    
114                  lapply(object, FUN, ..., DMetaData = data.frame())
115              })
116    setMethod("tmMap",
117              signature(object = "SCorpus", FUN = "function"),
118              function(object, FUN, ..., lazy = FALSE) {
119                  result <- object
120                  # Lazy mapping
121                  if (lazy) {
122                      lazyTmMap <- meta(object, tag = "lazyTmMap", type = "corpus")
123                      if (is.null(lazyTmMap)) {
124                          meta(result, tag = "lazyTmMap", type = "corpus") <-
125                              list(index = rep(TRUE, length(result)),
126                                   maps = list(function(x, DMetaData) FUN(x, ..., DMetaData = DMetaData)))
127                      }
128                      else {
129                          lazyTmMap$maps <- c(lazyTmMap$maps, list(function(x, DMetaData) FUN(x, ..., DMetaData = DMetaData)))
130                          meta(result, tag = "lazyTmMap", type = "corpus") <- lazyTmMap
131                      }
132                  }
133                  else {
134                      result@.Data <- if (clusterAvailable())
135                          snow::parLapply(snow::getMPIcluster(), object, FUN, ..., DMetaData = DMetaData(object))
136                      else
137                          lapply(object, FUN, ..., DMetaData = DMetaData(object))
138                  }
139                  result
140              })
141    setMethod("tmMap",
142              signature(object = "PCorpus", FUN = "function"),
143              function(object, FUN, ..., lazy = FALSE) {
144                  # TODO: When should lazy mapping be conceptually available?
145                  if (lazy)
146                      warning("lazy mapping is deactived when using database backend")
147                  db <- filehash::dbInit(DBControl(object)[["dbName"]], DBControl(object)[["dbType"]])
148                  i <- 1
149                  for (id in unlist(object)) {
150                      db[[id]] <- FUN(object[[i]], ..., DMetaData = DMetaData(object))
151                      i <- i + 1
152                  }
153                  # Suggested by Christian Buchta
154                  filehash::dbReorganize(db)
155    
156      id <- as.integer(paste(year, senat, number, sep = ""))                object
157              })
158    
159      if (is.na(id))  # Materialize lazy mappings
160          stop(paste("Cannot extract 'Geschaeftszahl' out of malformed document", file))  # Improvements by Christian Buchta
161      origin <- ""  materialize <- function(corpus, range = seq_along(corpus)) {
162        lazyTmMap <- meta(corpus, tag = "lazyTmMap", type = "corpus")
163        if (!is.null(lazyTmMap)) {
164           # Make valid and lazy index
165           idx <- (seq_along(corpus) %in% range) & lazyTmMap$index
166           if (any(idx)) {
167               res <- corpus@.Data[idx]
168               for (m in lazyTmMap$maps)
169                   res <- lapply(res, m, DMetaData = DMetaData(corpus))
170               corpus@.Data[idx] <- res
171               lazyTmMap$index[idx] <- FALSE
172           }
173        }
174        # Clean up if everything is materialized
175        if (!any(lazyTmMap$index))
176            lazyTmMap <- NULL
177        meta(corpus, tag = "lazyTmMap", type = "corpus") <- lazyTmMap
178        corpus
179    }
180    
181      if (stripWhiteSpace)  setGeneric("asPlain", function(object, FUN, ...) standardGeneric("asPlain"))
182          corpus <- gsub("[[:space:]]+", " ", corpus)  setMethod("asPlain", signature(object = "PlainTextDocument"),
183      if (toLower)            function(object, FUN, ...) object)
184          corpus <- tolower(corpus)  setMethod("asPlain",
185              signature(object = "XMLTextDocument"),
186              function(object, FUN, ...) {
187                  require("XML")
188    
189      heading <- ""                corpus <- Content(object)
190    
191      new("PlainTextDocument", .Data = corpus, Author = author, DateTimeStamp = datetimestamp,                # As XMLDocument is no native S4 class, restore valid information
192          Description = description, ID = id, Origin = origin, Heading = heading)                class(corpus) <- "XMLDocument"
193  }                names(corpus) <- c("doc","dtd")
194    
195  # Parse a <newsitem></newsitem> element from a well-formed RCV1 XML file                return(FUN(xmlRoot(corpus), ...))
196  parseNewsItemPlain <- function(node, stripWhiteSpace = FALSE, toLower = FALSE) {            })
197      author <- "Not yet implemented"  setMethod("asPlain",
198      datetimestamp <- xmlAttrs(node)[["date"]]            signature(object = "Reuters21578Document"),
199      description <- "Not yet implemented"            function(object, FUN, ...) {
200      id <- as.integer(xmlAttrs(node)[["itemid"]])                require("XML")
     origin <- "Reuters Corpus Volume 1 XML"  
     corpus <- unlist(xmlApply(node[["text"]], xmlValue), use.names = FALSE)  
201    
202      if (stripWhiteSpace)                FUN <- convertReut21578XMLPlain
203          corpus <- gsub("[[:space:]]+", " ", corpus)                corpus <- Content(object)
     if (toLower)  
         corpus <- tolower(corpus)  
204    
205      heading <- xmlValue(node[["title"]])                # As XMLDocument is no native S4 class, restore valid information
206                  class(corpus) <- "XMLDocument"
207                  names(corpus) <- c("doc","dtd")
208    
209      new("PlainTextDocument", .Data = corpus, Author = author, DateTimeStamp = datetimestamp,                return(FUN(xmlRoot(corpus), ...))
210          Description = description, ID = id, Origin = origin, Heading = heading)            })
211    setMethod("asPlain", signature(object = "RCV1Document"),
212              function(object, FUN, ...) convertRCV1Plain(object, ...))
213    setMethod("asPlain",
214              signature(object = "NewsgroupDocument"),
215              function(object, FUN, ...) {
216                  new("PlainTextDocument", .Data = Content(object), Author = Author(object),
217                      DateTimeStamp = DateTimeStamp(object), Description = Description(object), ID = ID(object),
218                      Origin = Origin(object), Heading = Heading(object), Language = Language(object),
219                      LocalMetaData = LocalMetaData(object))
220              })
221    setMethod("asPlain",
222              signature(object = "StructuredTextDocument"),
223              function(object, FUN, ...) {
224                  new("PlainTextDocument", .Data = unlist(Content(object)),
225                      Author = Author(object), DateTimeStamp = DateTimeStamp(object),
226                      Description = Description(object), ID = ID(object), Origin = Origin(object),
227                      Heading = Heading(object), Language = Language(object),
228                      LocalMetaData = LocalMetaData(object))
229              })
230    
231    setGeneric("tmFilter", function(object, ..., FUN = searchFullText, doclevel = TRUE) standardGeneric("tmFilter"))
232    setMethod("tmFilter", signature(object = "Corpus"),
233              function(object, ..., FUN = searchFullText, doclevel = TRUE)
234                  object[tmIndex(object, ..., FUN = FUN, doclevel = doclevel)])
235    
236    setGeneric("tmIndex", function(object, ..., FUN = searchFullText, doclevel = TRUE) standardGeneric("tmIndex"))
237    setMethod("tmIndex",
238              signature(object = "Corpus"),
239              function(object, ..., FUN = searchFullText, doclevel = TRUE) {
240                  if (!is.null(attr(FUN, "doclevel")))
241                      doclevel <- attr(FUN, "doclevel")
242                  if (doclevel) {
243                      if (clusterAvailable())
244                          return(snow::parSapply(snow::getMPIcluster(), object, FUN, ..., DMetaData = DMetaData(object)))
245                      else
246                          return(sapply(object, FUN, ..., DMetaData = DMetaData(object)))
247  }  }
248                  else
249                      return(FUN(object, ...))
250              })
251    
252  # Parse a <REUTERS></REUTERS> element from a well-formed Reuters-21578 XML file  # TODO: Replace with c(Corpus, TextDocument)?
253  parseReutersPlain <- function(node, stripWhiteSpace = FALSE, toLower = FALSE) {  setGeneric("appendElem", function(object, data, meta = NULL) standardGeneric("appendElem"))
254      # The <AUTHOR></AUTHOR> tag is unfortunately NOT obligatory!  setMethod("appendElem",
255      if (!is.null(node[["TEXT"]][["AUTHOR"]]))            signature(object = "Corpus", data = "TextDocument"),
256          author <- xmlValue(node[["TEXT"]][["AUTHOR"]])            function(object, data, meta = NULL) {
257                  if (DBControl(object)[["useDb"]] && require("filehash")) {
258                      db <- dbInit(DBControl(object)[["dbName"]], DBControl(object)[["dbType"]])
259                      if (dbExists(db, ID(data)))
260                          warning("document with identical ID already exists")
261                      dbInsert(db, ID(data), data)
262                      object@.Data[[length(object)+1]] <- ID(data)
263                  }
264      else      else
265          author <- ""                    object@.Data[[length(object)+1]] <- data
266                  DMetaData(object) <- rbind(DMetaData(object), c(MetaID = CMetaData(object)@NodeID, meta))
267                  return(object)
268              })
269    
270      datetimestamp <- xmlValue(node[["DATE"]])  prescindMeta <- function(object, meta) {
271      description <- ""      df <- DMetaData(object)
     id <- as.integer(xmlAttrs(node)[["NEWID"]])  
272    
273      origin <- "Reuters-21578 XML"      for (m in meta)
274            df <- cbind(df, structure(data.frame(I(meta(object, tag = m, type = "local"))), names = m))
275    
276      # The <BODY></BODY> tag is unfortunately NOT obligatory!      df
277      if (!is.null(node[["TEXT"]][["BODY"]]))  }
         corpus <- xmlValue(node[["TEXT"]][["BODY"]])  
     else  
         corpus <- ""  
278    
279      if (stripWhiteSpace)  setMethod("[",
280          corpus <- gsub("[[:space:]]+", " ", corpus)            signature(x = "PCorpus", i = "ANY", j = "ANY", drop = "ANY"),
281      if (toLower)            function(x, i, j, ... , drop) {
282          corpus <- tolower(corpus)                if (missing(i)) return(x)
283    
284      # The <TITLE></TITLE> tag is unfortunately NOT obligatory!                x@.Data <- x@.Data[i, ..., drop = FALSE]
285      if (!is.null(node[["TEXT"]][["TITLE"]]))                index <- x@DMetaData[[1 , "subset"]]
286          heading <- xmlValue(node[["TEXT"]][["TITLE"]])                if (any(is.na(index))) x@DMetaData[[1 , "subset"]] <- i
287      else                else x@DMetaData[[1 , "subset"]] <- index[i]
288          heading <- ""                x
289              })
290    
291    setMethod("[",
292              signature(x = "SCorpus", i = "ANY", j = "ANY", drop = "ANY"),
293              function(x, i, j, ... , drop) {
294                  if (missing(i)) return(x)
295    
296                  x@.Data <- x@.Data[i, ..., drop = FALSE]
297                  DMetaData(x) <- DMetaData(x)[i, , drop = FALSE]
298                  x
299              })
300    
301    setMethod("[<-",
302              signature(x = "PCorpus", i = "ANY", j = "ANY", value = "ANY"),
303              function(x, i, j, ... , value) {
304                  db <- filehash::dbInit(DBControl(x)[["dbName"]], DBControl(x)[["dbType"]])
305                  counter <- 1
306                  for (id in x@.Data[i, ...]) {
307                      if (identical(length(value), 1)) db[[id]] <- value
308                      else db[[id]] <- value[[counter]]
309                      counter <- counter + 1
310                  }
311                  x
312              })
313    setMethod("[<-",
314              signature(x = "SCorpus", i = "ANY", j = "ANY", value = "ANY"),
315              function(x, i, j, ... , value) {
316                  x@.Data[i, ...] <- value
317                  x
318              })
319    
320    setMethod("[[",
321              signature(x = "PCorpus", i = "ANY", j = "ANY"),
322              function(x, i, j, ...) {
323                  db <- filehash::dbInit(DBControl(x)[["dbName"]], DBControl(x)[["dbType"]])
324                  filehash::dbFetch(db, x@.Data[[i]])
325              })
326    setMethod("[[",
327              signature(x = "SCorpus", i = "ANY", j = "ANY"),
328              function(x, i, j, ...) {
329                  # TODO: For which corpora should lazy mapping be available?
330                  lazyTmMap <- meta(x, tag = "lazyTmMap", type = "corpus")
331                  if (!is.null(lazyTmMap))
332                      .Call("copyCorpus", x, materialize(x, i))
333                  x@.Data[[i]]
334              })
335    
336    setMethod("[[<-",
337              signature(x = "PCorpus", i = "ANY", j = "ANY", value = "ANY"),
338              function(x, i, j, ..., value) {
339                  db <- filehash::dbInit(DBControl(x)[["dbName"]], DBControl(x)[["dbType"]])
340                  index <- x@.Data[[i]]
341                  db[[index]] <- value
342                  x
343              })
344    setMethod("[[<-",
345              signature(x = "SCorpus", i = "ANY", j = "ANY", value = "ANY"),
346              function(x, i, j, ..., value) {
347                  # Mark new objects as not active for lazy mapping
348                  lazyTmMap <- meta(x, tag = "lazyTmMap", type = "corpus")
349                  if (!is.null(lazyTmMap)) {
350                      lazyTmMap$index[i] <- FALSE
351                      meta(x, tag = "lazyTmMap", type = "corpus") <- lazyTmMap
352                  }
353                  # Set the value
354                  x@.Data[[i, ...]] <- value
355    
356      topics <- unlist(xmlApply(node[["TOPICS"]], function(x) xmlValue(x)), use.names = FALSE)                x
357              })
358    
359      new("PlainTextDocument", .Data = corpus, Cached = 1, Author = author, DateTimeStamp = datetimestamp,  # Update \code{NodeID}s of a CMetaData tree
360          Description = description, ID = id, Origin = origin, Heading = heading, LocalMetaData = list(Topics = topics))  update_id <- function(object, id = 0, mapping = NULL, left.mapping = NULL, level = 0) {
361        # Traversal of (binary) CMetaData tree with setup of \code{NodeID}s
362        set_id <- function(object) {
363            object@NodeID <- id
364            id <<- id + 1
365            level <<- level + 1
366    
367            if (length(object@children) > 0) {
368                mapping <<- cbind(mapping, c(object@children[[1]]@NodeID, id))
369                left <- set_id(object@children[[1]])
370                if (level == 1) {
371                    left.mapping <<- mapping
372                    mapping <<- NULL
373  }  }
374                mapping <<- cbind(mapping, c(object@children[[2]]@NodeID, id))
375                right <- set_id(object@children[[2]])
376    
377  # Parse a <REUTERS></REUTERS> element from a well-formed Reuters-21578 XML file              object@children <- list(left, right)
 parseReutersXML<- function(file) {  
     new("XMLTextDocument", FileName = file, Cached = 0, Author = "REUTERS", DateTimeStamp = date(),  
         Description = "Reuters21578 file containing several news articles", ID = as.integer(0),  
         Origin = "Reuters-21578 XML", Heading = "Reuters21578 news articles")  
378  }  }
379            level <<- level - 1
380    
 setGeneric("loadFileIntoMem", function(object) standardGeneric("loadFileIntoMem"))  
 setMethod("loadFileIntoMem",  
           c("XMLTextDocument"),  
           function(object) {  
               if (object@Cached == 0) {  
                   file <- object@FileName  
                   doc <- xmlTreeParse(file)  
                   class(doc) <- "list"  
                   object@.Data <- doc  
                   object@Cached <- 1  
                   return(object)  
               } else {  
381                    return(object)                    return(object)
382                }                }
           })  
383    
384  setGeneric("transformTextDocCol", function(object, FUN, ...) standardGeneric("transformTextDocCol"))      return(list(root = set_id(object), left.mapping = left.mapping, right.mapping = mapping))
385  setMethod("transformTextDocCol",  }
           c("TextDocCol"),  
           function(object, FUN, ...) {  
               lapply(object, FUN, ...)  
           })  
386    
387  setGeneric("toPlainTextDocument", function(object, FUN, ...) standardGeneric("toPlainTextDocument"))  # TODO: Implement concatenation for other corpus types
388  setMethod("toPlainTextDocument",  setMethod("c",
389            c("PlainTextDocument"),            signature(x = "Corpus"),
390            function(object, FUN, ...) {            function(x, ..., meta = list(merge_date = as.POSIXlt(Sys.time(), tz = "GMT"), merger = Sys.getenv("LOGNAME")), recursive = TRUE) {
391                return(object)                args <- list(...)
392            })                if (length(args) == 0)
393  setMethod("toPlainTextDocument",                    return(x)
394            c("XMLTextDocument"),  
395            function(object, FUN, ...) {                if (!all(sapply(args, inherits, "SCorpus")))
396                if (object@Cached == 0)                    stop("not all arguments are standard corpora")
397                    object <- loadFileIntoMem(object)  
398                  Reduce(c2, base::c(list(x), args))
399              })
400    
401    setGeneric("c2", function(x, y, ..., meta = list(merge_date = as.POSIXlt(Sys.time(), tz = "GMT"), merger = Sys.getenv("LOGNAME")), recursive = TRUE) standardGeneric("c2"))
402    setMethod("c2",
403              signature(x = "SCorpus", y = "SCorpus"),
404              function(x, y, ..., meta = list(merge_date = as.POSIXlt(Sys.time(), tz = "GMT"), merger = Sys.getenv("LOGNAME")), recursive = TRUE) {
405                  object <- x
406                  # Concatenate data slots
407                  object@.Data <- c(as(x, "list"), as(y, "list"))
408    
409                  # Update the CMetaData tree
410                  cmeta <- new("MetaDataNode", NodeID = 0, MetaData = meta, children = list(CMetaData(x), CMetaData(y)))
411                  update.struct <- update_id(cmeta)
412                  object@CMetaData <- update.struct$root
413    
414                  # Find indices to be updated for the left tree
415                  indices.mapping <- NULL
416                  for (m in levels(as.factor(DMetaData(x)$MetaID))) {
417                      indices <- (DMetaData(x)$MetaID == m)
418                      indices.mapping <- c(indices.mapping, list(m = indices))
419                      names(indices.mapping)[length(indices.mapping)] <- m
420                  }
421    
422                corpus <- object@.Data                # Update the DMetaData data frames for the left tree
423                  for (i in 1:ncol(update.struct$left.mapping)) {
424                      map <- update.struct$left.mapping[,i]
425                      x@DMetaData$MetaID <- replace(DMetaData(x)$MetaID, indices.mapping[[as.character(map[1])]], map[2])
426                  }
427    
428                # As XMLDocument is no native S4 class, restore valid information                # Find indices to be updated for the right tree
429                class(corpus) <- "XMLDocument"                indices.mapping <- NULL
430                names(corpus) <- c("doc","dtd")                for (m in levels(as.factor(DMetaData(y)$MetaID))) {
431                      indices <- (DMetaData(y)$MetaID == m)
432                      indices.mapping <- c(indices.mapping, list(m = indices))
433                      names(indices.mapping)[length(indices.mapping)] <- m
434                  }
435    
436                return(xmlApply(xmlRoot(corpus), FUN, ...))                # Update the DMetaData data frames for the right tree
437            })                for (i in 1:ncol(update.struct$right.mapping)) {
438                      map <- update.struct$right.mapping[,i]
439                      y@DMetaData$MetaID <- replace(DMetaData(y)$MetaID, indices.mapping[[as.character(map[1])]], map[2])
440                  }
441    
442  setGeneric("stemTextDocument", function(object) standardGeneric("stemTextDocument"))                # Merge the DMetaData data frames
443  setMethod("stemTextDocument",                labels <- setdiff(names(DMetaData(y)), names(DMetaData(x)))
444            c("PlainTextDocument"),                na.matrix <- matrix(NA, nrow = nrow(DMetaData(x)), ncol = length(labels), dimnames = list(row.names(DMetaData(x)), labels))
445            function(object) {                x.dmeta.aug <- cbind(DMetaData(x), na.matrix)
446                require(Rstem)                labels <- setdiff(names(DMetaData(x)), names(DMetaData(y)))
447                splittedCorpus <- unlist(strsplit(object, " ", fixed = TRUE))                na.matrix <- matrix(NA, nrow = nrow(DMetaData(y)), ncol = length(labels), dimnames = list(row.names(DMetaData(y)), labels))
448                stemmedCorpus <- wordStem(splittedCorpus)                y.dmeta.aug <- cbind(DMetaData(y), na.matrix)
449                object@.Data <- paste(stemmedCorpus, collapse = " ")                object@DMetaData <- rbind(x.dmeta.aug, y.dmeta.aug)
               return (object)  
           })  
450    
 setGeneric("removeStopWordsInTextDocument", function(object, stopwords) standardGeneric("removeStopWordsInTextDocument"))  
 setMethod("removeStopWordsInTextDocument",  
           c("PlainTextDocument", "character"),  
           function(object, stopwords) {  
               require(Rstem)  
               splittedCorpus <- unlist(strsplit(object, " ", fixed = TRUE))  
               noStopwordsCorpus <- splittedCorpus[!splittedCorpus %in% stopwords]  
               object@.Data <- paste(noStopwordsCorpus, collapse = " ")  
451                return (object)                return (object)
452            })            })
453    
454  setGeneric("filterTextDocCol", function(object, FUN, ...) standardGeneric("filterTextDocCol"))  setMethod("c",
455  setMethod("filterTextDocCol",            signature(x = "TextDocument"),
456            c("TextDocCol"),            function(x, ..., recursive = TRUE){
457            function(object, FUN, ...) {                args <- list(...)
458                sapply(object, FUN, ...)                if (identical(length(args), 0)) return(x)
459            })  
460                  dmeta.df <- data.frame(MetaID = rep(0, length(list(x, ...))), stringsAsFactors = FALSE)
461                  cmeta.node <- new("MetaDataNode",
462                                NodeID = 0,
463                                MetaData = list(create_date = as.POSIXlt(Sys.time(), tz = "GMT"), creator = Sys.getenv("LOGNAME")),
464                                children = list())
465    
466  setGeneric("filterREUT21578Topics", function(object, topics, ...) standardGeneric("filterREUT21578Topics"))                new("SCorpus", .Data = list(x, ...), DMetaData = dmeta.df, CMetaData = cmeta.node)
467  setMethod("filterREUT21578Topics",            })
           c("PlainTextDocument", "character"),  
           function(object, topics, ...) {  
               if (object@Cached == 0)  
                   object <- loadFileIntoMem(object)  
468    
469                if (any(object@LocalMetaData$Topics %in% topics))  setMethod("show",
470                    return(TRUE)            signature(object = "Corpus"),
471                else            function(object){
472                    return(FALSE)                cat(sprintf(ngettext(length(object),
473                                       "A corpus with %d text document\n",
474                                       "A corpus with %d text documents\n"),
475                              length(object)))
476            })            })
477    
478  setGeneric("attachData", function(object, data) standardGeneric("attachData"))  setMethod("summary",
479  setMethod("attachData",            signature(object = "Corpus"),
480            c("TextDocCol","TextDocument"),            function(object){
481            function(object, data) {                show(object)
482                data <- as(list(data), "TextDocCol")                if (length(DMetaData(object)) > 0) {
483                object@.Data <- as(c(object@.Data, data), "TextDocCol")                    cat(sprintf(ngettext(length(CMetaData(object)@MetaData),
484                return(object)                                                "\nThe metadata consists of %d tag-value pair and a data frame\n",
485                                                  "\nThe metadata consists of %d tag-value pairs and a data frame\n"),
486                                           length(CMetaData(object)@MetaData)))
487                      cat("Available tags are:\n")
488                      cat(strwrap(paste(names(CMetaData(object)@MetaData), collapse = " "), indent = 2, exdent = 2), "\n")
489                      cat("Available variables in the data frame are:\n")
490                      cat(strwrap(paste(names(DMetaData(object)), collapse = " "), indent = 2, exdent = 2), "\n")
491                  }
492            })            })
493    
494  setGeneric("attachMetaData", function(object, name, metadata) standardGeneric("attachMetaData"))  inspect <- function(x) UseMethod("inspect", x)
495  setMethod("attachMetaData",  inspect.PCorpus <- function(x) {
496            c("TextDocCol"),      summary(x)
497            function(object, name, metadata) {      cat("\n")
498                object@GlobalMetaData <- c(object@GlobalMetaData, new = list(metadata))      db <- filehash::dbInit(DBControl(x)[["dbName"]], DBControl(x)[["dbType"]])
499                names(object@GlobalMetaData)[length(names(object@GlobalMetaData))] <- name      show(filehash::dbMultiFetch(db, unlist(x)))
500                return(object)  }
501    inspect.FCorpus <- inspect.SCorpus <- function(x) {
502        summary(x)
503        cat("\n")
504        print(noquote(lapply(x, identity)))
505    }
506    
507    # No metadata is checked
508    setGeneric("%IN%", function(x, y) standardGeneric("%IN%"))
509    setMethod("%IN%", signature(x = "TextDocument", y = "PCorpus"),
510              function(x, y) {
511                  db <- filehash::dbInit(DBControl(y)[["dbName"]], DBControl(y)[["dbType"]])
512                  any(sapply(y, function(x, z) {x %in% Content(z)}, x))
513              })
514    setMethod("%IN%", signature(x = "TextDocument", y = "SCorpus"),
515              function(x, y) x %in% y)
516    
517    setMethod("lapply",
518              signature(X = "SCorpus"),
519              function(X, FUN, ...) {
520                  lazyTmMap <- meta(X, tag = "lazyTmMap", type = "corpus")
521                  if (!is.null(lazyTmMap))
522                      .Call("copyCorpus", X, materialize(X))
523                  base::lapply(X, FUN, ...)
524              })
525    setMethod("lapply",
526              signature(X = "PCorpus"),
527              function(X, FUN, ...) {
528                  db <- filehash::dbInit(DBControl(X)[["dbName"]], DBControl(X)[["dbType"]])
529                  lapply(filehash::dbMultiFetch(db, unlist(X)), FUN, ...)
530              })
531    
532    setMethod("sapply",
533              signature(X = "SCorpus"),
534              function(X, FUN, ..., simplify = TRUE, USE.NAMES = TRUE) {
535                  lazyTmMap <- meta(X, tag = "lazyTmMap", type = "corpus")
536                  if (!is.null(lazyTmMap))
537                      .Call("copyCorpus", X, materialize(X))
538                  base::sapply(X, FUN, ...)
539              })
540    setMethod("sapply",
541              signature(X = "PCorpus"),
542              function(X, FUN, ..., simplify = TRUE, USE.NAMES = TRUE) {
543                  db <- filehash::dbInit(DBControl(X)[["dbName"]], DBControl(X)[["dbType"]])
544                  sapply(filehash::dbMultiFetch(db, unlist(X)), FUN, ...)
545              })
546    
547    setAs("list", "SCorpus", function(from) {
548        cmeta.node <- new("MetaDataNode",
549                          NodeID = 0,
550                          MetaData = list(create_date = as.POSIXlt(Sys.time(), tz = "GMT"), creator = Sys.getenv("LOGNAME")),
551                          children = list())
552        data <- list()
553        counter <- 1
554        for (f in from) {
555            doc <- new("PlainTextDocument",
556                       .Data = f,
557                       Author = "", DateTimeStamp = as.POSIXlt(Sys.time(), tz = "GMT"),
558                       Description = "", ID = as.character(counter),
559                       Origin = "", Heading = "", Language = "eng")
560            data <- c(data, list(doc))
561            counter <- counter + 1
562        }
563        new("SCorpus", .Data = data,
564            DMetaData = data.frame(MetaID = rep(0, length(from)), stringsAsFactors = FALSE),
565            CMetaData = cmeta.node)
566    })
567    
568    setGeneric("writeCorpus", function(object, path = ".", filenames = NULL) standardGeneric("writeCorpus"))
569    setMethod("writeCorpus",
570              signature(object = "Corpus"),
571              function(object, path = ".", filenames = NULL) {
572                  filenames <- file.path(path,
573                                         if (is.null(filenames)) sapply(object, function(x) sprintf("%s.txt", ID(x)))
574                                         else filenames)
575                  i <- 1
576                  for (o in object) {
577                      writeLines(asPlain(o), filenames[i])
578                      i <- i + 1
579                  }
580            })            })

Legend:
Removed from v.52  
changed lines
  Added in v.950

root@r-forge.r-project.org
ViewVC Help
Powered by ViewVC 1.0.0  
Thanks to:
Vienna University of Economics and Business Powered By FusionForge