SCM

SCM Repository

[tm] Diff of /pkg/R/corpus.R
ViewVC logotype

Diff of /pkg/R/corpus.R

Parent Directory Parent Directory | Revision Log Revision Log | View Patch Patch

trunk/R/textmin/R/textdoccol.R revision 66, Tue Oct 31 22:03:33 2006 UTC pkg/R/corpus.R revision 1274, Sun Jan 5 10:51:18 2014 UTC
# Line 1  Line 1 
1  # Author: Ingo Feinerer  # Author: Ingo Feinerer
2    
3  # The "..." are additional arguments for the function_generator parser  .PCorpus <-
4  setGeneric("TextDocCol", function(object, parser = plaintext_parser, ...) standardGeneric("TextDocCol"))  function(x, cmeta, dmeta, dbcontrol)
5  setMethod("TextDocCol",  {
6            signature(object = "Source"),      attr(x, "CMetaData") <- cmeta
7            function(object, parser = plaintext_parser) {      attr(x, "DMetaData") <- dmeta
8                if (inherits(parser, "function_generator"))      attr(x, "DBControl") <- dbcontrol
9                    parser <- parser(...)      class(x) <- c("PCorpus", "Corpus", "list")
10        x
11    }
12    
13    DBControl <-
14    function(x)
15        attr(x, "DBControl")
16    
17    PCorpus <-
18    function(x,
19             readerControl = list(reader = x$DefaultReader, language = "en"),
20             dbControl = list(dbName = "", dbType = "DB1"))
21    {
22        stopifnot(is.Source(x))
23    
24        readerControl <- prepareReader(readerControl, x$DefaultReader)
25    
26        if (is.function(readerControl$init))
27            readerControl$init()
28    
29        if (is.function(readerControl$exit))
30            on.exit(readerControl$exit())
31    
32        if (!filehash::dbCreate(dbControl$dbName, dbControl$dbType))
33            stop("error in creating database")
34        db <- filehash::dbInit(dbControl$dbName, dbControl$dbType)
35    
36        # Allocate memory in advance if length is known
37        tdl <- if (x$Length > 0)
38            vector("list", as.integer(x$Length))
39        else
40            list()
41    
               tdl <- list()  
42                counter <- 1                counter <- 1
43                while (!eoi(object)) {      while (!eoi(x)) {
44                    object <- step_next(object)          x <- stepNext(x)
45                    elem <- get_elem(object)          elem <- getElem(x)
46                    # If there is no Load on Demand support          id <- if (is.null(x$Names) || is.na(x$Names))
47                    # we need to load the corpus into memory at startup                  as.character(counter)
48                    if (object@LoDSupport)              else
49                        load <- object@Load                  x$Names[counter]
50                    else          doc <- readerControl$reader(elem, readerControl$language, id)
51                        load <- TRUE          filehash::dbInsert(db, ID(doc), doc)
52                    tdl <- c(tdl, list(parser(elem, object@LoDSupport, load, as.character(counter))))          if (x$Length > 0) tdl[[counter]] <- ID(doc)
53            else tdl <- c(tdl, ID(doc))
54                    counter <- counter + 1                    counter <- counter + 1
55                }                }
56        if (!is.null(x$Names) && !is.na(x$Names))
57            names(tdl) <- x$Names
58    
59                return(new("TextDocCol", .Data = tdl))      df <- data.frame(MetaID = rep(0, length(tdl)), stringsAsFactors = FALSE)
60            })      filehash::dbInsert(db, "DMetaData", df)
61        dmeta.df <- data.frame(key = "DMetaData", subset = I(list(NA)))
 setGeneric("DirSource", function(directory, load = FALSE) standardGeneric("DirSource"))  
 setMethod("DirSource",  
           signature(directory = "character"),  
           function(directory, load = FALSE) {  
               new("DirSource", LoDSupport = TRUE, FileList = dir(directory, full.names = TRUE),  
                   Position = 0, Load = load)  
           })  
   
 setGeneric("CSVSource", function(object, isConCall = FALSE) standardGeneric("CSVSource"))  
 setMethod("CSVSource",  
           signature(object = "character"),  
           function(object, isConCall = FALSE) {  
               if (!isConCall)  
                   object <- paste('file("', object, '")', sep = "")  
               con <- eval(parse(text = object))  
               content <- scan(con, what = "character")  
               close(con)  
               new("CSVSource", LoDSupport = FALSE, URI = object,  
                   Content = content, Position = 0)  
           })  
   
 setGeneric("ReutersSource", function(object, isConCall = FALSE) standardGeneric("ReutersSource"))  
 setMethod("ReutersSource",  
           signature(object = "character"),  
           function(object, isConCall = FALSE) {  
               if (!isConCall)  
                  object <- paste('file("', object, '")', sep = "")  
               con <- eval(parse(text = object))  
               corpus <- paste(readLines(con), "\n", collapse = "")  
               close(con)  
               tree <- xmlTreeParse(corpus, asText = TRUE)  
               content <- xmlRoot(tree)$children  
   
               new("ReutersSource", LoDSupport = FALSE, URI = object,  
                   Content = content, Position = 0)  
           })  
   
 setGeneric("step_next", function(object) standardGeneric("step_next"))  
 setMethod("step_next",  
           signature(object = "DirSource"),  
           function(object) {  
               object@Position <- object@Position + 1  
               object  
           })  
 setMethod("step_next",  
           signature(object = "CSVSource"),  
           function(object) {  
               object@Position <- object@Position + 1  
               object  
           })  
 setMethod("step_next",  
           signature(object = "ReutersSource"),  
           function(object) {  
               object@Position <- object@Position + 1  
               object  
           })  
   
 setGeneric("get_elem", function(object) standardGeneric("get_elem"))  
 setMethod("get_elem",  
           signature(object = "DirSource"),  
           function(object) {  
               list(content = readLines(object@FileList[object@Position]),  
                    uri = paste('file("', object@FileList[object@Position], '")', sep = ""))  
           })  
 setMethod("get_elem",  
           signature(object = "CSVSource"),  
           function(object) {  
               list(content = object@Content[object@Position],  
                    uri = object@URI)  
           })  
 setMethod("get_elem",  
           signature(object = "ReutersSource"),  
           function(object) {  
               # Construct a character representation from the XMLNode  
               con <- textConnection("virtual.file", "w")  
               saveXML(object@Content[[object@Position]], con)  
               close(con)  
   
               list(content = virtual.file, uri = object@URI)  
           })  
   
 setGeneric("eoi", function(object) standardGeneric("eoi"))  
 setMethod("eoi",  
           signature(object = "DirSource"),  
           function(object) {  
               if (length(object@FileList) <= object@Position)  
                   return(TRUE)  
               else  
                   return(FALSE)  
           })  
 setMethod("eoi",  
           signature(object = "CSVSource"),  
           function(object) {  
               if (length(object@Content) <= object@Position)  
                   return(TRUE)  
               else  
                   return(FALSE)  
           })  
 setMethod("eoi",  
           signature(object = "ReutersSource"),  
           function(object) {  
               if (length(object@Content) <= object@Position)  
                   return(TRUE)  
               else  
                   return(FALSE)  
           })  
62    
63  plaintext_parser <- function(...) {      .PCorpus(tdl, .MetaDataNode(), dmeta.df, dbControl)
     function(elem, lodsupport, load, id) {  
         if (!lodsupport || (lodsupport && load)) {  
             doc <- new("PlainTextDocument", .Data = elem$content, URI = elem$uri, Cached = TRUE,  
                        Author = "", DateTimeStamp = date(), Description = "", ID = id, Origin = "", Heading = "")  
         }  
         else {  
             doc <- new("PlainTextDocument", URI = elem$uri, Cached = FALSE,  
                        Author = "", DateTimeStamp = date(), Description = "", ID = id, Origin = "", Heading = "")  
64          }          }
65    
66          return(doc)  .VCorpus <-
67    function(x, cmeta, dmeta)
68    {
69        attr(x, "CMetaData") <- cmeta
70        attr(x, "DMetaData") <- dmeta
71        class(x) <- c("VCorpus", "Corpus", "list")
72        x
73      }      }
 }  
 class(plaintext_parser) <- "function_generator"  
   
 reut21578xml_parser <- function(...) {  
     function(elem, lodsupport, load, id) {  
         corpus <- paste(elem$content, "\n", collapse = "")  
         tree <- xmlTreeParse(corpus, asText = TRUE)  
         node <- xmlRoot(tree)  
74    
75          # Mask as list to bypass S4 checks  VCorpus <-
76          class(tree) <- "list"  Corpus <-
77    function(x, readerControl = list(reader = x$DefaultReader, language = "en"))
78    {
79        stopifnot(is.Source(x))
80    
81          # The <AUTHOR></AUTHOR> tag is unfortunately NOT obligatory!      readerControl <- prepareReader(readerControl, x$DefaultReader)
         if (!is.null(node[["TEXT"]][["AUTHOR"]]))  
             author <- xmlValue(node[["TEXT"]][["AUTHOR"]])  
         else  
             author <- ""  
82    
83          datetimestamp <- xmlValue(node[["DATE"]])      if (is.function(readerControl$init))
84          description <- ""          readerControl$init()
         id <- xmlAttrs(node)[["NEWID"]]  
   
         # The <TITLE></TITLE> tag is unfortunately NOT obligatory!  
         if (!is.null(node[["TEXT"]][["TITLE"]]))  
             heading <- xmlValue(node[["TEXT"]][["TITLE"]])  
         else  
             heading <- ""  
85    
86          topics <- unlist(xmlApply(node[["TOPICS"]], function(x) xmlValue(x)), use.names = FALSE)      if (is.function(readerControl$exit))
87            on.exit(readerControl$exit())
88    
89          if (!lodsupport || (lodsupport && load)) {      # Allocate memory in advance if length is known
90              doc <- new("XMLTextDocument", .Data = tree, URI = elem$uri, Cached = TRUE, Author = author,      tdl <- if (x$Length > 0)
91                         DateTimeStamp = datetimestamp, Description = "", ID = id, Origin = "Reuters-21578 XML",          vector("list", as.integer(x$Length))
92                         Heading = heading, LocalMetaData = list(Topics = topics))      else
93          } else {          list()
             doc <- new("XMLTextDocument", URI = elem$uri, Cached = FALSE, Author = author,  
                        DateTimeStamp = datetimestamp, Description = "", ID = id, Origin = "Reuters-21578 XML",  
                        Heading = heading, LocalMetaData = list(Topics = topics))  
         }  
94    
95          return(doc)      if (x$Vectorized)
96      }          tdl <- mapply(function(x, id) readerControl$reader(x, readerControl$language, id),
97                          pGetElem(x),
98                          id = if (is.null(x$Names) || is.na(x$Names)) as.character(seq_len(x$Length)) else x$Names,
99                          SIMPLIFY = FALSE)
100        else {
101            counter <- 1
102            while (!eoi(x)) {
103                x <- stepNext(x)
104                elem <- getElem(x)
105                id <- if (is.null(x$Names) || is.na(x$Names))
106                    as.character(counter)
107                else
108                    x$Names[counter]
109                doc <- readerControl$reader(elem, readerControl$language, id)
110                if (x$Length > 0)
111                    tdl[[counter]] <- doc
112                else
113                    tdl <- c(tdl, list(doc))
114                counter <- counter + 1
115  }  }
 class(reut21578xml_parser) <- "function_generator"  
   
 rcv1_parser <- function(...) {  
     function(elem, lodsupport, load, id) {  
         corpus <- paste(elem$content, "\n", collapse = "")  
         tree <- xmlTreeParse(corpus, asText = TRUE)  
         node <- xmlRoot(tree)  
   
         # Mask as list to bypass S4 checks  
         class(tree) <- "list"  
   
         datetimestamp <- xmlAttrs(node)[["date"]]  
         id <- xmlAttrs(node)[["itemid"]]  
         heading <- xmlValue(node[["title"]])  
   
         if (!lodsupport || (lodsupport && load)) {  
             doc <- new("XMLTextDocument", .Data = tree, URI = elem$uri, Cached = TRUE, Author = "",  
                        DateTimeStamp = datetimestamp, Description = "", ID = id, Origin = "Reuters Corpus Volume 1 XML",  
                        Heading = heading)  
         } else {  
             doc <- new("XMLTextDocument", URI = elem$uri, Cached = FALSE, Author = "",  
                        DateTimeStamp = datetimestamp, Description = "", ID = id, Origin = "Reuters Corpus Volume 1 XML",  
                        Heading = heading)  
116          }          }
117        if (!is.null(x$Names) && !is.na(x$Names))
118          return(doc)          names(tdl) <- x$Names
119        df <- data.frame(MetaID = rep(0, length(tdl)), stringsAsFactors = FALSE)
120        .VCorpus(tdl, .MetaDataNode(), df)
121    }
122    
123    `[.PCorpus` <-
124    function(x, i)
125    {
126        if (missing(i)) return(x)
127        index <- attr(x, "DMetaData")[[1 , "subset"]]
128        attr(x, "DMetaData")[[1 , "subset"]] <- if (is.numeric(index)) index[i] else i
129        dmeta <- attr(x, "DMetaData")
130        .PCorpus(NextMethod("["), CMetaData(x), dmeta, DBControl(x))
131    }
132    
133    `[.VCorpus` <-
134    function(x, i)
135    {
136        if (missing(i)) return(x)
137        .VCorpus(NextMethod("["), CMetaData(x), DMetaData(x)[i, , drop = FALSE])
138    }
139    
140    `[<-.PCorpus` <-
141    function(x, i, value)
142    {
143        db <- filehash::dbInit(DBControl(x)[["dbName"]], DBControl(x)[["dbType"]])
144        counter <- 1
145        for (id in unclass(x)[i]) {
146            if (identical(length(value), 1L)) db[[id]] <- value
147            else db[[id]] <- value[[counter]]
148            counter <- counter + 1
149      }      }
150        x
151  }  }
 class(rcv1_parser) <- "function_generator"  
   
 newsgroup_parser <- function(...) {  
     function(elem, lodsupport, load, id) {  
         mail <- elem$content  
         author <- gsub("From: ", "", grep("^From:", mail, value = TRUE))  
         datetimestamp <- gsub("Date: ", "", grep("^Date:", mail, value = TRUE))  
         origin <- gsub("Path: ", "", grep("^Path:", mail, value = TRUE))  
         heading <- gsub("Subject: ", "", grep("^Subject:", mail, value = TRUE))  
         newsgroup <- gsub("Newsgroups: ", "", grep("^Newsgroups:", mail, value = TRUE))  
152    
153          if (!lodsupport || (lodsupport && load)) {  .map_name_index <-
154              # The header is separated from the body by a blank line.  function(x, i)
155              # Reference: \url{http://en.wikipedia.org/wiki/E-mail#Internet_e-mail_format}  {
156              for (index in seq(along = mail)) {      if (is.character(i)) {
157                  if (mail[index] == "")          if (is.null(names(x)))
158                      break              match(i, meta(x, "ID", type = "local"))
159              }          else
160              content <- mail[(index + 1):length(mail)]              match(i, names(x))
161        }
162        i
163    }
164    
165    `[[.PCorpus` <-
166    function(x, i)
167    {
168        i <- .map_name_index(x, i)
169        db <- filehash::dbInit(DBControl(x)[["dbName"]], DBControl(x)[["dbType"]])
170        filehash::dbFetch(db, NextMethod("[["))
171    }
172    `[[.VCorpus` <-
173    function(x, i)
174    {
175        i <- .map_name_index(x, i)
176        lazyTmMap <- meta(x, tag = "lazyTmMap", type = "corpus")
177        if (!is.null(lazyTmMap))
178            .Call("copyCorpus", x, materialize(x, i))
179        NextMethod("[[")
180    }
181    
182    `[[<-.PCorpus` <-
183    function(x, i, value)
184    {
185        i <- .map_name_index(x, i)
186        db <- filehash::dbInit(DBControl(x)[["dbName"]], DBControl(x)[["dbType"]])
187        index <- unclass(x)[[i]]
188        db[[index]] <- value
189        x
190    }
191    `[[<-.VCorpus` <-
192    function(x, i, value)
193    {
194        i <- .map_name_index(x, i)
195        # Mark new objects as not active for lazy mapping
196        lazyTmMap <- meta(x, tag = "lazyTmMap", type = "corpus")
197        if (!is.null(lazyTmMap)) {
198            lazyTmMap$index[i] <- FALSE
199            meta(x, tag = "lazyTmMap", type = "corpus") <- lazyTmMap
200        }
201        # Set the value
202        cl <- class(x)
203        y <- NextMethod("[[<-")
204        class(y) <- cl
205        y
206    }
207    
208    # Update NodeIDs of a CMetaData tree
209    .update_id <-
210    function(x, id = 0, mapping = NULL, left.mapping = NULL, level = 0)
211    {
212        # Traversal of (binary) CMetaData tree with setup of NodeIDs
213        set_id <- function(x) {
214            x$NodeID <- id
215            id <<- id + 1
216            level <<- level + 1
217            if (length(x$Children) > 0) {
218                mapping <<- cbind(mapping, c(x$Children[[1]]$NodeID, id))
219                left <- set_id(x$Children[[1]])
220                if (level == 1) {
221                    left.mapping <<- mapping
222                    mapping <<- NULL
223                }
224                mapping <<- cbind(mapping, c(x$Children[[2]]$NodeID, id))
225                right <- set_id(x$Children[[2]])
226    
227                x$Children <- list(left, right)
228            }
229            level <<- level - 1
230            x
231        }
232        list(root = set_id(x), left.mapping = left.mapping, right.mapping = mapping)
233    }
234    
235    # Find indices to be updated for a CMetaData tree
236    .find_indices <-
237    function(x)
238    {
239        indices.mapping <- NULL
240        for (m in levels(as.factor(DMetaData(x)$MetaID))) {
241            indices <- (DMetaData(x)$MetaID == m)
242            indices.mapping <- c(indices.mapping, list(m = indices))
243            names(indices.mapping)[length(indices.mapping)] <- m
244        }
245        indices.mapping
246    }
247    
248    c2 <-
249    function(x, y, ...)
250    {
251        # Update the CMetaData tree
252        cmeta <- .MetaDataNode(0, list(merge_date = as.POSIXlt(Sys.time(), tz = "GMT"), merger = Sys.getenv("LOGNAME")), list(CMetaData(x), CMetaData(y)))
253        update.struct <- .update_id(cmeta)
254    
255        new <- .VCorpus(c(unclass(x), unclass(y)), update.struct$root, NULL)
256    
257        # Find indices to be updated for the left tree
258        indices.mapping <- .find_indices(x)
259    
260        # Update the DMetaData data frames for the left tree
261        for (i in 1:ncol(update.struct$left.mapping)) {
262            map <- update.struct$left.mapping[,i]
263            DMetaData(x)$MetaID <- replace(DMetaData(x)$MetaID, indices.mapping[[as.character(map[1])]], map[2])
264        }
265    
266        # Find indices to be updated for the right tree
267        indices.mapping <- .find_indices(y)
268    
269        # Update the DMetaData data frames for the right tree
270        for (i in 1:ncol(update.struct$right.mapping)) {
271            map <- update.struct$right.mapping[,i]
272            DMetaData(y)$MetaID <- replace(DMetaData(y)$MetaID, indices.mapping[[as.character(map[1])]], map[2])
273        }
274    
275        # Merge the DMetaData data frames
276        labels <- setdiff(names(DMetaData(y)), names(DMetaData(x)))
277        na.matrix <- matrix(NA,
278                            nrow = nrow(DMetaData(x)),
279                            ncol = length(labels),
280                            dimnames = list(row.names(DMetaData(x)), labels))
281        x.dmeta.aug <- cbind(DMetaData(x), na.matrix)
282        labels <- setdiff(names(DMetaData(x)), names(DMetaData(y)))
283        na.matrix <- matrix(NA,
284                            nrow = nrow(DMetaData(y)),
285                            ncol = length(labels),
286                            dimnames = list(row.names(DMetaData(y)), labels))
287        y.dmeta.aug <- cbind(DMetaData(y), na.matrix)
288        DMetaData(new) <- rbind(x.dmeta.aug, y.dmeta.aug)
289    
290        new
291    }
292    
293    c.Corpus <-
294    function(..., recursive = FALSE)
295    {
296        args <- list(...)
297        x <- args[[1L]]
298    
299              doc <- new("NewsgroupDocument", .Data = content, URI = elem$uri, Cached = TRUE,      if(length(args) == 1L)
300                         Author = author, DateTimeStamp = datetimestamp,          return(x)
                        Description = "", ID = id, Origin = origin,  
                        Heading = heading, Newsgroup = newsgroup)  
         } else {  
             doc <- new("NewsgroupDocument", URI = elem$uri, Cached = FALSE, Author = author, DateTimeStamp = datetimestamp,  
                        Description = "", ID = id, Origin = origin, Heading = heading, Newsgroup = newsgroup)  
         }  
301    
302          return(doc)      if (!all(unlist(lapply(args, inherits, class(x)))))
303      }          stop("not all arguments are of the same corpus type")
 }  
 class(newsgroup_parser) <- "function_generator"  
304    
305  # Parse a <newsitem></newsitem> element from a well-formed RCV1 XML file      if (inherits(x, "PCorpus"))
306  rcv1_to_plain <- function(node, ...) {          stop("concatenation of corpora with underlying databases is not supported")
     datetimestamp <- xmlAttrs(node)[["date"]]  
     id <- xmlAttrs(node)[["itemid"]]  
     origin <- "Reuters Corpus Volume 1 XML"  
     corpus <- unlist(xmlApply(node[["text"]], xmlValue), use.names = FALSE)  
     heading <- xmlValue(node[["title"]])  
307    
308      new("PlainTextDocument", .Data = corpus, Cached = TRUE, URI = "", Author = "", DateTimeStamp = datetimestamp,      if (recursive)
309          Description = "", ID = id, Origin = "Reuters Corpus Volume 1 XML", Heading = heading)          Reduce(c2, args)
310        else {
311            args <- do.call("c", lapply(args, unclass))
312            .VCorpus(args,
313                     cmeta = .MetaDataNode(),
314                     dmeta = data.frame(MetaID = rep(0, length(args)),
315                                        stringsAsFactors = FALSE))
316  }  }
   
 # Parse a <REUTERS></REUTERS> element from a well-formed Reuters-21578 XML file  
 reut21578xml_to_plain <- function(node, ...) {  
     # The <AUTHOR></AUTHOR> tag is unfortunately NOT obligatory!  
     if (!is.null(node[["TEXT"]][["AUTHOR"]]))  
         author <- xmlValue(node[["TEXT"]][["AUTHOR"]])  
     else  
         author <- ""  
   
     datetimestamp <- xmlValue(node[["DATE"]])  
     description <- ""  
     id <- xmlAttrs(node)[["NEWID"]]  
   
     origin <- "Reuters-21578 XML"  
   
     # The <BODY></BODY> tag is unfortunately NOT obligatory!  
     if (!is.null(node[["TEXT"]][["BODY"]]))  
         corpus <- xmlValue(node[["TEXT"]][["BODY"]])  
     else  
         corpus <- ""  
   
     # The <TITLE></TITLE> tag is unfortunately NOT obligatory!  
     if (!is.null(node[["TEXT"]][["TITLE"]]))  
         heading <- xmlValue(node[["TEXT"]][["TITLE"]])  
     else  
         heading <- ""  
   
     topics <- unlist(xmlApply(node[["TOPICS"]], function(x) xmlValue(x)), use.names = FALSE)  
   
     new("PlainTextDocument", .Data = corpus, Cached = TRUE, URI = "", Author = author, DateTimeStamp = datetimestamp,  
         Description = description, ID = id, Origin = origin, Heading = heading, LocalMetaData = list(Topics = topics))  
317  }  }
318    
319  setGeneric("load_doc", function(object, ...) standardGeneric("load_doc"))  c.TextDocument <-
320  setMethod("load_doc",  function(..., recursive = FALSE)
321            signature(object = "PlainTextDocument"),  {
           function(object, ...) {  
               if (!Cached(object)) {  
                   con <- eval(parse(text = URI(object)))  
                   corpus <- readLines(con)  
                   close(con)  
                   Corpus(object) <- corpus  
                   Cached(object) <- TRUE  
                   return(object)  
               } else {  
                   return(object)  
               }  
           })  
 setMethod("load_doc",  
           signature(object =  "XMLTextDocument"),  
           function(object, ...) {  
               if (!Cached(object)) {  
                   con <- eval(parse(text = URI(object)))  
                   corpus <- paste(readLines(con), "\n", collapse = "")  
                   close(con)  
                   doc <- xmlTreeParse(corpus, asText = TRUE)  
                   class(doc) <- "list"  
                   Corpus(object) <- doc  
                   Cached(object) <- TRUE  
                   return(object)  
               } else {  
                   return(object)  
               }  
           })  
 setMethod("load_doc",  
           signature(object = "NewsgroupDocument"),  
           function(object, ...) {  
               if (!Cached(object)) {  
                   con <- eval(parse(text = URI(object)))  
                   mail <- readLines(con)  
                   close(con)  
                   Cached(object) <- TRUE  
                   for (index in seq(along = mail)) {  
                       if (mail[index] == "")  
                           break  
                   }  
                   Corpus(object) <- mail[(index + 1):length(mail)]  
                   return(object)  
               } else {  
                   return(object)  
               }  
           })  
   
 setGeneric("tm_transform", function(object, FUN, ...) standardGeneric("tm_transform"))  
 setMethod("tm_transform",  
           signature(object = "TextDocCol", FUN = "function"),  
           function(object, FUN, ...) {  
               result <- as(lapply(object, FUN, ..., GlobalMetaData = GlobalMetaData(object)), "TextDocCol")  
               result@GlobalMetaData <- GlobalMetaData(object)  
               return(result)  
           })  
   
 setGeneric("as.plaintext_doc", function(object, FUN, ...) standardGeneric("as.plaintext_doc"))  
 setMethod("as.plaintext_doc",  
           signature(object = "PlainTextDocument"),  
           function(object, FUN, ...) {  
               return(object)  
           })  
 setMethod("as.plaintext_doc",  
           signature(object = "XMLTextDocument", FUN = "function"),  
           function(object, FUN, ...) {  
               if (!Cached(object))  
                   object <- load_doc(object)  
   
               corpus <- Corpus(object)  
   
               # As XMLDocument is no native S4 class, restore valid information  
               class(corpus) <- "XMLDocument"  
               names(corpus) <- c("doc","dtd")  
   
               return(FUN(xmlRoot(corpus), ...))  
           })  
   
 setGeneric("stem_doc", function(object, ...) standardGeneric("stem_doc"))  
 setMethod("stem_doc",  
           signature(object = "PlainTextDocument"),  
           function(object, ...) {  
               if (!Cached(object))  
                   object <- load_doc(object)  
   
               require(Rstem)  
               splittedCorpus <- unlist(strsplit(object, " ", fixed = TRUE))  
               stemmedCorpus <- wordStem(splittedCorpus, ...)  
               Corpus(object) <- paste(stemmedCorpus, collapse = " ")  
               return(object)  
           })  
   
 setGeneric("remove_words", function(object, stopwords, ...) standardGeneric("remove_words"))  
 setMethod("remove_words",  
           signature(object = "PlainTextDocument", stopwords = "character"),  
           function(object, stopwords, ...) {  
               if (!Cached(object))  
                   object <- load_doc(object)  
   
               require(Rstem)  
               splittedCorpus <- unlist(strsplit(object, " ", fixed = TRUE))  
               noStopwordsCorpus <- splittedCorpus[!splittedCorpus %in% stopwords]  
               Corpus(object) <- paste(noStopwordsCorpus, collapse = " ")  
               return(object)  
           })  
   
 setGeneric("tm_filter", function(object, ..., FUN = s_filter) standardGeneric("tm_filter"))  
 setMethod("tm_filter",  
           signature(object = "TextDocCol"),  
           function(object, ..., FUN = s_filter) {  
               object[tm_index(object, ..., FUN)]  
           })  
   
 setGeneric("tm_index", function(object, ..., FUN = s_filter) standardGeneric("tm_index"))  
 setMethod("tm_index",  
           signature(object = "TextDocCol"),  
           function(object, ..., FUN = s_filter) {  
               sapply(object, FUN, ..., GlobalMetaData = GlobalMetaData(object))  
           })  
   
 s_filter <- function(object, s, ..., GlobalMetaData) {  
     b <- TRUE  
     for (tag in names(s)) {  
         if (tag %in% names(LocalMetaData(object))) {  
             b <- b && any(grep(s[[tag]], LocalMetaData(object)[[tag]]))  
         } else if (tag %in% names(GlobalMetaData)){  
             b <- b && any(grep(s[[tag]], GlobalMetaData[[tag]]))  
         } else {  
             b <- b && any(grep(s[[tag]], eval(call(tag, object))))  
         }  
     }  
     return(b)  
 }  
   
 setGeneric("fulltext_search_filter", function(object, pattern, ...) standardGeneric("fulltext_search_filter"))  
 setMethod("fulltext_search_filter",  
           signature(object = "PlainTextDocument", pattern = "character"),  
           function(object, pattern, ...) {  
               if (!Cached(object))  
                   object <- load_doc(object)  
   
               return(any(grep(pattern, Corpus(object))))  
           })  
   
 setGeneric("attach_data", function(object, data) standardGeneric("attach_data"))  
 setMethod("attach_data",  
           signature(object = "TextDocCol", data = "TextDocument"),  
           function(object, data) {  
               data <- as(list(data), "TextDocCol")  
               object@.Data <- as(c(object@.Data, data), "TextDocCol")  
               return(object)  
           })  
   
 setGeneric("attach_metadata", function(object, name, metadata) standardGeneric("attach_metadata"))  
 setMethod("attach_metadata",  
           signature(object = "TextDocCol"),  
           function(object, name, metadata) {  
               object@GlobalMetaData <- c(GlobalMetaData(object), new = list(metadata))  
               names(object@GlobalMetaData)[length(names(GlobalMetaData(object)))] <- name  
               return(object)  
           })  
   
 setGeneric("set_subscriptable", function(object, name) standardGeneric("set_subscriptable"))  
 setMethod("set_subscriptable",  
           signature(object = "TextDocCol"),  
           function(object, name) {  
               if (!is.character(GlobalMetaData(object)$subscriptable))  
                   object <- attach_metadata(object, "subscriptable", name)  
               else  
                   object@GlobalMetaData$subscriptable <- c(GlobalMetaData(object)$subscriptable, name)  
               return(object)  
           })  
   
 setMethod("[",  
           signature(x = "TextDocCol", i = "ANY", j = "ANY", drop = "ANY"),  
           function(x, i, j, ... , drop) {  
               if(missing(i))  
                   return(x)  
   
               object <- x  
               object@.Data <- x@.Data[i, ..., drop = FALSE]  
               for (m in names(GlobalMetaData(object))) {  
                   if (m %in% GlobalMetaData(object)$subscriptable) {  
                       object@GlobalMetaData[[m]] <- GlobalMetaData(object)[[m]][i, ..., drop = FALSE]  
                   }  
               }  
               return(object)  
           })  
   
 setMethod("[<-",  
           signature(x = "TextDocCol", i = "ANY", j = "ANY", value = "ANY"),  
           function(x, i, j, ... , value) {  
               object <- x  
               object@.Data[i, ...] <- value  
               return(object)  
           })  
   
 setMethod("[[",  
           signature(x = "TextDocCol", i = "ANY", j = "ANY"),  
           function(x, i, j, ...) {  
               return(x@.Data[[i, ...]])  
           })  
   
 setMethod("[[<-",  
           signature(x = "TextDocCol", i = "ANY", j = "ANY", value = "ANY"),  
           function(x, i, j, ..., value) {  
               object <- x  
               object@.Data[[i, ...]] <- value  
               return(object)  
           })  
   
 setMethod("c",  
           signature(x = "TextDocCol"),  
           function(x, ..., recursive = TRUE){  
               args <- list(...)  
               if(length(args) == 0)  
                   return(x)  
               return(as(c(as(x, "list"), ...), "TextDocCol"))  
     })  
 setMethod("c",  
           signature(x = "TextDocument"),  
           function(x, ..., recursive = TRUE){  
322                args <- list(...)                args <- list(...)
323                if(length(args) == 0)      x <- args[[1L]]
324    
325        if(length(args) == 1L)
326                    return(x)                    return(x)
               return(new("TextDocCol", .Data = list(x, ...)))  
     })  
327    
328  setMethod("length",      if (!all(unlist(lapply(args, inherits, class(x)))))
329            signature(x = "TextDocCol"),          stop("not all arguments are text documents")
           function(x){  
               return(length(as(x, "list")))  
     })  
   
 setMethod("show",  
           signature(object = "TextDocCol"),  
           function(object){  
               cat("A text document collection with", length(object), "text document")  
               if (length(object) == 1)  
                   cat("\n")  
               else  
                   cat("s\n")  
     })  
330    
331  setMethod("summary",      dmeta <- data.frame(MetaID = rep(0, length(args)),
332            signature(object = "TextDocCol"),                          stringsAsFactors = FALSE)
333            function(object){      .VCorpus(args, .MetaDataNode(), dmeta)
334                show(object)  }
335                if (length(GlobalMetaData(object)) > 0) {  
336                    cat("\nThe global metadata consists of", length(GlobalMetaData(object)), "tag-value pair")  print.Corpus <-
337                    if (length(GlobalMetaData(object)) == 1)  function(x, ...)
338                        cat(".\n")  {
339                    else      cat(sprintf(ngettext(length(x),
340                        cat("s.\n")                           "A corpus with %d text document\n",
341                             "A corpus with %d text documents\n"),
342                    length(x)))
343        invisible(x)
344    }
345    
346    summary.Corpus <-
347    function(object, ...)
348    {
349        print(object)
350        if (length(DMetaData(object)) > 0) {
351            cat(sprintf(ngettext(length(attr(CMetaData(object), "MetaData")),
352                                 "\nThe metadata consists of %d tag-value pair and a data frame\n",
353                                 "\nThe metadata consists of %d tag-value pairs and a data frame\n"),
354                        length(CMetaData(object)$MetaData)))
355                    cat("Available tags are:\n")                    cat("Available tags are:\n")
356                    cat(names(GlobalMetaData(object)), "\n")          cat(strwrap(paste(names(CMetaData(object)$MetaData), collapse = " "), indent = 2, exdent = 2), "\n")
357            cat("Available variables in the data frame are:\n")
358            cat(strwrap(paste(names(DMetaData(object)), collapse = " "), indent = 2, exdent = 2), "\n")
359        }
360                }                }
     })  
361    
362  setGeneric("inspect", function(object) standardGeneric("inspect"))  inspect <-
363  setMethod("inspect",  function(x)
364            signature("TextDocCol"),      UseMethod("inspect", x)
365            function(object) {  inspect.PCorpus <-
366                summary(object)  function(x)
367    {
368        summary(x)
369        cat("\n")
370        db <- filehash::dbInit(DBControl(x)[["dbName"]], DBControl(x)[["dbType"]])
371        show(filehash::dbMultiFetch(db, unlist(x)))
372    }
373    inspect.VCorpus <-
374    function(x)
375    {
376        summary(x)
377                cat("\n")                cat("\n")
378                show(as(object, "list"))      print(noquote(lapply(x, identity)))
379            })  }
380    
381  # No metadata is checked  lapply.PCorpus <-
382  setGeneric("%IN%", function(x, y) standardGeneric("%IN%"))  function(X, FUN, ...)
383  setMethod("%IN%",  {
384            signature(x = "TextDocument", y = "TextDocCol"),      db <- filehash::dbInit(DBControl(X)[["dbName"]], DBControl(X)[["dbType"]])
385            function(x, y) {      lapply(filehash::dbMultiFetch(db, unlist(X)), FUN, ...)
386                x %in% y  }
387            })  lapply.VCorpus <-
388    function(X, FUN, ...)
389    {
390        lazyTmMap <- meta(X, tag = "lazyTmMap", type = "corpus")
391        if (!is.null(lazyTmMap))
392            .Call("copyCorpus", X, materialize(X))
393        base::lapply(X, FUN, ...)
394    }
395    
396    writeCorpus <-
397    function(x, path = ".", filenames = NULL)
398    {
399        filenames <- file.path(path,
400                               if (is.null(filenames)) unlist(lapply(x, function(x) sprintf("%s.txt", ID(x))))
401                               else filenames)
402        i <- 1
403        for (o in x) {
404            writeLines(as.PlainTextDocument(o), filenames[i])
405            i <- i + 1
406        }
407    }

Legend:
Removed from v.66  
changed lines
  Added in v.1274

root@r-forge.r-project.org
ViewVC Help
Powered by ViewVC 1.0.0  
Thanks to:
Vienna University of Economics and Business Powered By FusionForge