SCM

SCM Repository

[tm] Diff of /pkg/R/corpus.R
ViewVC logotype

Diff of /pkg/R/corpus.R

Parent Directory Parent Directory | Revision Log Revision Log | View Patch Patch

trunk/R/textmin/R/textdoccol.R revision 66, Tue Oct 31 22:03:33 2006 UTC pkg/R/corpus.R revision 946, Wed May 13 18:07:35 2009 UTC
# Line 1  Line 1 
1  # Author: Ingo Feinerer  # Author: Ingo Feinerer
2    
3  # The "..." are additional arguments for the function_generator parser  PCorpus <- function(object,
4  setGeneric("TextDocCol", function(object, parser = plaintext_parser, ...) standardGeneric("TextDocCol"))                      readerControl = list(reader = object@DefaultReader, language = "eng"),
5  setMethod("TextDocCol",                      dbControl = list(dbName = "", dbType = "DB1"),
6            signature(object = "Source"),                      ...) {
7            function(object, parser = plaintext_parser) {      if (is.null(readerControl$reader))
8                if (inherits(parser, "function_generator"))          readerControl$reader <- object@DefaultReader
9                    parser <- parser(...)      if (is(readerControl$reader, "FunctionGenerator"))
10            readerControl$reader <- readerControl$reader(...)
11        if (is.null(readerControl$language))
12            readerControl$language <- "eng"
13    
14        if (!filehash::dbCreate(dbControl$dbName, dbControl$dbType))
15            stop("error in creating database")
16        db <- filehash::dbInit(dbControl$dbName, dbControl$dbType)
17    
18        # Allocate memory in advance if length is known
19        tdl <- if (object@Length > 0)
20            vector("list", as.integer(object@Length))
21        else
22            list()
23    
               tdl <- list()  
24                counter <- 1                counter <- 1
25                while (!eoi(object)) {                while (!eoi(object)) {
26                    object <- step_next(object)          object <- stepNext(object)
27                    elem <- get_elem(object)          elem <- getElem(object)
28                    # If there is no Load on Demand support          doc <- readerControl$reader(elem, readerControl$language, as.character(counter))
29                    # we need to load the corpus into memory at startup          filehash::dbInsert(db, ID(doc), doc)
30                    if (object@LoDSupport)          if (object@Length > 0) tdl[[counter]] <- ID(doc)
31                        load <- object@Load          else tdl <- c(tdl, ID(doc))
                   else  
                       load <- TRUE  
                   tdl <- c(tdl, list(parser(elem, object@LoDSupport, load, as.character(counter))))  
32                    counter <- counter + 1                    counter <- counter + 1
33                }                }
34    
35                return(new("TextDocCol", .Data = tdl))      df <- data.frame(MetaID = rep(0, length(tdl)), stringsAsFactors = FALSE)
36            })      filehash::dbInsert(db, "DMetaData", df)
37        dmeta.df <- data.frame(key = "DMetaData", subset = I(list(NA)))
38  setGeneric("DirSource", function(directory, load = FALSE) standardGeneric("DirSource"))  
39  setMethod("DirSource",      cmeta.node <- new("MetaDataNode",
40            signature(directory = "character"),                        NodeID = 0,
41            function(directory, load = FALSE) {                        MetaData = list(create_date = as.POSIXlt(Sys.time(), tz = "GMT"), creator = Sys.getenv("LOGNAME")),
42                new("DirSource", LoDSupport = TRUE, FileList = dir(directory, full.names = TRUE),                        children = list())
43                    Position = 0, Load = load)  
44            })      new("PCorpus", .Data = tdl, DMetaData = dmeta.df, CMetaData = cmeta.node, DBControl = dbControl)
45    }
46  setGeneric("CSVSource", function(object, isConCall = FALSE) standardGeneric("CSVSource"))  
47  setMethod("CSVSource",  # The "..." are additional arguments for the FunctionGenerator reader
48            signature(object = "character"),  SCorpus <- Corpus <- function(object,
49            function(object, isConCall = FALSE) {                      readerControl = list(reader = object@DefaultReader, language = "eng"),
50                if (!isConCall)                      ...) {
51                    object <- paste('file("', object, '")', sep = "")      if (is.null(readerControl$reader))
52                con <- eval(parse(text = object))          readerControl$reader <- object@DefaultReader
53                content <- scan(con, what = "character")      if (is(readerControl$reader, "FunctionGenerator"))
54                close(con)          readerControl$reader <- readerControl$reader(...)
55                new("CSVSource", LoDSupport = FALSE, URI = object,      if (is.null(readerControl$language))
56                    Content = content, Position = 0)          readerControl$language <- "eng"
57            })  
58        # Allocate memory in advance if length is known
59  setGeneric("ReutersSource", function(object, isConCall = FALSE) standardGeneric("ReutersSource"))      tdl <- if (object@Length > 0)
60  setMethod("ReutersSource",          vector("list", as.integer(object@Length))
61            signature(object = "character"),      else
62            function(object, isConCall = FALSE) {          list()
63                if (!isConCall)  
64                   object <- paste('file("', object, '")', sep = "")      if (object@Vectorized)
65                con <- eval(parse(text = object))          tdl <- lapply(mapply(c, pGetElem(object), id = seq_len(object@Length), SIMPLIFY = FALSE),
66                corpus <- paste(readLines(con), "\n", collapse = "")                        function(x) readerControl$reader(x[c("content", "uri")],
67                close(con)                                                         readerControl$language,
68                tree <- xmlTreeParse(corpus, asText = TRUE)                                                         as.character(x$id)))
               content <- xmlRoot(tree)$children  
   
               new("ReutersSource", LoDSupport = FALSE, URI = object,  
                   Content = content, Position = 0)  
           })  
   
 setGeneric("step_next", function(object) standardGeneric("step_next"))  
 setMethod("step_next",  
           signature(object = "DirSource"),  
           function(object) {  
               object@Position <- object@Position + 1  
               object  
           })  
 setMethod("step_next",  
           signature(object = "CSVSource"),  
           function(object) {  
               object@Position <- object@Position + 1  
               object  
           })  
 setMethod("step_next",  
           signature(object = "ReutersSource"),  
           function(object) {  
               object@Position <- object@Position + 1  
               object  
           })  
   
 setGeneric("get_elem", function(object) standardGeneric("get_elem"))  
 setMethod("get_elem",  
           signature(object = "DirSource"),  
           function(object) {  
               list(content = readLines(object@FileList[object@Position]),  
                    uri = paste('file("', object@FileList[object@Position], '")', sep = ""))  
           })  
 setMethod("get_elem",  
           signature(object = "CSVSource"),  
           function(object) {  
               list(content = object@Content[object@Position],  
                    uri = object@URI)  
           })  
 setMethod("get_elem",  
           signature(object = "ReutersSource"),  
           function(object) {  
               # Construct a character representation from the XMLNode  
               con <- textConnection("virtual.file", "w")  
               saveXML(object@Content[[object@Position]], con)  
               close(con)  
   
               list(content = virtual.file, uri = object@URI)  
           })  
   
 setGeneric("eoi", function(object) standardGeneric("eoi"))  
 setMethod("eoi",  
           signature(object = "DirSource"),  
           function(object) {  
               if (length(object@FileList) <= object@Position)  
                   return(TRUE)  
               else  
                   return(FALSE)  
           })  
 setMethod("eoi",  
           signature(object = "CSVSource"),  
           function(object) {  
               if (length(object@Content) <= object@Position)  
                   return(TRUE)  
               else  
                   return(FALSE)  
           })  
 setMethod("eoi",  
           signature(object = "ReutersSource"),  
           function(object) {  
               if (length(object@Content) <= object@Position)  
                   return(TRUE)  
               else  
                   return(FALSE)  
           })  
   
 plaintext_parser <- function(...) {  
     function(elem, lodsupport, load, id) {  
         if (!lodsupport || (lodsupport && load)) {  
             doc <- new("PlainTextDocument", .Data = elem$content, URI = elem$uri, Cached = TRUE,  
                        Author = "", DateTimeStamp = date(), Description = "", ID = id, Origin = "", Heading = "")  
         }  
69          else {          else {
70              doc <- new("PlainTextDocument", URI = elem$uri, Cached = FALSE,          counter <- 1
71                         Author = "", DateTimeStamp = date(), Description = "", ID = id, Origin = "", Heading = "")          while (!eoi(object)) {
72          }              object <- stepNext(object)
73                elem <- getElem(object)
74          return(doc)              doc <- readerControl$reader(elem, readerControl$language, as.character(counter))
75      }              if (object@Length > 0)
76  }                  tdl[[counter]] <- doc
 class(plaintext_parser) <- "function_generator"  
   
 reut21578xml_parser <- function(...) {  
     function(elem, lodsupport, load, id) {  
         corpus <- paste(elem$content, "\n", collapse = "")  
         tree <- xmlTreeParse(corpus, asText = TRUE)  
         node <- xmlRoot(tree)  
   
         # Mask as list to bypass S4 checks  
         class(tree) <- "list"  
   
         # The <AUTHOR></AUTHOR> tag is unfortunately NOT obligatory!  
         if (!is.null(node[["TEXT"]][["AUTHOR"]]))  
             author <- xmlValue(node[["TEXT"]][["AUTHOR"]])  
         else  
             author <- ""  
   
         datetimestamp <- xmlValue(node[["DATE"]])  
         description <- ""  
         id <- xmlAttrs(node)[["NEWID"]]  
   
         # The <TITLE></TITLE> tag is unfortunately NOT obligatory!  
         if (!is.null(node[["TEXT"]][["TITLE"]]))  
             heading <- xmlValue(node[["TEXT"]][["TITLE"]])  
77          else          else
78              heading <- ""                  tdl <- c(tdl, list(doc))
79                counter <- counter + 1
         topics <- unlist(xmlApply(node[["TOPICS"]], function(x) xmlValue(x)), use.names = FALSE)  
   
         if (!lodsupport || (lodsupport && load)) {  
             doc <- new("XMLTextDocument", .Data = tree, URI = elem$uri, Cached = TRUE, Author = author,  
                        DateTimeStamp = datetimestamp, Description = "", ID = id, Origin = "Reuters-21578 XML",  
                        Heading = heading, LocalMetaData = list(Topics = topics))  
         } else {  
             doc <- new("XMLTextDocument", URI = elem$uri, Cached = FALSE, Author = author,  
                        DateTimeStamp = datetimestamp, Description = "", ID = id, Origin = "Reuters-21578 XML",  
                        Heading = heading, LocalMetaData = list(Topics = topics))  
         }  
   
         return(doc)  
     }  
 }  
 class(reut21578xml_parser) <- "function_generator"  
   
 rcv1_parser <- function(...) {  
     function(elem, lodsupport, load, id) {  
         corpus <- paste(elem$content, "\n", collapse = "")  
         tree <- xmlTreeParse(corpus, asText = TRUE)  
         node <- xmlRoot(tree)  
   
         # Mask as list to bypass S4 checks  
         class(tree) <- "list"  
   
         datetimestamp <- xmlAttrs(node)[["date"]]  
         id <- xmlAttrs(node)[["itemid"]]  
         heading <- xmlValue(node[["title"]])  
   
         if (!lodsupport || (lodsupport && load)) {  
             doc <- new("XMLTextDocument", .Data = tree, URI = elem$uri, Cached = TRUE, Author = "",  
                        DateTimeStamp = datetimestamp, Description = "", ID = id, Origin = "Reuters Corpus Volume 1 XML",  
                        Heading = heading)  
         } else {  
             doc <- new("XMLTextDocument", URI = elem$uri, Cached = FALSE, Author = "",  
                        DateTimeStamp = datetimestamp, Description = "", ID = id, Origin = "Reuters Corpus Volume 1 XML",  
                        Heading = heading)  
         }  
   
         return(doc)  
     }  
 }  
 class(rcv1_parser) <- "function_generator"  
   
 newsgroup_parser <- function(...) {  
     function(elem, lodsupport, load, id) {  
         mail <- elem$content  
         author <- gsub("From: ", "", grep("^From:", mail, value = TRUE))  
         datetimestamp <- gsub("Date: ", "", grep("^Date:", mail, value = TRUE))  
         origin <- gsub("Path: ", "", grep("^Path:", mail, value = TRUE))  
         heading <- gsub("Subject: ", "", grep("^Subject:", mail, value = TRUE))  
         newsgroup <- gsub("Newsgroups: ", "", grep("^Newsgroups:", mail, value = TRUE))  
   
         if (!lodsupport || (lodsupport && load)) {  
             # The header is separated from the body by a blank line.  
             # Reference: \url{http://en.wikipedia.org/wiki/E-mail#Internet_e-mail_format}  
             for (index in seq(along = mail)) {  
                 if (mail[index] == "")  
                     break  
80              }              }
             content <- mail[(index + 1):length(mail)]  
   
             doc <- new("NewsgroupDocument", .Data = content, URI = elem$uri, Cached = TRUE,  
                        Author = author, DateTimeStamp = datetimestamp,  
                        Description = "", ID = id, Origin = origin,  
                        Heading = heading, Newsgroup = newsgroup)  
         } else {  
             doc <- new("NewsgroupDocument", URI = elem$uri, Cached = FALSE, Author = author, DateTimeStamp = datetimestamp,  
                        Description = "", ID = id, Origin = origin, Heading = heading, Newsgroup = newsgroup)  
81          }          }
82    
83          return(doc)      df <- data.frame(MetaID = rep(0, length(tdl)), stringsAsFactors = FALSE)
84        cmeta.node <- new("MetaDataNode",
85                          NodeID = 0,
86                          MetaData = list(create_date = as.POSIXlt(Sys.time(), tz = "GMT"), creator = Sys.getenv("LOGNAME")),
87                          children = list())
88    
89        new("SCorpus", .Data = tdl, DMetaData = df, CMetaData = cmeta.node)
90    }
91    
92    setGeneric("tmMap", function(object, FUN, ..., lazy = FALSE) standardGeneric("tmMap"))
93    setMethod("tmMap",
94              signature(object = "SCorpus", FUN = "function"),
95              function(object, FUN, ..., lazy = FALSE) {
96                  result <- object
97                  # Lazy mapping
98                  if (lazy) {
99                      lazyTmMap <- meta(object, tag = "lazyTmMap", type = "corpus")
100                      if (is.null(lazyTmMap)) {
101                          meta(result, tag = "lazyTmMap", type = "corpus") <-
102                              list(index = rep(TRUE, length(result)),
103                                   maps = list(function(x, DMetaData) FUN(x, ..., DMetaData = DMetaData)))
104      }      }
105                      else {
106                          lazyTmMap$maps <- c(lazyTmMap$maps, list(function(x, DMetaData) FUN(x, ..., DMetaData = DMetaData)))
107                          meta(result, tag = "lazyTmMap", type = "corpus") <- lazyTmMap
108  }  }
 class(newsgroup_parser) <- "function_generator"  
   
 # Parse a <newsitem></newsitem> element from a well-formed RCV1 XML file  
 rcv1_to_plain <- function(node, ...) {  
     datetimestamp <- xmlAttrs(node)[["date"]]  
     id <- xmlAttrs(node)[["itemid"]]  
     origin <- "Reuters Corpus Volume 1 XML"  
     corpus <- unlist(xmlApply(node[["text"]], xmlValue), use.names = FALSE)  
     heading <- xmlValue(node[["title"]])  
   
     new("PlainTextDocument", .Data = corpus, Cached = TRUE, URI = "", Author = "", DateTimeStamp = datetimestamp,  
         Description = "", ID = id, Origin = "Reuters Corpus Volume 1 XML", Heading = heading)  
109  }  }
110                  else {
111  # Parse a <REUTERS></REUTERS> element from a well-formed Reuters-21578 XML file                    result@.Data <- if (clusterAvailable())
112  reut21578xml_to_plain <- function(node, ...) {                        snow::parLapply(snow::getMPIcluster(), object, FUN, ..., DMetaData = DMetaData(object))
     # The <AUTHOR></AUTHOR> tag is unfortunately NOT obligatory!  
     if (!is.null(node[["TEXT"]][["AUTHOR"]]))  
         author <- xmlValue(node[["TEXT"]][["AUTHOR"]])  
     else  
         author <- ""  
   
     datetimestamp <- xmlValue(node[["DATE"]])  
     description <- ""  
     id <- xmlAttrs(node)[["NEWID"]]  
   
     origin <- "Reuters-21578 XML"  
   
     # The <BODY></BODY> tag is unfortunately NOT obligatory!  
     if (!is.null(node[["TEXT"]][["BODY"]]))  
         corpus <- xmlValue(node[["TEXT"]][["BODY"]])  
     else  
         corpus <- ""  
   
     # The <TITLE></TITLE> tag is unfortunately NOT obligatory!  
     if (!is.null(node[["TEXT"]][["TITLE"]]))  
         heading <- xmlValue(node[["TEXT"]][["TITLE"]])  
113      else      else
114          heading <- ""                        lapply(object, FUN, ..., DMetaData = DMetaData(object))
   
     topics <- unlist(xmlApply(node[["TOPICS"]], function(x) xmlValue(x)), use.names = FALSE)  
   
     new("PlainTextDocument", .Data = corpus, Cached = TRUE, URI = "", Author = author, DateTimeStamp = datetimestamp,  
         Description = description, ID = id, Origin = origin, Heading = heading, LocalMetaData = list(Topics = topics))  
 }  
   
 setGeneric("load_doc", function(object, ...) standardGeneric("load_doc"))  
 setMethod("load_doc",  
           signature(object = "PlainTextDocument"),  
           function(object, ...) {  
               if (!Cached(object)) {  
                   con <- eval(parse(text = URI(object)))  
                   corpus <- readLines(con)  
                   close(con)  
                   Corpus(object) <- corpus  
                   Cached(object) <- TRUE  
                   return(object)  
               } else {  
                   return(object)  
115                }                }
116                  result
117            })            })
118  setMethod("load_doc",  setMethod("tmMap",
119            signature(object =  "XMLTextDocument"),            signature(object = "PCorpus", FUN = "function"),
120            function(object, ...) {            function(object, FUN, ..., lazy = FALSE) {
121                if (!Cached(object)) {                # TODO: When should lazy mapping be conceptually available?
122                    con <- eval(parse(text = URI(object)))                if (lazy)
123                    corpus <- paste(readLines(con), "\n", collapse = "")                    warning("lazy mapping is deactived when using database backend")
124                    close(con)                db <- filehash::dbInit(DBControl(object)[["dbName"]], DBControl(object)[["dbType"]])
125                    doc <- xmlTreeParse(corpus, asText = TRUE)                i <- 1
126                    class(doc) <- "list"                for (id in unlist(object)) {
127                    Corpus(object) <- doc                    db[[id]] <- FUN(object[[i]], ..., DMetaData = DMetaData(object))
128                    Cached(object) <- TRUE                    i <- i + 1
                   return(object)  
               } else {  
                   return(object)  
               }  
           })  
 setMethod("load_doc",  
           signature(object = "NewsgroupDocument"),  
           function(object, ...) {  
               if (!Cached(object)) {  
                   con <- eval(parse(text = URI(object)))  
                   mail <- readLines(con)  
                   close(con)  
                   Cached(object) <- TRUE  
                   for (index in seq(along = mail)) {  
                       if (mail[index] == "")  
                           break  
129                    }                    }
130                    Corpus(object) <- mail[(index + 1):length(mail)]                # Suggested by Christian Buchta
131                    return(object)                filehash::dbReorganize(db)
               } else {  
                   return(object)  
               }  
           })  
132    
133  setGeneric("tm_transform", function(object, FUN, ...) standardGeneric("tm_transform"))                object
 setMethod("tm_transform",  
           signature(object = "TextDocCol", FUN = "function"),  
           function(object, FUN, ...) {  
               result <- as(lapply(object, FUN, ..., GlobalMetaData = GlobalMetaData(object)), "TextDocCol")  
               result@GlobalMetaData <- GlobalMetaData(object)  
               return(result)  
134            })            })
135    
136  setGeneric("as.plaintext_doc", function(object, FUN, ...) standardGeneric("as.plaintext_doc"))  # Materialize lazy mappings
137  setMethod("as.plaintext_doc",  # Improvements by Christian Buchta
138            signature(object = "PlainTextDocument"),  materialize <- function(corpus, range = seq_along(corpus)) {
139        lazyTmMap <- meta(corpus, tag = "lazyTmMap", type = "corpus")
140        if (!is.null(lazyTmMap)) {
141           # Make valid and lazy index
142           idx <- (seq_along(corpus) %in% range) & lazyTmMap$index
143           if (any(idx)) {
144               res <- corpus@.Data[idx]
145               for (m in lazyTmMap$maps)
146                   res <- lapply(res, m, DMetaData = DMetaData(corpus))
147               corpus@.Data[idx] <- res
148               lazyTmMap$index[idx] <- FALSE
149           }
150        }
151        # Clean up if everything is materialized
152        if (!any(lazyTmMap$index))
153            lazyTmMap <- NULL
154        meta(corpus, tag = "lazyTmMap", type = "corpus") <- lazyTmMap
155        corpus
156    }
157    
158    setGeneric("asPlain", function(object, FUN, ...) standardGeneric("asPlain"))
159    setMethod("asPlain", signature(object = "PlainTextDocument"),
160              function(object, FUN, ...) object)
161    setMethod("asPlain",
162              signature(object = "XMLTextDocument"),
163            function(object, FUN, ...) {            function(object, FUN, ...) {
164                return(object)                require("XML")
165    
166                  corpus <- Content(object)
167    
168                  # As XMLDocument is no native S4 class, restore valid information
169                  class(corpus) <- "XMLDocument"
170                  names(corpus) <- c("doc","dtd")
171    
172                  return(FUN(xmlRoot(corpus), ...))
173            })            })
174  setMethod("as.plaintext_doc",  setMethod("asPlain",
175            signature(object = "XMLTextDocument", FUN = "function"),            signature(object = "Reuters21578Document"),
176            function(object, FUN, ...) {            function(object, FUN, ...) {
177                if (!Cached(object))                require("XML")
                   object <- load_doc(object)  
178    
179                corpus <- Corpus(object)                FUN <- convertReut21578XMLPlain
180                  corpus <- Content(object)
181    
182                # As XMLDocument is no native S4 class, restore valid information                # As XMLDocument is no native S4 class, restore valid information
183                class(corpus) <- "XMLDocument"                class(corpus) <- "XMLDocument"
# Line 374  Line 185 
185    
186                return(FUN(xmlRoot(corpus), ...))                return(FUN(xmlRoot(corpus), ...))
187            })            })
188    setMethod("asPlain", signature(object = "RCV1Document"),
189  setGeneric("stem_doc", function(object, ...) standardGeneric("stem_doc"))            function(object, FUN, ...) convertRCV1Plain(object, ...))
190  setMethod("stem_doc",  setMethod("asPlain",
191            signature(object = "PlainTextDocument"),            signature(object = "NewsgroupDocument"),
192            function(object, ...) {            function(object, FUN, ...) {
193                if (!Cached(object))                new("PlainTextDocument", .Data = Content(object), Author = Author(object),
194                    object <- load_doc(object)                    DateTimeStamp = DateTimeStamp(object), Description = Description(object), ID = ID(object),
195                      Origin = Origin(object), Heading = Heading(object), Language = Language(object),
196                require(Rstem)                    LocalMetaData = LocalMetaData(object))
               splittedCorpus <- unlist(strsplit(object, " ", fixed = TRUE))  
               stemmedCorpus <- wordStem(splittedCorpus, ...)  
               Corpus(object) <- paste(stemmedCorpus, collapse = " ")  
               return(object)  
197            })            })
198    setMethod("asPlain",
199  setGeneric("remove_words", function(object, stopwords, ...) standardGeneric("remove_words"))            signature(object = "StructuredTextDocument"),
200  setMethod("remove_words",            function(object, FUN, ...) {
201            signature(object = "PlainTextDocument", stopwords = "character"),                new("PlainTextDocument", .Data = unlist(Content(object)),
202            function(object, stopwords, ...) {                    Author = Author(object), DateTimeStamp = DateTimeStamp(object),
203                if (!Cached(object))                    Description = Description(object), ID = ID(object), Origin = Origin(object),
204                    object <- load_doc(object)                    Heading = Heading(object), Language = Language(object),
205                      LocalMetaData = LocalMetaData(object))
               require(Rstem)  
               splittedCorpus <- unlist(strsplit(object, " ", fixed = TRUE))  
               noStopwordsCorpus <- splittedCorpus[!splittedCorpus %in% stopwords]  
               Corpus(object) <- paste(noStopwordsCorpus, collapse = " ")  
               return(object)  
206            })            })
207    
208  setGeneric("tm_filter", function(object, ..., FUN = s_filter) standardGeneric("tm_filter"))  setGeneric("tmFilter", function(object, ..., FUN = searchFullText, doclevel = TRUE) standardGeneric("tmFilter"))
209  setMethod("tm_filter",  setMethod("tmFilter", signature(object = "Corpus"),
210            signature(object = "TextDocCol"),            function(object, ..., FUN = searchFullText, doclevel = TRUE)
211            function(object, ..., FUN = s_filter) {                object[tmIndex(object, ..., FUN = FUN, doclevel = doclevel)])
               object[tm_index(object, ..., FUN)]  
           })  
   
 setGeneric("tm_index", function(object, ..., FUN = s_filter) standardGeneric("tm_index"))  
 setMethod("tm_index",  
           signature(object = "TextDocCol"),  
           function(object, ..., FUN = s_filter) {  
               sapply(object, FUN, ..., GlobalMetaData = GlobalMetaData(object))  
           })  
   
 s_filter <- function(object, s, ..., GlobalMetaData) {  
     b <- TRUE  
     for (tag in names(s)) {  
         if (tag %in% names(LocalMetaData(object))) {  
             b <- b && any(grep(s[[tag]], LocalMetaData(object)[[tag]]))  
         } else if (tag %in% names(GlobalMetaData)){  
             b <- b && any(grep(s[[tag]], GlobalMetaData[[tag]]))  
         } else {  
             b <- b && any(grep(s[[tag]], eval(call(tag, object))))  
         }  
     }  
     return(b)  
 }  
   
 setGeneric("fulltext_search_filter", function(object, pattern, ...) standardGeneric("fulltext_search_filter"))  
 setMethod("fulltext_search_filter",  
           signature(object = "PlainTextDocument", pattern = "character"),  
           function(object, pattern, ...) {  
               if (!Cached(object))  
                   object <- load_doc(object)  
   
               return(any(grep(pattern, Corpus(object))))  
           })  
   
 setGeneric("attach_data", function(object, data) standardGeneric("attach_data"))  
 setMethod("attach_data",  
           signature(object = "TextDocCol", data = "TextDocument"),  
           function(object, data) {  
               data <- as(list(data), "TextDocCol")  
               object@.Data <- as(c(object@.Data, data), "TextDocCol")  
               return(object)  
           })  
212    
213  setGeneric("attach_metadata", function(object, name, metadata) standardGeneric("attach_metadata"))  setGeneric("tmIndex", function(object, ..., FUN = searchFullText, doclevel = TRUE) standardGeneric("tmIndex"))
214  setMethod("attach_metadata",  setMethod("tmIndex",
215            signature(object = "TextDocCol"),            signature(object = "Corpus"),
216            function(object, name, metadata) {            function(object, ..., FUN = searchFullText, doclevel = TRUE) {
217                object@GlobalMetaData <- c(GlobalMetaData(object), new = list(metadata))                if (!is.null(attr(FUN, "doclevel")))
218                names(object@GlobalMetaData)[length(names(GlobalMetaData(object)))] <- name                    doclevel <- attr(FUN, "doclevel")
219                return(object)                if (doclevel) {
220                      if (clusterAvailable())
221                          return(snow::parSapply(snow::getMPIcluster(), object, FUN, ..., DMetaData = DMetaData(object)))
222                      else
223                          return(sapply(object, FUN, ..., DMetaData = DMetaData(object)))
224                  }
225                  else
226                      return(FUN(object, ...))
227            })            })
228    
229  setGeneric("set_subscriptable", function(object, name) standardGeneric("set_subscriptable"))  # TODO: Replace with c(Corpus, TextDocument)?
230  setMethod("set_subscriptable",  setGeneric("appendElem", function(object, data, meta = NULL) standardGeneric("appendElem"))
231            signature(object = "TextDocCol"),  setMethod("appendElem",
232            function(object, name) {            signature(object = "Corpus", data = "TextDocument"),
233                if (!is.character(GlobalMetaData(object)$subscriptable))            function(object, data, meta = NULL) {
234                    object <- attach_metadata(object, "subscriptable", name)                if (DBControl(object)[["useDb"]] && require("filehash")) {
235                      db <- dbInit(DBControl(object)[["dbName"]], DBControl(object)[["dbType"]])
236                      if (dbExists(db, ID(data)))
237                          warning("document with identical ID already exists")
238                      dbInsert(db, ID(data), data)
239                      object@.Data[[length(object)+1]] <- ID(data)
240                  }
241                else                else
242                    object@GlobalMetaData$subscriptable <- c(GlobalMetaData(object)$subscriptable, name)                    object@.Data[[length(object)+1]] <- data
243                  DMetaData(object) <- rbind(DMetaData(object), c(MetaID = CMetaData(object)@NodeID, meta))
244                return(object)                return(object)
245            })            })
246    
247    prescindMeta <- function(object, meta) {
248        df <- DMetaData(object)
249    
250        for (m in meta)
251            df <- cbind(df, structure(data.frame(I(meta(object, tag = m, type = "local"))), names = m))
252    
253        df
254    }
255    
256    setMethod("[",
257              signature(x = "PCorpus", i = "ANY", j = "ANY", drop = "ANY"),
258              function(x, i, j, ... , drop) {
259                  if (missing(i)) return(x)
260    
261                  x@.Data <- x@.Data[i, ..., drop = FALSE]
262                  index <- x@DMetaData[[1 , "subset"]]
263                  if (any(is.na(index))) x@DMetaData[[1 , "subset"]] <- i
264                  else x@DMetaData[[1 , "subset"]] <- index[i]
265                  x
266              })
267    
268  setMethod("[",  setMethod("[",
269            signature(x = "TextDocCol", i = "ANY", j = "ANY", drop = "ANY"),            signature(x = "SCorpus", i = "ANY", j = "ANY", drop = "ANY"),
270            function(x, i, j, ... , drop) {            function(x, i, j, ... , drop) {
271                if(missing(i))                if (missing(i)) return(x)
                   return(x)  
272    
273                object <- x                x@.Data <- x@.Data[i, ..., drop = FALSE]
274                object@.Data <- x@.Data[i, ..., drop = FALSE]                DMetaData(x) <- DMetaData(x)[i, , drop = FALSE]
275                for (m in names(GlobalMetaData(object))) {                x
                   if (m %in% GlobalMetaData(object)$subscriptable) {  
                       object@GlobalMetaData[[m]] <- GlobalMetaData(object)[[m]][i, ..., drop = FALSE]  
                   }  
               }  
               return(object)  
276            })            })
277    
278  setMethod("[<-",  setMethod("[<-",
279            signature(x = "TextDocCol", i = "ANY", j = "ANY", value = "ANY"),            signature(x = "PCorpus", i = "ANY", j = "ANY", value = "ANY"),
280            function(x, i, j, ... , value) {            function(x, i, j, ... , value) {
281                object <- x                db <- filehash::dbInit(DBControl(x)[["dbName"]], DBControl(x)[["dbType"]])
282                object@.Data[i, ...] <- value                counter <- 1
283                return(object)                for (id in x@.Data[i, ...]) {
284                      if (identical(length(value), 1)) db[[id]] <- value
285                      else db[[id]] <- value[[counter]]
286                      counter <- counter + 1
287                  }
288                  x
289              })
290    setMethod("[<-",
291              signature(x = "SCorpus", i = "ANY", j = "ANY", value = "ANY"),
292              function(x, i, j, ... , value) {
293                  x@.Data[i, ...] <- value
294                  x
295            })            })
296    
297  setMethod("[[",  setMethod("[[",
298            signature(x = "TextDocCol", i = "ANY", j = "ANY"),            signature(x = "PCorpus", i = "ANY", j = "ANY"),
299              function(x, i, j, ...) {
300                  db <- filehash::dbInit(DBControl(x)[["dbName"]], DBControl(x)[["dbType"]])
301                  filehash::dbFetch(db, x@.Data[[i]])
302              })
303    setMethod("[[",
304              signature(x = "SCorpus", i = "ANY", j = "ANY"),
305            function(x, i, j, ...) {            function(x, i, j, ...) {
306                return(x@.Data[[i, ...]])                # TODO: For which corpora should lazy mapping be available?
307                  lazyTmMap <- meta(x, tag = "lazyTmMap", type = "corpus")
308                  if (!is.null(lazyTmMap))
309                      .Call("copyCorpus", x, materialize(x, i))
310                  x@.Data[[i]]
311            })            })
312    
313  setMethod("[[<-",  setMethod("[[<-",
314            signature(x = "TextDocCol", i = "ANY", j = "ANY", value = "ANY"),            signature(x = "PCorpus", i = "ANY", j = "ANY", value = "ANY"),
315            function(x, i, j, ..., value) {            function(x, i, j, ..., value) {
316                object <- x                db <- filehash::dbInit(DBControl(x)[["dbName"]], DBControl(x)[["dbType"]])
317                object@.Data[[i, ...]] <- value                index <- x@.Data[[i]]
318                return(object)                db[[index]] <- value
319                  x
320              })
321    setMethod("[[<-",
322              signature(x = "SCorpus", i = "ANY", j = "ANY", value = "ANY"),
323              function(x, i, j, ..., value) {
324                  # Mark new objects as not active for lazy mapping
325                  lazyTmMap <- meta(x, tag = "lazyTmMap", type = "corpus")
326                  if (!is.null(lazyTmMap)) {
327                      lazyTmMap$index[i] <- FALSE
328                      meta(x, tag = "lazyTmMap", type = "corpus") <- lazyTmMap
329                  }
330                  # Set the value
331                  x@.Data[[i, ...]] <- value
332    
333                  x
334            })            })
335    
336    # Update \code{NodeID}s of a CMetaData tree
337    update_id <- function(object, id = 0, mapping = NULL, left.mapping = NULL, level = 0) {
338        # Traversal of (binary) CMetaData tree with setup of \code{NodeID}s
339        set_id <- function(object) {
340            object@NodeID <- id
341            id <<- id + 1
342            level <<- level + 1
343    
344            if (length(object@children) > 0) {
345                mapping <<- cbind(mapping, c(object@children[[1]]@NodeID, id))
346                left <- set_id(object@children[[1]])
347                if (level == 1) {
348                    left.mapping <<- mapping
349                    mapping <<- NULL
350                }
351                mapping <<- cbind(mapping, c(object@children[[2]]@NodeID, id))
352                right <- set_id(object@children[[2]])
353    
354                object@children <- list(left, right)
355            }
356            level <<- level - 1
357    
358            return(object)
359        }
360    
361        return(list(root = set_id(object), left.mapping = left.mapping, right.mapping = mapping))
362    }
363    
364    # TODO: Implement concatenation for PCorpus
365  setMethod("c",  setMethod("c",
366            signature(x = "TextDocCol"),            signature(x = "Corpus"),
367            function(x, ..., recursive = TRUE){            function(x, ..., meta = list(merge_date = as.POSIXlt(Sys.time(), tz = "GMT"), merger = Sys.getenv("LOGNAME")), recursive = TRUE) {
368                args <- list(...)                args <- list(...)
369                if(length(args) == 0)                if(length(args) == 0)
370                    return(x)                    return(x)
371                return(as(c(as(x, "list"), ...), "TextDocCol"))  
372                  if (!all(sapply(args, inherits, "SCorpus")))
373                      stop("not all arguments are standard corpora")
374    
375                  Reduce(c2, base::c(list(x), args))
376              })
377    
378    setGeneric("c2", function(x, y, ..., meta = list(merge_date = as.POSIXlt(Sys.time(), tz = "GMT"), merger = Sys.getenv("LOGNAME")), recursive = TRUE) standardGeneric("c2"))
379    setMethod("c2",
380              signature(x = "SCorpus", y = "SCorpus"),
381              function(x, y, ..., meta = list(merge_date = as.POSIXlt(Sys.time(), tz = "GMT"), merger = Sys.getenv("LOGNAME")), recursive = TRUE) {
382                  object <- x
383                  # Concatenate data slots
384                  object@.Data <- c(as(x, "list"), as(y, "list"))
385    
386                  # Update the CMetaData tree
387                  cmeta <- new("MetaDataNode", NodeID = 0, MetaData = meta, children = list(CMetaData(x), CMetaData(y)))
388                  update.struct <- update_id(cmeta)
389                  object@CMetaData <- update.struct$root
390    
391                  # Find indices to be updated for the left tree
392                  indices.mapping <- NULL
393                  for (m in levels(as.factor(DMetaData(x)$MetaID))) {
394                      indices <- (DMetaData(x)$MetaID == m)
395                      indices.mapping <- c(indices.mapping, list(m = indices))
396                      names(indices.mapping)[length(indices.mapping)] <- m
397                  }
398    
399                  # Update the DMetaData data frames for the left tree
400                  for (i in 1:ncol(update.struct$left.mapping)) {
401                      map <- update.struct$left.mapping[,i]
402                      x@DMetaData$MetaID <- replace(DMetaData(x)$MetaID, indices.mapping[[as.character(map[1])]], map[2])
403                  }
404    
405                  # Find indices to be updated for the right tree
406                  indices.mapping <- NULL
407                  for (m in levels(as.factor(DMetaData(y)$MetaID))) {
408                      indices <- (DMetaData(y)$MetaID == m)
409                      indices.mapping <- c(indices.mapping, list(m = indices))
410                      names(indices.mapping)[length(indices.mapping)] <- m
411                  }
412    
413                  # Update the DMetaData data frames for the right tree
414                  for (i in 1:ncol(update.struct$right.mapping)) {
415                      map <- update.struct$right.mapping[,i]
416                      y@DMetaData$MetaID <- replace(DMetaData(y)$MetaID, indices.mapping[[as.character(map[1])]], map[2])
417                  }
418    
419                  # Merge the DMetaData data frames
420                  labels <- setdiff(names(DMetaData(y)), names(DMetaData(x)))
421                  na.matrix <- matrix(NA, nrow = nrow(DMetaData(x)), ncol = length(labels), dimnames = list(row.names(DMetaData(x)), labels))
422                  x.dmeta.aug <- cbind(DMetaData(x), na.matrix)
423                  labels <- setdiff(names(DMetaData(x)), names(DMetaData(y)))
424                  na.matrix <- matrix(NA, nrow = nrow(DMetaData(y)), ncol = length(labels), dimnames = list(row.names(DMetaData(y)), labels))
425                  y.dmeta.aug <- cbind(DMetaData(y), na.matrix)
426                  object@DMetaData <- rbind(x.dmeta.aug, y.dmeta.aug)
427    
428                  return(object)
429      })      })
430    
431  setMethod("c",  setMethod("c",
432            signature(x = "TextDocument"),            signature(x = "TextDocument"),
433            function(x, ..., recursive = TRUE){            function(x, ..., recursive = TRUE){
434                args <- list(...)                args <- list(...)
435                if(length(args) == 0)                if (identical(length(args), 0)) return(x)
436                    return(x)  
437                return(new("TextDocCol", .Data = list(x, ...)))                dmeta.df <- data.frame(MetaID = rep(0, length(list(x, ...))), stringsAsFactors = FALSE)
438      })                cmeta.node <- new("MetaDataNode",
439                                NodeID = 0,
440                                MetaData = list(create_date = as.POSIXlt(Sys.time(), tz = "GMT"), creator = Sys.getenv("LOGNAME")),
441                                children = list())
442    
443  setMethod("length",                new("SCorpus", .Data = list(x, ...), DMetaData = dmeta.df, CMetaData = cmeta.node)
           signature(x = "TextDocCol"),  
           function(x){  
               return(length(as(x, "list")))  
444      })      })
445    
446  setMethod("show",  setMethod("show",
447            signature(object = "TextDocCol"),            signature(object = "Corpus"),
448            function(object){            function(object){
449                cat("A text document collection with", length(object), "text document")                cat(sprintf(ngettext(length(object),
450                if (length(object) == 1)                                     "A corpus with %d text document\n",
451                    cat("\n")                                     "A corpus with %d text documents\n"),
452                else                            length(object)))
                   cat("s\n")  
453      })      })
454    
455  setMethod("summary",  setMethod("summary",
456            signature(object = "TextDocCol"),            signature(object = "Corpus"),
457            function(object){            function(object){
458                show(object)                show(object)
459                if (length(GlobalMetaData(object)) > 0) {                if (length(DMetaData(object)) > 0) {
460                    cat("\nThe global metadata consists of", length(GlobalMetaData(object)), "tag-value pair")                    cat(sprintf(ngettext(length(CMetaData(object)@MetaData),
461                    if (length(GlobalMetaData(object)) == 1)                                                "\nThe metadata consists of %d tag-value pair and a data frame\n",
462                        cat(".\n")                                                "\nThe metadata consists of %d tag-value pairs and a data frame\n"),
463                    else                                         length(CMetaData(object)@MetaData)))
                       cat("s.\n")  
464                    cat("Available tags are:\n")                    cat("Available tags are:\n")
465                    cat(names(GlobalMetaData(object)), "\n")                    cat(strwrap(paste(names(CMetaData(object)@MetaData), collapse = " "), indent = 2, exdent = 2), "\n")
466                      cat("Available variables in the data frame are:\n")
467                      cat(strwrap(paste(names(DMetaData(object)), collapse = " "), indent = 2, exdent = 2), "\n")
468                }                }
469      })      })
470    
471  setGeneric("inspect", function(object) standardGeneric("inspect"))  inspect <- function(x) UseMethod("inspect", x)
472  setMethod("inspect",  inspect.PCorpus <- function(x) {
473            signature("TextDocCol"),      summary(x)
           function(object) {  
               summary(object)  
474                cat("\n")                cat("\n")
475                show(as(object, "list"))      db <- filehash::dbInit(DBControl(x)[["dbName"]], DBControl(x)[["dbType"]])
476            })      show(filehash::dbMultiFetch(db, unlist(x)))
477    }
478    inspect.SCorpus <- function(x) {
479        summary(x)
480        cat("\n")
481        print(noquote(lapply(x, identity)))
482    }
483    
484  # No metadata is checked  # No metadata is checked
485  setGeneric("%IN%", function(x, y) standardGeneric("%IN%"))  setGeneric("%IN%", function(x, y) standardGeneric("%IN%"))
486  setMethod("%IN%",  setMethod("%IN%", signature(x = "TextDocument", y = "PCorpus"),
           signature(x = "TextDocument", y = "TextDocCol"),  
487            function(x, y) {            function(x, y) {
488                x %in% y                db <- filehash::dbInit(DBControl(y)[["dbName"]], DBControl(y)[["dbType"]])
489                  any(sapply(y, function(x, z) {x %in% Content(z)}, x))
490              })
491    setMethod("%IN%", signature(x = "TextDocument", y = "SCorpus"),
492              function(x, y) x %in% y)
493    
494    setMethod("lapply",
495              signature(X = "SCorpus"),
496              function(X, FUN, ...) {
497                  lazyTmMap <- meta(X, tag = "lazyTmMap", type = "corpus")
498                  if (!is.null(lazyTmMap))
499                      .Call("copyCorpus", X, materialize(X))
500                  base::lapply(X, FUN, ...)
501              })
502    setMethod("lapply",
503              signature(X = "PCorpus"),
504              function(X, FUN, ...) {
505                  db <- filehash::dbInit(DBControl(X)[["dbName"]], DBControl(X)[["dbType"]])
506                  lapply(filehash::dbMultiFetch(db, unlist(X)), FUN, ...)
507              })
508    
509    setMethod("sapply",
510              signature(X = "SCorpus"),
511              function(X, FUN, ..., simplify = TRUE, USE.NAMES = TRUE) {
512                  lazyTmMap <- meta(X, tag = "lazyTmMap", type = "corpus")
513                  if (!is.null(lazyTmMap))
514                      .Call("copyCorpus", X, materialize(X))
515                  base::sapply(X, FUN, ...)
516              })
517    setMethod("sapply",
518              signature(X = "PCorpus"),
519              function(X, FUN, ..., simplify = TRUE, USE.NAMES = TRUE) {
520                  db <- filehash::dbInit(DBControl(X)[["dbName"]], DBControl(X)[["dbType"]])
521                  sapply(filehash::dbMultiFetch(db, unlist(X)), FUN, ...)
522              })
523    
524    setAs("list", "SCorpus", function(from) {
525        cmeta.node <- new("MetaDataNode",
526                          NodeID = 0,
527                          MetaData = list(create_date = as.POSIXlt(Sys.time(), tz = "GMT"), creator = Sys.getenv("LOGNAME")),
528                          children = list())
529        data <- list()
530        counter <- 1
531        for (f in from) {
532            doc <- new("PlainTextDocument",
533                       .Data = f,
534                       Author = "", DateTimeStamp = as.POSIXlt(Sys.time(), tz = "GMT"),
535                       Description = "", ID = as.character(counter),
536                       Origin = "", Heading = "", Language = "eng")
537            data <- c(data, list(doc))
538            counter <- counter + 1
539        }
540        new("SCorpus", .Data = data,
541            DMetaData = data.frame(MetaID = rep(0, length(from)), stringsAsFactors = FALSE),
542            CMetaData = cmeta.node)
543    })
544    
545    setGeneric("writeCorpus", function(object, path = ".", filenames = NULL) standardGeneric("writeCorpus"))
546    setMethod("writeCorpus",
547              signature(object = "Corpus"),
548              function(object, path = ".", filenames = NULL) {
549                  filenames <- file.path(path,
550                                         if (is.null(filenames)) sapply(object, function(x) sprintf("%s.txt", ID(x)))
551                                         else filenames)
552                  i <- 1
553                  for (o in object) {
554                      writeLines(asPlain(o), filenames[i])
555                      i <- i + 1
556                  }
557            })            })

Legend:
Removed from v.66  
changed lines
  Added in v.946

root@r-forge.r-project.org
ViewVC Help
Powered by ViewVC 1.0.0  
Thanks to:
Vienna University of Economics and Business Powered By FusionForge