SCM

SCM Repository

[tm] Diff of /pkg/R/corpus.R
ViewVC logotype

Diff of /pkg/R/corpus.R

Parent Directory Parent Directory | Revision Log Revision Log | View Patch Patch

trunk/R/textmin/R/textdoccol.R revision 56, Sun Sep 24 14:12:28 2006 UTC pkg/R/corpus.R revision 1419, Sat May 2 17:23:47 2015 UTC
# Line 1  Line 1 
1  # Author: Ingo Feinerer  # Author: Ingo Feinerer
2    
3  setGeneric("TextDocCol", function(object, inputType = "CSV", stripWhiteSpace = FALSE, toLower = FALSE) standardGeneric("TextDocCol"))  PCorpus <-
4  setMethod("TextDocCol",  function(x,
5            c("character"),           readerControl = list(reader = reader(x), language = "en"),
6            function(object, inputType = "PLAIN", stripWhiteSpace = FALSE, toLower = FALSE) {           dbControl = list(dbName = "", dbType = "DB1"))
7                # Add a new type for each unique input source format  {
8                type <- match.arg(inputType,c("PLAIN", "CSV", "RCV1", "REUT21578", "REUT21578_XML", "NEWSGROUP", "RIS"))      stopifnot(inherits(x, "Source"))
9                switch(type,  
10                       # Plain text      readerControl <- prepareReader(readerControl, reader(x))
11                       "PLAIN" = {  
12                           filelist <- dir(object, full.names = TRUE)      if (!filehash::dbCreate(dbControl$dbName, dbControl$dbType))
13                           filenameIDs <- list(FileNames = filelist, IDs = 1:length(filelist))          stop("error in creating database")
14                           tdl <- sapply(filelist,      db <- filehash::dbInit(dbControl$dbName, dbControl$dbType)
15                                         function(file, FileNameIDs = filenameIDs) {  
16                                             id <- FileNameIDs$IDs[grep(file, FileNameIDs$FileNames)]      x <- open(x)
17                                             origin <- dirname(file)      tdl <- vector("list", length(x))
18                                             new("PlainTextDocument", FileName = file, Cached = 0, Author = "Unknown", DateTimeStamp = date(),      counter <- 1
19                                                 Description = "", ID = id, Origin = origin, Heading = "")      while (!eoi(x)) {
20                                         })          x <- stepNext(x)
21                           tdcl <- new("TextDocCol", .Data = tdl)          elem <- getElem(x)
22                       },          doc <- readerControl$reader(elem,
23                       # Text in a special CSV format                                      readerControl$language,
24                       # For details on the file format see the R documentation file                                      as.character(counter))
25                       # The first argument is a directory with .csv files          filehash::dbInsert(db, meta(doc, "id"), doc)
26                       "CSV" = {          tdl[[counter]] <- meta(doc, "id")
27                           filelist <- dir(object, pattern = "\\.csv", full.names = TRUE)          counter <- counter + 1
28                           tdl <- sapply(filelist,      }
29                                         function(file) {      x <- close(x)
30                                             m <- as.matrix(read.csv(file, header = FALSE))  
31                                             l <- vector("list", dim(m)[1])      p <- list(content = tdl,
32                                             for (i in 1:dim(m)[1]) {                meta = CorpusMeta(),
33                                                 author <- ""                dmeta = data.frame(row.names = seq_along(tdl)),
34                                                 datetimestamp <- date()                dbcontrol = dbControl)
35                                                 description <- ""      class(p) <- c("PCorpus", "Corpus")
36                                                 id <- as.integer(m[i,1])      p
37                                                 corpus <- as.character(m[i,2:dim(m)[2]])  }
38                                                 if (stripWhiteSpace)  
39                                                     corpus <- gsub("[[:space:]]+", " ", corpus)  Corpus <-
40                                                 if (toLower)  VCorpus <-
41                                                     corpus <- tolower(corpus)  function(x, readerControl = list(reader = reader(x), language = "en"))
42                                                 origin <- "CSV"  {
43                                                 heading <- ""      stopifnot(inherits(x, "Source"))
44    
45                                                 l[[i]] <- new("PlainTextDocument", .Data = corpus, Author = author, DateTimeStamp = datetimestamp,      readerControl <- prepareReader(readerControl, reader(x))
46                                                               Description = description, ID = id, Origin = origin, Heading = heading)  
47                                             }      x <- open(x)
48                                             l      tdl <- vector("list", length(x))
49                                         })      # Check for parallel element access
50                           if (length(filelist) > 1)      if (is.function(getS3method("pGetElem", class(x), TRUE)))
51                               tdcl <- new("TextDocCol", .Data = unlist(tdl, recursive = FALSE))          tdl <- mapply(function(elem, id)
52                           else                            readerControl$reader(elem, readerControl$language, id),
53                               tdcl <- new("TextDocCol", .Data = tdl)                        pGetElem(x),
54                       },                        id = as.character(seq_along(x)),
55                       # Read in text documents in XML Reuters Corpus Volume 1 (RCV1) format                        SIMPLIFY = FALSE)
56                       # The first argument is a directory with the RCV1 XML files      else {
57                       "RCV1" = {          counter <- 1
58                           filelist <- dir(object, pattern = "\\..xml", full.names = TRUE)          while (!eoi(x)) {
59                           tdl <- sapply(filelist,              x <- stepNext(x)
60                                         function(file) {              elem <- getElem(x)
61                                             tree <- xmlTreeParse(file)              doc <- readerControl$reader(elem,
62                                             xmlApply(xmlRoot(tree), parseNewsItemPlain, stripWhiteSpace, toLower)                                          readerControl$language,
63                                         })                                          as.character(counter))
64                           if (length(filelist) > 1)              tdl[[counter]] <- doc
65                               tdcl <- new("TextDocCol", .Data = unlist(tdl, recursive = FALSE))              counter <- counter + 1
66                           else          }
67                               tdcl <- new("TextDocCol", .Data = tdl)      }
68                       },      x <- close(x)
69                       # Read in text documents in Reuters-21578 XML (not SGML) format  
70                       # Typically the first argument will be a directory where we can      as.VCorpus(tdl)
71                       # find the files reut2-000.xml ... reut2-021.xml  }
72                       "REUT21578" = {  
73                           filelist <- dir(object, pattern = "\\..xml", full.names = TRUE)  `[.PCorpus` <-
74                           tdl <- sapply(filelist,  function(x, i)
75                                         function(file) {  {
76                                             tree <- xmlTreeParse(file)      if (!missing(i)) {
77                                             xmlApply(xmlRoot(tree), parseReutersPlain, stripWhiteSpace, toLower)          x$content <- x$content[i]
78                                         })          x$dmeta <- x$dmeta[i, , drop = FALSE]
79                           if (length(filelist) > 1)      }
80                               tdcl <- new("TextDocCol", .Data = unlist(tdl, recursive = FALSE))      x
81                           else  }
82                               tdcl <- new("TextDocCol", .Data = tdl)  
83                       },  `[.VCorpus` <-
84                       "REUT21578_XML" = {  function(x, i)
85                           filelist <- dir(object, pattern = "\\..xml", full.names = TRUE)  {
86                           tdl <- sapply(filelist,      if (!missing(i)) {
87                                         function(file) {          x$content <- x$content[i]
88                                             parseReutersXML(file)          x$dmeta <- x$dmeta[i, , drop = FALSE]
89                                         })          if (!is.null(x$lazy))
90                           tdcl <- new("TextDocCol", .Data = tdl)              x$lazy$index <- x$lazy$index[i]
91                       },      }
92                       "NEWSGROUP" = {      x
93                           filelist <- dir(object, full.names = TRUE)  }
94                           tdl <- sapply(filelist,  
95                                         function(file) {  .map_name_index <-
96                                             parseMail(file)  function(x, i)
97                                         })  {
98                           new("TextDocCol", .Data = tdl)      if (is.character(i))
99                       },          match(i, meta(x, "id", "local"))
100                       # Read in HTML documents as used by http://ris.bka.gv.at/vwgh      else
101                       "RIS" = {          i
102                           filelist <- dir(object, pattern = "\\..html", full.names = TRUE)  }
103                           tdl <- sapply(filelist,  
104                                         function(file) {  `[[.PCorpus` <-
105                                             # Ignore warnings from misformed HTML documents  function(x, i)
106                                             suppressWarnings(RISDoc <- parseRISPlain(file, stripWhiteSpace, toLower))  {
107                                             if (!is.null(RISDoc)) {      i <- .map_name_index(x, i)
108                                                 l <- list()      db <- filehash::dbInit(x$dbcontrol[["dbName"]], x$dbcontrol[["dbType"]])
109                                                 l[[length(l) + 1]] <- RISDoc      filehash::dbFetch(db, x$content[[i]])
110                                                 l  }
111                                             }  `[[.VCorpus` <-
112                                         })  function(x, i)
113                           tdcl <- new("TextDocCol", .Data = tdl)  {
114                       })      i <- .map_name_index(x, i)
115                tdcl      if (!is.null(x$lazy))
116            })          .Call(copyCorpus, x, materialize(x, i))
117        x$content[[i]]
118  # Parse an Austrian RIS HTML document  }
119  parseRISPlain <- function(file, stripWhiteSpace = FALSE, toLower = FALSE) {  
120      author <- ""  `[[<-.PCorpus` <-
121      datetimestamp <- date()  function(x, i, value)
122      description <- ""  {
123        i <- .map_name_index(x, i)
124      tree <- htmlTreeParse(file)      db <- filehash::dbInit(x$dbcontrol[["dbName"]], x$dbcontrol[["dbType"]])
125      htmlElem <- unlist(tree$children$html$children)      db[[x$content[[i]]]] <- value
126        x
127      if (is.null(htmlElem))  }
128          stop(paste("Empty document", file, "cannot be processed."))  `[[<-.VCorpus` <-
129    function(x, i, value)
130      textElem <- htmlElem[which(regexpr("text.value", names(htmlElem)) > 0)]  {
131      names(textElem) <- NULL      i <- .map_name_index(x, i)
132        # Mark new objects as inactive for lazy mapping
133      corpus <- paste(textElem, collapse = " ")      if (!is.null(x$lazy))
134            x$lazy$index[i] <- FALSE
135      year <- substring(corpus, regexpr("..../../", corpus), regexpr("..../../", corpus) + 3)      x$content[[i]] <- value
136      senat <- substring(corpus, regexpr("..../../", corpus) + 5, regexpr("..../../", corpus) + 6)      x
137      number <- substring(corpus, regexpr("..../../", corpus) + 8, regexpr("..../../", corpus) + 11)  }
138    
139      id <- as.integer(paste(year, senat, number, sep = ""))  as.list.PCorpus <- as.list.VCorpus <-
140    function(x, ...)
141      if (is.na(id))      setNames(content(x), as.character(lapply(content(x), meta, "id")))
142          stop(paste("Cannot extract 'Geschaeftszahl' out of malformed document", file))  
143      origin <- ""  as.VCorpus <-
144    function(x)
145      if (stripWhiteSpace)      UseMethod("as.VCorpus")
146          corpus <- gsub("[[:space:]]+", " ", corpus)  as.VCorpus.VCorpus <- identity
147      if (toLower)  as.VCorpus.list <-
148          corpus <- tolower(corpus)  function(x)
149    {
150      heading <- ""      v <- list(content = x,
151                  meta = CorpusMeta(),
152      new("PlainTextDocument", .Data = corpus, Author = author, DateTimeStamp = datetimestamp,                dmeta = data.frame(row.names = seq_along(x)))
153          Description = description, ID = id, Origin = origin, Heading = heading)      class(v) <- c("VCorpus", "Corpus")
154  }      v
155    }
156  # Parse a <newsitem></newsitem> element from a well-formed RCV1 XML file  
157  parseNewsItemPlain <- function(node, stripWhiteSpace = FALSE, toLower = FALSE) {  outer_union <-
158      author <- "Not yet implemented"  function(x, y, ...)
159      datetimestamp <- xmlAttrs(node)[["date"]]  {
160      description <- "Not yet implemented"      if (nrow(x) > 0L)
161      id <- as.integer(xmlAttrs(node)[["itemid"]])          x[, setdiff(names(y), names(x))] <- NA
162      origin <- "Reuters Corpus Volume 1 XML"      if (nrow(y) > 0L)
163      corpus <- unlist(xmlApply(node[["text"]], xmlValue), use.names = FALSE)          y[, setdiff(names(x), names(y))] <- NA
164        res <- rbind(x, y)
165      if (stripWhiteSpace)      if (ncol(res) == 0L)
166          corpus <- gsub("[[:space:]]+", " ", corpus)          res <- data.frame(row.names = seq_len(nrow(x) + nrow(y)))
167      if (toLower)      res
168          corpus <- tolower(corpus)  }
169    
170      heading <- xmlValue(node[["title"]])  c.VCorpus <-
171    function(..., recursive = FALSE)
172      new("PlainTextDocument", .Data = corpus, Author = author, DateTimeStamp = datetimestamp,  {
173          Description = description, ID = id, Origin = origin, Heading = heading)      args <- list(...)
174  }      x <- args[[1L]]
   
 # Parse a <REUTERS></REUTERS> element from a well-formed Reuters-21578 XML file  
 parseReutersPlain <- function(node, stripWhiteSpace = FALSE, toLower = FALSE) {  
     # The <AUTHOR></AUTHOR> tag is unfortunately NOT obligatory!  
     if (!is.null(node[["TEXT"]][["AUTHOR"]]))  
         author <- xmlValue(node[["TEXT"]][["AUTHOR"]])  
     else  
         author <- ""  
175    
176      datetimestamp <- xmlValue(node[["DATE"]])      if (length(args) == 1L)
177      description <- ""          return(x)
     id <- as.integer(xmlAttrs(node)[["NEWID"]])  
178    
179      origin <- "Reuters-21578 XML"      if (!all(unlist(lapply(args, inherits, class(x)))))
180            stop("not all arguments are of the same corpus type")
181    
182      # The <BODY></BODY> tag is unfortunately NOT obligatory!      v <- list(content = do.call("c", lapply(args, content)),
183      if (!is.null(node[["TEXT"]][["BODY"]]))                meta = CorpusMeta(meta = do.call("c",
184          corpus <- xmlValue(node[["TEXT"]][["BODY"]])                  lapply(args, function(a) meta(a, type = "corpus")))),
185      else                dmeta = Reduce(outer_union, lapply(args, meta)))
186          corpus <- ""      class(v) <- c("VCorpus", "Corpus")
187        v
188    }
189    
190    content.VCorpus <-
191    function(x)
192    {
193        if (!is.null(x$lazy))
194            .Call(copyCorpus, x, materialize(x))
195        x$content
196    }
197    
198    content.PCorpus <-
199    function(x)
200    {
201        db <- filehash::dbInit(x$dbcontrol[["dbName"]], x$dbcontrol[["dbType"]])
202        filehash::dbMultiFetch(db, unlist(x$content))
203    }
204    
205    inspect <-
206    function(x)
207        UseMethod("inspect", x)
208    inspect.PCorpus <- inspect.VCorpus <-
209    function(x)
210    {
211        print(x)
212        cat("\n")
213        print(noquote(content(x)))
214        invisible(x)
215    }
216    
217      if (stripWhiteSpace)  length.PCorpus <- length.VCorpus <-
218          corpus <- gsub("[[:space:]]+", " ", corpus)  function(x)
219      if (toLower)      length(x$content)
         corpus <- tolower(corpus)  
   
     # The <TITLE></TITLE> tag is unfortunately NOT obligatory!  
     if (!is.null(node[["TEXT"]][["TITLE"]]))  
         heading <- xmlValue(node[["TEXT"]][["TITLE"]])  
     else  
         heading <- ""  
220    
221      topics <- unlist(xmlApply(node[["TOPICS"]], function(x) xmlValue(x)), use.names = FALSE)  names.PCorpus <- names.VCorpus <-
222    function(x)
223        as.character(meta(x, "id", "local"))
224    
225      new("PlainTextDocument", .Data = corpus, Cached = 1, Author = author, DateTimeStamp = datetimestamp,  `names<-.PCorpus` <- `names<-.VCorpus` <-
226          Description = description, ID = id, Origin = origin, Heading = heading, LocalMetaData = list(Topics = topics))  function(x, value)
227    {
228        meta(x, "id", "local") <- as.character(value)
229        x
230  }  }
231    
232  # Set up metadata for a well-formed Reuters-21578 XML file  format.PCorpus <- format.VCorpus <-
233  parseReutersXML<- function(file) {  function(x, ...)
234      new("XMLTextDocument", FileName = file, Cached = 0, Author = "REUTERS", DateTimeStamp = date(),  {
235          Description = "Reuters21578 file containing several news articles", ID = as.integer(0),      c(sprintf("<<%s>>", class(x)[1L]),
236          Origin = "Reuters-21578 XML", Heading = "Reuters21578 news articles")        sprintf("Metadata:  corpus specific: %d, document level (indexed): %d",
237  }                length(meta(x, type = "corpus")),
238                  ncol(meta(x, type = "indexed"))),
239  parseMail <- function(file) {        sprintf("Content:  documents: %d", length(x)))
240      mail <- readLines(file)  }
     author <- gsub("From: ", "", grep("^From:", mail, value = TRUE))  
     datetimestamp <- gsub("Date: ", "", grep("^Date:", mail, value = TRUE))  
     id <- as.integer(file)  
     origin <- gsub("Path: ", "", grep("^Path:", mail, value = TRUE))  
     heading <- gsub("Subject: ", "", grep("^Subject:", mail, value = TRUE))  
     newsgroup <- gsub("Newsgroups: ", "", grep("^Newsgroups:", mail, value = TRUE))  
   
     new("NewsgroupDocument", FileName = file, Cached = 0, Author = author, DateTimeStamp = datetimestamp,  
         Description = "", ID = id, Origin = origin, Heading = heading, Newsgroup = newsgroup)  
 }  
   
 setGeneric("loadFileIntoMem", function(object, ...) standardGeneric("loadFileIntoMem"))  
 setMethod("loadFileIntoMem",  
           c("PlainTextDocument"),  
           function(object, ...) {  
               if (Cached(object) == 0) {  
                   corpus <- readLines(FileName(object))  
                   Corpus(object) <- corpus  
                   Cached(object) <- 1  
                   return(object)  
               } else {  
                   return(object)  
               }  
           })  
 setMethod("loadFileIntoMem",  
           c("XMLTextDocument"),  
           function(object, ...) {  
               if (Cached(object) == 0) {  
                   file <- FileName(object)  
                   doc <- xmlTreeParse(file)  
                   class(doc) <- "list"  
                   Corpus(object) <- doc  
                   Cached(object) <- 1  
                   return(object)  
               } else {  
                   return(object)  
               }  
           })  
 setMethod("loadFileIntoMem",  
           c("NewsgroupDocument"),  
           function(object, ...) {  
               if (Cached(object) == 0) {  
                   mail <- readLines(FileName(object))  
                   Cached(object) <- 1  
                   index <- grep("^Lines:", mail)  
                   Corpus(object) <- mail[(index + 1):length(mail)]  
                   return(object)  
               } else {  
                   return(object)  
               }  
           })  
   
 setGeneric("tm_transform", function(object, FUN, ...) standardGeneric("tm_transform"))  
 setMethod("tm_transform",  
           c("TextDocCol"),  
           function(object, FUN, ...) {  
               result <- as(lapply(object, FUN, ..., GlobalMetaData = GlobalMetaData(object)), "TextDocCol")  
               result@GlobalMetaData <- GlobalMetaData(object)  
               return(result)  
           })  
   
 setGeneric("toPlainTextDocument", function(object, FUN, ...) standardGeneric("toPlainTextDocument"))  
 setMethod("toPlainTextDocument",  
           c("PlainTextDocument"),  
           function(object, FUN, ...) {  
               return(object)  
           })  
 setMethod("toPlainTextDocument",  
           c("XMLTextDocument"),  
           function(object, FUN, ...) {  
               if (Cached(object) == 0)  
                   object <- loadFileIntoMem(object)  
   
               corpus <- Corpus(object)  
   
               # As XMLDocument is no native S4 class, restore valid information  
               class(corpus) <- "XMLDocument"  
               names(corpus) <- c("doc","dtd")  
   
               return(xmlApply(xmlRoot(corpus), FUN, ...))  
           })  
   
 setGeneric("stemTextDocument", function(object, ...) standardGeneric("stemTextDocument"))  
 setMethod("stemTextDocument",  
           c("PlainTextDocument"),  
           function(object) {  
               if (Cached(object) == 0)  
                   object <- loadFileIntoMem(object)  
   
               require(Rstem)  
               splittedCorpus <- unlist(strsplit(object, " ", fixed = TRUE))  
               stemmedCorpus <- wordStem(splittedCorpus)  
               Corpus(object) <- paste(stemmedCorpus, collapse = " ")  
               return(object)  
           })  
   
 setGeneric("removeStopWords", function(object, stopwords, ...) standardGeneric("removeStopWords"))  
 setMethod("removeStopWords",  
           c("PlainTextDocument", "character"),  
           function(object, stopwords) {  
               if (Cached(object) == 0)  
                   object <- loadFileIntoMem(object)  
   
               require(Rstem)  
               splittedCorpus <- unlist(strsplit(object, " ", fixed = TRUE))  
               noStopwordsCorpus <- splittedCorpus[!splittedCorpus %in% stopwords]  
               Corpus(object) <- paste(noStopwordsCorpus, collapse = " ")  
               return(object)  
           })  
   
 setGeneric("tm_filter", function(object, FUN, ...) standardGeneric("tm_filter"))  
 setMethod("tm_filter",  
           c("TextDocCol"),  
           function(object, FUN, ...) {  
               result <- as(sapply(object, FUN, ..., GlobalMetaData = GlobalMetaData(object)), "TextDocCol")  
               result@GlobalMetaData <- GlobalMetaData(object)  
               return(result)  
           })  
   
 setGeneric("filterREUT21578Topics", function(object, topics, ...) standardGeneric("filterREUT21578Topics"))  
 setMethod("filterREUT21578Topics",  
           c("PlainTextDocument", "character"),  
           function(object, topics) {  
               if (Cached(object) == 0)  
                   object <- loadFileIntoMem(object)  
241    
242                if (any(LocalMetaData(object)$Topics %in% topics))  writeCorpus <-
243                    return(TRUE)  function(x, path = ".", filenames = NULL)
244                else  {
245                    return(FALSE)      filenames <- file.path(path,
246            })        if (is.null(filenames))
247              sprintf("%s.txt", as.character(meta(x, "id", "local")))
248          else filenames)
249    
250  setGeneric("filterIDs", function(object, IDs, ...) standardGeneric("filterIDs"))      stopifnot(length(x) == length(filenames))
 setMethod("filterIDs",  
           c("TextDocument", "numeric"),  
           function(object, IDs) {  
               if (ID(object) %in% IDs)  
                   return(TRUE)  
               else  
                   return(FALSE)  
           })  
251    
252  setGeneric("attachData", function(object, data) standardGeneric("attachData"))      mapply(function(doc, f) writeLines(as.character(doc), f), x, filenames)
 setMethod("attachData",  
           c("TextDocCol","TextDocument"),  
           function(object, data) {  
               data <- as(list(data), "TextDocCol")  
               object@.Data <- as(c(object@.Data, data), "TextDocCol")  
               return(object)  
           })  
   
 setGeneric("attachMetaData", function(object, name, metadata) standardGeneric("attachMetaData"))  
 setMethod("attachMetaData",  
           c("TextDocCol"),  
           function(object, name, metadata) {  
               object@GlobalMetaData <- c(GlobalMetaData(object), new = list(metadata))  
               names(object@GlobalMetaData)[length(names(GlobalMetaData(object)))] <- name  
               return(object)  
           })  
   
 setGeneric("setSubscriptable", function(object, name) standardGeneric("setSubscriptable"))  
 setMethod("setSubscriptable",  
           c("TextDocCol"),  
           function(object, name) {  
               if (!is.character(GlobalMetaData(object)$subscriptable))  
                   object <- attachMetaData(object, "subscriptable", name)  
               else  
                   object@GlobalMetaData$subscriptable <- c(GlobalMetaData(object)$subscriptable, name)  
               return(object)  
           })  
   
 setMethod("[",  
           signature(x = "TextDocCol", i = "ANY", j = "ANY", drop = "ANY"),  
           function(x, i, j, ... , drop) {  
               if(missing(i))  
                   return(x)  
253    
254                object <- x      invisible(x)
               object@.Data <- x@.Data[i, ..., drop = FALSE]  
               for (m in names(GlobalMetaData(object))) {  
                   if (m %in% GlobalMetaData(object)$subscriptable) {  
                       object@GlobalMetaData[[m]] <- GlobalMetaData(object)[[m]][i, ..., drop = FALSE]  
255                    }                    }
               }  
               return(object)  
           })  
   
 setMethod("c",  
           signature(x = "TextDocCol"),  
           function(x, ..., recursive = TRUE){  
               args <- list(...)  
               if(length(args) == 0)  
                   return(x)  
               return(as(c(as(x, "list"), ...), "TextDocCol"))  
     })  
   
 setMethod("length",  
           signature(x = "TextDocCol"),  
           function(x){  
               return(length(as(x, "list")))  
     })  
   
 setMethod("show",  
           signature(object = "TextDocCol"),  
           function(object){  
               cat("A text document collection with", length(object), "text document")  
               if (length(object) == 1)  
                   cat("\n")  
               else  
                   cat("s\n")  
     })  
   
 setMethod("summary",  
           signature(object = "TextDocCol"),  
           function(object){  
               show(object)  
               if (length(GlobalMetaData(object)) > 0) {  
                   cat("\nThe global metadata consists of", length(GlobalMetaData(object)), "tag-value pair")  
                   if (length(GlobalMetaData(object)) == 1)  
                       cat(".\n")  
                   else  
                       cat("s.\n")  
                   cat("Available tags are:\n")  
                   cat(names(GlobalMetaData(object)), "\n")  
               }  
     })  
   
 setGeneric("inspect", function(object) standardGeneric("inspect"))  
 setMethod("inspect",  
           c("TextDocCol"),  
           function(object) {  
               summary(object)  
               cat("\n")  
               show(as(object, "list"))  
           })  

Legend:
Removed from v.56  
changed lines
  Added in v.1419

root@r-forge.r-project.org
ViewVC Help
Powered by ViewVC 1.0.0  
Thanks to:
Vienna University of Economics and Business Powered By FusionForge