SCM

SCM Repository

[tm] Diff of /pkg/R/corpus.R
ViewVC logotype

Diff of /pkg/R/corpus.R

Parent Directory Parent Directory | Revision Log Revision Log | View Patch Patch

trunk/R/textmin/R/textdoccol.R revision 52, Sat Aug 12 12:43:39 2006 UTC pkg/R/corpus.R revision 1419, Sat May 2 17:23:47 2015 UTC
# Line 1  Line 1 
1  # Author: Ingo Feinerer  # Author: Ingo Feinerer
2    
3  setGeneric("TextDocCol", function(object, inputType = "CSV", stripWhiteSpace = FALSE, toLower = FALSE) standardGeneric("TextDocCol"))  PCorpus <-
4  setMethod("TextDocCol",  function(x,
5            c("character"),           readerControl = list(reader = reader(x), language = "en"),
6            function(object, inputType = "CSV", stripWhiteSpace = FALSE, toLower = FALSE) {           dbControl = list(dbName = "", dbType = "DB1"))
7                # Add a new type for each unique input source format  {
8                type <- match.arg(inputType,c("CSV", "RCV1", "REUT21578", "REUT21578_XML", "RIS"))      stopifnot(inherits(x, "Source"))
9                switch(type,  
10                       # Text in a special CSV format      readerControl <- prepareReader(readerControl, reader(x))
11                       # For details on the file format see the R documentation file  
12                       # The first argument is a directory with .csv files      if (!filehash::dbCreate(dbControl$dbName, dbControl$dbType))
13                       "CSV" = {          stop("error in creating database")
14                           filelist <- dir(object, pattern = ".csv", full.names = TRUE)      db <- filehash::dbInit(dbControl$dbName, dbControl$dbType)
15                           tdl <- sapply(filelist,  
16                                         function(file) {      x <- open(x)
17                                             m <- as.matrix(read.csv(file, header = FALSE))      tdl <- vector("list", length(x))
18                                             l <- vector("list", dim(m)[1])      counter <- 1
19                                             for (i in 1:dim(m)[1]) {      while (!eoi(x)) {
20                                                 author <- ""          x <- stepNext(x)
21                                                 datetimestamp <- date()          elem <- getElem(x)
22                                                 description <- ""          doc <- readerControl$reader(elem,
23                                                 id <- as.integer(m[i,1])                                      readerControl$language,
24                                                 corpus <- as.character(m[i,2:dim(m)[2]])                                      as.character(counter))
25                                                 if (stripWhiteSpace)          filehash::dbInsert(db, meta(doc, "id"), doc)
26                                                     corpus <- gsub("[[:space:]]+", " ", corpus)          tdl[[counter]] <- meta(doc, "id")
27                                                 if (toLower)          counter <- counter + 1
28                                                     corpus <- tolower(corpus)      }
29                                                 origin <- "CSV"      x <- close(x)
30                                                 heading <- ""  
31        p <- list(content = tdl,
32                                                 l[[i]] <- new("PlainTextDocument", .Data = corpus, Author = author, DateTimeStamp = datetimestamp,                meta = CorpusMeta(),
33                                                               Description = description, ID = id, Origin = origin, Heading = heading)                dmeta = data.frame(row.names = seq_along(tdl)),
34                                             }                dbcontrol = dbControl)
35                                             l      class(p) <- c("PCorpus", "Corpus")
36                                         })      p
37                           if (length(filelist) > 1)  }
38                               tdcl <- new("TextDocCol", .Data = unlist(tdl, recursive = FALSE))  
39                           else  Corpus <-
40                               tdcl <- new("TextDocCol", .Data = tdl)  VCorpus <-
41                       },  function(x, readerControl = list(reader = reader(x), language = "en"))
42                       # Read in text documents in XML Reuters Corpus Volume 1 (RCV1) format  {
43                       # The first argument is a directory with the RCV1 XML files      stopifnot(inherits(x, "Source"))
44                       "RCV1" = {  
45                           filelist <- dir(object, pattern = ".xml", full.names = TRUE)      readerControl <- prepareReader(readerControl, reader(x))
46                           tdl <- sapply(filelist,  
47                                         function(file) {      x <- open(x)
48                                             tree <- xmlTreeParse(file)      tdl <- vector("list", length(x))
49                                             xmlApply(xmlRoot(tree), parseNewsItemPlain, stripWhiteSpace, toLower)      # Check for parallel element access
50                                         })      if (is.function(getS3method("pGetElem", class(x), TRUE)))
51                           if (length(filelist) > 1)          tdl <- mapply(function(elem, id)
52                               tdcl <- new("TextDocCol", .Data = unlist(tdl, recursive = FALSE))                            readerControl$reader(elem, readerControl$language, id),
53                           else                        pGetElem(x),
54                               tdcl <- new("TextDocCol", .Data = tdl)                        id = as.character(seq_along(x)),
55                       },                        SIMPLIFY = FALSE)
56                       # Read in text documents in Reuters-21578 XML (not SGML) format      else {
57                       # Typically the first argument will be a directory where we can          counter <- 1
58                       # find the files reut2-000.xml ... reut2-021.xml          while (!eoi(x)) {
59                       "REUT21578" = {              x <- stepNext(x)
60                           filelist <- dir(object, pattern = ".xml", full.names = TRUE)              elem <- getElem(x)
61                           tdl <- sapply(filelist,              doc <- readerControl$reader(elem,
62                                         function(file) {                                          readerControl$language,
63                                             tree <- xmlTreeParse(file)                                          as.character(counter))
64                                             xmlApply(xmlRoot(tree), parseReutersPlain, stripWhiteSpace, toLower)              tdl[[counter]] <- doc
65                                         })              counter <- counter + 1
66                           if (length(filelist) > 1)          }
67                               tdcl <- new("TextDocCol", .Data = unlist(tdl, recursive = FALSE))      }
68                           else      x <- close(x)
69                               tdcl <- new("TextDocCol", .Data = tdl)  
70                       },      as.VCorpus(tdl)
71                       "REUT21578_XML" = {  }
72                           filelist <- dir(object, pattern = ".xml", full.names = TRUE)  
73                           tdl <- sapply(filelist,  `[.PCorpus` <-
74                                         function(file) {  function(x, i)
75                                             parseReutersXML(file)  {
76                                         })      if (!missing(i)) {
77                           tdcl <- new("TextDocCol", .Data = tdl)          x$content <- x$content[i]
78                       },          x$dmeta <- x$dmeta[i, , drop = FALSE]
79                       # Read in HTML documents as used by http://ris.bka.gv.at/vwgh      }
80                       "RIS" = {      x
81                           filelist <- dir(object, pattern = ".html", full.names = TRUE)  }
82                           tdl <- sapply(filelist,  
83                                         function(file) {  `[.VCorpus` <-
84                                             # Ignore warnings from misformed HTML documents  function(x, i)
85                                             suppressWarnings(RISDoc <- parseRISPlain(file, stripWhiteSpace, toLower))  {
86                                             if (!is.null(RISDoc)) {      if (!missing(i)) {
87                                                 l <- list()          x$content <- x$content[i]
88                                                 l[[length(l) + 1]] <- RISDoc          x$dmeta <- x$dmeta[i, , drop = FALSE]
89                                                 l          if (!is.null(x$lazy))
90                                             }              x$lazy$index <- x$lazy$index[i]
91                                         })      }
92                           tdcl <- new("TextDocCol", .Data = tdl)      x
93                       })  }
94                tdcl  
95            })  .map_name_index <-
96    function(x, i)
97  # Parse an Austrian RIS HTML document  {
98  parseRISPlain <- function(file, stripWhiteSpace = FALSE, toLower = FALSE) {      if (is.character(i))
99      author <- ""          match(i, meta(x, "id", "local"))
100      datetimestamp <- date()      else
101      description <- ""          i
102    }
103      tree <- htmlTreeParse(file)  
104      htmlElem <- unlist(tree$children$html$children)  `[[.PCorpus` <-
105    function(x, i)
106      if (is.null(htmlElem))  {
107          stop(paste("Empty document", file, "cannot be processed."))      i <- .map_name_index(x, i)
108        db <- filehash::dbInit(x$dbcontrol[["dbName"]], x$dbcontrol[["dbType"]])
109      textElem <- htmlElem[which(regexpr("text.value", names(htmlElem)) > 0)]      filehash::dbFetch(db, x$content[[i]])
110      names(textElem) <- NULL  }
111    `[[.VCorpus` <-
112      corpus <- paste(textElem, collapse = " ")  function(x, i)
113    {
114      year <- substring(corpus, regexpr("..../../", corpus), regexpr("..../../", corpus) + 3)      i <- .map_name_index(x, i)
115      senat <- substring(corpus, regexpr("..../../", corpus) + 5, regexpr("..../../", corpus) + 6)      if (!is.null(x$lazy))
116      number <- substring(corpus, regexpr("..../../", corpus) + 8, regexpr("..../../", corpus) + 11)          .Call(copyCorpus, x, materialize(x, i))
117        x$content[[i]]
118      id <- as.integer(paste(year, senat, number, sep = ""))  }
119    
120      if (is.na(id))  `[[<-.PCorpus` <-
121          stop(paste("Cannot extract 'Geschaeftszahl' out of malformed document", file))  function(x, i, value)
122      origin <- ""  {
123        i <- .map_name_index(x, i)
124      if (stripWhiteSpace)      db <- filehash::dbInit(x$dbcontrol[["dbName"]], x$dbcontrol[["dbType"]])
125          corpus <- gsub("[[:space:]]+", " ", corpus)      db[[x$content[[i]]]] <- value
126      if (toLower)      x
127          corpus <- tolower(corpus)  }
128    `[[<-.VCorpus` <-
129      heading <- ""  function(x, i, value)
130    {
131      new("PlainTextDocument", .Data = corpus, Author = author, DateTimeStamp = datetimestamp,      i <- .map_name_index(x, i)
132          Description = description, ID = id, Origin = origin, Heading = heading)      # Mark new objects as inactive for lazy mapping
133  }      if (!is.null(x$lazy))
134            x$lazy$index[i] <- FALSE
135  # Parse a <newsitem></newsitem> element from a well-formed RCV1 XML file      x$content[[i]] <- value
136  parseNewsItemPlain <- function(node, stripWhiteSpace = FALSE, toLower = FALSE) {      x
137      author <- "Not yet implemented"  }
138      datetimestamp <- xmlAttrs(node)[["date"]]  
139      description <- "Not yet implemented"  as.list.PCorpus <- as.list.VCorpus <-
140      id <- as.integer(xmlAttrs(node)[["itemid"]])  function(x, ...)
141      origin <- "Reuters Corpus Volume 1 XML"      setNames(content(x), as.character(lapply(content(x), meta, "id")))
142      corpus <- unlist(xmlApply(node[["text"]], xmlValue), use.names = FALSE)  
143    as.VCorpus <-
144      if (stripWhiteSpace)  function(x)
145          corpus <- gsub("[[:space:]]+", " ", corpus)      UseMethod("as.VCorpus")
146      if (toLower)  as.VCorpus.VCorpus <- identity
147          corpus <- tolower(corpus)  as.VCorpus.list <-
148    function(x)
149      heading <- xmlValue(node[["title"]])  {
150        v <- list(content = x,
151      new("PlainTextDocument", .Data = corpus, Author = author, DateTimeStamp = datetimestamp,                meta = CorpusMeta(),
152          Description = description, ID = id, Origin = origin, Heading = heading)                dmeta = data.frame(row.names = seq_along(x)))
153  }      class(v) <- c("VCorpus", "Corpus")
154        v
155  # Parse a <REUTERS></REUTERS> element from a well-formed Reuters-21578 XML file  }
156  parseReutersPlain <- function(node, stripWhiteSpace = FALSE, toLower = FALSE) {  
157      # The <AUTHOR></AUTHOR> tag is unfortunately NOT obligatory!  outer_union <-
158      if (!is.null(node[["TEXT"]][["AUTHOR"]]))  function(x, y, ...)
159          author <- xmlValue(node[["TEXT"]][["AUTHOR"]])  {
160      else      if (nrow(x) > 0L)
161          author <- ""          x[, setdiff(names(y), names(x))] <- NA
162        if (nrow(y) > 0L)
163            y[, setdiff(names(x), names(y))] <- NA
164        res <- rbind(x, y)
165        if (ncol(res) == 0L)
166            res <- data.frame(row.names = seq_len(nrow(x) + nrow(y)))
167        res
168    }
169    
170    c.VCorpus <-
171    function(..., recursive = FALSE)
172    {
173        args <- list(...)
174        x <- args[[1L]]
175    
176        if (length(args) == 1L)
177            return(x)
178    
179        if (!all(unlist(lapply(args, inherits, class(x)))))
180            stop("not all arguments are of the same corpus type")
181    
182        v <- list(content = do.call("c", lapply(args, content)),
183                  meta = CorpusMeta(meta = do.call("c",
184                    lapply(args, function(a) meta(a, type = "corpus")))),
185                  dmeta = Reduce(outer_union, lapply(args, meta)))
186        class(v) <- c("VCorpus", "Corpus")
187        v
188    }
189    
190    content.VCorpus <-
191    function(x)
192    {
193        if (!is.null(x$lazy))
194            .Call(copyCorpus, x, materialize(x))
195        x$content
196    }
197    
198    content.PCorpus <-
199    function(x)
200    {
201        db <- filehash::dbInit(x$dbcontrol[["dbName"]], x$dbcontrol[["dbType"]])
202        filehash::dbMultiFetch(db, unlist(x$content))
203    }
204    
205    inspect <-
206    function(x)
207        UseMethod("inspect", x)
208    inspect.PCorpus <- inspect.VCorpus <-
209    function(x)
210    {
211        print(x)
212        cat("\n")
213        print(noquote(content(x)))
214        invisible(x)
215    }
216    
217    length.PCorpus <- length.VCorpus <-
218    function(x)
219        length(x$content)
220    
221    names.PCorpus <- names.VCorpus <-
222    function(x)
223        as.character(meta(x, "id", "local"))
224    
225    `names<-.PCorpus` <- `names<-.VCorpus` <-
226    function(x, value)
227    {
228        meta(x, "id", "local") <- as.character(value)
229        x
230    }
231    
232    format.PCorpus <- format.VCorpus <-
233    function(x, ...)
234    {
235        c(sprintf("<<%s>>", class(x)[1L]),
236          sprintf("Metadata:  corpus specific: %d, document level (indexed): %d",
237                  length(meta(x, type = "corpus")),
238                  ncol(meta(x, type = "indexed"))),
239          sprintf("Content:  documents: %d", length(x)))
240    }
241    
242    writeCorpus <-
243    function(x, path = ".", filenames = NULL)
244    {
245        filenames <- file.path(path,
246          if (is.null(filenames))
247              sprintf("%s.txt", as.character(meta(x, "id", "local")))
248          else filenames)
249    
250      datetimestamp <- xmlValue(node[["DATE"]])      stopifnot(length(x) == length(filenames))
     description <- ""  
     id <- as.integer(xmlAttrs(node)[["NEWID"]])  
251    
252      origin <- "Reuters-21578 XML"      mapply(function(doc, f) writeLines(as.character(doc), f), x, filenames)
253    
254      # The <BODY></BODY> tag is unfortunately NOT obligatory!      invisible(x)
     if (!is.null(node[["TEXT"]][["BODY"]]))  
         corpus <- xmlValue(node[["TEXT"]][["BODY"]])  
     else  
         corpus <- ""  
   
     if (stripWhiteSpace)  
         corpus <- gsub("[[:space:]]+", " ", corpus)  
     if (toLower)  
         corpus <- tolower(corpus)  
   
     # The <TITLE></TITLE> tag is unfortunately NOT obligatory!  
     if (!is.null(node[["TEXT"]][["TITLE"]]))  
         heading <- xmlValue(node[["TEXT"]][["TITLE"]])  
     else  
         heading <- ""  
   
     topics <- unlist(xmlApply(node[["TOPICS"]], function(x) xmlValue(x)), use.names = FALSE)  
   
     new("PlainTextDocument", .Data = corpus, Cached = 1, Author = author, DateTimeStamp = datetimestamp,  
         Description = description, ID = id, Origin = origin, Heading = heading, LocalMetaData = list(Topics = topics))  
255  }  }
   
 # Parse a <REUTERS></REUTERS> element from a well-formed Reuters-21578 XML file  
 parseReutersXML<- function(file) {  
     new("XMLTextDocument", FileName = file, Cached = 0, Author = "REUTERS", DateTimeStamp = date(),  
         Description = "Reuters21578 file containing several news articles", ID = as.integer(0),  
         Origin = "Reuters-21578 XML", Heading = "Reuters21578 news articles")  
 }  
   
 setGeneric("loadFileIntoMem", function(object) standardGeneric("loadFileIntoMem"))  
 setMethod("loadFileIntoMem",  
           c("XMLTextDocument"),  
           function(object) {  
               if (object@Cached == 0) {  
                   file <- object@FileName  
                   doc <- xmlTreeParse(file)  
                   class(doc) <- "list"  
                   object@.Data <- doc  
                   object@Cached <- 1  
                   return(object)  
               } else {  
                   return(object)  
               }  
           })  
   
 setGeneric("transformTextDocCol", function(object, FUN, ...) standardGeneric("transformTextDocCol"))  
 setMethod("transformTextDocCol",  
           c("TextDocCol"),  
           function(object, FUN, ...) {  
               lapply(object, FUN, ...)  
           })  
   
 setGeneric("toPlainTextDocument", function(object, FUN, ...) standardGeneric("toPlainTextDocument"))  
 setMethod("toPlainTextDocument",  
           c("PlainTextDocument"),  
           function(object, FUN, ...) {  
               return(object)  
           })  
 setMethod("toPlainTextDocument",  
           c("XMLTextDocument"),  
           function(object, FUN, ...) {  
               if (object@Cached == 0)  
                   object <- loadFileIntoMem(object)  
   
               corpus <- object@.Data  
   
               # As XMLDocument is no native S4 class, restore valid information  
               class(corpus) <- "XMLDocument"  
               names(corpus) <- c("doc","dtd")  
   
               return(xmlApply(xmlRoot(corpus), FUN, ...))  
           })  
   
 setGeneric("stemTextDocument", function(object) standardGeneric("stemTextDocument"))  
 setMethod("stemTextDocument",  
           c("PlainTextDocument"),  
           function(object) {  
               require(Rstem)  
               splittedCorpus <- unlist(strsplit(object, " ", fixed = TRUE))  
               stemmedCorpus <- wordStem(splittedCorpus)  
               object@.Data <- paste(stemmedCorpus, collapse = " ")  
               return (object)  
           })  
   
 setGeneric("removeStopWordsInTextDocument", function(object, stopwords) standardGeneric("removeStopWordsInTextDocument"))  
 setMethod("removeStopWordsInTextDocument",  
           c("PlainTextDocument", "character"),  
           function(object, stopwords) {  
               require(Rstem)  
               splittedCorpus <- unlist(strsplit(object, " ", fixed = TRUE))  
               noStopwordsCorpus <- splittedCorpus[!splittedCorpus %in% stopwords]  
               object@.Data <- paste(noStopwordsCorpus, collapse = " ")  
               return (object)  
           })  
   
 setGeneric("filterTextDocCol", function(object, FUN, ...) standardGeneric("filterTextDocCol"))  
 setMethod("filterTextDocCol",  
           c("TextDocCol"),  
           function(object, FUN, ...) {  
               sapply(object, FUN, ...)  
           })  
   
 setGeneric("filterREUT21578Topics", function(object, topics, ...) standardGeneric("filterREUT21578Topics"))  
 setMethod("filterREUT21578Topics",  
           c("PlainTextDocument", "character"),  
           function(object, topics, ...) {  
               if (object@Cached == 0)  
                   object <- loadFileIntoMem(object)  
   
               if (any(object@LocalMetaData$Topics %in% topics))  
                   return(TRUE)  
               else  
                   return(FALSE)  
           })  
   
 setGeneric("attachData", function(object, data) standardGeneric("attachData"))  
 setMethod("attachData",  
           c("TextDocCol","TextDocument"),  
           function(object, data) {  
               data <- as(list(data), "TextDocCol")  
               object@.Data <- as(c(object@.Data, data), "TextDocCol")  
               return(object)  
           })  
   
 setGeneric("attachMetaData", function(object, name, metadata) standardGeneric("attachMetaData"))  
 setMethod("attachMetaData",  
           c("TextDocCol"),  
           function(object, name, metadata) {  
               object@GlobalMetaData <- c(object@GlobalMetaData, new = list(metadata))  
               names(object@GlobalMetaData)[length(names(object@GlobalMetaData))] <- name  
               return(object)  
           })  

Legend:
Removed from v.52  
changed lines
  Added in v.1419

root@r-forge.r-project.org
ViewVC Help
Powered by ViewVC 1.0.0  
Thanks to:
Vienna University of Economics and Business Powered By FusionForge