source: orange-bioinformatics/Orange/bioinformatics/obiTaxonomy.py @ 1632:9cf919d0f343

Revision 1632:9cf919d0f343, 14.0 KB checked in by mitar, 2 years ago (diff)

Fixing imports.

Line 
1from __future__ import absolute_import, division
2
3from collections import defaultdict
4import cPickle, os, shutil, sys, StringIO, tarfile, urllib2
5
6from Orange.orng import orngEnviron, orngServerFiles
7
8from . import obiData, obiGenomicsUpdate
9
10# list of common organisms from http://www.ncbi.nlm.nih.gov/Taxonomy
11def common_taxids():
12    """Return taxonomy IDs for common organisms."""
13    return ["3702",  # Arabidopsis thaliana
14            "9913",  # Bos taurus
15            "6239",  # Caenorhabditis elegans
16            "3055",  # Chlamydomonas reinhardtii
17            "7955",  # Danio rerio (zebrafish)
18            "352472", # Dictyostelium discoideum
19            "7227",  # Drosophila melanogaster
20            "562",   # Escherichia coli
21            "11103", # Hepatitis C virus
22            "9606",  # Homo sapiens
23            "10090", # Mus musculus
24            "2104",  # Mycoplasma pneumoniae
25            "4530",  # Oryza sativa
26            "5833",  # Plasmodium falciparum
27            "4754",  # Pneumocystis carinii
28            "10116", # Rattus norvegicus
29            "4932",  # Saccharomyces cerevisiae
30            "4896",  # Schizosaccharomyces pombe
31            "31033", # Takifugu rubripes
32            "8355",  # Xenopus laevis
33            "4577",  # Zea mays
34             ] 
35
36def essential_taxids():
37    """Return taxonomy IDs for organisms that are included in (default) Orange Bioinformatics installation."""
38    return ["352472", # Dictyostelium discoideum
39            "7227",  # Drosophila melanogaster
40            "9606",  # Homo sapiens
41            "10090", # Mus musculus
42            "4932",  # Saccharomyces cerevisiae
43            ] 
44
45default_database_path = os.path.join(orngEnviron.bufferDir, "bigfiles", "Taxonomy")
46
47class MultipleSpeciesException(Exception):
48    pass
49
50class UnknownSpeciesIdentifier(Exception):
51    pass
52
53def pickled_cache(filename=None, dependencies=[], version=1, maxSize=30):
54    """ Return a cache function decorator.
55    """
56    def datetime_info(domain, filename):
57        try:
58            return orngServerFiles.info(domain, filename)["datetime"]
59        except IOError:
60            return orngServerFiles.ServerFiles().info(domain, filename)["datetime"]
61           
62    def cached(func):
63        default_filename = os.path.join(orngEnviron.bufferDir, func.__module__ + "_" + func.__name__ + "_cache.pickle")
64        def f(*args, **kwargs):
65            currentVersion = tuple([datetime_info(domain, file) for domain, file in dependencies]) + (version,)
66            try:
67                cachedVersion, cache = cPickle.load(open(filename or default_filename, "rb"))
68                if cachedVersion != currentVersion:
69                    cache = {}
70            except IOError, er:
71                cacheVersion, cache = "no version", {}
72            allArgs = args + tuple([(key, tuple(value) if type(value) in [set, list] else value)\
73                                     for key, value in kwargs.items()])
74            if allArgs in cache:
75                return cache[allArgs]
76            else:
77                res = func(*args, **kwargs)
78                if len(cache) > maxSize:
79                    del cache[iter(cache).next()]
80                cache[allArgs] = res
81                cPickle.dump((currentVersion, cache), open(filename or default_filename, "wb"), protocol=cPickle.HIGHEST_PROTOCOL)
82                return res
83        return f
84
85    return cached
86
87def cached(func):
88    """Cached one arg method
89    """
90    def f(self, arg):
91        if arg not in self._cache:
92            self._cache[arg] = func(self, arg)
93        return self._cache[arg]
94    f._cache = {}
95    f.__name__ = "Cached " + func.__name__
96    return f
97   
98class TextDB(object):
99    entry_start_string = chr(255)
100    entry_end_string = chr(254)+"\n"
101    entry_separator_string = chr(253)
102   
103    @property
104    def _text_lower(self):
105        if id(self._text) == self._lower_text_id:
106            return self._lower_text
107        else:
108            self._lower_text_id = id(self._text)
109            self._lower_text = self._text.lower()
110            return self._lower_text
111       
112    def __init__(self, file=None, **kwargs):
113        self._text = ""
114        self._lower_text_id = id(self._text) - 1
115        self._cache = {}
116        self.__dict__.update(kwargs)
117       
118        if file != None:
119            self._text = open(file, "rb").read()
120
121    def _find_all(self, string, start=0, text=None, unique=True):
122        text = text if text != None else self._text_lower
123        while True:
124            index = text.find(string, start)
125            if index != -1:
126                yield index
127                if unique:
128                    start = text.find(self.entry_start_string, index + 1)
129                else:
130                    start = index + 1
131            else:
132                raise StopIteration
133
134    def _get_entry_at(self, index, text=None):
135        text = text if text != None else self._text
136        start = text.rfind(self.entry_start_string, 0, index + 1)
137        end = text.find(self.entry_end_string, index)
138        return self._text[start+1:end]
139
140    @cached
141    def get_entry(self, id):
142        try:
143            index = self._find_all(self.entry_start_string + id + self.entry_separator_string).next()
144        except StopIteration:
145            raise KeyError, id
146        return self._get_entry_at(index)
147               
148    def search(self, string):
149        string = string.lower()
150        res = []
151        for idx in self._find_all(string):
152            entry = self._get_entry_at(idx)
153            id , rest = entry.split(self.entry_separator_string, 1)
154            self._cache[id] = entry
155            res.append(id)
156        return res
157
158    def insert(self, entry):
159        self._text += self.entry_start_string + self.entry_separator_string.join(entry) + self.entry_end_string
160
161    def __iter__(self):
162        for idx in self._find_all(self.entry_start_string):
163            entry = self._get_entry_at(idx)
164            if entry:
165                yield entry.split(self.entry_separator_string ,1)[0]
166
167    def __getitem__(self, id):
168        entry = self.get_entry(id)
169        return entry.split(self.entry_separator_string)[1:]
170
171    def __setitem__(self, id, entry):
172        self.insert([id] + list(entry))
173
174    def create(self, filename):
175        f = open(filename, "wb")
176        f.write(self._text)
177        def write(entry):
178            f.write(self.entry_start_string + self.entry_separator_string.join(entry) + self.entry_end_string)
179        return write
180   
181class Taxonomy(object):
182    __shared_state = {"_text":None, "_info":None}
183    def __init__(self):
184        self.__dict__ = self.__shared_state
185        if not self._text:
186            self.Load()
187           
188    def Load(self):
189        try:
190            self._text = TextDB(os.path.join(default_database_path, "ncbi_taxonomy.tar.gz", "ncbi_taxonomy.db"))
191            self._info = TextDB(os.path.join(default_database_path, "ncbi_taxonomy.tar.gz", "ncbi_taxonomy_inf.db"))
192            return
193        except Exception, ex:
194            pass
195        try:
196            from . import orngServerFiles as sf
197            sf.download("Taxonomy", "ncbi_taxonomy.tar.gz")
198            self._text = TextDB(os.path.join(default_database_path, "ncbi_taxonomy.tar.gz", "ncbi_taxonomy.db"))
199            self._info = TextDB(os.path.join(default_database_path, "ncbi_taxonomy.tar.gz", "ncbi_taxonomy_inf.db"))
200            return
201        except Exception, ex:
202            raise
203
204    def get_entry(self, id):
205        try:
206            entry = self._text[id]
207        except KeyError:
208            raise UnknownSpeciesIdentifier
209        return entry
210               
211    def search(self, string, onlySpecies=True):
212        res = self._text.search(string)
213        if onlySpecies:
214            res = [r for r in res if "species" in self._text[r][1]]
215        return res
216
217    def __iter__(self):
218        return iter(self._text)
219
220    def __getitem__(self, id):
221        entry = self.get_entry(id)
222        return entry[2] ## item with index 2 is allways scientific name
223
224    def other_names(self, id):
225        entry = self.get_entry(id)
226        info = self._info[id]
227        names = entry[2:] ## index 2 and larger are names
228        return list(zip(names, info))[1:] ## exclude scientific name
229
230    def rank(self, id):
231        entry = self.get_entry(id)
232        return entry[1]
233
234    def parent(self, id):
235        entry = self.get_entry(id)
236        return entry[0]
237
238    def subnodes(self, id, levels=1):
239        res = self._text.search(self._text.entry_separator_string + id + self._text.entry_separator_string)
240        res = [r for r in res if self.get_entry(r)[0] == id]
241        if levels > 1:
242            for r in list(res):
243                res.extend(self.subnodes(r, levels-1))
244        return res
245
246    def taxids(self):
247        return list(self)
248   
249    @staticmethod
250    def ParseTaxdumpFile(file=None, outputdir=None, callback=None):
251        from cStringIO import StringIO
252        if file == None:
253            file = tarfile.open(None, "r:gz", StringIO(urllib2.urlopen("ftp://ftp.ncbi.nih.gov/pub/taxonomy/taxdump.tar.gz").read()))
254        if type(file) == str:
255            file = tarfile.open(file)
256        names = file.extractfile("names.dmp").readlines()
257        nodes = file.extractfile("nodes.dmp").readlines()
258        namesDict = defaultdict(list)
259        for line in names:
260            if not line.strip():
261                continue
262            line = line.rstrip("\t\n|").split("\t|\t")
263            id, name, unique_name, name_class = line
264            if unique_name:
265                namesDict[id].append((unique_name , name_class))
266            else:
267                namesDict[id].append((name , name_class))
268
269        nodesDict = {}
270        for line in nodes:
271            if not line.strip():
272                continue
273            line = line.split("\t|\t")[:3]
274            id, parent, rank = line
275            nodesDict[id] = (parent, rank)
276       
277        name_class_codes = defaultdict(iter(range(255)).next)
278        name_class_codes["scientific name"] ## Force scientific name to be first
279        if outputdir == None:
280            outputdir = default_database_path
281        text = TextDB().create(os.path.join(outputdir, "ncbi_taxonomy.db"))
282        info = TextDB().create(os.path.join(outputdir, "ncbi_taxonomy_inf.db"))
283        milestones = set(range(0, len(namesDict), max(len(namesDict)/100, 1)))
284        for i, (id, names) in enumerate(namesDict.items()):
285            parent, rank = nodesDict[id]
286            ## id, parent and rank go first
287            entry = [id, parent, rank]
288            ## all names and name class codes pairs follow ordered so scientific name is first
289            names = sorted(names, key=lambda (name, class_): name_class_codes[class_])
290            entry.extend([name for name ,class_ in names])
291            info_entry = [id] + [class_ for name, class_ in names]
292            text(entry)
293            info(info_entry)
294            if callback and i in milestones:
295                callback(i)
296   
297def name(taxid):
298    """ Return the scientific name for organism with taxid.
299    """
300    return Taxonomy()[taxid]
301
302def other_names(taxid):
303    """ Return a list of (name, name_type) tuples but exclude the scientific name.
304    """
305    return  Taxonomy().other_names(taxid)
306
307@pickled_cache(None, [("Taxonomy", "ncbi_taxonomy.tar.gz")], version=1)
308def search(string, onlySpecies=True, exact=False):
309    """ Search the NCBI taxonomy database for an organism
310    Arguments::
311            - *string*      Search string
312            - *onlySpecies* Return only taxids of species (and subspecies)
313            - *exact*       Return only taxids of organism that exactly match the string
314    """
315    ids = Taxonomy().search(string, onlySpecies)
316    if exact:
317        ids = [id for id in ids if string in [name(id)] + [t[0] for t in other_names(id)]]
318    return ids
319
320def lineage(taxid):
321    """ Return a list of taxids ordered from the topmost node (root) to taxid.
322    """
323    tax = Taxonomy()
324    result = [taxid]
325    while True:
326        parent = tax.parent(result[-1])
327        result.append(parent)
328        if tax[parent] == "root" or parent=="1":
329            break
330    result.reverse()
331    return result
332   
333def to_taxid(code, mapTo=None):
334    """ See if the code is a valid code in any database and return a set of its taxids.
335    """
336    from . import obiKEGG, obiGO
337    results = set()
338    for test in [obiKEGG.to_taxid, obiGO.to_taxid]:
339        try:
340            r = test(code)
341            if type(r) == set:
342                results.update(r)
343            else:
344                results.add(r)
345        except Exception, ex:
346            pass
347
348    if mapTo:
349        mapped = [[parent_id for parent_id in mapTo if parent_id in lineage(r)].pop() for r in results if any(parent_id in lineage(r) for parent_id in mapTo)]
350        if not mapped:
351            t = Taxonomy()
352            subnodes = dict([(r, t.subnodes(r, 4)) for r in results])
353            mapped = [id for id in mapTo if any(id in subnodes[r] for r in results)]
354        results = mapped
355
356    return results
357
358def taxids():
359    return Taxonomy().taxids()
360
361from . import obiGenomicsUpdate
362
363class Update(obiGenomicsUpdate.Update):
364    def GetDownloadable(self):
365        return [Update.UpdateTaxonomy]
366   
367    def IsUpdatable(self, func, args):
368        from datetime import datetime
369        from . import obiData
370        if func == Update.UpdateTaxonomy:
371##            stream = urllib2.urlopen("ftp://ftp.ncbi.nih.gov/pub/taxonomy/taxdump.tar.gz")
372##            date = datetime.strptime(stream.headers.get("Last-Modified"), "%a, %d %b %Y %H:%M:%S %Z")
373            ftp = obiData.FtpWorker("ftp.ncbi.nih.gov")
374            size, date = ftp.statFtp("pub/taxonomy/taxdump.tar.gz")
375            return date > self.GetLastUpdateTime(func, args)
376
377    def UpdateTaxonomy(self):
378        Taxonomy.ParseTaxdumpFile(outputdir=self.local_database_path)
379        import tarfile
380        tFile = tarfile.open(os.path.join(self.local_database_path, "ncbi_taxonomy.tar.gz"), "w:gz")
381        tFile.add(os.path.join(self.local_database_path, "ncbi_taxonomy.db"), "ncbi_taxonomy.db")
382        tFile.add(os.path.join(self.local_database_path, "ncbi_taxonomy_inf.db"), "ncbi_taxonomy_inf.db")
383        tFile.close()
384
385if __name__ == "__main__":
386    ids = search("Homo sapiens")
387    print ids
388    print other_names(ids[0])
389   
Note: See TracBrowser for help on using the repository browser.