source: orange/Orange/data/io.py @ 10899:43a6df7713f1

Revision 10899:43a6df7713f1, 36.0 KB checked in by mitar, 23 months ago (diff)

Be more robust in handling search paths hook.

Line 
1"""\
2*****************
3Data I/O (``io``)
4*****************
5
6Import/Export
7=============
8
9This module contains the functions for importing and exporting Orange
10data tables from/to different file formats. This works by associating
11a filename extension with a set of loading/saving functions using
12:obj:`register_file_type`.
13
14Support for some formats is already implemented: 
15   
16    - Weka `.arff` format
17    - C4.5 `.data/.names` format
18    - LibSVM data format
19    - R `.R` data frame source (export only)
20
21
22.. function:: register_file_type(format_name, load_func, save_func, extension)
23
24    Register the ``save_func``, ``load_func`` pair for the
25    ``format_name``. The format is identified by the ``extension``.
26   
27    :param format_name: the name of the format.
28    :type format_name: str
29   
30    :param load_func: a function used for loading the data (see
31        :ref:`custom-formats` for details)
32    :type load_func: function
33   
34    :param save_func: a function used for saving the data (see
35        :ref:`custom-formats` for details)
36    :type save_func: function
37   
38    :param extension: the file extension associated with this format
39        (e.g. '.myformat'). This can be a list of extension if the
40        format uses multiple extensions (for instance the
41        `.data` and `.names` file pairs in the C4.5 format)
42   
43    Example from the :obj:`~Orange.data.io` module that registers the Weka .arff
44    format ::
45       
46        register_file_type("Weka", load_ARFF, to_ARFF, ".arff")
47       
48``load_func`` or ``save_func`` can be None, indicating that the
49corresponding functionality is not supported.
50 
51Loading and saving from/to custom formats then works the same way as
52the standard Orange `.tab` file but with a different filename
53extension. ::
54
55    >>> import Orange
56    >>> data = Orange.data.Table("iris.arff")
57    >>> data.save("Copy of iris.arff")
58 
59   
60
61.. _custom-formats:
62
63Implementing custom import/export functions.
64--------------------------------------------
65
66The signature for the custom load functions should be
67
68``load_myformat(filename, create_new_on=Orange.feature.Descriptor.MakeStatus.NoRecognizedValues, **kwargs)``
69   
70When constructing variables :obj:`Orange.feature.Descriptor.make` should
71be used with the ``create_new_on`` parameter.
72:obj:`~Orange.feature.Descriptor.make` will return an attribute and the
73status of the variable, telling whether a new attribute was created
74or the old one reused and why (see :mod:`Orange.feature`).
75Additional keyword arguments can be provided in the call to
76:obj:`~Orange.data.Table` constructor. These will be passed in the
77``**kwargs``.
78The function should return the build :obj:`~Orange.data.Table` object.
79For examples see the source code for the ``Orange.data.io`` module
80
81The save function is easier to implement.
82
83``save_myformat(filename, table, **kwargs)``
84
85Similar as above the ``**kwargs`` contains any additional arguments
86:obj:`~Orange.data.Table.save`.
87 
88"""
89import os
90import warnings
91
92import Orange
93import Orange.feature
94import Orange.misc
95from Orange.core import \
96     BasketFeeder, FileExampleGenerator, BasketExampleGenerator, \
97     C45ExampleGenerator, TabDelimExampleGenerator, \
98     registerFileType as register_file_type
99
100import Orange.feature as variable
101from Orange.feature import Descriptor
102MakeStatus = Orange.feature.Descriptor.MakeStatus
103make = Orange.feature.Descriptor.make
104
105def loadARFF(filename, create_on_new=MakeStatus.Incompatible, **kwargs):
106    """Return class:`Orange.data.Table` containing data from file in Weka ARFF format
107       if there exists no .xml file with the same name. If it does, a multi-label
108       dataset is read and returned.
109    """
110    if filename[-5:] == ".arff":
111        filename = filename[:-5]
112    if os.path.exists(filename + ".xml") and os.path.exists(filename + ".arff"):
113        xml_name = filename + ".xml"
114        arff_name = filename + ".arff"
115        return Orange.multilabel.mulan.trans_mulan_data(xml_name, arff_name, create_on_new)
116    else:
117        return loadARFF_Weka(filename, create_on_new)
118
119def loadARFF_Weka(filename, create_on_new=MakeStatus.Incompatible, **kwargs):
120    """Return class:`Orange.data.Table` containing data from file in Weka ARFF format"""
121    if not os.path.exists(filename) and os.path.exists(filename + ".arff"):
122        filename = filename + ".arff"
123    f = open(filename, 'r')
124
125    attributes = []
126    attributeLoadStatus = []
127
128    name = ''
129    state = 0 # header
130    data = []
131    for l in f.readlines():
132        l = l.rstrip("\n") # strip \n
133        l = l.replace('\t', ' ') # get rid of tabs
134        x = l.split('%')[0] # strip comments
135        if len(x.strip()) == 0:
136            continue
137        if state == 0 and x[0] != '@':
138            print "ARFF import ignoring:", x
139        if state == 1:
140            if x[0] == '{':#sparse data format, begin with '{', ends with '}'
141                r = [None] * len(attributes)
142                dd = x[1:-1]
143                dd = dd.split(',')
144                for xs in dd:
145                    y = xs.split(" ")
146                    if len(y) <> 2:
147                        raise ValueError("the format of the data is error")
148                    r[int(y[0])] = y[1]
149                data.append(r)
150            else:#normal data format, split by ','
151                dd = x.split(',')
152                r = []
153                for xs in dd:
154                    y = xs.strip(" ")
155                    if len(y) > 0:
156                        if y[0] == "'" or y[0] == '"':
157                            r.append(xs.strip("'\""))
158                        else:
159                            ns = xs.split()
160                            for ls in ns:
161                                if len(ls) > 0:
162                                    r.append(ls)
163                    else:
164                        r.append('?')
165                data.append(r[:len(attributes)])
166        else:
167            y = []
168            for cy in x.split(' '):
169                if len(cy) > 0:
170                    y.append(cy)
171            if str.lower(y[0][1:]) == 'data':
172                state = 1
173            elif str.lower(y[0][1:]) == 'relation':
174                name = str.strip(y[1])
175            elif str.lower(y[0][1:]) == 'attribute':
176                if y[1][0] == "'":
177                    atn = y[1].strip("' ")
178                    idx = 1
179                    while y[idx][-1] != "'":
180                        idx += 1
181                        atn += ' ' + y[idx]
182                    atn = atn.strip("' ")
183                else:
184                    atn = y[1]
185                z = x.split('{')
186                w = z[-1].split('}')
187                if len(z) > 1 and len(w) > 1:
188                    # there is a list of values
189                    vals = []
190                    for y in w[0].split(','):
191                        sy = y.strip(" '\"")
192                        if len(sy) > 0:
193                            vals.append(sy)
194                    a, s = make(atn, Orange.feature.Type.Discrete, vals, [], create_on_new)
195                else:
196                    # real...
197                    a, s = make(atn, Orange.feature.Type.Continuous, [], [], create_on_new)
198
199                attributes.append(a)
200                attributeLoadStatus.append(s)
201    # generate the domain
202    d = Orange.data.Domain(attributes)
203    lex = []
204    for dd in data:
205        e = Orange.data.Instance(d, dd)
206        lex.append(e)
207    t = Orange.data.Table(d, lex)
208    t.name = name
209
210    #if hasattr(t, "attribute_load_status"):
211    t.setattr("attribute_load_status", attributeLoadStatus)
212    return t
213loadARFF = Orange.utils.deprecated_keywords(
214{"createOnNew": "create_on_new"}
215)(loadARFF)
216
217
218def toARFF(filename, table, try_numericize=0):
219    """Save class:`Orange.data.Table` to file in Weka's ARFF format"""
220    t = table
221    if filename[-5:] == ".arff":
222        filename = filename[:-5]
223    #print filename
224    f = open(filename + '.arff', 'w')
225    f.write('@relation %s\n' % t.domain.classVar.name)
226    # attributes
227    ats = [i for i in t.domain.attributes]
228    ats.append(t.domain.classVar)
229    for i in ats:
230        real = 1
231        if i.varType == 1:
232            if try_numericize:
233                # try if all values numeric
234                for j in i.values:
235                    try:
236                        x = float(j)
237                    except:
238                        real = 0 # failed
239                        break
240            else:
241                real = 0
242        iname = str(i.name)
243        if iname.find(" ") != -1:
244            iname = "'%s'" % iname
245        if real == 1:
246            f.write('@attribute %s real\n' % iname)
247        else:
248            f.write('@attribute %s { ' % iname)
249            x = []
250            for j in i.values:
251                s = str(j)
252                if s.find(" ") == -1:
253                    x.append("%s" % s)
254                else:
255                    x.append("'%s'" % s)
256            for j in x[:-1]:
257                f.write('%s,' % j)
258            f.write('%s }\n' % x[-1])
259
260    # examples
261    f.write('@data\n')
262    for j in t:
263        x = []
264        for i in range(len(ats)):
265            s = str(j[i])
266            if s.find(" ") == -1:
267                x.append("%s" % s)
268            else:
269                x.append("'%s'" % s)
270        for i in x[:-1]:
271            f.write('%s,' % i)
272        f.write('%s\n' % x[-1])
273
274def loadMULAN(filename, create_on_new=MakeStatus.Incompatible, **kwargs):
275    """Return class:`Orange.data.Table` containing data from file in Mulan ARFF and XML format"""
276    if filename[-4:] == ".xml":
277        filename = filename[:-4]
278    if os.path.exists(filename + ".xml") and os.path.exists(filename + ".arff"):
279        xml_name = filename + ".xml"
280        arff_name = filename + ".arff"
281        return Orange.multilabel.mulan.trans_mulan_data(xml_name, arff_name)
282    else:
283        return None
284loadARFF = Orange.utils.deprecated_keywords(
285{"createOnNew": "create_on_new"}
286)(loadARFF)
287
288def toC50(filename, table, try_numericize=0):
289    """Save class:`Orange.data.Table` to file in C50 format"""
290    t = table
291    # export names
292#    basename = os.path.basename(filename)
293    filename_prefix, ext = os.path.splitext(filename)
294    f = open('%s.names' % filename_prefix, 'w')
295    f.write('%s.\n\n' % t.domain.class_var.name)
296    # attributes
297    ats = [i for i in t.domain.attributes]
298    ats.append(t.domain.classVar)
299    for i in ats:
300        real = 1
301        # try if real
302        if i.varType == Orange.core.VarTypes.Discrete:
303            if try_numericize:
304                # try if all values numeric
305                for j in i.values:
306                    try:
307                        x = float(j)
308                    except Exception:
309                        real = 0 # failed
310                        break
311            else:
312                real = 0
313        if real == 1:
314            f.write('%s: continuous.\n' % i.name)
315        else:
316            f.write('%s: ' % i.name)
317            x = []
318            for j in i.values:
319                x.append('%s' % j)
320            for j in x[:-1]:
321                f.write('%s,' % j)
322            f.write('%s.\n' % x[-1])
323    # examples
324    f.close()
325
326    f = open('%s.data' % filename_prefix, 'w')
327    for j in t:
328        x = []
329        for i in range(len(ats)):
330            x.append('%s' % j[i])
331        for i in x[:-1]:
332            f.write('%s,' % i)
333        f.write('%s\n' % x[-1])
334
335def toR(filename, t):
336    """Save class:`Orange.data.Table` to file in R format"""
337    if str.upper(filename[-2:]) == ".R":
338        filename = filename[:-2]
339    f = open(filename + '.R', 'w')
340
341    atyp = []
342    aord = []
343    labels = []
344    as0 = []
345    for a in t.domain.variables:
346        as0.append(a)
347#    as0.append(t.domain.class_var)
348    for a in as0:
349        labels.append(str(a.name))
350        atyp.append(a.var_type)
351        aord.append(a.ordered)
352
353    f.write('data <- data.frame(\n')
354    for i in xrange(len(labels)):
355        if atyp[i] == 2: # continuous
356            f.write('"%s" = c(' % (labels[i]))
357            for j in xrange(len(t)):
358                if t[j][i].isSpecial():
359                    f.write('NA')
360                else:
361                    f.write(str(t[j][i]))
362                if (j == len(t) - 1):
363                    f.write(')')
364                else:
365                    f.write(',')
366        elif atyp[i] == 1: # discrete
367            if aord[i]: # ordered
368                f.write('"%s" = ordered(' % labels[i])
369            else:
370                f.write('"%s" = factor(' % labels[i])
371            f.write('levels=c(')
372            for j in xrange(len(as0[i].values)):
373                f.write('"x%s"' % (as0[i].values[j]))
374                if j == len(as0[i].values) - 1:
375                    f.write('),c(')
376                else:
377                    f.write(',')
378            for j in xrange(len(t)):
379                if t[j][i].isSpecial():
380                    f.write('NA')
381                else:
382                    f.write('"x%s"' % str(t[j][i]))
383                if (j == len(t) - 1):
384                    f.write('))')
385                else:
386                    f.write(',')
387        else:
388            raise "Unknown attribute type."
389        if (i < len(labels) - 1):
390            f.write(',\n')
391    f.write(')\n')
392
393
394def toLibSVM(filename, example):
395    """Save class:`Orange.data.Table` to file in LibSVM format"""
396    import Orange.classification.svm
397    Orange.classification.svm.tableToSVMFormat(example, open(filename, "wb"))
398
399
400@Orange.utils.deprecated_keywords({"createOnNew": "create_on_new"})
401def loadLibSVM(filename, create_on_new=MakeStatus.Incompatible, **kwargs):
402    """Return class:`Orange.data.Table` containing data from file in LibSVM format"""
403    attributeLoadStatus = {}
404    def make_float(name):
405        attr, s = Orange.feature.Descriptor.make(name, Orange.feature.Type.Continuous, [], [], create_on_new)
406        attributeLoadStatus[attr] = s
407        return attr
408
409    def make_disc(name, unordered):
410        attr, s = Orange.feature.Descriptor.make(name, Orange.feature.Type.Discrete, [], unordered, create_on_new)
411        attributeLoadStatus[attr] = s
412        return attr
413
414    data = [line.split() for line in open(filename, "rb").read().splitlines() if line.strip()]
415    vars = type("attr", (dict,), {"__missing__": lambda self, key: self.setdefault(key, make_float(key))})()
416    item = lambda i, v: (vars[i], vars[i](v))
417    values = [dict([item(*val.split(":"))  for val in ex[1:]]) for ex in data]
418    classes = [ex[0] for ex in data]
419    disc = all(["." not in c for c in classes])
420    attributes = sorted(vars.values(), key=lambda var: int(var.name))
421    classVar = make_disc("class", sorted(set(classes))) if disc else make_float("target")
422    attributeLoadStatus = [attributeLoadStatus[attr] for attr in attributes] + \
423                          [attributeLoadStatus[classVar]]
424    domain = Orange.data.Domain(attributes, classVar)
425    table = Orange.data.Table([Orange.data.Instance(domain, [ex.get(attr, attr("?")) for attr in attributes] + [c]) for ex, c in zip(values, classes)])
426    table.setattr("attribute_load_status", attributeLoadStatus)
427    return table
428
429
430"""\
431A general CSV file reader.
432--------------------------
433
434Currently not yet documented and not registered (needs testing).
435
436"""
437
438def split_escaped_str(str, split_str=" ", escape="\\"):
439    res = []
440    index = 0
441    start = 0
442    find_start = 0
443    while index != -1:
444        index = str.find(split_str, find_start)
445        if index != -1 and index > 0:
446            if str[index - 1] == escape: # Skip the escaped split_str
447                find_start = index + 1
448            else:
449                res.append(str[start:index])
450                start = find_start = index + 1
451
452        elif index == -1:
453            res.append(str[start:])
454    return [r.replace(escape + split_str, split_str) for r in res]
455
456def is_standard_var_def(cell):
457    """Is the cell a standard variable definition (empty, cont, disc, string)
458    """
459    try:
460        var_type(cell)
461        return True
462    except ValueError, ex:
463        return False
464
465def is_var_types_row(row):
466    """ Is the row a variable type definition row (as in the orange .tab file)
467    """
468    return all(map(is_standard_var_def, row))
469
470def var_type(cell):
471    """ Return variable type from a variable type definition in cell.
472    """
473    if cell in ["c", "continuous"]:
474        return variable.Continuous
475    elif cell in ["d", "discrete"]:
476        return variable.Discrete
477    elif cell in ["s", "string"]:
478        return variable.String
479    elif cell.startswith("pyhton"):
480        return variable.Python
481    elif cell == "":
482        return variable.Descriptor
483    elif len(split_escaped_str(cell, " ")) > 1:
484        return variable.Discrete, split_escaped_str(cell, " ")
485    else:
486        raise ValueError("Unknown variable type definition %r." % cell)
487
488def var_types(row):
489    """ Return variable types from row.
490    """
491    return map(var_type, row)
492
493def is_var_attributes_row(row):
494    """ Is the row an attribute definition row (i.e. the third row in the
495    standard orange .tab file format).
496   
497    """
498    return all(map(is_var_attributes_def, row))
499
500def is_var_attributes_def(cell):
501    """ Is the cell a standard variable attributes definition.
502    """
503    try:
504        var_attribute(cell)
505        return True
506    except ValueError, ex:
507        raise
508        return False
509
510def _var_attribute_label_parse(cell):
511    """
512    """
513    key_value = split_escaped_str(cell, "=")
514    if len(key_value) == 2:
515        return tuple(key_value)
516    else:
517        raise ValueError("Invalid attribute label definition %r." % cell)
518
519def var_attribute(cell):
520    """ Return variable specifier ("meta" or "class" or None) and attributes
521    labels dict.
522    """
523    items = split_escaped_str(cell, " ")
524    if cell == "":
525        return None, {}
526    elif items:
527        specifier = None
528        if items[0] in ["m", "meta"]:
529            specifier = "meta"
530            items = items[1:]
531        elif items[0] == "class":
532            specifier = "class"
533            items = items[1:]
534        elif items[0] == "multiclass":
535            specifier = "multiclass"
536            items = items[1:]
537        elif items[0] in ["i", "ignore"]:
538            specifier = "ignore"
539            items = items[1:]
540        return specifier, dict(map(_var_attribute_label_parse, items))
541    else:
542        raise ValueError("Unknown attribute label definition")
543
544def var_attributes(row):
545    """ Return variable specifiers and label definitions for row.
546    """
547    return map(var_attribute, row)
548
549
550class _var_placeholder(object):
551    """ A place holder for an arbitrary variable while it's values are still unknown.
552    """
553    def __init__(self, name="", values=[]):
554        self.name = name
555        self.values = set(values)
556
557class _disc_placeholder(_var_placeholder):
558    """ A place holder for discrete variables while their values are not yet known.
559    """
560    pass
561
562def is_val_cont(cell):
563    """ Is cell a string representing a real value.
564    """
565    try:
566        float(cell)
567        return True
568    except ValueError:
569        return False
570
571def is_variable_cont(values, n=None, cutoff=0.5):
572    """ Is variable with ``values`` in column (``n`` rows) a continuous variable.
573    """
574    cont = sum(map(is_val_cont, values)) or 1e-30
575    if n is None:
576        n = len(values) or 1
577    return (float(cont) / n) >= cutoff
578
579
580def is_variable_discrete(values, n=None, cutoff=0.3):
581    """ Is variable with ``values`` in column (``n`` rows) a discrete variable.
582    """
583    return not is_variable_cont(values, n, cutoff=1.0 - cutoff)
584
585def is_variable_string(values, n=None, cutuff=0.75):
586    """ Is variable with ``values`` in column (``n`` rows) a string variable.
587    """
588    if n is None:
589        n = len(values)
590    return float(len(set(values))) / (n or 1.0) > cutoff
591
592def load_csv(file, create_new_on=MakeStatus.Incompatible, 
593             delimiter=None, quotechar=None, escapechar=None,
594             skipinitialspace=None, has_header=None, 
595             has_types=None, has_annotations=None, DK=None, **kwargs):
596    """ Load an Orange.data.Table from s csv file.
597    """
598    import csv, numpy
599    file = as_open_file(file, "rb")
600    snifer = csv.Sniffer()
601    sample = file.read(5 * 2 ** 20) # max 5MB sample TODO: What if this is not enough. Try with a bigger sample
602    dialect = snifer.sniff(sample)
603   
604    if has_header is None:
605        has_header = snifer.has_header(sample)
606   
607    file.seek(0) # Rewind
608   
609    def kwparams(**kwargs):
610        """Return not None kwargs.
611        """
612        return dict([(k, v) for k, v in kwargs.items() if v is not None])
613   
614    fmtparam = kwparams(delimiter=delimiter,
615                        quotechar=quotechar,
616                        escapechar=escapechar,
617                        skipinitialspace=skipinitialspace)
618   
619    reader = csv.reader(file, dialect=dialect,
620                        **fmtparam)
621
622    header = types = var_attrs = None
623
624    row = first_row = reader.next()
625   
626    if has_header:
627        header = row
628        # Eat this row and move to the next
629        row = reader.next()
630
631    # Guess types row
632    if has_types is None:
633        has_types = has_header and is_var_types_row(row)
634       
635    if has_types:
636        types = var_types(row)
637        # Eat this row and move to the next
638        row = reader.next()
639
640    # Guess variable annotations row
641    if has_annotations is None:
642        has_annotations = has_header and has_types and \
643                          is_var_attributes_row(row)
644       
645    if has_annotations:
646        labels_row = row
647        var_attrs = var_attributes(row)
648        # Eat this row and move to the next
649        row = reader.next()
650
651    if not header:
652        # Create a default header
653        header = ["F_%i" % i for i in range(len(first_row))]
654       
655    if not types:
656        # Create blank variable types
657        types = [None] * len(header)
658       
659    if not var_attrs:
660        # Create blank variable attributes
661        var_attrs = [None] * len(header)
662
663    # start from the beginning
664    file.seek(0)
665    reader = csv.reader(file, dialect=dialect, **fmtparam)
666   
667    for defined in [has_header, has_types, has_annotations]:
668        if defined: 
669            # skip definition rows if present in the file
670            reader.next()
671   
672    variables = []
673    undefined_vars = []
674    # Missing value flags
675    missing_flags = DK.split(",") if DK is not None else ["?", "", "NA", "~", "*"]
676    missing_map = dict.fromkeys(missing_flags, "?")
677    missing_translate = lambda val: missing_map.get(val, val)
678   
679    # Create domain variables or corresponding place holders
680    for i, (name, var_t) in enumerate(zip(header, types)):
681        if var_t == variable.Discrete:
682            # We do not have values yet
683            variables.append(_disc_placeholder(name))
684            undefined_vars.append((i, variables[-1]))
685        elif var_t == variable.Continuous:
686            variables.append(make(name, Orange.feature.Type.Continuous, [], [], create_new_on))
687        elif var_t == variable.String:
688            variables.append(make(name, Orange.feature.Type.String, [], [], create_new_on))
689        elif var_t == variable.Python:
690            variables.append(variable.Python(name))
691        elif isinstance(var_t, tuple):
692            var_t, values = var_t
693            if var_t == variable.Discrete:
694                # We have values for discrete variable
695                variables.append(make(name, Orange.feature.Type.Discrete, values, [], create_new_on))
696            elif var_t == variable.Python:
697                # Python variables are not supported yet
698                raise NotImplementedError()
699        elif var_t is None:
700            # Unknown variable type, to be deduced at the end
701            variables.append(_var_placeholder(name))
702            undefined_vars.append((i, variables[-1]))
703
704    data = []
705    # Read all the rows
706    for row in reader:
707        # check for final newline.
708        if row:
709            row = map(missing_translate, row)
710            data.append(row)
711            # For undefined variables collect all their values
712            for ind, var_def in undefined_vars:
713                var_def.values.add(row[ind])
714   
715    # Process undefined variables now that we can deduce their type
716    for ind, var_def in undefined_vars:
717        values = var_def.values - set(["?", ""]) # TODO: Other unknown strings?
718        values = sorted(values)
719        if isinstance(var_def, _disc_placeholder):
720            variables[ind] = make(var_def.name, Orange.feature.Type.Discrete, [], values, create_new_on)
721        elif isinstance(var_def, _var_placeholder):
722            if is_variable_cont(values, cutoff=1.0):
723                variables[ind] = make(var_def.name, Orange.feature.Type.Continuous, [], [], create_new_on)
724            elif is_variable_discrete(values, cutoff=0.0):
725                variables[ind] = make(var_def.name, Orange.feature.Type.Discrete, [], values, create_new_on)
726            elif is_variable_string(values):
727                variables[ind] = make(var_def.name, Orange.feature.Type.String, [], [], create_new_on)
728            else:
729                # Treat it as a string anyway
730                variables[ind] = make(var_def.name, Orange.feature.Type.String, [], [], create_new_on)
731
732    attribute_load_status = []
733    meta_attribute_load_status = {}
734    class_var_load_status = []
735    multiclass_var_load_status = []
736
737    attributes = []
738    class_var = []
739    class_vars = []
740    metas = {}
741    attribute_indices = []
742    variable_indices = []
743    class_indices = []
744    multiclass_indices = []
745    meta_indices = []
746    ignore_indices = []
747    for i, ((var, status), var_attr) in enumerate(zip(variables, var_attrs)):
748        if var_attr:
749            flag, attrs = var_attr
750            if flag == "class":
751                class_var.append(var)
752                class_var_load_status.append(status)
753                class_indices.append(i)
754            elif flag == "multiclass":
755                class_vars.append(var)
756                multiclass_var_load_status.append(status)
757                multiclass_indices.append(i)
758            elif flag == "meta":
759                mid = Orange.feature.Descriptor.new_meta_id()
760                metas[mid] = var
761                meta_attribute_load_status[mid] = status
762                meta_indices.append((i, var))
763            elif flag == "ignore":
764                ignore_indices.append(i)
765            else:
766                attributes.append(var)
767                attribute_load_status.append(status)
768                attribute_indices.append(i)
769            var.attributes.update(attrs)
770        else:
771            attributes.append(var)
772            attribute_load_status.append(status)
773            attribute_indices.append(i)
774
775    if len(class_var) > 1:
776        raise ValueError("Multiple class variables defined")
777    if class_var and class_vars:
778        raise ValueError("Both 'class' and 'multiclass' used.")
779
780    class_var = class_var[0] if class_var else None
781   
782    attribute_load_status += class_var_load_status
783    variable_indices = attribute_indices + class_indices
784    domain = Orange.data.Domain(attributes, class_var, class_vars=class_vars)
785    domain.add_metas(metas)
786    normal = [[row[i] for i in variable_indices] for row in data]
787    meta_part = [[row[i] for i, _ in meta_indices] for row in data]
788    multiclass_part = [[row[i] for i in multiclass_indices] for row in data]
789    table = Orange.data.Table(domain, normal)
790    for ex, m_part, mc_part in zip(table, meta_part, multiclass_part):
791        for (column, var), val in zip(meta_indices, m_part):
792            ex[var] = var(val)
793        if mc_part:
794            ex.set_classes(mc_part)
795
796    table.setattr("metaAttributeLoadStatus", meta_attribute_load_status)
797    table.setattr("attributeLoadStatus", attribute_load_status)
798
799    return table
800
801def as_open_file(file, mode="rb"):
802    if isinstance(file, basestring):
803        file = open(file, mode)
804    else: # assuming it is file like with proper mode, could check for write, read
805        pass
806    return file
807
808def save_csv(file, table, orange_specific=True, **kwargs):
809    import csv
810    file = as_open_file(file, "wb")
811    writer = csv.writer(file, **kwargs)
812    attrs = table.domain.attributes
813    class_var = table.domain.class_var
814    metas = [v for _, v in sorted(table.domain.get_metas().items(),
815                                  reverse=True)]
816    all_vars = attrs + ([class_var] if class_var else []) + metas
817    names = [v.name for v in all_vars]
818    writer.writerow(names)
819
820    if orange_specific:
821        type_cells = []
822        for v in all_vars:
823            if isinstance(v, variable.Discrete):
824                escaped_values = [val.replace(" ", r"\ ") for val in v.values]
825                type_cells.append(" ".join(escaped_values))
826            elif isinstance(v, variable.Continuous):
827                type_cells.append("continuous")
828            elif isinstance(v, variable.String):
829                type_cells.append("string")
830            elif isinstance(v, variable.Python):
831                type_cells.append("python")
832            else:
833                raise TypeError("Unknown variable type")
834        writer.writerow(type_cells)
835
836        var_attr_cells = []
837        for spec, var in [("", v) for v in attrs] + \
838                         ([("class", class_var)] if class_var else []) + \
839                         [("m", v) for v in metas]:
840
841            labels = ["{0}={1}".format(*t) for t in var.attributes.items()] # TODO escape spaces
842            var_attr_cells.append(" ".join([spec] if spec else [] + labels))
843
844        writer.writerow(var_attr_cells)
845
846    for instance in table:
847        instance = list(instance) + [instance[m] for m in metas]
848        writer.writerow(instance)
849
850
851register_file_type("R", None, toR, ".R")
852register_file_type("Weka", loadARFF, toARFF, ".arff")
853register_file_type("Mulan", loadMULAN, None, ".xml")
854#registerFileType("C50", None, toC50, [".names", ".data", ".test"])
855register_file_type("libSVM", loadLibSVM, toLibSVM, ".svm")
856
857registerFileType = Orange.utils.deprecated_function_name(register_file_type)
858
859__doc__ +=  \
860"""\
861Search Paths
862============
863
864Associate a prefix with a search path for easier data loading.
865The paths can be stored in a user specific configuration file.
866
867.. note: The '' (empty string) prefix can be used to add search paths
868         to the default search path.
869
870.. note: Add-ons can register their search paths using
871        'orange.data.io.search_paths' entry point
872
873Example
874
875    >>> import Orange, os
876    >>> from Orange.data import io
877    >>> directory = os.path.expanduser("~/Documents/My Datasets"))
878    >>> io.set_search_path("my_datasets", directory, persistent=True)
879    >>> data = Orange.data.Table("my_datasets:dataset1.tab")
880    >>> # Add directory to the default search path
881    >>> io.set_search_path("", directory)
882    >>> data = Orange.data.Table("dataset1.tab")
883
884
885.. autofunction:: set_search_path
886
887.. autofunction:: search_paths
888
889.. autofunction:: persistent_search_paths
890
891.. autofunction:: find_file
892
893.. autofunction:: expand_filename
894
895"""
896
897
898# Non-persistent registered paths
899_session_paths = []
900
901import ConfigParser
902from ConfigParser import SafeConfigParser
903
904DATA_PATHS_ENTRY_POINT = "orange.data.io.search_paths"
905
906
907def addon_data_search_paths():
908    """Return the search paths registered by setuptools
909    'orange.data.io.search_paths' entry point.
910
911    """
912    import pkg_resources
913    search_paths = []
914    for entry_point in pkg_resources.iter_entry_points(DATA_PATHS_ENTRY_POINT):
915        try:
916            call = entry_point.load()
917            paths = call()
918            for path in paths:
919                if isinstance(path, tuple) and len(path) == 2 and \
920                        all(isinstance(p, basestring) for p in path):
921                    search_paths.append(path)
922                elif isinstance(path, basestring):
923                    search_paths.append(("", path))
924                else:
925                    warnings.warn("Invalid search path %r. Expected tuple or "
926                                  "string, got %r" % (entry_point, type(path)))
927        except pkg_resources.DistributionNotFound, ex:
928            warnings.warn("Missing dependency for %r: %r" % (entry_point, ex),
929                         UserWarning)
930        except Exception, ex:
931            warnings.warn("Error calling %r: %r" % (entry_point, ex),
932                         UserWarning)
933    return search_paths
934
935
936@Orange.utils.lru_cache(maxsize=1)
937def persistent_search_paths():
938    """Return a list of persistent registered (prefix, path) pairs.
939    """
940
941    global_settings_dir = Orange.utils.environ.install_dir
942    user_settings_dir = Orange.utils.environ.orange_settings_dir
943    parser = SafeConfigParser()
944    parser.read([os.path.join(global_settings_dir, "orange-search-paths.cfg"),
945                 os.path.join(user_settings_dir, "orange-search-paths.cfg")])
946    try:
947        items = parser.items("paths")
948        defaults = parser.defaults().items()
949        items = [i for i in items if i not in defaults]
950    except ConfigParser.NoSectionError:
951        items = []
952    # Replace "__default__" prefix with ""
953    items = [item if item[0] != "__default__" else ("", item[1]) \
954             for item in items]
955    return items
956
957
958def save_persistent_search_path(prefix, path):
959    """Save the prefix, path pair. If path is None delete the
960    registered prefix.
961
962    """
963    if isinstance(path, list):
964        path = os.path.pathsep.join(path)
965
966    if prefix == "":
967        # Store "" prefix as "__default__"
968        prefix = "__default__"
969
970    user_settings_dir = Orange.utils.environ.orange_settings_dir
971    if not os.path.exists(user_settings_dir):
972        try:
973            os.makedirs(user_settings_dir)
974        except OSError:
975            pass
976
977    filename = os.path.join(user_settings_dir, "orange-search-paths.cfg")
978    parser = SafeConfigParser()
979    parser.read([filename])
980
981    if not parser.has_section("paths"):
982        parser.add_section("paths")
983
984    if path is not None:
985        parser.set("paths", prefix, path)
986    elif parser.has_option("paths", prefix):
987        # Remove the registered prefix
988        parser.remove_option("paths", prefix)
989    parser.write(open(filename, "wb"))
990
991
992def search_paths(prefix=None):
993    """Return the search path for `prefix`. The search path is
994    the union of registered session paths, user specified persistent
995    search paths and any search paths registered by
996    'orange.data.io.search_path' `pkg_resources` entry points.
997
998    """
999    persistent_paths = persistent_search_paths()
1000    addon_paths = addon_data_search_paths()
1001    paths = _session_paths + persistent_paths + addon_paths
1002    if prefix is not None:
1003        ppaths = []
1004        for pref, path in paths:
1005            if pref == prefix:
1006                ppaths.extend(path.split(os.path.pathsep))
1007        return os.path.pathsep.join(ppaths)
1008    else:
1009        return paths
1010
1011
1012def set_search_path(prefix, path, persistent=False):
1013    """Associate a search path with a prefix.
1014
1015    :param prefix: a prefix
1016    :type prefix: str
1017
1018    :param path: search path (can also be a list of path strings)
1019    :type paths: str
1020
1021    :param persistent: if `True` then the (prefix, path) pair will be
1022        saved between sessions (default False).
1023    :type persistent: bool
1024
1025    """
1026    global _session_paths
1027
1028    if isinstance(path, list):
1029        path = os.path.pathsep.join(path)
1030
1031    if persistent:
1032        save_persistent_search_path(prefix, path)
1033        # Invalidate the persistent_search_paths cache.
1034        persistent_search_paths.clear()
1035    else:
1036        _session_paths.append((prefix, path))
1037
1038
1039def expand_filename(prefixed_name):
1040    """Expand the prefixed filename with the full path.
1041
1042        >>> from Orange.data import io
1043        >>> io.set_search_paths("docs", "/Users/aleserjavec/Documents")
1044        >>> io.expand_filename("docs:my_tab_file.tab")
1045        '/Users/aleserjavec/Documents/my_tab_file.tab'
1046
1047    """
1048    # TODO: handle windows drive letters.
1049    if ":" in prefixed_name:
1050        prefix, filename = prefixed_name.split(":", 1)
1051    else:
1052        prefix, filename = "", prefixed_name
1053    paths = search_paths(prefix)
1054    if paths:
1055        paths = paths.split(os.path.pathsep)
1056        for path in paths:
1057            if os.path.exists(os.path.join(path, filename)):
1058                return os.path.join(path, filename)
1059        raise ValueError("%r not found on the search path." % filename)
1060    else:
1061        raise ValueError("Unknown prefix %r." % prefix)
1062
1063
1064def find_file(prefixed_name):
1065    """Find the prefixed filename and return its full path.
1066    """
1067    # This function is called from C++ if the default search
1068    # fails
1069    if not os.path.exists(prefixed_name):
1070        return expand_filename(prefixed_name)
1071    else:
1072        return prefixed_name
Note: See TracBrowser for help on using the repository browser.