source: orange/Orange/data/io.py @ 10528:26febe743732

Revision 10528:26febe743732, 32.2 KB checked in by Ales Erjavec <ales.erjavec@…>, 2 years ago (diff)

Fixes to load_csv interface.

Line 
1"""\
2*****************
3Data I/O (``io``)
4*****************
5
6Import/Export
7=============
8
9This module contains the functions for importing and exporting Orange
10data tables from/to different file formats. This works by associating
11a filename extension with a set of loading/saving functions using
12:obj:`register_file_type`.
13
14Support for some formats is already implemented: 
15   
16    - Weka `.arff` format
17    - C4.5 `.data/.names` format
18    - LibSVM data format
19    - R `.R` data frame source (export only)
20
21
22.. function:: register_file_type(format_name, load_func, save_func, extension)
23
24    Register the ``save_func``, ``load_func`` pair for the
25    ``format_name``. The format is identified by the ``extension``.
26   
27    :param format_name: the name of the format.
28    :type format_name: str
29   
30    :param load_func: a function used for loading the data (see
31        :ref:`custom-formats` for details)
32    :type load_func: function
33   
34    :param save_func: a function used for saving the data (see
35        :ref:`custom-formats` for details)
36    :type save_func: function
37   
38    :param extension: the file extension associated with this format
39        (e.g. '.myformat'). This can be a list of extension if the
40        format uses multiple extensions (for instance the
41        `.data` and `.names` file pairs in the C4.5 format)
42   
43    Example from the :obj:`~Orange.data.io` module that registers the Weka .arff
44    format ::
45       
46        register_file_type("Weka", load_ARFF, to_ARFF, ".arff")
47       
48``load_func`` or ``save_func`` can be None, indicating that the
49corresponding functionality is not supported.
50 
51Loading and saving from/to custom formats then works the same way as
52the standard Orange `.tab` file but with a different filename
53extension. ::
54
55    >>> import Orange
56    >>> data = Orange.data.Table("iris.arff")
57    >>> data.save("Copy of iris.arff")
58 
59   
60
61.. _custom-formats:
62
63Implementing custom import/export functions.
64--------------------------------------------
65
66The signature for the custom load functions should be
67
68``load_myformat(filename, create_new_on=Orange.feature.Descriptor.MakeStatus.NoRecognizedValues, **kwargs)``
69   
70When constructing variables :obj:`Orange.feature.Descriptor.make` should
71be used with the ``create_new_on`` parameter.
72:obj:`~Orange.feature.Descriptor.make` will return an attribute and the
73status of the variable, telling whether a new attribute was created
74or the old one reused and why (see :mod:`Orange.feature`).
75Additional keyword arguments can be provided in the call to
76:obj:`~Orange.data.Table` constructor. These will be passed in the
77``**kwargs``.
78The function should return the build :obj:`~Orange.data.Table` object.
79For examples see the source code for the ``Orange.data.io`` module
80
81The save function is easier to implement.
82
83``save_myformat(filename, table, **kwargs)``
84
85Similar as above the ``**kwargs`` contains any additional arguments
86:obj:`~Orange.data.Table.save`.
87 
88"""
89import os
90
91import Orange
92import Orange.feature
93import Orange.misc
94from Orange.core import \
95     BasketFeeder, FileExampleGenerator, BasketExampleGenerator, \
96     C45ExampleGenerator, TabDelimExampleGenerator, \
97     registerFileType as register_file_type
98
99import Orange.feature as variable
100from Orange.feature import Descriptor
101MakeStatus = Orange.feature.Descriptor.MakeStatus
102make = Orange.feature.Descriptor.make
103
104def loadARFF(filename, create_on_new=MakeStatus.Incompatible, **kwargs):
105    """Return class:`Orange.data.Table` containing data from file in Weka ARFF format
106       if there exists no .xml file with the same name. If it does, a multi-label
107       dataset is read and returned.
108    """
109    if filename[-5:] == ".arff":
110        filename = filename[:-5]
111    if os.path.exists(filename + ".xml") and os.path.exists(filename + ".arff"):
112        xml_name = filename + ".xml"
113        arff_name = filename + ".arff"
114        return Orange.multilabel.mulan.trans_mulan_data(xml_name, arff_name, create_on_new)
115    else:
116        return loadARFF_Weka(filename, create_on_new)
117
118def loadARFF_Weka(filename, create_on_new=MakeStatus.Incompatible, **kwargs):
119    """Return class:`Orange.data.Table` containing data from file in Weka ARFF format"""
120    if not os.path.exists(filename) and os.path.exists(filename + ".arff"):
121        filename = filename + ".arff"
122    f = open(filename, 'r')
123
124    attributes = []
125    attributeLoadStatus = []
126
127    name = ''
128    state = 0 # header
129    data = []
130    for l in f.readlines():
131        l = l.rstrip("\n") # strip \n
132        l = l.replace('\t', ' ') # get rid of tabs
133        x = l.split('%')[0] # strip comments
134        if len(x.strip()) == 0:
135            continue
136        if state == 0 and x[0] != '@':
137            print "ARFF import ignoring:", x
138        if state == 1:
139            if x[0] == '{':#sparse data format, begin with '{', ends with '}'
140                r = [None] * len(attributes)
141                dd = x[1:-1]
142                dd = dd.split(',')
143                for xs in dd:
144                    y = xs.split(" ")
145                    if len(y) <> 2:
146                        raise ValueError("the format of the data is error")
147                    r[int(y[0])] = y[1]
148                data.append(r)
149            else:#normal data format, split by ','
150                dd = x.split(',')
151                r = []
152                for xs in dd:
153                    y = xs.strip(" ")
154                    if len(y) > 0:
155                        if y[0] == "'" or y[0] == '"':
156                            r.append(xs.strip("'\""))
157                        else:
158                            ns = xs.split()
159                            for ls in ns:
160                                if len(ls) > 0:
161                                    r.append(ls)
162                    else:
163                        r.append('?')
164                data.append(r[:len(attributes)])
165        else:
166            y = []
167            for cy in x.split(' '):
168                if len(cy) > 0:
169                    y.append(cy)
170            if str.lower(y[0][1:]) == 'data':
171                state = 1
172            elif str.lower(y[0][1:]) == 'relation':
173                name = str.strip(y[1])
174            elif str.lower(y[0][1:]) == 'attribute':
175                if y[1][0] == "'":
176                    atn = y[1].strip("' ")
177                    idx = 1
178                    while y[idx][-1] != "'":
179                        idx += 1
180                        atn += ' ' + y[idx]
181                    atn = atn.strip("' ")
182                else:
183                    atn = y[1]
184                z = x.split('{')
185                w = z[-1].split('}')
186                if len(z) > 1 and len(w) > 1:
187                    # there is a list of values
188                    vals = []
189                    for y in w[0].split(','):
190                        sy = y.strip(" '\"")
191                        if len(sy) > 0:
192                            vals.append(sy)
193                    a, s = make(atn, Orange.feature.Type.Discrete, vals, [], create_on_new)
194                else:
195                    # real...
196                    a, s = make(atn, Orange.feature.Type.Continuous, [], [], create_on_new)
197
198                attributes.append(a)
199                attributeLoadStatus.append(s)
200    # generate the domain
201    d = Orange.data.Domain(attributes)
202    lex = []
203    for dd in data:
204        e = Orange.data.Instance(d, dd)
205        lex.append(e)
206    t = Orange.data.Table(d, lex)
207    t.name = name
208
209    #if hasattr(t, "attribute_load_status"):
210    t.setattr("attribute_load_status", attributeLoadStatus)
211    return t
212loadARFF = Orange.misc.deprecated_keywords(
213{"createOnNew": "create_on_new"}
214)(loadARFF)
215
216
217def toARFF(filename, table, try_numericize=0):
218    """Save class:`Orange.data.Table` to file in Weka's ARFF format"""
219    t = table
220    if filename[-5:] == ".arff":
221        filename = filename[:-5]
222    #print filename
223    f = open(filename + '.arff', 'w')
224    f.write('@relation %s\n' % t.domain.classVar.name)
225    # attributes
226    ats = [i for i in t.domain.attributes]
227    ats.append(t.domain.classVar)
228    for i in ats:
229        real = 1
230        if i.varType == 1:
231            if try_numericize:
232                # try if all values numeric
233                for j in i.values:
234                    try:
235                        x = float(j)
236                    except:
237                        real = 0 # failed
238                        break
239            else:
240                real = 0
241        iname = str(i.name)
242        if iname.find(" ") != -1:
243            iname = "'%s'" % iname
244        if real == 1:
245            f.write('@attribute %s real\n' % iname)
246        else:
247            f.write('@attribute %s { ' % iname)
248            x = []
249            for j in i.values:
250                s = str(j)
251                if s.find(" ") == -1:
252                    x.append("%s" % s)
253                else:
254                    x.append("'%s'" % s)
255            for j in x[:-1]:
256                f.write('%s,' % j)
257            f.write('%s }\n' % x[-1])
258
259    # examples
260    f.write('@data\n')
261    for j in t:
262        x = []
263        for i in range(len(ats)):
264            s = str(j[i])
265            if s.find(" ") == -1:
266                x.append("%s" % s)
267            else:
268                x.append("'%s'" % s)
269        for i in x[:-1]:
270            f.write('%s,' % i)
271        f.write('%s\n' % x[-1])
272
273def loadMULAN(filename, create_on_new=MakeStatus.Incompatible, **kwargs):
274    """Return class:`Orange.data.Table` containing data from file in Mulan ARFF and XML format"""
275    if filename[-4:] == ".xml":
276        filename = filename[:-4]
277    if os.path.exists(filename + ".xml") and os.path.exists(filename + ".arff"):
278        xml_name = filename + ".xml"
279        arff_name = filename + ".arff"
280        return Orange.multilabel.mulan.trans_mulan_data(xml_name, arff_name)
281    else:
282        return None
283loadARFF = Orange.misc.deprecated_keywords(
284{"createOnNew": "create_on_new"}
285)(loadARFF)
286
287def toC50(filename, table, try_numericize=0):
288    """Save class:`Orange.data.Table` to file in C50 format"""
289    t = table
290    # export names
291#    basename = os.path.basename(filename)
292    filename_prefix, ext = os.path.splitext(filename)
293    f = open('%s.names' % filename_prefix, 'w')
294    f.write('%s.\n\n' % t.domain.class_var.name)
295    # attributes
296    ats = [i for i in t.domain.attributes]
297    ats.append(t.domain.classVar)
298    for i in ats:
299        real = 1
300        # try if real
301        if i.varType == Orange.core.VarTypes.Discrete:
302            if try_numericize:
303                # try if all values numeric
304                for j in i.values:
305                    try:
306                        x = float(j)
307                    except Exception:
308                        real = 0 # failed
309                        break
310            else:
311                real = 0
312        if real == 1:
313            f.write('%s: continuous.\n' % i.name)
314        else:
315            f.write('%s: ' % i.name)
316            x = []
317            for j in i.values:
318                x.append('%s' % j)
319            for j in x[:-1]:
320                f.write('%s,' % j)
321            f.write('%s.\n' % x[-1])
322    # examples
323    f.close()
324
325    f = open('%s.data' % filename_prefix, 'w')
326    for j in t:
327        x = []
328        for i in range(len(ats)):
329            x.append('%s' % j[i])
330        for i in x[:-1]:
331            f.write('%s,' % i)
332        f.write('%s\n' % x[-1])
333
334def toR(filename, t):
335    """Save class:`Orange.data.Table` to file in R format"""
336    if str.upper(filename[-2:]) == ".R":
337        filename = filename[:-2]
338    f = open(filename + '.R', 'w')
339
340    atyp = []
341    aord = []
342    labels = []
343    as0 = []
344    for a in t.domain.variables:
345        as0.append(a)
346#    as0.append(t.domain.class_var)
347    for a in as0:
348        labels.append(str(a.name))
349        atyp.append(a.var_type)
350        aord.append(a.ordered)
351
352    f.write('data <- data.frame(\n')
353    for i in xrange(len(labels)):
354        if atyp[i] == 2: # continuous
355            f.write('"%s" = c(' % (labels[i]))
356            for j in xrange(len(t)):
357                if t[j][i].isSpecial():
358                    f.write('NA')
359                else:
360                    f.write(str(t[j][i]))
361                if (j == len(t) - 1):
362                    f.write(')')
363                else:
364                    f.write(',')
365        elif atyp[i] == 1: # discrete
366            if aord[i]: # ordered
367                f.write('"%s" = ordered(' % labels[i])
368            else:
369                f.write('"%s" = factor(' % labels[i])
370            f.write('levels=c(')
371            for j in xrange(len(as0[i].values)):
372                f.write('"x%s"' % (as0[i].values[j]))
373                if j == len(as0[i].values) - 1:
374                    f.write('),c(')
375                else:
376                    f.write(',')
377            for j in xrange(len(t)):
378                if t[j][i].isSpecial():
379                    f.write('NA')
380                else:
381                    f.write('"x%s"' % str(t[j][i]))
382                if (j == len(t) - 1):
383                    f.write('))')
384                else:
385                    f.write(',')
386        else:
387            raise "Unknown attribute type."
388        if (i < len(labels) - 1):
389            f.write(',\n')
390    f.write(')\n')
391
392
393def toLibSVM(filename, example):
394    """Save class:`Orange.data.Table` to file in LibSVM format"""
395    import Orange.classification.svm
396    Orange.classification.svm.tableToSVMFormat(example, open(filename, "wb"))
397
398
399@Orange.misc.deprecated_keywords({"createOnNew": "create_on_new"})
400def loadLibSVM(filename, create_on_new=MakeStatus.Incompatible, **kwargs):
401    """Return class:`Orange.data.Table` containing data from file in LibSVM format"""
402    attributeLoadStatus = {}
403    def make_float(name):
404        attr, s = Orange.feature.Descriptor.make(name, Orange.feature.Type.Continuous, [], [], create_on_new)
405        attributeLoadStatus[attr] = s
406        return attr
407
408    def make_disc(name, unordered):
409        attr, s = Orange.feature.Descriptor.make(name, Orange.feature.Type.Discrete, [], unordered, create_on_new)
410        attributeLoadStatus[attr] = s
411        return attr
412
413    data = [line.split() for line in open(filename, "rb").read().splitlines() if line.strip()]
414    vars = type("attr", (dict,), {"__missing__": lambda self, key: self.setdefault(key, make_float(key))})()
415    item = lambda i, v: (vars[i], vars[i](v))
416    values = [dict([item(*val.split(":"))  for val in ex[1:]]) for ex in data]
417    classes = [ex[0] for ex in data]
418    disc = all(["." not in c for c in classes])
419    attributes = sorted(vars.values(), key=lambda var: int(var.name))
420    classVar = make_disc("class", sorted(set(classes))) if disc else make_float("target")
421    attributeLoadStatus = [attributeLoadStatus[attr] for attr in attributes] + \
422                          [attributeLoadStatus[classVar]]
423    domain = Orange.data.Domain(attributes, classVar)
424    table = Orange.data.Table([Orange.data.Instance(domain, [ex.get(attr, attr("?")) for attr in attributes] + [c]) for ex, c in zip(values, classes)])
425    table.setattr("attribute_load_status", attributeLoadStatus)
426    return table
427
428
429"""\
430A general CSV file reader.
431--------------------------
432
433Currently not yet documented and not registered (needs testing).
434
435"""
436
437def split_escaped_str(str, split_str=" ", escape="\\"):
438    res = []
439    index = 0
440    start = 0
441    find_start = 0
442    while index != -1:
443        index = str.find(split_str, find_start)
444        if index != -1 and index > 0:
445            if str[index - 1] == escape: # Skip the escaped split_str
446                find_start = index + 1
447            else:
448                res.append(str[start:index])
449                start = find_start = index + 1
450
451        elif index == -1:
452            res.append(str[start:])
453    return res
454
455def is_standard_var_def(cell):
456    """Is the cell a standard variable definition (empty, cont, disc, string)
457    """
458    try:
459        var_type(cell)
460        return True
461    except ValueError, ex:
462        return False
463
464def is_var_types_row(row):
465    """ Is the row a variable type definition row (as in the orange .tab file)
466    """
467    return all(map(is_standard_var_def, row))
468
469def var_type(cell):
470    """ Return variable type from a variable type definition in cell.
471    """
472    if cell in ["c", "continuous"]:
473        return variable.Continuous
474    elif cell in ["d", "discrete"]:
475        return variable.Discrete
476    elif cell in ["s", "string"]:
477        return variable.String
478    elif cell.startswith("pyhton"):
479        return variable.Python
480    elif cell == "":
481        return variable.Descriptor
482    elif len(split_escaped_str(cell, " ")) > 1:
483        return variable.Discrete, split_escaped_str(cell, " ")
484    else:
485        raise ValueError("Unknown variable type definition %r." % cell)
486
487def var_types(row):
488    """ Return variable types from row.
489    """
490    return map(var_type, row)
491
492def is_var_attributes_row(row):
493    """ Is the row an attribute definition row (i.e. the third row in the
494    standard orange .tab file format).
495   
496    """
497    return all(map(is_var_attributes_def, row))
498
499def is_var_attributes_def(cell):
500    """ Is the cell a standard variable attributes definition.
501    """
502    try:
503        var_attribute(cell)
504        return True
505    except ValueError, ex:
506        raise
507        return False
508
509def _var_attribute_label_parse(cell):
510    """
511    """
512    key_value = split_escaped_str(cell, "=")
513    if len(key_value) == 2:
514        return tuple(key_value)
515    else:
516        raise ValueError("Invalid attribute label definition %r." % cell)
517
518def var_attribute(cell):
519    """ Return variable specifier ("meta" or "class" or None) and attributes
520    labels dict.
521    """
522    items = split_escaped_str(cell, " ")
523    if cell == "":
524        return None, {}
525    elif items:
526        specifier = None
527        if items[0] in ["m", "meta"]:
528            specifier = "meta"
529            items = items[1:]
530        elif items[0] == "class":
531            specifier = "class"
532            items = items[1:]
533        return specifier, dict(map(_var_attribute_label_parse, items))
534    else:
535        raise ValueError("Unknown attribute label definition")
536
537def var_attributes(row):
538    """ Return variable specifiers and label definitions for row
539    """
540    return map(var_attribute, row)
541
542
543class _var_placeholder(object):
544    """ A place holder for an arbitrary variable while it's values are still unknown.
545    """
546    def __init__(self, name="", values=[]):
547        self.name = name
548        self.values = set(values)
549
550class _disc_placeholder(_var_placeholder):
551    """ A place holder for discrete variables while their values are not yet known.
552    """
553    pass
554
555def is_val_cont(cell):
556    """ Is cell a string representing a real value.
557    """
558    try:
559        float(cell)
560        return True
561    except ValueError:
562        return False
563
564def is_variable_cont(values, n=None, cutoff=0.5):
565    """ Is variable with ``values`` in column (``n`` rows) a continuous variable.
566    """
567    cont = sum(map(is_val_cont, values)) or 1e-30
568    if n is None:
569        n = len(values) or 1
570    return (float(cont) / n) > cutoff
571
572
573def is_variable_discrete(values, n=None, cutoff=0.3):
574    """ Is variable with ``values`` in column (``n`` rows) a discrete variable.
575    """
576    return not is_variable_cont(values, n)
577
578def is_variable_string(values, n=None, cutuff=0.1):
579    """ Is variable with ``values`` in column (``n`` rows) a string variable.
580    """
581    return False
582
583def load_csv(file, create_new_on=MakeStatus.Incompatible, 
584             delimiter=None, quotechar=None, escapechar=None,
585             has_header=None, has_types=None, has_annotations=None, **kwargs):
586    """ Load an Orange.data.Table from s csv file.
587    """
588    import csv, numpy
589    file = as_open_file(file, "rb")
590    snifer = csv.Sniffer()
591    sample = file.read(5 * 2 ** 20) # max 5MB sample TODO: What if this is not enough. Try with a bigger sample
592    dialect = snifer.sniff(sample)
593   
594    if has_header is None:
595        has_header = snifer.has_header(sample)
596   
597    file.seek(0) # Rewind
598   
599    def kwparams(**kwargs):
600        """Return not None kwargs.
601        """
602        return dict([(k, v) for k, v in kwargs.items() if v is not None])
603   
604    fmtparam = kwparams(delimiter=delimiter,
605                        quotechar=quotechar,
606                        escapechar=escapechar)
607   
608    reader = csv.reader(file, dialect=dialect,
609                        **fmtparam)
610
611    header = types = var_attrs = None
612
613    row = first_row = reader.next()
614   
615    if has_header:
616        header = row
617        # Eat this row and move to the next
618        row = reader.next()
619
620    # Guess types row
621    if has_types is None:
622        has_types = has_header and is_var_types_row(row)
623       
624    if has_types:
625        types = var_types(row)
626        # Eat this row and move to the next
627        row = reader.next()
628
629    # Guess variable annotations row
630    if has_annotations is None:
631        has_annotations = has_header and has_types and \
632                          is_var_attributes_row(row)
633       
634    if has_annotations:
635        labels_row = row
636        var_attrs = var_attributes(row)
637        # Eat this row and move to the next
638        row = reader.next()
639
640    if not header:
641        # Create a default header
642        header = ["F_%i" % i for i in range(len(first_row))]
643       
644    if not types:
645        # Create blank variable types
646        types = [None] * len(header)
647       
648    if not var_attrs:
649        # Create blank variable attributes
650        var_attrs = [None] * len(header)
651
652    # start from the beginning
653    file.seek(0)
654    reader = csv.reader(file, dialect=dialect, **fmtparam)
655   
656    for defined in [has_header, has_types, has_annotations]:
657        if defined: 
658            # skip definition rows if present in the file
659            reader.next()
660   
661    variables = []
662    undefined_vars = []
663    for i, (name, var_t) in enumerate(zip(header, types)):
664        if var_t == variable.Discrete:# We do not have values yet.
665            variables.append(_disc_placeholder(name))
666            undefined_vars.append((i, variables[-1]))
667        elif var_t == variable.Continuous:
668            variables.append(make(name, Orange.feature.Type.Continuous, [], [], create_new_on))
669        elif var_t == variable.String:
670            variables.append(make(name, Orange.feature.Type.String, [], [], create_new_on))
671        elif var_t == variable.Python:
672            variables.append(variable.Python(name))
673        elif isinstance(var_t, tuple):
674            var_t, values = var_t
675            if var_t == variable.Discrete:
676                variables.append(make(name, Orange.feature.Type.Discrete, values, [], create_new_on))
677            elif var_t == variable.Python:
678                raise NotImplementedError()
679        elif var_t is None:
680            variables.append(_var_placeholder(name))
681            undefined_vars.append((i, variables[-1]))
682
683    data = []
684    for row in reader:
685        data.append(row)
686        for ind, var_def in undefined_vars:
687            var_def.values.add(row[ind])
688
689    for ind, var_def in undefined_vars:
690        values = var_def.values - set(["?", ""]) # TODO: Other unknown strings?
691        values = sorted(values)
692        if isinstance(var_def, _disc_placeholder):
693            variables[ind] = make(var_def.name, Orange.feature.Type.Discrete, [], values, create_new_on)
694        elif isinstance(var_def, _var_placeholder):
695            if is_variable_cont(values):
696                variables[ind] = make(var_def.name, Orange.feature.Type.Continuous, [], [], create_new_on)
697            elif is_variable_discrete(values):
698                variables[ind] = make(var_def.name, Orange.feature.Type.Discrete, [], values, create_new_on)
699            elif is_variable_string(values):
700                variables[ind] = make(var_def.name, Orange.feature.Type.String, [], [], create_new_on)
701            else:
702                raise ValueError("Strange column in the data")
703
704    vars = []
705    vars_load_status = []
706    attribute_load_status = []
707    meta_attribute_load_status = {}
708    class_var_load_status = []
709    for var, status in vars:
710        vars.append(var)
711        vars_load_status.append(status)
712
713    attributes = []
714    class_var = []
715    metas = {}
716    attribute_indices = []
717    variable_indices = []
718    class_indices = []
719    meta_indices = []
720    for i, ((var, status), var_attr) in enumerate(zip(variables, var_attrs)):
721        if var_attr:
722            flag, attrs = var_attr
723            if flag == "class":
724                class_var.append(var)
725                class_var_load_status.append(status)
726                class_indices.append(i)
727            elif flag == "meta":
728                mid = Orange.feature.Descriptor.new_meta_id()
729                metas[mid] = var
730                meta_attribute_load_status[mid] = status
731                meta_indices.append((i, var))
732            else:
733                attributes.append(var)
734                attribute_load_status.append(status)
735                attribute_indices.append(i)
736            var.attributes.update(attrs)
737        else:
738            attributes.append(var)
739            attribute_load_status.append(status)
740            attribute_indices.append(i)
741
742    if len(class_var) > 1:
743        raise ValueError("Multiple class variables defined")
744
745    class_var = class_var[0] if class_var else None
746
747    attribute_load_status += class_var_load_status
748    variable_indices = attribute_indices + class_indices
749    domain = Orange.data.Domain(attributes, class_var)
750    domain.add_metas(metas)
751    normal = [[row[i] for i in variable_indices] for row in data]
752    meta_part = [[row[i] for i, _ in meta_indices] for row in data]
753    table = Orange.data.Table(domain, normal)
754    for ex, m_part in zip(table, meta_part):
755        for (column, var), val in zip(meta_indices, m_part):
756            ex[var] = var(val)
757
758    table.setattr("metaAttributeLoadStatus", meta_attribute_load_status)
759    table.setattr("attributeLoadStatus", attribute_load_status)
760
761    return table
762
763def as_open_file(file, mode="rb"):
764    if isinstance(file, basestring):
765        file = open(file, mode)
766    else: # assuming it is file like with proper mode, could check for write, read
767        pass
768    return file
769
770def save_csv(file, table, orange_specific=True, **kwargs):
771    import csv
772    file = as_open_file(file, "wb")
773    writer = csv.writer(file, **kwargs)
774    attrs = table.domain.attributes
775    class_var = table.domain.class_var
776    metas = [v for _, v in sorted(table.domain.get_metas().items(),
777                                  reverse=True)]
778    all_vars = attrs + ([class_var] if class_var else []) + metas
779    names = [v.name for v in all_vars]
780    writer.writerow(names)
781
782    if orange_specific:
783        type_cells = []
784        for v in all_vars:
785            if isinstance(v, variable.Discrete):
786                type_cells.append(",".join(v.values))
787            elif isinstance(v, variable.Continuous):
788                type_cells.append("continuous")
789            elif isinstance(v, variable.String):
790                type_cells.append("string")
791            elif isinstance(v, variable.Python):
792                type_cells.append("python")
793            else:
794                raise TypeError("Unknown variable type")
795        writer.writerow(type_cells)
796
797        var_attr_cells = []
798        for spec, var in [("", v) for v in attrs] + \
799                         ([("class", class_var)] if class_var else []) + \
800                         [("m", v) for v in metas]:
801
802            labels = ["{0}={1}".format(*t) for t in var.attributes.items()] # TODO escape spaces
803            var_attr_cells.append(" ".join([spec] if spec else [] + labels))
804
805        writer.writerow(var_attr_cells)
806
807    for instance in table:
808        instance = list(instance) + [instance[m] for m in metas]
809        writer.writerow(instance)
810
811
812register_file_type("R", None, toR, ".R")
813register_file_type("Weka", loadARFF, toARFF, ".arff")
814register_file_type("Mulan", loadMULAN, None, ".xml")
815#registerFileType("C50", None, toC50, [".names", ".data", ".test"])
816register_file_type("libSVM", loadLibSVM, toLibSVM, ".svm")
817
818registerFileType = Orange.misc.deprecated_function_name(register_file_type)
819
820#__doc__ +=  \
821"""\
822Search Paths
823============
824
825Associate a prefix with a search path for easier data loading.
826The paths can be stored in a user specific file.
827
828Example ::
829
830    >>> import Orange, os
831    >>> from Orange.data import io
832    >>> io.set_search_path("my_datasets",
833    ...                     os.path.expanduser("~/Documents/My Datasets"))
834    ...                     persistent=True)
835    ...
836   
837    >>> data = Orange.data.Table("mydatasets:dataset1.tab")
838
839
840.. autofunction:: set_search_path
841
842.. autofunction:: search_paths
843
844.. autofunction:: persistent_search_paths
845
846.. autofunction:: find_file
847
848.. autofunction:: expand_filename
849
850"""
851# Non-persistent registered paths
852_session_paths = []
853
854import ConfigParser
855from ConfigParser import SafeConfigParser
856
857@Orange.misc.lru_cache(maxsize=1)
858def persistent_search_paths():
859    """ Return a list of persistent registered (prefix, path) pairs
860    """
861
862    global_settings_dir = Orange.misc.environ.install_dir
863    user_settings_dir = Orange.misc.environ.orange_settings_dir
864    parser = SafeConfigParser()
865    parser.read([os.path.join(global_settings_dir, "orange-search-paths.cfg"),
866                 os.path.join(user_settings_dir, "orange-search-paths.cfg")])
867    try:
868        items = parser.items("paths")
869        defaults = parser.defaults().items()
870        items = [i for i in items if i not in defaults]
871    except ConfigParser.NoSectionError:
872        items = []
873    return items
874
875def save_persistent_search_path(prefix, path):
876    """ Save the prefix, path pair. If path is None delete the
877    registered prefix.
878   
879    """
880    if isinstance(path, list):
881        path = os.path.pathsep.join(path)
882
883    user_settings_dir = Orange.misc.environ.orange_settings_dir
884    if not os.path.exists(user_settings_dir):
885        try:
886            os.makedirs(user_settings_dir)
887        except OSError:
888            pass
889
890    filename = os.path.join(user_settings_dir, "orange-search-paths.cfg")
891    parser = SafeConfigParser()
892    parser.read([filename])
893
894    if not parser.has_section("paths"):
895        parser.add_section("paths")
896
897    if path is not None:
898        parser.set("paths", prefix, path)
899    elif parser.has_option("paths", prefix):
900        # Remove the registered prefix
901        parser.remove_option("paths", prefix)
902    parser.write(open(filename, "wb"))
903
904def search_paths(prefix=None):
905    """ Return a list of the registered (prefix, path) pairs.
906    """
907    persistent_paths = persistent_search_paths()
908    paths = _session_paths + persistent_paths
909    if prefix is not None:
910        for pref, path in paths:
911            if pref == prefix:
912                return path
913        return ""
914    else:
915        return paths
916
917def set_search_path(prefix, path, persistent=False):
918    """ Associate a search path with a prefix.
919   
920    :param prefix: a prefix
921    :type prefix: str
922   
923    :param path: search path (can also be a list of path strings)
924    :type paths: str
925   
926    :param persistent: if True then the prefix-paths pair will be
927        saved between sessions (default False).
928    :type persistent: bool
929   
930    """
931    global _session_paths
932
933    if isinstance(path, list):
934        path = os.path.pathsep.join(path)
935
936    if persistent:
937        save_persistent_search_path(prefix, path)
938        # Invalidate the persistent_search_paths cache.
939        persistent_search_paths.clear()
940    else:
941        _session_paths.append((prefix, path))
942
943
944def expand_filename(prefixed_name):
945    """ Expand the prefixed filename with the full path.
946    ::
947       
948        >>> from Orange.data import io
949        >>> io.set_search_paths("docs", "/Users/aleserjavec/Documents")
950        >>> io.expand_filename("docs:my_tab_file.tab")
951        '/Users/aleserjavec/Documents/my_tab_file.tab'
952       
953       
954    """
955    prefix, filename = prefixed_name.split(":", 1) #TODO: windows drive letters.
956    paths = search_paths(prefix)
957    if paths:
958        path = paths.split(os.path.pathsep, 1)[0]
959        return os.path.join(path, filename)
960    else:
961        raise ValueError("Unknown prefix %r." % prefix)
962
963def find_file(prefixed_name):
964    """ Find the prefixed filename and return its full path.
965    """
966    if not os.path.exists(prefixed_name):
967        if ":" not in prefixed_name:
968            raise ValueError("Not a prefixed name.")
969        prefix, filename = prefixed_name.split(":", 1)
970        paths = search_paths(prefix)
971        if paths:
972            for path in paths.split(os.path.pathsep):
973                if os.path.exists(os.path.join(path, filename)):
974                    return os.path.join(path, filename)
975            raise ValueError("No file %r on prefixed search path %r." % \
976                             (filename, paths))
977        else:
978            raise ValueError("Unknown prefix %r." % prefix)
979    else:
980        return prefixed_name
981
Note: See TracBrowser for help on using the repository browser.