IOError: No se pueden leer los datos (No se puede abrir el directorio) - Falta el filtro de compresión gzip

Nunca antes había trabajado con archivos HDF5 y, para comenzar, recibí algunos archivos de ejemplo. He estado revisando todos los conceptos básicos conh5py, mirando los diferentes grupos en estos archivos, sus nombres, claves, valores, etc. Todo funciona bien, hasta que quiera ver los conjuntos de datos que se guardan en los grupos. Consigo su.shape y.dtype, pero cuando intento acceder a un valor aleatorio indexando (p. ej.grp["dset"][0]), Obtuve el siguiente error:

IOError                                   Traceback (most recent call last)
<ipython-input-45-509cebb66565> in <module>()
      1 print geno["matrix"].shape
      2 print geno["matrix"].dtype
----> 3 geno["matrix"][0]

/home/sarah/anaconda/lib/python2.7/site-packages/h5py/_hl/dataset.pyc in __getitem__(self, args)
    443         mspace = h5s.create_simple(mshape)
    444         fspace = selection._id
--> 445         self.id.read(mspace, fspace, arr, mtype)
    446
    447         # Patch up the output for NumPy

/home/sarah/anaconda/lib/python2.7/site-packages/h5py/h5d.so in h5py.h5d.DatasetID.read (h5py/h5d.c:2782)()

/home/sarah/anaconda/lib/python2.7/site-packages/h5py/_proxy.so in h5py._proxy.dset_rw (h5py/_proxy.c:1709)()

/home/sarah/anaconda/lib/python2.7/site-packages/h5py/_proxy.so in h5py._proxy.H5PY_H5Dread (h5py/_proxy.c:1379)()

IOError: Can't read data (Can't open directory)

He publicado este problema en elh5py grupo de Google, donde se sugirió que podría haber un filtro en el conjunto de datos que no he instalado. Pero el archivo HDF5 fue creado usando solo compresión gzip, que debería ser un estándar portátil, por lo que yo entiendo.
¿Alguien sabe lo que podría estar perdiendo aquí? Ni siquiera puedo encontrar una descripción de este error o problemas similares en ninguna parte, y el archivo, incluido el conjunto de datos problemático, se puede abrir fácilmente con el software HDFView.

Editar
Aparentemente, este error ocurre porque, por alguna razón, el filtro de compresión gzip no está disponible en mi sistema. Si intento crear un archivo de ejemplo con compresión gzip, esto sucede:

---------------------------------------------------------------------------
ValueError                                Traceback (most recent call last)
<ipython-input-33-dd7b9e3b6314> in <module>()
      1 grp = f.create_group("subgroup")
----> 2 grp_dset = grp.create_dataset("dataset", (50,), dtype="uint8", chunks=True, compression="gzip")

/home/sarah/anaconda/lib/python2.7/site-packages/h5py/_hl/group.pyc in create_dataset(self, name, shape, dtype, data, **kwds)
     92         """
     93 
---> 94         dsid = dataset.make_new_dset(self, shape, dtype, data, **kwds)
     95         dset = dataset.Dataset(dsid)
     96         if name is not None:

/home/sarah/anaconda/lib/python2.7/site-packages/h5py/_hl/dataset.pyc in make_new_dset(parent, shape, dtype, data, chunks, compression, shuffle, fletcher32, maxshape, compression_opts, fillvalue, scaleoffset, track_times)
     97 
     98     dcpl = filters.generate_dcpl(shape, dtype, chunks, compression, compression_opts,
---> 99                   shuffle, fletcher32, maxshape, scaleoffset)
    100 
    101     if fillvalue is not None:

/home/sarah/anaconda/lib/python2.7/site-packages/h5py/_hl/filters.pyc in generate_dcpl(shape, dtype, chunks, compression, compression_opts, shuffle, fletcher32, maxshape, scaleoffset)
    101 
    102         if compression not in encode:
--> 103             raise ValueError('Compression filter "%s" is unavailable' % compression)
    104 
    105         if compression == 'gzip':

ValueError: Compression filter "gzip" is unavailable

¿Alguien tiene experiencia con eso? La instalación de la biblioteca HDF5, así como el paquete h5py, no parecen salir mal ...

Respuestas a la pregunta(3)

Su respuesta a la pregunta