Матрица HDF5 добавляется в python

Например, у нас есть матрица (например, мы хотим сохранить массив numpy), и мы сохраняем ее в файле HDF5, но затем мы хотим расширить матрицу, добавив несколько строк в конец исходной матрицы (учтите, что исходная матрица может быть очень большие ~десятки Гб и не загружаются в оперативную память)

Также мы хотим иметь возможность читать несколько строк из матрицы из любой точки (может быть, это называется срез(?)) без загрузки всей матрицы в оперативную память.

Может ли кто-нибудь привести пример, как это можно сделать на питоне?

ОБНОВЛЕНИЕ:

Я думаю, что другим вариантом является numpy.memmap, но похоже, что аппендикса нет.

Это также кажется вариантом, но он работает с необработанными двоичными данными , но я хочу иметь доступ к матрице. Также я не знаю, как добавить в этом случае.


person mrgloom    schedule 11.10.2013    source источник


Ответы (1)


Если вы собираетесь работать с файлами HDF5, могу ли я предложить использовать одну из доступных библиотек, например Pytables. Я публикую и упрощаю их учебник здесь: http://pytables.github.io/usersguide/tutorials.html

from tables import *

# Define a user record to characterize some kind of particles
class Particle(IsDescription):
    name      = StringCol(16)   # 16-character String
    idnumber  = Int64Col()      # Signed 64-bit integer
    ADCcount  = UInt16Col()     # Unsigned short integer
    TDCcount  = UInt8Col()      # unsigned byte
    grid_i    = Int32Col()      # integer
    grid_j    = Int32Col()      # integer
    pressure  = Float32Col()    # float  (single-precision)
    energy    = FloatCol()      # double (double-precision)

filename = "test.h5"
# Open a file in "w"rite mode
h5file = openFile(filename, mode = "w", title = "Test file")
# Create a new group under "/" (root)
group = h5file.createGroup("/", 'detector', 'Detector information')
# Create one table on it
table = h5file.createTable(group, 'readout', Particle, "Readout example")
# Fill the table with 10 particles
particle = table.row
for i in xrange(10):
    particle['name']  = 'Particle: %6d' % (i)
    particle['TDCcount'] = i % 256
    particle['ADCcount'] = (i * 256) % (1 << 16)
    particle['grid_i'] = i
    particle['grid_j'] = 10 - i
    particle['pressure'] = float(i*i)
    particle['energy'] = float(particle['pressure'] ** 4)
    particle['idnumber'] = i * (2 ** 34)
    # Insert a new particle record
    particle.append()
# Close (and flush) the file
h5file.close()

#now we will append some data to the table, after taking some slices 
f=tables.openFile(filename, mode="a")
f.root.detector
f.root.detector.readout
f.root.detector.readout[1::3]
f.root.detector.readout.attrs.TITLE
ro = f.root.detector.readout

#generators work
[row['energy'] for row in ro.where('pressure > 10')]


#append some data
table = f.root.detector.readout
particle = table.row
for i in xrange(10, 15):
  particle['name']  = 'Particle: %6d' % (i)
  particle['TDCcount'] = i % 256
  particle['ADCcount'] = (i * 256) % (1 << 16)
  particle['grid_i'] = i
  particle['grid_j'] = 10 - i
  particle['pressure'] = float(i*i)
  particle['energy'] = float(particle['pressure'] ** 4)
  particle['idnumber'] = i * (2 ** 34)
  particle.append()
table.flush()
f.close()
person Paul    schedule 11.10.2013