У меня есть очень большие наборы данных, которые я хочу загрузить в Torch. Но я не могу полностью загрузить их в память, пока не запущу алгоритм обучения.
Что я должен сделать, чтобы максимизировать производительность?
У меня есть очень большие наборы данных, которые я хочу загрузить в Torch. Но я не могу полностью загрузить их в память, пока не запущу алгоритм обучения.
Что я должен сделать, чтобы максимизировать производительность?
Взгляните на imagenet-multiGPU.torch пример кода полного стека. Он содержит загрузчик данных (dataset.lua
), способный сэмплировать пакет изображений за раз, что предотвращает предварительную загрузку всего в память:
local inputs, labels = trainLoader:sample(opt.batchSize)
(подробнее см. train.lua
)