Saya memiliki beberapa kumpulan data yang sangat besar yang ingin saya muat ke Torch. Tapi saya tidak bisa memuatnya sepenuhnya ke memori sebelum saya menjalankan algoritma pembelajaran saya.
Apa yang harus saya lakukan untuk memaksimalkan kinerja?
Saya memiliki beberapa kumpulan data yang sangat besar yang ingin saya muat ke Torch. Tapi saya tidak bisa memuatnya sepenuhnya ke memori sebelum saya menjalankan algoritma pembelajaran saya.
Apa yang harus saya lakukan untuk memaksimalkan kinerja?
Lihat kode contoh tumpukan lengkap imagenet-multiGPU.torch. Ini berisi pemuat data (dataset.lua
) yang dapat mengambil sampel sekumpulan gambar sekaligus yang mencegah pemuatan awal semua yang ada di memori:
local inputs, labels = trainLoader:sample(opt.batchSize)
(lihat train.lua
untuk detail selengkapnya)