ฉันมีชุดข้อมูลขนาดใหญ่มากซึ่งฉันต้องการโหลดลงใน Torch แต่ฉันไม่สามารถโหลดพวกมันลงในหน่วยความจำได้เต็มที่ก่อนที่จะรันอัลกอริธึมการเรียนรู้
ฉันควรทำอย่างไรเพื่อเพิ่มประสิทธิภาพสูงสุด?
ฉันมีชุดข้อมูลขนาดใหญ่มากซึ่งฉันต้องการโหลดลงใน Torch แต่ฉันไม่สามารถโหลดพวกมันลงในหน่วยความจำได้เต็มที่ก่อนที่จะรันอัลกอริธึมการเรียนรู้
ฉันควรทำอย่างไรเพื่อเพิ่มประสิทธิภาพสูงสุด?
ดูโค้ดตัวอย่างแบบเต็มสแต็กของ imagenet-multiGPU.torch ประกอบด้วยตัวโหลดข้อมูล (dataset.lua
) ที่สามารถสุ่มตัวอย่างภาพเป็นชุดในแต่ละครั้ง ซึ่งป้องกันไม่ให้โหลดทุกอย่างในหน่วยความจำล่วงหน้า:
local inputs, labels = trainLoader:sample(opt.batchSize)
(ดูรายละเอียดเพิ่มเติมที่ train.lua
)