Если мы используем комбинацию классов Dataset
и Dataloader
(как показано ниже), я должен явно загрузить данные в GPU, используя .to()
или .cuda()
. Есть ли способ указать загрузчику данных делать это автоматически / неявно?
Код для понимания / воспроизведения сценария:
from torch.utils.data import Dataset, DataLoader
import numpy as np
class DemoData(Dataset):
def __init__(self, limit):
super(DemoData, self).__init__()
self.data = np.arange(limit)
def __len__(self):
return self.data.shape[0]
def __getitem__(self, idx):
return (self.data[idx], self.data[idx]*100)
demo = DemoData(100)
loader = DataLoader(demo, batch_size=50, shuffle=True)
for i, (i1, i2) in enumerate(loader):
print('Batch Index: {}'.format(i))
print('Shape of data item 1: {}; shape of data item 2: {}'.format(i1.shape, i2.shape))
# i1, i2 = i1.to('cuda:0'), i2.to('cuda:0')
print('Device of data item 1: {}; device of data item 2: {}\n'.format(i1.device, i2.device))
Будет выведено следующее: примечание - без явной инструкции передачи устройства данные загружаются в ЦП:
Batch Index: 0
Shape of data item 1: torch.Size([50]); shape of data item 2: torch.Size([50])
Device of data item 1: cpu; device of data item 2: cpu
Batch Index: 1
Shape of data item 1: torch.Size([50]); shape of data item 2: torch.Size([50])
Device of data item 1: cpu; device of data item 2: cpu
Возможное решение находится в репозитории PyTorch на GitHub. Проблема (все еще открыта на момент публикации этого вопроса), но я не могу заставить ее работать, когда загрузчик данных должен возвращать несколько элементов данных!
collate-fn
бесполезен, если набор данных возвращает кортеж значений в каждом пакете. Так что все еще ищем лучшие обходные пути! - person anurag   schedule 02.02.2021