YB
Size: a a a
YB
AK
YB
YB
AK
AK
VF
__getitem__
и __len__
. __getitem__
на вход принимает какое-то число и на выход отдаёт объект из датасета, соответствующий этому числу (например, если прилетело число 10, то отдаётся десятый текст из датасета). __len__
на вход ничего не принимает, а отдаёт общее число объектов в датасете.class MyDataset(torch.utils.data.Dataset):
def __init__(self, input_ids, attention_mask)
self.input_ids = input_ids
self.attention_mask = attention_mask
def __getitem__(self, key):
return self.input_ids[key], self.attention_mask[key]
def ___len___(self):
return len(self.input_ids)
dataset = MyDataset(input_ids=token_ids, attention_masks=attention_masks)
dataloader = torch.utils.data.DataLoader(dataset, batch_size=32)
for input_ids, attention_mask in dataloader:
#и вот тут делаешь что тебе нужно
YB
AK
AK
YB
AK
М
М
A
__getitem__
и __len__
. __getitem__
на вход принимает какое-то число и на выход отдаёт объект из датасета, соответствующий этому числу (например, если прилетело число 10, то отдаётся десятый текст из датасета). __len__
на вход ничего не принимает, а отдаёт общее число объектов в датасете.class MyDataset(torch.utils.data.Dataset):
def __init__(self, input_ids, attention_mask)
self.input_ids = input_ids
self.attention_mask = attention_mask
def __getitem__(self, key):
return self.input_ids[key], self.attention_mask[key]
def ___len___(self):
return len(self.input_ids)
dataset = MyDataset(input_ids=token_ids, attention_masks=attention_masks)
dataloader = torch.utils.data.DataLoader(dataset, batch_size=32)
for input_ids, attention_mask in dataloader:
#и вот тут делаешь что тебе нужно
AK
VF
YB
AK
A