不是batch_size的问题,batch_size已经调到1,map仍然卡住不动。
经测试,是 new_input_ids_all = tokenizer.apply_chat_template([message], tokenize=True, return_tensors="pt",return_dict=True, padding=True)这一行卡住了,想问问如何解决,谢谢!!!

torch 2.11.0+cu128
torchvision 0.26.0+cu128
transformers 4.51.3
tokenizers 0.21.4

不是batch_size的问题,batch_size已经调到1,map仍然卡住不动。
经测试,是 new_input_ids_all = tokenizer.apply_chat_template([message], tokenize=True, return_tensors="pt",return_dict=True, padding=True)这一行卡住了,想问问如何解决,谢谢!!!