Привет!
Я хочу воспользоваться Torch Transformers Classifier Model на сервере с несколькими видеокартами, однако при передаче аргумента ‘gpu’ в ‘device’ модель помещается на базовую карточку. Полагаю причиной этой является 75 строчка в torch_model.py. Есть ли способы как-то это обойти и разместить модель на определнной вдиелокарте?
Я со своей стороны пробовал после инициализации модели просто поменять значение параметра device у объекта классифиатора, это получалось сделать, однако при запуске обучения выдается ошибка RuntimeError: arguments are located on different GPUs