Fazzioni commited on
Commit
7111032
·
verified ·
1 Parent(s): 44f55ae

Update src/backend/model_loader.py

Browse files
Files changed (1) hide show
  1. src/backend/model_loader.py +7 -6
src/backend/model_loader.py CHANGED
@@ -73,20 +73,21 @@ def load_model(
73
  model = AutoModelForCausalLM.from_pretrained( model_name, **args)
74
 
75
  # Move modelo para CPU se não há GPU e device_map não foi usado
76
- if device_map is None and not has_cuda:
77
- model = model.to("cpu")
78
 
79
  # Cria pipeline
80
  pipeline_kwargs = {
81
  "model": model,
82
  "tokenizer": tokenizer,
 
83
  }
84
 
85
  # Só adiciona device ao pipeline se não usar device_map no modelo
86
- if device_map is None:
87
- pipeline_kwargs["device"] = 0 if has_cuda else -1
88
- else:
89
- pipeline_kwargs["device_map"] = device_map
90
 
91
  pipe = pipeline("text-generation", **pipeline_kwargs)
92
 
 
73
  model = AutoModelForCausalLM.from_pretrained( model_name, **args)
74
 
75
  # Move modelo para CPU se não há GPU e device_map não foi usado
76
+ #if device_map is None and not has_cuda:
77
+ # model = model.to("cpu")
78
 
79
  # Cria pipeline
80
  pipeline_kwargs = {
81
  "model": model,
82
  "tokenizer": tokenizer,
83
+ 'device_map': args["device_map"]
84
  }
85
 
86
  # Só adiciona device ao pipeline se não usar device_map no modelo
87
+ #if device_map is None:
88
+ # pipeline_kwargs["device"] = 0 if has_cuda else -1
89
+ #else:
90
+ # pipeline_kwargs["device_map"] = device_map
91
 
92
  pipe = pipeline("text-generation", **pipeline_kwargs)
93