Spaces:
Sleeping
Sleeping
Update src/backend/model_loader.py
Browse files
src/backend/model_loader.py
CHANGED
|
@@ -73,20 +73,21 @@ def load_model(
|
|
| 73 |
model = AutoModelForCausalLM.from_pretrained( model_name, **args)
|
| 74 |
|
| 75 |
# Move modelo para CPU se não há GPU e device_map não foi usado
|
| 76 |
-
if device_map is None and not has_cuda:
|
| 77 |
-
|
| 78 |
|
| 79 |
# Cria pipeline
|
| 80 |
pipeline_kwargs = {
|
| 81 |
"model": model,
|
| 82 |
"tokenizer": tokenizer,
|
|
|
|
| 83 |
}
|
| 84 |
|
| 85 |
# Só adiciona device ao pipeline se não usar device_map no modelo
|
| 86 |
-
if device_map is None:
|
| 87 |
-
|
| 88 |
-
else:
|
| 89 |
-
|
| 90 |
|
| 91 |
pipe = pipeline("text-generation", **pipeline_kwargs)
|
| 92 |
|
|
|
|
| 73 |
model = AutoModelForCausalLM.from_pretrained( model_name, **args)
|
| 74 |
|
| 75 |
# Move modelo para CPU se não há GPU e device_map não foi usado
|
| 76 |
+
#if device_map is None and not has_cuda:
|
| 77 |
+
# model = model.to("cpu")
|
| 78 |
|
| 79 |
# Cria pipeline
|
| 80 |
pipeline_kwargs = {
|
| 81 |
"model": model,
|
| 82 |
"tokenizer": tokenizer,
|
| 83 |
+
'device_map': args["device_map"]
|
| 84 |
}
|
| 85 |
|
| 86 |
# Só adiciona device ao pipeline se não usar device_map no modelo
|
| 87 |
+
#if device_map is None:
|
| 88 |
+
# pipeline_kwargs["device"] = 0 if has_cuda else -1
|
| 89 |
+
#else:
|
| 90 |
+
# pipeline_kwargs["device_map"] = device_map
|
| 91 |
|
| 92 |
pipe = pipeline("text-generation", **pipeline_kwargs)
|
| 93 |
|