Update with commit 66047640076a60e27c031726ec489e0b79143150
Browse filesSee: https://github.com/huggingface/transformers/commit/66047640076a60e27c031726ec489e0b79143150
- frameworks.json +1 -0
- pipeline_tags.json +4 -0
frameworks.json
CHANGED
|
@@ -79,6 +79,7 @@
|
|
| 79 |
{"model_type":"gemma","pytorch":true,"tensorflow":false,"flax":true,"processor":"AutoTokenizer"}
|
| 80 |
{"model_type":"gemma2","pytorch":true,"tensorflow":false,"flax":false,"processor":"AutoTokenizer"}
|
| 81 |
{"model_type":"git","pytorch":true,"tensorflow":false,"flax":false,"processor":"AutoProcessor"}
|
|
|
|
| 82 |
{"model_type":"glpn","pytorch":true,"tensorflow":false,"flax":false,"processor":"AutoImageProcessor"}
|
| 83 |
{"model_type":"gpt2","pytorch":true,"tensorflow":true,"flax":true,"processor":"AutoTokenizer"}
|
| 84 |
{"model_type":"gpt_bigcode","pytorch":true,"tensorflow":false,"flax":false,"processor":"AutoTokenizer"}
|
|
|
|
| 79 |
{"model_type":"gemma","pytorch":true,"tensorflow":false,"flax":true,"processor":"AutoTokenizer"}
|
| 80 |
{"model_type":"gemma2","pytorch":true,"tensorflow":false,"flax":false,"processor":"AutoTokenizer"}
|
| 81 |
{"model_type":"git","pytorch":true,"tensorflow":false,"flax":false,"processor":"AutoProcessor"}
|
| 82 |
+
{"model_type":"glm","pytorch":true,"tensorflow":false,"flax":false,"processor":"AutoTokenizer"}
|
| 83 |
{"model_type":"glpn","pytorch":true,"tensorflow":false,"flax":false,"processor":"AutoImageProcessor"}
|
| 84 |
{"model_type":"gpt2","pytorch":true,"tensorflow":true,"flax":true,"processor":"AutoTokenizer"}
|
| 85 |
{"model_type":"gpt_bigcode","pytorch":true,"tensorflow":false,"flax":false,"processor":"AutoTokenizer"}
|
pipeline_tags.json
CHANGED
|
@@ -402,6 +402,10 @@
|
|
| 402 |
{"model_class":"GemmaModel","pipeline_tag":"feature-extraction","auto_class":"AutoModel"}
|
| 403 |
{"model_class":"GitForCausalLM","pipeline_tag":"text-generation","auto_class":"AutoModelForCausalLM"}
|
| 404 |
{"model_class":"GitModel","pipeline_tag":"feature-extraction","auto_class":"AutoModel"}
|
|
|
|
|
|
|
|
|
|
|
|
|
| 405 |
{"model_class":"GraniteForCausalLM","pipeline_tag":"text-generation","auto_class":"AutoModelForCausalLM"}
|
| 406 |
{"model_class":"GraniteModel","pipeline_tag":"feature-extraction","auto_class":"AutoModel"}
|
| 407 |
{"model_class":"GraniteMoeForCausalLM","pipeline_tag":"text-generation","auto_class":"AutoModelForCausalLM"}
|
|
|
|
| 402 |
{"model_class":"GemmaModel","pipeline_tag":"feature-extraction","auto_class":"AutoModel"}
|
| 403 |
{"model_class":"GitForCausalLM","pipeline_tag":"text-generation","auto_class":"AutoModelForCausalLM"}
|
| 404 |
{"model_class":"GitModel","pipeline_tag":"feature-extraction","auto_class":"AutoModel"}
|
| 405 |
+
{"model_class":"GlmForCausalLM","pipeline_tag":"text-generation","auto_class":"AutoModelForCausalLM"}
|
| 406 |
+
{"model_class":"GlmForSequenceClassification","pipeline_tag":"text-classification","auto_class":"AutoModelForSequenceClassification"}
|
| 407 |
+
{"model_class":"GlmForTokenClassification","pipeline_tag":"token-classification","auto_class":"AutoModelForTokenClassification"}
|
| 408 |
+
{"model_class":"GlmModel","pipeline_tag":"feature-extraction","auto_class":"AutoModel"}
|
| 409 |
{"model_class":"GraniteForCausalLM","pipeline_tag":"text-generation","auto_class":"AutoModelForCausalLM"}
|
| 410 |
{"model_class":"GraniteModel","pipeline_tag":"feature-extraction","auto_class":"AutoModel"}
|
| 411 |
{"model_class":"GraniteMoeForCausalLM","pipeline_tag":"text-generation","auto_class":"AutoModelForCausalLM"}
|