fhenrivx commited on
Commit
7222081
·
verified ·
1 Parent(s): c1557bb

Update README.md

Browse files
Files changed (1) hide show
  1. README.md +17 -5
README.md CHANGED
@@ -1,3 +1,19 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
  KDBERT: MODELO BASEADO EM TRANSFORMADORS PARA COMPREENSÃO DA LÍNGUA KIKONGO
2
 
3
  KDBERT: TRANSFORMER-BASED MODEL FOR UNDERSTANDING THE KIKONGO LANGUAGE
@@ -180,8 +196,4 @@ Rodrigues, J. (2016). Treinamento de Word Embeddings para o Português do Brasil
180
  Rodrigues, J. M. N. (2011). Uso da sumarização automática de textos na representação da informação e do conhecimento. Anais do II Congresso ISKO Espanha-Portugal e IX Congresso ISKO Espanha. https://isko.org.br/ojs/index.php/iskobrasil/article/view/119
181
  Soliman, A., Eissa, K., & El-Beltagy, S. R. (2017). Building and evaluating Arabic word embeddings. Procedia Computer Science, 117, 256–265. https://doi.org/10.1016/j.procs.2017.10.117
182
  Yang, Z., Dai, Z., Yang, Y., Carbonell, J., Salakhutdinov, R., & Le, Q. V. (2019). XLNet: Generalized Autoregressive Pretraining for Language Understanding. Advances in Neural Information Processing Systems, 32.
183
- https://proceedings.neurips.cc/paper/2019/hash/dc6a7e655d7e5840e66733e9ee67cc69-Abstract.html
184
-
185
-
186
-
187
-
 
1
+ ---
2
+ license: apache-2.0
3
+ datasets:
4
+ - TeichAI/kimi-k2-thinking-1000x
5
+ language:
6
+ - aa
7
+ metrics:
8
+ - accuracy
9
+ base_model:
10
+ - Disty0/Z-Image-Turbo-SDNQ-uint4-svd-r32
11
+ new_version: Tongyi-MAI/Z-Image-Turbo
12
+ pipeline_tag: token-classification
13
+ library_name: adapter-transformers
14
+ tags:
15
+ - agent
16
+ ---
17
  KDBERT: MODELO BASEADO EM TRANSFORMADORS PARA COMPREENSÃO DA LÍNGUA KIKONGO
18
 
19
  KDBERT: TRANSFORMER-BASED MODEL FOR UNDERSTANDING THE KIKONGO LANGUAGE
 
196
  Rodrigues, J. M. N. (2011). Uso da sumarização automática de textos na representação da informação e do conhecimento. Anais do II Congresso ISKO Espanha-Portugal e IX Congresso ISKO Espanha. https://isko.org.br/ojs/index.php/iskobrasil/article/view/119
197
  Soliman, A., Eissa, K., & El-Beltagy, S. R. (2017). Building and evaluating Arabic word embeddings. Procedia Computer Science, 117, 256–265. https://doi.org/10.1016/j.procs.2017.10.117
198
  Yang, Z., Dai, Z., Yang, Y., Carbonell, J., Salakhutdinov, R., & Le, Q. V. (2019). XLNet: Generalized Autoregressive Pretraining for Language Understanding. Advances in Neural Information Processing Systems, 32.
199
+ https://proceedings.neurips.cc/paper/2019/hash/dc6a7e655d7e5840e66733e9ee67cc69-Abstract.html