Update README.md
Browse files
README.md
CHANGED
|
@@ -1,3 +1,19 @@
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
| 1 |
KDBERT: MODELO BASEADO EM TRANSFORMADORS PARA COMPREENSÃO DA LÍNGUA KIKONGO
|
| 2 |
|
| 3 |
KDBERT: TRANSFORMER-BASED MODEL FOR UNDERSTANDING THE KIKONGO LANGUAGE
|
|
@@ -180,8 +196,4 @@ Rodrigues, J. (2016). Treinamento de Word Embeddings para o Português do Brasil
|
|
| 180 |
Rodrigues, J. M. N. (2011). Uso da sumarização automática de textos na representação da informação e do conhecimento. Anais do II Congresso ISKO Espanha-Portugal e IX Congresso ISKO Espanha. https://isko.org.br/ojs/index.php/iskobrasil/article/view/119
|
| 181 |
Soliman, A., Eissa, K., & El-Beltagy, S. R. (2017). Building and evaluating Arabic word embeddings. Procedia Computer Science, 117, 256–265. https://doi.org/10.1016/j.procs.2017.10.117
|
| 182 |
Yang, Z., Dai, Z., Yang, Y., Carbonell, J., Salakhutdinov, R., & Le, Q. V. (2019). XLNet: Generalized Autoregressive Pretraining for Language Understanding. Advances in Neural Information Processing Systems, 32.
|
| 183 |
-
https://proceedings.neurips.cc/paper/2019/hash/dc6a7e655d7e5840e66733e9ee67cc69-Abstract.html
|
| 184 |
-
|
| 185 |
-
|
| 186 |
-
|
| 187 |
-
|
|
|
|
| 1 |
+
---
|
| 2 |
+
license: apache-2.0
|
| 3 |
+
datasets:
|
| 4 |
+
- TeichAI/kimi-k2-thinking-1000x
|
| 5 |
+
language:
|
| 6 |
+
- aa
|
| 7 |
+
metrics:
|
| 8 |
+
- accuracy
|
| 9 |
+
base_model:
|
| 10 |
+
- Disty0/Z-Image-Turbo-SDNQ-uint4-svd-r32
|
| 11 |
+
new_version: Tongyi-MAI/Z-Image-Turbo
|
| 12 |
+
pipeline_tag: token-classification
|
| 13 |
+
library_name: adapter-transformers
|
| 14 |
+
tags:
|
| 15 |
+
- agent
|
| 16 |
+
---
|
| 17 |
KDBERT: MODELO BASEADO EM TRANSFORMADORS PARA COMPREENSÃO DA LÍNGUA KIKONGO
|
| 18 |
|
| 19 |
KDBERT: TRANSFORMER-BASED MODEL FOR UNDERSTANDING THE KIKONGO LANGUAGE
|
|
|
|
| 196 |
Rodrigues, J. M. N. (2011). Uso da sumarização automática de textos na representação da informação e do conhecimento. Anais do II Congresso ISKO Espanha-Portugal e IX Congresso ISKO Espanha. https://isko.org.br/ojs/index.php/iskobrasil/article/view/119
|
| 197 |
Soliman, A., Eissa, K., & El-Beltagy, S. R. (2017). Building and evaluating Arabic word embeddings. Procedia Computer Science, 117, 256–265. https://doi.org/10.1016/j.procs.2017.10.117
|
| 198 |
Yang, Z., Dai, Z., Yang, Y., Carbonell, J., Salakhutdinov, R., & Le, Q. V. (2019). XLNet: Generalized Autoregressive Pretraining for Language Understanding. Advances in Neural Information Processing Systems, 32.
|
| 199 |
+
https://proceedings.neurips.cc/paper/2019/hash/dc6a7e655d7e5840e66733e9ee67cc69-Abstract.html
|
|
|
|
|
|
|
|
|
|
|
|