Update modelo.txt
Browse files- modelo.txt +8 -2
modelo.txt
CHANGED
|
@@ -1,9 +1,15 @@
|
|
| 1 |
Modelo de tarjeta para Mixtral-8x7B
|
| 2 |
|
| 3 |
-
El modelo de lenguaje grande (LLM) Mixtral-8x7B es una mezcla dispersa generativa preentrenada de expertos.
|
|
|
|
|
|
|
| 4 |
|
| 5 |
Para obtener todos los detalles de este modelo, lea nuestra publicación de blog de lanzamiento.
|
| 6 |
|
| 7 |
Advertencia
|
| 8 |
|
| 9 |
-
Este repositorio contiene pesos que son compatibles con el servicio vLLM del modelo, así como con la biblioteca de transformadores Hugging Face.
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
| 1 |
Modelo de tarjeta para Mixtral-8x7B
|
| 2 |
|
| 3 |
+
El modelo de lenguaje grande (LLM) Mixtral-8x7B es una mezcla dispersa generativa preentrenada de expertos.
|
| 4 |
+
|
| 5 |
+
El Mixtral-8x7B supera al Llama 2 70B en la mayoría de los puntos de referencia que probamos.
|
| 6 |
|
| 7 |
Para obtener todos los detalles de este modelo, lea nuestra publicación de blog de lanzamiento.
|
| 8 |
|
| 9 |
Advertencia
|
| 10 |
|
| 11 |
+
Este repositorio contiene pesos que son compatibles con el servicio vLLM del modelo, así como con la biblioteca de transformadores Hugging Face.
|
| 12 |
+
|
| 13 |
+
Se basa en la versión original de Mixtral torrent, pero el formato de archivo y los nombres de los parámetros son diferentes.
|
| 14 |
+
|
| 15 |
+
Tenga en cuenta que el modelo no se puede (todavía) instanciar con HF.
|