Mykes commited on
Commit
5d326e1
·
verified ·
1 Parent(s): e5312e5

Update README.md

Browse files
Files changed (1) hide show
  1. README.md +2 -2
README.md CHANGED
@@ -30,7 +30,7 @@ The fine-tuning process utilized the [Continued Pretraining](https://docs.unslot
30
  - **Languages Supported**: English and Russian
31
  - **Training Method**: [Continued Pretraining](https://docs.unsloth.ai/basics/continued-pretraining)
32
  - **Epochs**: 10
33
- - **Resources**: 1 RTX A5000 24Gb vRAM for approximately 3 days. The cost of finetuning is about $54.
34
  - **License:** This model is distributed under the [Gemma Terms of Use](https://ai.google.dev/gemma/terms)
35
  ### Quantization Options
36
 
@@ -197,7 +197,7 @@ For issues, questions, or suggestions, feel free to open an issue in the reposit
197
  - **Поддерживаемые языки**: Русский и английский
198
  - **Метод обучения**: [Continued Pretraining](https://docs.unsloth.ai/basics/continued-pretraining)
199
  - **Количество эпох**: 10
200
- - **Оборужование**: 1 RTX A5000 24Gb vRAM приблизительно в течение 3-х дней. Общие затраты на файнтюнинг около $54.
201
  - **Лицензия:** Модель распространяетчя по лицензии Google [Gemma Terms of Use](https://ai.google.dev/gemma/terms)
202
  ### Варианты квантизации
203
 
 
30
  - **Languages Supported**: English and Russian
31
  - **Training Method**: [Continued Pretraining](https://docs.unsloth.ai/basics/continued-pretraining)
32
  - **Epochs**: 10
33
+ - **Resources**: 1 RTX A5000 24Gb vRAM for approximately 36 hours. The cost of finetuning is about $8.
34
  - **License:** This model is distributed under the [Gemma Terms of Use](https://ai.google.dev/gemma/terms)
35
  ### Quantization Options
36
 
 
197
  - **Поддерживаемые языки**: Русский и английский
198
  - **Метод обучения**: [Continued Pretraining](https://docs.unsloth.ai/basics/continued-pretraining)
199
  - **Количество эпох**: 10
200
+ - **Оборужование**: 1 RTX A5000 24Gb vRAM приблизительно в течение 36 часов. Общие затраты на файнтюнинг около $8.
201
  - **Лицензия:** Модель распространяетчя по лицензии Google [Gemma Terms of Use](https://ai.google.dev/gemma/terms)
202
  ### Варианты квантизации
203