OneEyeDJ commited on
Commit
f071a2f
·
verified ·
1 Parent(s): b023837

Update requirements.txt

Browse files
Files changed (1) hide show
  1. requirements.txt +5 -3
requirements.txt CHANGED
@@ -1,5 +1,5 @@
1
  ###############################################################################
2
- # CUDA 12.2 + PyTorch 2.1 #
3
  ###############################################################################
4
  --extra-index-url https://download.pytorch.org/whl/cu122
5
 
@@ -39,5 +39,7 @@ huggingface_hub
39
  sentencepiece
40
  safetensors
41
 
42
- # Flash-Attention 2.5.8 compiled for CU12.2, Torch 2.1, Python 3.10
43
- https://github.com/Dao-AILab/flash-attention/releases/download/v2.5.8/flash_attn-2.5.8+cu122torch2.1cxx11abiFALSE-cp310-cp310-linux_x86_64.whl :contentReference[oaicite:0]{index=0}
 
 
 
1
  ###############################################################################
2
+ # CUDA 12.2 + PyTorch 2.1
3
  ###############################################################################
4
  --extra-index-url https://download.pytorch.org/whl/cu122
5
 
 
39
  sentencepiece
40
  safetensors
41
 
42
+ ###############################################################################
43
+ # Flash-Attention 2.5.8 — CUDA 12.2, Torch 2.1, Python 3.10
44
+ ###############################################################################
45
+ https://github.com/Dao-AILab/flash-attention/releases/download/v2.5.8/flash_attn-2.5.8+cu122torch2.1cxx11abiFALSE-cp310-cp310-linux_x86_64.whl