OneEyeDJ commited on
Commit
2b3a946
·
verified ·
1 Parent(s): 92fcec0

Update requirements.txt

Browse files
Files changed (1) hide show
  1. requirements.txt +5 -5
requirements.txt CHANGED
@@ -1,9 +1,9 @@
1
  ###############################################################################
2
- # CUDA 12.1 + PyTorch 2.1 (ZeroGPU-friendly)
3
  ###############################################################################
4
- --extra-index-url https://download.pytorch.org/whl/cu121
5
 
6
- torch==2.1.0
7
  torchvision==0.16.0
8
 
9
  ###############################################################################
@@ -40,6 +40,6 @@ sentencepiece
40
  safetensors
41
 
42
  ###############################################################################
43
- # Flash-Attention 2.5.8 — CUDA 12.1, Torch 2.1, Py3.10
44
  ###############################################################################
45
- https://github.com/Dao-AILab/flash-attention/releases/download/v2.5.8/flash_attn-2.5.8+cu121torch2.1cxx11abiFALSE-cp310-cp310-linux_x86_64.whl
 
1
  ###############################################################################
2
+ # CUDA 12.2 + PyTorch 2.1 (ZeroGPU-friendly)
3
  ###############################################################################
4
+ --extra-index-url https://download.pytorch.org/whl/cu122
5
 
6
+ torch==2.1.0 # plain spec → ZeroGPU accepts it
7
  torchvision==0.16.0
8
 
9
  ###############################################################################
 
40
  safetensors
41
 
42
  ###############################################################################
43
+ # Flash-Attention 2.5.8 — CUDA 12.2, Torch 2.1, Python 3.10
44
  ###############################################################################
45
+ https://github.com/Dao-AILab/flash-attention/releases/download/v2.5.8/flash_attn-2.5.8+cu122torch2.1cxx11abiFALSE-cp310-cp310-linux_x86_64.whl