File size: 1,821 Bytes
d681921
 
 
 
 
 
 
dab205a
 
 
 
b064448
 
 
dab205a
 
b064448
dab205a
 
 
b064448
 
 
 
 
 
 
dab205a
 
 
b064448
 
 
 
dab205a
 
 
b064448
 
dab205a
 
d681921
 
 
 
 
 
 
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
###############################################################################
#  CUDA 12.1 runtime  +  PyTorch 2.1 wheels  (official extra index)
###############################################################################
--extra-index-url https://download.pytorch.org/whl/cu121

torch==2.1.0+cu121            # core
torchvision==0.16.0+cu121     # must share the same ABI tag

###############################################################################
# Transformers / training utils
###############################################################################
transformers==4.46.3
accelerate>=0.26.0
bitsandbytes
einops
numpy<2.0.0

###############################################################################
# Video / image processing
###############################################################################
decord
imageio
imageio-ffmpeg
opencv-python-headless
ffmpeg-python
pillow

###############################################################################
# Gradio & web interface
###############################################################################
gradio==5.34.0
spaces
requests

###############################################################################
# HF ecosystem & model I/O
###############################################################################
huggingface_hub
sentencepiece
safetensors

###############################################################################
# Flash-Attention 2.5.8  ── prebuilt for
#   • CUDA 12.2 (binary still works under CUDA ≥12.1 drivers*)
#   • PyTorch 2.1
#   • Python 3.10  (cp310)
###############################################################################
https://github.com/Dao-AILab/flash-attention/releases/download/v2.5.8/flash_attn-2.5.8+cu122torch2.1cxx11abiFALSE-cp310-cp310-linux_x86_64.whl