File size: 1,821 Bytes
d681921 dab205a b064448 dab205a b064448 dab205a b064448 dab205a b064448 dab205a b064448 dab205a d681921 | 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 | ############################################################################### # CUDA 12.1 runtime + PyTorch 2.1 wheels (official extra index) ############################################################################### --extra-index-url https://download.pytorch.org/whl/cu121 torch==2.1.0+cu121 # core torchvision==0.16.0+cu121 # must share the same ABI tag ############################################################################### # Transformers / training utils ############################################################################### transformers==4.46.3 accelerate>=0.26.0 bitsandbytes einops numpy<2.0.0 ############################################################################### # Video / image processing ############################################################################### decord imageio imageio-ffmpeg opencv-python-headless ffmpeg-python pillow ############################################################################### # Gradio & web interface ############################################################################### gradio==5.34.0 spaces requests ############################################################################### # HF ecosystem & model I/O ############################################################################### huggingface_hub sentencepiece safetensors ############################################################################### # Flash-Attention 2.5.8 ── prebuilt for # • CUDA 12.2 (binary still works under CUDA ≥12.1 drivers*) # • PyTorch 2.1 # • Python 3.10 (cp310) ############################################################################### https://github.com/Dao-AILab/flash-attention/releases/download/v2.5.8/flash_attn-2.5.8+cu122torch2.1cxx11abiFALSE-cp310-cp310-linux_x86_64.whl |