| ############################################################################### |
| # CUDA 12.1 runtime + PyTorch 2.1 wheels (official extra index) |
| ############################################################################### |
| --extra-index-url https://download.pytorch.org/whl/cu121 |
|
|
| torch==2.1.0+cu121 # core |
| torchvision==0.16.0+cu121 # must share the same ABI tag |
|
|
| ############################################################################### |
| # Transformers / training utils |
| ############################################################################### |
| transformers==4.46.3 |
| accelerate>=0.26.0 |
| bitsandbytes |
| einops |
| numpy<2.0.0 |
|
|
| ############################################################################### |
| # Video / image processing |
| ############################################################################### |
| decord |
| imageio |
| imageio-ffmpeg |
| opencv-python-headless |
| ffmpeg-python |
| pillow |
|
|
| ############################################################################### |
| # Gradio & web interface |
| ############################################################################### |
| gradio==5.34.0 |
| spaces |
| requests |
|
|
| ############################################################################### |
| # HF ecosystem & model I/O |
| ############################################################################### |
| huggingface_hub |
| sentencepiece |
| safetensors |
|
|
| ############################################################################### |
| # Flash-Attention 2.5.8 ── prebuilt for |
| # • CUDA 12.2 (binary still works under CUDA ≥12.1 drivers*) |
| # • PyTorch 2.1 |
| # • Python 3.10 (cp310) |
| ############################################################################### |
| https://github.com/Dao-AILab/flash-attention/releases/download/v2.5.8/flash_attn-2.5.8+cu122torch2.1cxx11abiFALSE-cp310-cp310-linux_x86_64.whl |