Tomtom84 commited on
Commit
49ee602
·
verified ·
1 Parent(s): efa5012

Update Dockerfile

Browse files
Files changed (1) hide show
  1. Dockerfile +9 -4
Dockerfile CHANGED
@@ -1,9 +1,13 @@
1
- # GPU‑fertige Basis mit Python 3.10, CUDA 11.8, cuDNN 8
2
- FROM pytorch/pytorch:2.2.2-cuda11.8-cudnn8-runtime
3
 
4
  # System‑Tools (schlank halten!)
5
  RUN apt-get update && \
6
- apt-get install -y git-lfs build-essential && \
 
 
 
 
7
  rm -rf /var/lib/apt/lists/*
8
 
9
  # Non‑root‑User, weil Spaces das mögen
@@ -20,7 +24,8 @@ RUN pip install --upgrade pip && \
20
 
21
  # Optional: flash‑attn (Ampere 86 wird erkannt, Wheel vorhanden)
22
  # fertiges Wheel laden (kein nvcc)
23
- RUN pip install --no-cache-dir "flash-attn>=2.6.3,<=2.7" --extra-index-url https://download.pytorch.org/whl/cu118
 
24
 
25
  # Mount das geheime HF‑Token beim Build:
26
  # Settings → Secrets → Name: HF_TOKEN (scope: "read")
 
1
+ # GPU‑fertige Basis mit Python 3.10, CUDA 12.1, cuDNN 8
2
+ FROM pytorch/pytorch:2.2.2-cuda12.1-cudnn8-runtime # ✔ Runtime‑Variante, 3.4 GB :contentReference[oaicite:0]{index=0}
3
 
4
  # System‑Tools (schlank halten!)
5
  RUN apt-get update && \
6
+ apt-get install -y git-lfs build-essential bash \
7
+ git \
8
+ wget curl procps gnupg \
9
+ cmake \
10
+ htop vim nano && \
11
  rm -rf /var/lib/apt/lists/*
12
 
13
  # Non‑root‑User, weil Spaces das mögen
 
24
 
25
  # Optional: flash‑attn (Ampere 86 wird erkannt, Wheel vorhanden)
26
  # fertiges Wheel laden (kein nvcc)
27
+ RUN pip install --no-cache-dir \
28
+ https://github.com/Dao-AILab/flash-attention/releases/download/v2.7.4.post1/flash_attn-2.7.4.post1+cu12torch2.2cxx11abiFALSE-cp310-cp310-linux_x86_64.whl
29
 
30
  # Mount das geheime HF‑Token beim Build:
31
  # Settings → Secrets → Name: HF_TOKEN (scope: "read")