Spaces:
Paused
Paused
Update Dockerfile
Browse files- Dockerfile +9 -4
Dockerfile
CHANGED
@@ -1,9 +1,13 @@
|
|
1 |
-
# GPU‑fertige Basis mit Python 3.10, CUDA
|
2 |
-
FROM pytorch/pytorch:2.2.2-
|
3 |
|
4 |
# System‑Tools (schlank halten!)
|
5 |
RUN apt-get update && \
|
6 |
-
apt-get install -y git-lfs build-essential
|
|
|
|
|
|
|
|
|
7 |
rm -rf /var/lib/apt/lists/*
|
8 |
|
9 |
# Non‑root‑User, weil Spaces das mögen
|
@@ -20,7 +24,8 @@ RUN pip install --upgrade pip && \
|
|
20 |
|
21 |
# Optional: flash‑attn (Ampere 86 wird erkannt, Wheel vorhanden)
|
22 |
# fertiges Wheel laden (kein nvcc)
|
23 |
-
RUN pip install --no-cache-dir
|
|
|
24 |
|
25 |
# Mount das geheime HF‑Token beim Build:
|
26 |
# Settings → Secrets → Name: HF_TOKEN (scope: "read")
|
|
|
1 |
+
# GPU‑fertige Basis mit Python 3.10, CUDA 12.1, cuDNN 8
|
2 |
+
FROM pytorch/pytorch:2.2.2-cuda12.1-cudnn8-runtime # ✔ Runtime‑Variante, 3.4 GB :contentReference[oaicite:0]{index=0}
|
3 |
|
4 |
# System‑Tools (schlank halten!)
|
5 |
RUN apt-get update && \
|
6 |
+
apt-get install -y git-lfs build-essential bash \
|
7 |
+
git \
|
8 |
+
wget curl procps gnupg \
|
9 |
+
cmake \
|
10 |
+
htop vim nano && \
|
11 |
rm -rf /var/lib/apt/lists/*
|
12 |
|
13 |
# Non‑root‑User, weil Spaces das mögen
|
|
|
24 |
|
25 |
# Optional: flash‑attn (Ampere 86 wird erkannt, Wheel vorhanden)
|
26 |
# fertiges Wheel laden (kein nvcc)
|
27 |
+
RUN pip install --no-cache-dir \
|
28 |
+
https://github.com/Dao-AILab/flash-attention/releases/download/v2.7.4.post1/flash_attn-2.7.4.post1+cu12torch2.2cxx11abiFALSE-cp310-cp310-linux_x86_64.whl
|
29 |
|
30 |
# Mount das geheime HF‑Token beim Build:
|
31 |
# Settings → Secrets → Name: HF_TOKEN (scope: "read")
|