dev-mode-orpheus / Dockerfile
Tomtom84's picture
Update Dockerfile
755842e verified
# GPU‑fertige Basis mit Python 3.10, CUDA 12.1, cuDNN 8
FROM pytorch/pytorch:2.2.2-cuda12.1-cudnn8-runtime
# System‑Tools (schlank halten!)
RUN apt-get update && \
apt-get install -y git-lfs build-essential bash \
git \
wget curl procps gnupg \
cmake \
htop vim nano && \
rm -rf /var/lib/apt/lists/*
# Non‑root‑User, weil Spaces das mögen
RUN useradd -m -u 1000 user
USER user
WORKDIR /app
ENV PATH="/home/user/.local/bin:$PATH"
#ENV HF_HOME=/app/.cache # HF‑Cache in deinem Schreib­verzeichnis
# Python-Abhängigkeiten
COPY --chown=user requirements.txt .
RUN pip install --upgrade pip && \
pip install --no-cache-dir -r requirements.txt
# Optional: flash‑attn (Ampere 86 wird erkannt, Wheel vorhanden)
# fertiges Wheel laden (kein nvcc)
RUN pip install --no-cache-dir \
https://github.com/Dao-AILab/flash-attention/releases/download/v2.7.4.post1/flash_attn-2.7.4.post1+cu12torch2.2cxx11abiFALSE-cp310-cp310-linux_x86_64.whl
# Mount das geheime HF‑Token beim Build:
# Settings → Secrets → Name: HF_TOKEN (scope: "read")
#ARG HF_TOKEN
#RUN --mount=type=secret,id=HF_TOKEN \
# echo "machine huggingface.co login __token__ password $(cat /run/secrets/HF_TOKEN)" > ~/.netrc
# App‑Code
COPY --chown=user . /app
CMD ["uvicorn", "app:app", "--host", "0.0.0.0", "--port", "7860"]