Spaces:
Build error
Build error
# --- Stage 1: Frontend Build --- | |
FROM node:20-slim as frontend-builder | |
WORKDIR /app/frontend | |
# package.json 및 package-lock.json 복사 | |
COPY frontend/package*.json ./ | |
# 의존성 설치 | |
RUN npm install | |
# 나머지 프론트엔드 코드 복사 | |
COPY frontend/ . | |
# 프론트엔드 빌드 (Vue CLI 프로젝트의 경우 'npm run build'가 적합) | |
RUN npm run build | |
# --- Stage 2: Backend and Combined Serving via FastAPI (Uvicorn) --- | |
FROM python:3.11-slim-bookworm | |
WORKDIR /app | |
# 시스템 패키지 업데이트 및 build-essential (Python 패키지 빌드용), curl, git 설치 | |
# Ollama 설치 스크립트가 필요 없으므로 bash는 제거 가능하지만, 다른 용도로 필요할 수 있어 유지합니다. | |
RUN apt-get update && apt-get install -y --no-install-recommends \ | |
build-essential \ | |
curl \ | |
git \ | |
bash \ | |
&& rm -rf /var/lib/apt/lists/* | |
# Python 종속성 설치 | |
COPY backend/requirements.txt ./backend/requirements.txt | |
RUN pip install --no-cache-dir -r backend/requirements.txt | |
# 백엔드 소스 코드 복사 | |
COPY backend/ ./backend/ | |
# Hugging Face 캐시 디렉토리 설정 (모델이 직접 다운로드되지 않으므로 필요 없을 수 있지만, 안전을 위해 유지) | |
ENV TRANSFORMERS_CACHE="/tmp/hf_cache" | |
ENV HF_HOME="/tmp/hf_cache" | |
# ✨ Ollama 설치 및 모델 다운로드 단계 제거 ✨ | |
# 이 부분은 Hugging Face Spaces 환경에서 관리됩니다. | |
# RUN curl -fsSL https://ollama.com/install.sh | sh | |
# RUN sh -c "ollama serve & \ | |
# ATTEMPTS=0; \ | |
# while ! curl -s http://localhost:11434 > /dev/null && ATTEMPTS < 30; do \ | |
# ATTEMPTS=$((ATTEMPTS+1)); \ | |
# echo 'Waiting for Ollama server to start... (Attempt '$ATTEMPTS'/30)'; \ | |
# sleep 2; \ | |
# done; \ | |
# if [ $ATTEMPTS -eq 30 ]; then \ | |
# echo 'Ollama server did not start in time. Exiting.'; \ | |
# exit 1; \ | |
# fi; \ | |
# echo 'Ollama server started. Pulling model...'; \ | |
# ollama pull hf.co/DevQuasar/naver-hyperclovax.HyperCLOVAX-SEED-Text-Instruct-0.5B-GGUF:F16" | |
# 프론트엔드 빌드 결과물을 백엔드 앱이 접근할 수 있는 경로로 복사합니다. | |
# /app/static 폴더를 만들고 그 안에 Vue.js 빌드 결과물을 넣습니다. | |
RUN mkdir -p /app/static | |
COPY --from=frontend-builder /app/frontend/dist /app/static | |
# 최종 실행 명령어 | |
# 애플리케이션 포트 설정 (허깅페이스 스페이스는 7860번 포트를 사용) | |
EXPOSE 7860 | |
# CMD를 수정하여 Uvicorn만 실행합니다. | |
# Ollama 서버는 Hugging Face Spaces 환경에서 별도로 관리됩니다. | |
# 백엔드 main.py의 `OLLAMA_API_BASE_URL` 환경 변수가 `http://127.0.0.1:11434`로 설정되어 있는지 확인하세요. | |
# (Hugging Face Spaces에서 Ollama SDK를 사용하면 보통 이 주소로 접근 가능합니다.) | |
# 수정: ${PORT:-7860} 대신 7860을 직접 사용하거나, sh -c로 쉘이 환경 변수를 해석하도록 합니다. | |
CMD ["sh", "-c", "uvicorn main:app --host 0.0.0.0 --port ${PORT:-7860} --app-dir backend/app"] | |