oiisa commited on
Commit
1e4a5e4
·
verified ·
1 Parent(s): 3958793

Update Dockerfile

Browse files
Files changed (1) hide show
  1. Dockerfile +10 -8
Dockerfile CHANGED
@@ -1,6 +1,7 @@
 
1
  FROM python:3.10-slim
2
 
3
- # Переменные окружения чтобы избежать ошибок прав доступа к кэшу
4
  ENV HF_HOME=/tmp/huggingface
5
  ENV TRANSFORMERS_CACHE=/tmp/huggingface
6
 
@@ -11,28 +12,29 @@ RUN apt-get update && apt-get install -y \
11
  git \
12
  && rm -rf /var/lib/apt/lists/*
13
 
 
14
  WORKDIR /app
15
 
16
  # Копируем зависимости
17
  COPY requirements.txt .
18
 
19
- # Устанавливаем Python зависимости совместимым Torch)
20
- RUN pip install --no-cache-dir torch==2.2.0 torchvision==0.17.0 torchaudio==2.2.0 --index-url https://download.pytorch.org/whl/cpu
21
  RUN pip install --no-cache-dir -r requirements.txt
22
 
23
- # Кэшируем модель, чтобы не качалась при каждом запуске
24
  RUN python -c "from transformers import AutoTokenizer, AutoModelForCausalLM; \
25
  AutoTokenizer.from_pretrained('sberbank-ai/rugpt3small_based_on_gpt2'); \
26
  AutoModelForCausalLM.from_pretrained('sberbank-ai/rugpt3small_based_on_gpt2')"
27
 
28
- # Копируем проект
29
  COPY . .
30
 
31
- # Даём права
32
  RUN chmod -R 777 /app /tmp
33
 
34
- # Экспонируем порт
35
  EXPOSE 8501
36
 
37
- # Запускаем Streamlit
38
  CMD ["streamlit", "run", "app.py", "--server.port=8501", "--server.address=0.0.0.0"]
 
1
+ # Базовый образ Python
2
  FROM python:3.10-slim
3
 
4
+ # Переменные окружения для кэша Hugging Face (чтобы не было ошибок с правами)
5
  ENV HF_HOME=/tmp/huggingface
6
  ENV TRANSFORMERS_CACHE=/tmp/huggingface
7
 
 
12
  git \
13
  && rm -rf /var/lib/apt/lists/*
14
 
15
+ # Рабочая папка
16
  WORKDIR /app
17
 
18
  # Копируем зависимости
19
  COPY requirements.txt .
20
 
21
+ # Устанавливаем PyTorch (CPU-версия) + зависимости из requirements.txt
22
+ RUN pip install --no-cache-dir torch==2.2.0 torchvision==0.17.0 torchaudio==2.2.0 -f https://download.pytorch.org/whl/cpu
23
  RUN pip install --no-cache-dir -r requirements.txt
24
 
25
+ # Предзагружаем модель, чтобы не качалась при каждом запуске
26
  RUN python -c "from transformers import AutoTokenizer, AutoModelForCausalLM; \
27
  AutoTokenizer.from_pretrained('sberbank-ai/rugpt3small_based_on_gpt2'); \
28
  AutoModelForCausalLM.from_pretrained('sberbank-ai/rugpt3small_based_on_gpt2')"
29
 
30
+ # Копируем приложение
31
  COPY . .
32
 
33
+ # Разрешаем доступ на запись
34
  RUN chmod -R 777 /app /tmp
35
 
36
+ # Порт Streamlit
37
  EXPOSE 8501
38
 
39
+ # Запуск Streamlit
40
  CMD ["streamlit", "run", "app.py", "--server.port=8501", "--server.address=0.0.0.0"]