Spaces:
Sleeping
Sleeping
Update app.py
Browse files
app.py
CHANGED
@@ -2,10 +2,10 @@ import streamlit as st
|
|
2 |
from transformers import AutoModelForCausalLM, AutoTokenizer
|
3 |
import torch
|
4 |
|
5 |
-
st.set_page_config(page_title="ИТМО Магистратура Чат-бот", page_icon="🎓")
|
6 |
-
st.title("🎓 Чат-бот про магистратуру ИТМО на русском")
|
7 |
|
8 |
-
MODEL_NAME = "
|
9 |
|
10 |
@st.cache_resource
|
11 |
def load_model():
|
@@ -20,9 +20,7 @@ tokenizer, model = load_model()
|
|
20 |
if "history" not in st.session_state:
|
21 |
st.session_state.history = []
|
22 |
|
23 |
-
SYSTEM_PROMPT = """Вы являетесь виртуальным помощником для абитуриентов магистратуры Университета ИТМО.
|
24 |
-
Отвечаете на вопросы о магистерских программах ИТМО.
|
25 |
-
"""
|
26 |
|
27 |
user_input = st.text_input("Введите ваш вопрос про магистратуру ИТМО:")
|
28 |
|
|
|
2 |
from transformers import AutoModelForCausalLM, AutoTokenizer
|
3 |
import torch
|
4 |
|
5 |
+
st.set_page_config(page_title="ИТМО Магистратура Чат-бот (Saiga Llama3 8B)", page_icon="🎓")
|
6 |
+
st.title("🎓 Чат-бот про магистратуру ИТМО на русском с Saiga Llama3 8B")
|
7 |
|
8 |
+
MODEL_NAME = "IlyaGusev/saiga_llama3_8b"
|
9 |
|
10 |
@st.cache_resource
|
11 |
def load_model():
|
|
|
20 |
if "history" not in st.session_state:
|
21 |
st.session_state.history = []
|
22 |
|
23 |
+
SYSTEM_PROMPT = """Вы являетесь виртуальным помощником для абитуриентов магистратуры Университета ИТМО. Отвечаете на вопросы о магистерских программах ИТМО."""
|
|
|
|
|
24 |
|
25 |
user_input = st.text_input("Введите ваш вопрос про магистратуру ИТМО:")
|
26 |
|