Spaces:
Running
Running
Update app.py
Browse files
app.py
CHANGED
@@ -12,24 +12,19 @@ device = torch.device("cuda" if torch.cuda.is_available() else "cpu")
|
|
12 |
model = model.to(device)
|
13 |
|
14 |
# Генерация ответа с более точным форматом
|
|
|
15 |
def generate_response(question):
|
16 |
-
|
17 |
-
prompt = f"Вопрос: {question}\nОтвет банка:"
|
18 |
-
|
19 |
-
# Преобразуем запрос в формат, с которым работает модель
|
20 |
inputs = tokenizer(prompt, return_tensors="pt").to(device)
|
21 |
|
22 |
-
|
23 |
-
outputs = model.generate(**inputs, max_length=100, num_return_sequences=1, do_sample=False, top_p=0.9, top_k=50)
|
24 |
|
25 |
-
# Декодируем ответ из токенов в текст
|
26 |
generated = tokenizer.decode(outputs[0], skip_special_tokens=True)
|
27 |
-
|
28 |
-
# Очищаем лишние символы и возвращаем ответ
|
29 |
response = generated.replace(prompt, "").strip()
|
30 |
|
31 |
return response
|
32 |
|
|
|
33 |
# Интерфейс Gradio
|
34 |
iface = gr.Interface(
|
35 |
fn=generate_response,
|
|
|
12 |
model = model.to(device)
|
13 |
|
14 |
# Генерация ответа с более точным форматом
|
15 |
+
# Генерация ответа
|
16 |
def generate_response(question):
|
17 |
+
prompt = f"Вы — сотрудник банка. Клиент задает вопрос, и вы должны дать ясный и точный ответ.\nВопрос клиента: {question}\nОтвет банка:"
|
|
|
|
|
|
|
18 |
inputs = tokenizer(prompt, return_tensors="pt").to(device)
|
19 |
|
20 |
+
outputs = model.generate(**inputs, max_new_tokens=100, do_sample=True, top_p=0.95, top_k=50, temperature=0.7)
|
|
|
21 |
|
|
|
22 |
generated = tokenizer.decode(outputs[0], skip_special_tokens=True)
|
|
|
|
|
23 |
response = generated.replace(prompt, "").strip()
|
24 |
|
25 |
return response
|
26 |
|
27 |
+
|
28 |
# Интерфейс Gradio
|
29 |
iface = gr.Interface(
|
30 |
fn=generate_response,
|