SimrusDenuvo commited on
Commit
0cc54f4
·
verified ·
1 Parent(s): 24ee971

Update app.py

Browse files
Files changed (1) hide show
  1. app.py +4 -9
app.py CHANGED
@@ -12,24 +12,19 @@ device = torch.device("cuda" if torch.cuda.is_available() else "cpu")
12
  model = model.to(device)
13
 
14
  # Генерация ответа с более точным форматом
 
15
  def generate_response(question):
16
- # Создаем промпт, который будет использоваться для генерации
17
- prompt = f"Вопрос: {question}\nОтвет банка:"
18
-
19
- # Преобразуем запрос в формат, с которым работает модель
20
  inputs = tokenizer(prompt, return_tensors="pt").to(device)
21
 
22
- # Генерируем ответ с ограничениями для предотвращения повторений
23
- outputs = model.generate(**inputs, max_length=100, num_return_sequences=1, do_sample=False, top_p=0.9, top_k=50)
24
 
25
- # Декодируем ответ из токенов в текст
26
  generated = tokenizer.decode(outputs[0], skip_special_tokens=True)
27
-
28
- # Очищаем лишние символы и возвращаем ответ
29
  response = generated.replace(prompt, "").strip()
30
 
31
  return response
32
 
 
33
  # Интерфейс Gradio
34
  iface = gr.Interface(
35
  fn=generate_response,
 
12
  model = model.to(device)
13
 
14
  # Генерация ответа с более точным форматом
15
+ # Генерация ответа
16
  def generate_response(question):
17
+ prompt = f"Вы сотрудник банка. Клиент задает вопрос, и вы должны дать ясный и точный ответ.\nВопрос клиента: {question}\nОтвет банка:"
 
 
 
18
  inputs = tokenizer(prompt, return_tensors="pt").to(device)
19
 
20
+ outputs = model.generate(**inputs, max_new_tokens=100, do_sample=True, top_p=0.95, top_k=50, temperature=0.7)
 
21
 
 
22
  generated = tokenizer.decode(outputs[0], skip_special_tokens=True)
 
 
23
  response = generated.replace(prompt, "").strip()
24
 
25
  return response
26
 
27
+
28
  # Интерфейс Gradio
29
  iface = gr.Interface(
30
  fn=generate_response,