LymphSteamer commited on
Commit
98ba00d
·
verified ·
1 Parent(s): 706e784

Update app.py

Browse files
Files changed (1) hide show
  1. app.py +3 -1
app.py CHANGED
@@ -11,6 +11,7 @@ model = AutoModelForCausalLM.from_pretrained(
11
  trust_remote_code=True
12
  )
13
  model.eval()
 
14
  prompt =("川柳:朝寝坊 言い訳考え また寝なおす 川柳:財布見る まるで冷蔵庫 空っぽだ 川柳:ダイエット 明日からって 五年目だ 川柳:マスク取る 顔が誰だか わからない 川柳:ため息が Wi-Fiよりも よく飛ぶよ 川柳:")
15
  def haiku_generate():
16
  inputs = tokenizer(prompt,return_tensors="pt")
@@ -27,6 +28,7 @@ def haiku_generate():
27
  temperature=1.3,
28
  top_p=0.9
29
  )
 
30
  return tokenizer.decode(outputs[0],skip_special_tokens=True)
31
  def output_extracter():
32
  output_haiku = haiku_generate()
@@ -35,6 +37,6 @@ def output_extracter():
35
  with gr.Blocks() as demo:
36
  output = gr.Textbox(label="俳句")
37
  btn = gr.Button("生成")
38
- btn.click(fn=output_extracter,output_extracter()=output)
39
 
40
  demo.launch()
 
11
  trust_remote_code=True
12
  )
13
  model.eval()
14
+ String generated_haiku
15
  prompt =("川柳:朝寝坊 言い訳考え また寝なおす 川柳:財布見る まるで冷蔵庫 空っぽだ 川柳:ダイエット 明日からって 五年目だ 川柳:マスク取る 顔が誰だか わからない 川柳:ため息が Wi-Fiよりも よく飛ぶよ 川柳:")
16
  def haiku_generate():
17
  inputs = tokenizer(prompt,return_tensors="pt")
 
28
  temperature=1.3,
29
  top_p=0.9
30
  )
31
+ print(tokenizer.decode(outputs[0],skip_special_tokens=True))
32
  return tokenizer.decode(outputs[0],skip_special_tokens=True)
33
  def output_extracter():
34
  output_haiku = haiku_generate()
 
37
  with gr.Blocks() as demo:
38
  output = gr.Textbox(label="俳句")
39
  btn = gr.Button("生成")
40
+ btn.click(fn=output_extracter,outputs=output)
41
 
42
  demo.launch()