LymphSteamer commited on
Commit
d0f7a6f
·
verified ·
1 Parent(s): 1b55c0b

Update app.py

Browse files
Files changed (1) hide show
  1. app.py +10 -11
app.py CHANGED
@@ -1,18 +1,17 @@
1
  import gradio as gr
2
  from transformers import AutoTokenizer,AutoModelForCausalLM
3
  import torch
 
 
 
 
 
 
 
 
 
 
4
  def haiku_generate():
5
- model_id = "rinna/japanese-gpt2-small"
6
- tokenizer = AutoTokenizer.from_pretrained(model_id,use_fast=False,trust_remote_code=True)
7
- model = AutoModelForCausalLM.from_pretrained(
8
- model_id,
9
- device_map="auto",
10
- torch_dtype=torch.float16 if torch.cuda.is_available() else torch.float32,
11
- low_cpu_mem_usage=True,
12
- trust_remote_code=True
13
- )
14
- model.eval()
15
-
16
  prompt =("以下は五・七・五の形式で作られた日本語の川柳です:\n川柳:朝寝坊 言い訳考え また寝なおす\n川柳:財布見る まるで冷蔵庫 空っぽだ\n川柳:ダイエット 明日からって 五年目だ\n川柳:マスク取る 顔が誰だか わからない\n川柳:ため息が Wi-Fiよりも よく飛ぶよ\n川柳:")
17
  inputs = tokenizer(prompt,return_tensors="pt")
18
  if not torch.cuda.is_available():
 
1
  import gradio as gr
2
  from transformers import AutoTokenizer,AutoModelForCausalLM
3
  import torch
4
+ model_id = "rinna/japanese-gpt2-small"
5
+ tokenizer = AutoTokenizer.from_pretrained(model_id,use_fast=False,trust_remote_code=True)
6
+ model = AutoModelForCausalLM.from_pretrained(
7
+ model_id,
8
+ device_map="auto",
9
+ torch_dtype=torch.float16 if torch.cuda.is_available() else torch.float32,
10
+ low_cpu_mem_usage=True,
11
+ trust_remote_code=True
12
+ )
13
+ model.eval()
14
  def haiku_generate():
 
 
 
 
 
 
 
 
 
 
 
15
  prompt =("以下は五・七・五の形式で作られた日本語の川柳です:\n川柳:朝寝坊 言い訳考え また寝なおす\n川柳:財布見る まるで冷蔵庫 空っぽだ\n川柳:ダイエット 明日からって 五年目だ\n川柳:マスク取る 顔が誰だか わからない\n川柳:ため息が Wi-Fiよりも よく飛ぶよ\n川柳:")
16
  inputs = tokenizer(prompt,return_tensors="pt")
17
  if not torch.cuda.is_available():