Update app.py
Browse files
app.py
CHANGED
@@ -10,18 +10,42 @@ from huggingface_hub import login
|
|
10 |
logging.basicConfig(level=logging.INFO, format='%(asctime)s - %(levelname)s - %(message)s')
|
11 |
|
12 |
# Đăng nhập Hugging Face
|
13 |
-
|
|
|
|
|
|
|
|
|
|
|
14 |
|
15 |
app = Flask(__name__)
|
16 |
|
17 |
# Load mô hình
|
18 |
logging.info("Loading nguyenvulebinh/vi-mrc-base...")
|
19 |
-
|
20 |
-
|
21 |
-
|
22 |
-
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
23 |
)
|
24 |
|
|
|
25 |
@app.route("/api/answer", methods=["POST"])
|
26 |
def answer():
|
27 |
try:
|
@@ -39,18 +63,18 @@ def answer():
|
|
39 |
logging.error(f"API error: {e}")
|
40 |
return jsonify({"error": str(e)}), 500
|
41 |
|
42 |
-
#
|
43 |
-
|
44 |
-
|
45 |
-
return
|
46 |
|
47 |
-
|
48 |
-
|
49 |
-
|
50 |
-
|
51 |
-
|
52 |
-
description="Nhập câu hỏi và ngữ cảnh để nhận câu trả lời về nông nghiệp."
|
53 |
-
)
|
54 |
|
55 |
if __name__ == "__main__":
|
|
|
|
|
56 |
app.run(host="0.0.0.0", port=7860)
|
|
|
10 |
logging.basicConfig(level=logging.INFO, format='%(asctime)s - %(levelname)s - %(message)s')
|
11 |
|
12 |
# Đăng nhập Hugging Face
|
13 |
+
try:
|
14 |
+
login(token=os.getenv("HF_TOKEN"))
|
15 |
+
logging.info("Logged in to Hugging Face Hub successfully")
|
16 |
+
except Exception as e:
|
17 |
+
logging.error(f"Failed to login to Hugging Face Hub: {e}")
|
18 |
+
raise
|
19 |
|
20 |
app = Flask(__name__)
|
21 |
|
22 |
# Load mô hình
|
23 |
logging.info("Loading nguyenvulebinh/vi-mrc-base...")
|
24 |
+
try:
|
25 |
+
qa_pipeline = pipeline(
|
26 |
+
"question-answering",
|
27 |
+
model="nguyenvulebinh/vi-mrc-base",
|
28 |
+
device=0 if torch.cuda.is_available() else -1
|
29 |
+
)
|
30 |
+
logging.info("Model loaded successfully")
|
31 |
+
except Exception as e:
|
32 |
+
logging.error(f"Failed to load model: {e}")
|
33 |
+
raise
|
34 |
+
|
35 |
+
# Giao diện Gradio
|
36 |
+
def gradio_answer(question, context):
|
37 |
+
result = qa_pipeline(question=question, context=context)
|
38 |
+
return result["answer"]
|
39 |
+
|
40 |
+
iface = gr.Interface(
|
41 |
+
fn=gradio_answer,
|
42 |
+
inputs=["text", "text"],
|
43 |
+
outputs="text",
|
44 |
+
title="AgriBot: Hỏi đáp nông nghiệp",
|
45 |
+
description="Nhập câu hỏi và ngữ cảnh để nhận câu trả lời về nông nghiệp."
|
46 |
)
|
47 |
|
48 |
+
# Endpoint API
|
49 |
@app.route("/api/answer", methods=["POST"])
|
50 |
def answer():
|
51 |
try:
|
|
|
63 |
logging.error(f"API error: {e}")
|
64 |
return jsonify({"error": str(e)}), 500
|
65 |
|
66 |
+
# Health check
|
67 |
+
@app.route("/", methods=["GET"])
|
68 |
+
def health_check():
|
69 |
+
return jsonify({"status": "API is running, use /api/answer for API or Gradio interface"}), 200
|
70 |
|
71 |
+
# Phục vụ Gradio ở root
|
72 |
+
@app.route("/", methods=["GET", "POST"])
|
73 |
+
@app.route("/<path:path>", methods=["GET", "POST"])
|
74 |
+
def serve_gradio(path=None):
|
75 |
+
return iface.__call__(request)
|
|
|
|
|
76 |
|
77 |
if __name__ == "__main__":
|
78 |
+
logging.info("Starting Flask and Gradio app on port 7860...")
|
79 |
+
logging.info(f"Registered routes: {app.url_map}")
|
80 |
app.run(host="0.0.0.0", port=7860)
|