Sodagraph's picture
LLM추가 및 템플릿 개선, (프록시는 미구현)
9b9d44e
raw
history blame
5.5 kB
# ./backend/app/main.py
from fastapi import FastAPI, HTTPException
from fastapi.middleware.cors import CORSMiddleware
from fastapi.staticfiles import StaticFiles # StaticFiles 임포트
import os
from pydantic import BaseModel
import httpx
from youtube_parser import process_youtube_video_data
from rag_core import perform_rag_query
app = FastAPI()
# CORS 설정: 프론트엔드와 백엔드가 다른 포트에서 실행될 때 필요
origins = [
"http://localhost:8080", # Vue 개발 서버 기본 포트
"http://localhost:5173", # Vue Vite 개발 서버 기본 포트
"https://sodagraph-po.hf.space", # 여러분의 Hugging Face Space URL
]
app.add_middleware(
CORSMiddleware,
allow_origins=origins,
allow_credentials=True,
allow_methods=["*"],
allow_headers=["*"],
)
# 경로 설정
current_file_dir = os.path.dirname(os.path.abspath(__file__))
project_root_dir = os.path.join(current_file_dir, "..", "..")
static_files_dir = os.path.join(project_root_dir, "static")
# OLLAMA_API_BASE_URL 환경 변수 설정
OLLAMA_API_BASE_URL = os.getenv("OLLAMA_API_BASE_URL", "http://127.0.0.1:11434")
async def generate_answer_with_ollama(model_name: str, prompt: str) -> str:
"""
Ollama 서버에 질의하여 답변을 생성합니다.
"""
url = f"{OLLAMA_API_BASE_URL}/api/generate"
headers = {"Content-Type": "application/json"}
data = {
"model": model_name,
"prompt": prompt,
"stream": False # 스트리밍을 사용하지 않고 한 번에 답변을 받습니다.
}
print(f"INFO: Ollama API 호출 시작. 모델: {model_name}")
print(f"INFO: 프롬프트 미리보기: {prompt[:200]}...")
try:
async with httpx.AsyncClient(timeout=600.0) as client:
response = await client.post(url, headers=headers, json=data)
response.raise_for_status()
response_data = response.json()
full_response = response_data.get("response", "").strip()
return full_response
except httpx.HTTPStatusError as e:
print(f"ERROR: Ollama API 호출 실패: {e}")
raise HTTPException(status_code=500, detail="Ollama API 호출 실패")
except httpx.RequestError as e:
print(f"ERROR: 네트워크 오류: {e}")
raise HTTPException(status_code=500, detail="네트워크 오류가 발생했습니다. 잠시 후 다시 시도해주세요.")
except Exception as e:
print(f"ERROR: 알 수 없는 오류: {e}")
raise HTTPException(status_code=500, detail="알 수 없는 오류가 발생했습니다. 잠시 후 다시 시도해주세요.")
class VideoProcessRequest(BaseModel):
video_url: str
query: str
# 사용자가 사용할 Ollama 모델 이름을 지정할 수 있도록 추가
ollama_model_name: str = "hf.co/DevQuasar/naver-hyperclovax.HyperCLOVAX-SEED-Text-Instruct-0.5B-GGUF:F16"
# ✅ 유튜브 영상 처리 API
@app.post("/api/process_youtube_video")
async def process_youtube_video(request: VideoProcessRequest):
try:
processed_chunks_with_timestamps = await process_youtube_video_data(request.video_url)
if not processed_chunks_with_timestamps:
return {"message": "자막 또는 내용을 추출할 수 없습니다.", "results": []}
# 1. RAG 검색 수행
rag_results = await perform_rag_query(
chunks_with_timestamps=processed_chunks_with_timestamps,
query=request.query,
top_k=50
)
if not rag_results:
return {
"status": "error",
"message": "검색 결과가 없습니다.",
"video_url": request.video_url,
"query": request.query,
"results": []
}
# 2. 검색 결과를 프롬프트에 추가
context = "\\n\\n".join([chunk["text"] for chunk in rag_results])
prompt = f"다음 정보와 대화 내용을 참고하여 사용자의 질문에 답변하세요. 제공된 정보에서 답을 찾을 수 없다면 '정보 부족'이라고 명시하세요.\\n\\n참고 정보:\\n{context}\\n\\n사용자 질문: {request.query}\\n\\n답변:"
# 3. Ollama 모델에 질의하여 답변 생성
generated_answer = await generate_answer_with_ollama(
model_name=request.ollama_model_name,
prompt=prompt
)
return {
"status": "success",
"message": "성공적으로 영상을 처리하고 RAG 검색을 수행했습니다.",
"video_url": request.video_url,
"query": request.query,
"ollama_model_used": request.ollama_model_name,
"retrieved_chunks": rag_results,
"generated_answer": generated_answer
}
except Exception as e:
print(f"ERROR: 서버 처리 중 오류 발생: {str(e)}")
raise HTTPException(status_code=500, detail="서버 처리 중 오류가 발생했습니다. 잠시 후 다시 시도해주세요.")
# ✅ 정적 파일은 마지막에 mount
app.mount("/", StaticFiles(directory=static_files_dir, html=True), name="static")
# 서버 실행을 위한 메인 진입점 (Docker에서는 Uvicorn이 직접 호출하므로 필수는 아님)
if __name__ == "__main__":
import uvicorn
import os
port = int(os.environ.get("PORT", 7860)) # Hugging Face가 전달하는 포트를 우선 사용
uvicorn.run(app, host="0.0.0.0", port=port)