Spaces:
Build error
Build error
# ./backend/app/rag_core.py | |
import os | |
import httpx | |
from fastapi import HTTPException | |
from sentence_transformers import SentenceTransformer | |
import faiss | |
import numpy as np | |
from typing import List, Dict, Tuple | |
# OLLAMA_API_BASE_URL 환경 변수 설정 | |
OLLAMA_API_BASE_URL = os.getenv("OLLAMA_API_BASE_URL", "http://127.0.0.1:11434") | |
# 전역 변수로 모델 로드 (앱 시작 시 한 번만 로드되도록) | |
try: | |
model = SentenceTransformer('jhgan/ko-sroberta-multitask', device='cpu') | |
print("INFO: 임베딩 모델 'jhgan/ko-sroberta-multitask' 로드 완료.") | |
except Exception as e: | |
print(f"ERROR: 임베딩 모델 'jhgan/ko-sroberta-multitask' 로드 실패: {e}. 다국어 모델로 시도합니다.") | |
try: | |
model = SentenceTransformer('sentence-transformers/paraphrase-multilingual-MiniLM-L12-v2', device='cpu') | |
print("INFO: 임베딩 모델 'sentence-transformers/paraphrase-multilingual-L12-v2' 로드 완료.") | |
except Exception as e: | |
print(f"ERROR: 대체 임베딩 모델 로드 실패: {e}. RAG 기능을 사용할 수 없습니다.") | |
raise | |
async def generate_answer_with_ollama(model_name: str, prompt: str) -> str: | |
""" | |
Ollama 서버에 질의하여 답변을 생성합니다. | |
""" | |
url = f"{OLLAMA_API_BASE_URL}/api/generate" | |
headers = {"Content-Type": "application/json"} | |
data = { | |
"model": model_name, | |
"prompt": prompt, | |
"stream": False | |
} | |
print(f"INFO: Ollama API 호출 시작. 모델: {model_name}") | |
print(f"INFO: 프롬프트 미리보기: {prompt[:200]}...") | |
try: | |
async with httpx.AsyncClient(timeout=600.0) as client: | |
response = await client.post(url, headers=headers, json=data) | |
response.raise_for_status() | |
response_data = response.json() | |
full_response = response_data.get("response", "").strip() | |
return full_response | |
except httpx.HTTPStatusError as e: | |
print(f"ERROR: Ollama API 호출 실패: {e}") | |
raise HTTPException(status_code=500, detail="Ollama API 호출 실패") | |
except httpx.RequestError as e: | |
print(f"ERROR: 네트워크 오류: {e}") | |
raise HTTPException(status_code=500, detail="네트워크 오류가 발생했습니다. 잠시 후 다시 시도해주세요.") | |
except Exception as e: | |
print(f"ERROR: 알 수 없는 오류: {e}") | |
raise HTTPException(status_code=500, detail="알 수 없는 오류가 발생했습니다. 잠시 후 다시 시도해주세요.") | |
async def perform_retrieval(chunks_with_timestamps: List[Dict], query: str, top_k: int = 5) -> List[Dict]: | |
""" | |
제공된 텍스트 청크에서 쿼리와 가장 유사한 부분을 검색합니다. (Retrieval-only) | |
""" | |
if not chunks_with_timestamps: | |
print("WARNING: RAG 검색을 위한 텍스트 청크가 없습니다.") | |
return [] | |
texts = [chunk["text"] for chunk in chunks_with_timestamps] | |
print(f"INFO: 총 {len(texts)}개의 텍스트 청크 임베딩 시작.") | |
try: | |
chunk_embeddings = model.encode(texts, convert_to_numpy=True) | |
except Exception as e: | |
print(f"ERROR: 텍스트 청크 임베딩 중 오류 발생: {e}") | |
return [] | |
dimension = chunk_embeddings.shape[1] | |
index = faiss.IndexFlatIP(dimension) | |
faiss.normalize_L2(chunk_embeddings) | |
index.add(chunk_embeddings) | |
query_embedding = model.encode([query], convert_to_numpy=True) | |
faiss.normalize_L2(query_embedding) | |
similarities, indices = index.search(query_embedding, top_k) | |
retrieved_chunks = [] | |
MIN_SIMILARITY_THRESHOLD = 0.35 # 임계값 | |
for i in range(len(indices[0])): | |
idx = indices[0][i] | |
original_chunk = chunks_with_timestamps[idx] | |
score = float(similarities[0][i]) | |
if score > MIN_SIMILARITY_THRESHOLD: | |
retrieved_chunks.append({ | |
"text": original_chunk["text"], | |
"timestamp": original_chunk["timestamp"], | |
"score": score, | |
"start_seconds": original_chunk["start_seconds"] | |
}) | |
else: | |
print(f"DEBUG: 유사도 임계값({MIN_SIMILARITY_THRESHOLD:.4f}) 미만으로 제외된 청크 (유사도: {score:.4f}): {original_chunk['text'][:50]}...") | |
retrieved_chunks.sort(key=lambda x: x['start_seconds']) | |
print(f"DEBUG: 최종 검색된 청크 수: {len(retrieved_chunks)}") | |
return retrieved_chunks | |
async def perform_rag_and_generate(query: str, chunks_with_timestamps: List[Dict], ollama_model_name: str, top_k: int = 50) -> Dict: | |
""" | |
RAG의 전체 프로세스(검색, 프롬프트 구성, 생성)를 수행합니다. | |
""" | |
# 1. RAG 검색 수행 | |
retrieved_chunks = await perform_retrieval( | |
chunks_with_timestamps=chunks_with_timestamps, | |
query=query, | |
top_k=top_k | |
) | |
if not retrieved_chunks: | |
return { | |
"status": "error", | |
"message": "검색 결과가 없습니다.", | |
"retrieved_chunks": [], | |
"generated_answer": "관련 정보를 찾지 못해 답변을 생성할 수 없습니다." | |
} | |
# 2. 검색 결과를 프롬프트에 추가 | |
context = "\n\n".join([chunk["text"] for chunk in retrieved_chunks]) | |
prompt = f"""당신은 유튜브 영상 내용을 완벽하게 이해하고 사용자의 질문에 답변하는 AI 어시스턴트입니다. | |
아래는 분석한 유튜브 영상의 자막 내용입니다. 이 정보를 바탕으로 사용자의 질문에 대해 상세하고 친절하게 답변하세요. | |
답변은 반드시 영상 내용에 근거해야 하며, 내용과 관련 없는 질문에는 '영상 내용과 관련이 없어 답변할 수 없습니다'라고 솔직하게 말해야 합니다. | |
--- 유튜브 영상 자막 내용 --- | |
{context} | |
-------------------------- | |
사용자 질문: {query} | |
답변:""" | |
# 3. Ollama 모델에 질의하여 답변 생성 | |
generated_answer = await generate_answer_with_ollama( | |
model_name=ollama_model_name, | |
prompt=prompt | |
) | |
return { | |
"status": "success", | |
"message": "성공적으로 영상을 처리하고 RAG 검색을 수행했습니다.", | |
"retrieved_chunks": retrieved_chunks, | |
"generated_answer": generated_answer | |
} | |