Sodagraph's picture
cli 0.3
f6b1133
# ./backend/app/youtube_parser.py
import os
import re
import contextlib
import asyncio
import json # json 모듈 추가
import shutil
import sys # sys 모듈 추가
from urllib.parse import urlparse, parse_qs
from loguru import logger
from yt_dlp import YoutubeDL
from proxy_manager import proxy_manager
from dotenv import load_dotenv
# 환경 변수 로드 (코드의 가장 위에 위치)
load_dotenv()
# --- Loguru 설정 시작 ---
# 기본 핸들러(콘솔 출력) 제거
logger.remove()
# 콘솔에 INFO 레벨 이상 로그 출력
logger.add(sys.stderr, level="INFO")
# --- Loguru 설정 끝 ---
def validate_youtube_url(url):
ydl_opts = {
'quiet': True
}
try:
with YoutubeDL(ydl_opts) as ydl:
ydl.extract_info(url, download=False)
return True
except:
return False
async def get_youtube_video_id(url: str) -> str | None:
"""
유튜브 URL에서 비디오 ID를 추출합니다.
"""
parsed_url = urlparse(url)
if parsed_url.hostname and any(domain in parsed_url.hostname for domain in ['www.youtube.com', 'm.youtube.com', 'youtube.com']):
query_params = parse_qs(parsed_url.query)
if 'v' in query_params:
return query_params['v'][0]
elif parsed_url.hostname == 'youtu.be':
video_id = parsed_url.path.strip('/')
if len(video_id) == 11:
return video_id
logger.warning(f"알 수 없는 형식의 YouTube URL: {url}")
return None
def clean_caption_text(text: str) -> str:
cleaned_text = re.sub(r'<[^>]+>', '', text)
cleaned_text = re.sub(r'\s+', ' ', cleaned_text).strip()
return cleaned_text
async def get_transcript_with_timestamps(video_id: str) -> list[dict] | None:
logger.info(f"비디오 ID '{video_id}'에 대한 자막 가져오기 시도.")
processed_chunks = []
ydl_opts = {
'writesubtitles': True,
'writeautomaticsub': True,
'subtitleslangs': ['ko', 'en'],
'skip_download': True,
'outtmpl': '%(id)s.%(language)s.%(ext)s',
'quiet': False,
'no_warnings': False,
'extractor_args': {
'youtube': {'skip': ['dash']}
}
}
logger.info("yt-dlp에 프록시가 적용되지 않았습니다.")
temp_dir = f"./temp_captions_{video_id}" # 각 요청별 고유 디렉토리 생성
os.makedirs(temp_dir, exist_ok=True)
original_cwd = os.getcwd()
try:
with contextlib.chdir(temp_dir):
ydl_opts['outtmpl'] = '%(id)s.%(ext)s'
with YoutubeDL(ydl_opts) as ydl:
info_dict = await asyncio.to_thread(ydl.extract_info, video_id, download=True)
caption_file_path = None
if 'requested_subtitles' in info_dict and info_dict['requested_subtitles']:
for lang_code in ydl_opts['subtitleslangs']:
if lang_code in info_dict['requested_subtitles']:
sub_info = info_dict['requested_subtitles'][lang_code]
if 'filepath' in sub_info and sub_info['filepath']:
caption_file_path = sub_info['filepath']
logger.info(f"yt-dlp가 '{lang_code}' 자막 파일을 info_dict에서 찾았습니다: {caption_file_path}")
break
if not caption_file_path:
downloaded_files = [f for f in os.listdir('.') if f.startswith(video_id) and any(ext in f for ext in ['vtt', 'srt', 'json'])]
for ext in ['vtt', 'srt', 'json']:
ko_file = next((f for f in downloaded_files if f.endswith(f'.ko.{ext}')), None)
if ko_file:
caption_file_path = os.path.join(os.getcwd(), ko_file)
break
if not caption_file_path:
for ext in ['vtt', 'srt', 'json']:
any_file = next((f for f in downloaded_files if f.endswith(f'.{ext}')), None)
if any_file:
caption_file_path = os.path.join(os.getcwd(), any_file)
break
if caption_file_path and os.path.exists(caption_file_path):
if caption_file_path.endswith('.vtt'):
with open(caption_file_path, 'r', encoding='utf-8') as f:
vtt_content = f.read()
segments = vtt_content.split('\n\n')
for segment in segments:
if '-->' in segment:
lines = segment.split('\n')
time_str = lines[0].strip()
text_content = ' '.join(lines[1:]).strip()
text_content = clean_caption_text(text_content)
if not text_content: continue
try:
start_time_parts = time_str.split(' --> ')[0].split(':')
if len(start_time_parts) == 3:
hours = int(start_time_parts[0])
minutes = int(start_time_parts[1])
seconds = int(float(start_time_parts[2].split('.')[0]))
else: # MM:SS.ms
hours = 0
minutes = int(start_time_parts[0])
seconds = int(float(start_time_parts[1].split('.')[0]))
total_seconds = hours * 3600 + minutes * 60 + seconds
timestamp_str = f"{hours:02d}:{minutes:02d}:{seconds:02d}" if hours > 0 else f"{minutes:02d}:{seconds:02d}"
processed_chunks.append({
"text": text_content,
"timestamp": timestamp_str,
"start_seconds": total_seconds # Added
})
except Exception as e:
logger.warning(f"VTT 시간 파싱 오류: {time_str} - {e}")
logger.info(f"VTT 자막 {len(processed_chunks)}개 청크 처리 완료.")
elif caption_file_path.endswith('.json'):
with open(caption_file_path, 'r', encoding='utf-8') as f:
json_content = json.load(f)
for entry in json_content:
if 'start' in entry and 'text' in entry:
total_seconds = int(entry['start'])
hours = total_seconds // 3600
minutes = (total_seconds % 3600) // 60
seconds = total_seconds % 60
text = entry['text']
text = clean_caption_text(text)
timestamp_str = f"{hours:02d}:{minutes:02d}:{seconds:02d}" if hours > 0 else f"{minutes:02d}:{seconds:02d}"
processed_chunks.append({
"text": text,
"timestamp": timestamp_str,
"start_seconds": total_seconds # Added
})
logger.info(f"JSON 자막 {len(processed_chunks)}개 청크 처리 완료.")
elif caption_file_path.endswith('.srt'):
with open(caption_file_path, 'r', encoding='utf-8') as f:
srt_content = f.read()
blocks = srt_content.strip().split('\n\n')
for block in blocks:
lines = block.split('\n')
if len(lines) >= 3 and '-->' in lines[1]:
time_str = lines[1].strip()
text_content = ' '.join(lines[2:]).strip()
text_content = clean_caption_text(text_content)
try:
start_time_parts = time_str.split(' --> ')[0].split(':')
seconds_ms = float(start_time_parts[-1].replace(',', '.'))
seconds = int(seconds_ms)
minutes = int(start_time_parts[-2])
hours = int(start_time_parts[0]) if len(start_time_parts) == 3 else 0
total_seconds = hours * 3600 + minutes * 60 + seconds
timestamp_str = f"{hours:02d}:{minutes:02d}:{seconds:02d}" if hours > 0 else f"{minutes:02d}:{seconds:02d}"
processed_chunks.append({
"text": text_content,
"timestamp": timestamp_str,
"start_seconds": total_seconds # Added
})
except Exception as e:
logger.warning(f"SRT 시간 파싱 오류: {time_str} - {e}")
logger.info(f"SRT 자막 {len(processed_chunks)}개 청크 처리 완료.")
else:
logger.warning(f"지원하지 않는 자막 파일 형식입니다: {caption_file_path}")
else:
logger.warning(f"비디오 ID '{video_id}'에 대한 yt-dlp 자막 파일을 찾을 수 없습니다. 최종 시도 경로: {caption_file_path}")
except Exception as e:
logger.error(f"자막 추출 중 오류: {e}")
return []
finally:
os.chdir(original_cwd)
if os.path.exists(temp_dir):
shutil.rmtree(temp_dir) # 임시 디렉토리와 내용물 모두 삭제
logger.info(f"임시 자막 디렉토리 '{temp_dir}' 정리 완료.")
return processed_chunks
def remove_duplicate_captions(chunks: list[dict]) -> list[dict]:
if not chunks:
return []
# 첫 번째 청크는 항상 포함
deduplicated_chunks = [chunks[0]]
for i in range(1, len(chunks)):
# 이전 청크의 텍스트와 현재 청크의 텍스트를 가져옴
# .strip()으로 양쪽 공백을 제거하여 비교 정확도 향상
prev_text = deduplicated_chunks[-1]["text"].strip()
current_text = chunks[i]["text"].strip()
# 현재 텍스트가 이전 텍스트로 시작하고, 길이가 더 긴 경우 (점진적 구성)
# 예: prev="안녕하세요", current="안녕하세요 제 이름은"
if current_text.startswith(prev_text) and len(current_text) > len(prev_text):
# 이전 항목을 현재의 더 완전한 문장으로 교체
deduplicated_chunks[-1] = chunks[i]
# 현재 텍스트와 이전 텍스트가 완전히 다른 내용일 경우에만 새로 추가
# (완전히 똑같은 중복도 이 조건에서 걸러짐)
elif prev_text != current_text:
deduplicated_chunks.append(chunks[i])
logger.info(f"중복 제거 후 최종 청크 수: {len(deduplicated_chunks)}")
return deduplicated_chunks
def merge_incomplete_sentences(chunks: list[dict]) -> list[dict]:
if not chunks:
return []
merged_chunks = []
current_merged_chunk = None
for i, chunk in enumerate(chunks):
text = chunk["text"].strip()
if not text:
continue
if current_merged_chunk is None:
current_merged_chunk = chunk.copy()
else:
# 이전 청크가 문장 종결 부호로 끝나는지 확인
prev_text_ends_with_punctuation = current_merged_chunk["text"].strip().endswith(('.', '?', '!', '...'))
# 시간 간격 확인 (예: 0.5초 미만)
time_gap_small = True
if "start_seconds" in current_merged_chunk and "start_seconds" in chunk:
if chunk["start_seconds"] - current_merged_chunk["start_seconds"] > 0.5: # 0.5초 이상 차이나면 병합하지 않음
time_gap_small = False
# 이전 청크가 문장 종결 부호로 끝나지 않았고, 시간 간격이 작을 때만 병합
if not prev_text_ends_with_punctuation and time_gap_small:
current_merged_chunk["text"] += " " + text
# 병합된 청크의 시간은 첫 청크의 시간을 유지
else:
# 병합하지 않는 경우, 현재까지 병합된 청크를 추가하고 새 청크 시작
merged_chunks.append(current_merged_chunk)
current_merged_chunk = chunk.copy()
# 마지막으로 남아있는 병합된 청크 추가
if current_merged_chunk is not None:
merged_chunks.append(current_merged_chunk)
logger.info(f"스마트 병합 후 청크 수: {len(merged_chunks)}")
return merged_chunks
async def process_youtube_video_data(video_url: str) -> list[dict] | None:
video_id = await get_youtube_video_id(video_url)
if not video_id:
logger.error(f"유효하지 않은 YouTube URL: {video_url}")
return None
processed_chunks = await get_transcript_with_timestamps(video_id)
if processed_chunks:
# 1. 중복 제거
deduplicated_chunks = remove_duplicate_captions(processed_chunks)
# 2. 불완전한 문장 병합
final_chunks = merge_incomplete_sentences(deduplicated_chunks)
return final_chunks
else:
return processed_chunks