Update app.py
Browse files
app.py
CHANGED
|
@@ -1,4 +1,3 @@
|
|
| 1 |
-
# Part 1/3 - Setup and Utilities
|
| 2 |
import gradio as gr
|
| 3 |
import numpy as np
|
| 4 |
import librosa
|
|
@@ -6,13 +5,51 @@ from transformers import pipeline
|
|
| 6 |
from datetime import datetime
|
| 7 |
import os
|
| 8 |
import requests
|
|
|
|
|
|
|
| 9 |
|
| 10 |
-
#
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
| 11 |
HF_API_TOKEN = os.getenv("roots")
|
| 12 |
if not HF_API_TOKEN:
|
| 13 |
raise ValueError("roots token not found in environment variables")
|
| 14 |
|
| 15 |
-
#
|
| 16 |
API_URL = "https://api-inference.huggingface.co/models/stabilityai/stable-diffusion-xl-base-1.0"
|
| 17 |
headers = {"Authorization": f"Bearer {HF_API_TOKEN}"}
|
| 18 |
|
|
@@ -26,86 +63,30 @@ text_analyzer = pipeline(
|
|
| 26 |
model="nlptown/bert-base-multilingual-uncased-sentiment"
|
| 27 |
)
|
| 28 |
|
| 29 |
-
|
| 30 |
-
|
| 31 |
-
|
| 32 |
-
|
| 33 |
-
features = {
|
| 34 |
-
"energy": float(np.mean(librosa.feature.rms(y=y))),
|
| 35 |
-
"tempo": float(librosa.beat.tempo(y)[0]),
|
| 36 |
-
"pitch": float(np.mean(librosa.feature.zero_crossing_rate(y))),
|
| 37 |
-
"volume": float(np.mean(np.abs(y))),
|
| 38 |
-
"mfcc": librosa.feature.mfcc(y=y, sr=sr, n_mfcc=13).mean(axis=1).tolist()
|
| 39 |
-
}
|
| 40 |
-
return features
|
| 41 |
-
except Exception as e:
|
| 42 |
-
print(f"Error calculating baseline: {str(e)}")
|
| 43 |
-
return None
|
| 44 |
-
|
| 45 |
-
def map_acoustic_to_emotion(features, baseline_features=None):
|
| 46 |
-
"""음향학적 특성을 감정으로 매핑 (기준점 대비)"""
|
| 47 |
-
# 음성 특성 정규화
|
| 48 |
-
energy_norm = min(features["energy"] * 100, 100)
|
| 49 |
-
tempo_norm = min(features["tempo"] / 200, 1)
|
| 50 |
-
pitch_norm = min(features["pitch"] * 2, 1)
|
| 51 |
-
|
| 52 |
-
if baseline_features:
|
| 53 |
-
energy_norm = (features["energy"] / baseline_features["energy"]) * 50
|
| 54 |
-
tempo_norm = (features["tempo"] / baseline_features["tempo"])
|
| 55 |
-
pitch_norm = (features["pitch"] / baseline_features["pitch"])
|
| 56 |
-
|
| 57 |
-
emotions = {
|
| 58 |
-
"primary": "",
|
| 59 |
-
"intensity": energy_norm,
|
| 60 |
-
"confidence": 0.0,
|
| 61 |
-
"secondary": "",
|
| 62 |
-
"characteristics": []
|
| 63 |
-
}
|
| 64 |
|
| 65 |
-
|
| 66 |
-
|
| 67 |
-
|
| 68 |
-
|
| 69 |
-
|
| 70 |
-
|
| 71 |
-
|
| 72 |
-
|
| 73 |
-
|
| 74 |
-
|
| 75 |
-
|
| 76 |
-
|
| 77 |
-
|
| 78 |
-
|
| 79 |
-
|
| 80 |
-
emotions["characteristics"].append("음고 변화가 큼")
|
| 81 |
-
emotions["confidence"] = pitch_norm
|
| 82 |
-
elif energy_norm < 30:
|
| 83 |
-
if tempo_norm < 0.4:
|
| 84 |
-
emotions["primary"] = "슬픔/우울"
|
| 85 |
-
emotions["characteristics"].append("느리고 약한 음성")
|
| 86 |
-
else:
|
| 87 |
-
emotions["primary"] = "피로/무기력"
|
| 88 |
-
emotions["characteristics"].append("낮은 에너지 레벨")
|
| 89 |
-
emotions["confidence"] = (30 - energy_norm) / 30
|
| 90 |
-
else:
|
| 91 |
-
if tempo_norm > 0.5:
|
| 92 |
-
emotions["primary"] = "평온/안정"
|
| 93 |
-
emotions["characteristics"].append("균형잡힌 말하기 패턴")
|
| 94 |
-
else:
|
| 95 |
-
emotions["primary"] = "차분/진지"
|
| 96 |
-
emotions["characteristics"].append("안정적인 음성 특성")
|
| 97 |
-
emotions["confidence"] = 0.5
|
| 98 |
-
|
| 99 |
-
emotions["details"] = {
|
| 100 |
-
"energy_level": f"{energy_norm:.1f}%",
|
| 101 |
-
"speech_rate": f"{'빠름' if tempo_norm > 0.6 else '보통' if tempo_norm > 0.4 else '느림'}",
|
| 102 |
-
"pitch_variation": f"{'높음' if pitch_norm > 0.6 else '보통' if pitch_norm > 0.3 else '낮음'}",
|
| 103 |
-
"voice_volume": f"{'큼' if features['volume'] > 0.7 else '보통' if features['volume'] > 0.3 else '작음'}"
|
| 104 |
-
}
|
| 105 |
|
| 106 |
-
return emotions
|
| 107 |
|
| 108 |
-
# Part 2/3 - Core Functions
|
|
|
|
| 109 |
def generate_image_from_prompt(prompt):
|
| 110 |
"""이미지 생성 함수"""
|
| 111 |
print(f"Generating image with prompt: {prompt}")
|
|
@@ -129,14 +110,51 @@ def generate_image_from_prompt(prompt):
|
|
| 129 |
|
| 130 |
if response.status_code == 200:
|
| 131 |
print("Image generated successfully")
|
| 132 |
-
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
| 133 |
else:
|
| 134 |
print(f"Error: {response.status_code}")
|
| 135 |
print(f"Response: {response.text}")
|
| 136 |
-
return None
|
| 137 |
except Exception as e:
|
| 138 |
print(f"Error generating image: {str(e)}")
|
| 139 |
-
return None
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
| 140 |
|
| 141 |
def generate_detailed_prompt(text, emotions, text_sentiment):
|
| 142 |
"""감정 기반 상세 프롬프트 생성"""
|
|
@@ -167,86 +185,80 @@ def generate_detailed_prompt(text, emotions, text_sentiment):
|
|
| 167 |
|
| 168 |
def update_final_prompt(state):
|
| 169 |
"""청신의 감상들을 종합하여 최종 프롬프트 업데이트"""
|
| 170 |
-
|
| 171 |
-
|
|
|
|
|
|
|
|
|
|
|
|
|
| 172 |
|
| 173 |
-
|
| 174 |
-
|
| 175 |
-
combined_prompt += f"- {time}: {text} ({sentiment})\n"
|
| 176 |
|
| 177 |
return combined_prompt
|
| 178 |
|
| 179 |
-
def
|
| 180 |
-
"""
|
| 181 |
-
|
| 182 |
-
|
| 183 |
-
y, sr = librosa.load(audio_path, sr=16000)
|
| 184 |
-
|
| 185 |
-
acoustic_features = {
|
| 186 |
-
"energy": float(np.mean(librosa.feature.rms(y=y))),
|
| 187 |
-
"tempo": float(librosa.beat.tempo(y)[0]),
|
| 188 |
-
"pitch": float(np.mean(librosa.feature.zero_crossing_rate(y))),
|
| 189 |
-
"volume": float(np.mean(np.abs(y)))
|
| 190 |
-
}
|
| 191 |
-
|
| 192 |
-
transcription = speech_recognizer(y)
|
| 193 |
-
text = transcription["text"]
|
| 194 |
-
|
| 195 |
-
emotions = map_acoustic_to_emotion(acoustic_features, state.get("baseline_features"))
|
| 196 |
-
text_sentiment = text_analyzer(text)[0]
|
| 197 |
-
|
| 198 |
-
return {
|
| 199 |
-
"text": text,
|
| 200 |
-
"emotions": emotions,
|
| 201 |
-
"sentiment": text_sentiment
|
| 202 |
-
}
|
| 203 |
-
except Exception as e:
|
| 204 |
-
if attempt == max_retries - 1:
|
| 205 |
-
raise e
|
| 206 |
-
print(f"Attempt {attempt + 1} failed, retrying...")
|
| 207 |
-
continue
|
| 208 |
|
| 209 |
# Part 3/3 - Interface and Main
|
| 210 |
def create_interface():
|
|
|
|
|
|
|
|
|
|
| 211 |
with gr.Blocks(theme=gr.themes.Soft()) as app:
|
| 212 |
state = gr.State({
|
| 213 |
"user_name": "",
|
| 214 |
"baseline_features": None,
|
| 215 |
"reflections": [],
|
| 216 |
-
"
|
| 217 |
-
"final_prompt": ""
|
|
|
|
| 218 |
})
|
| 219 |
|
| 220 |
-
# 헤더
|
| 221 |
header = gr.Markdown("# 디지털 굿판")
|
| 222 |
user_display = gr.Markdown("")
|
| 223 |
|
|
|
|
| 224 |
with gr.Tabs() as tabs:
|
| 225 |
# 입장
|
| 226 |
-
with gr.Tab("입장"):
|
| 227 |
-
gr.Markdown(
|
| 228 |
-
name_input = gr.Textbox(
|
|
|
|
|
|
|
|
|
|
|
|
|
| 229 |
start_btn = gr.Button("여정 시작하기")
|
|
|
|
| 230 |
|
| 231 |
# 기준 설정
|
| 232 |
-
with gr.Tab("기준 설정",
|
| 233 |
-
gr.Markdown("""
|
| 234 |
-
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
| 235 |
baseline_audio = gr.Audio(
|
| 236 |
label="축원 문장 녹음하기",
|
| 237 |
-
sources=["microphone"]
|
| 238 |
-
type="filepath"
|
| 239 |
)
|
| 240 |
set_baseline_btn = gr.Button("기준점 설정 완료")
|
| 241 |
baseline_status = gr.Markdown("")
|
| 242 |
|
| 243 |
# 청신
|
| 244 |
-
with gr.Tab("청신",
|
| 245 |
-
gr.Markdown("""
|
|
|
|
| 246 |
|
| 247 |
-
|
| 248 |
-
|
| 249 |
-
|
| 250 |
""")
|
| 251 |
play_music_btn = gr.Button("온천천의 소리 듣기")
|
| 252 |
with gr.Row():
|
|
@@ -259,7 +271,7 @@ def create_interface():
|
|
| 259 |
)
|
| 260 |
with gr.Column():
|
| 261 |
reflection_input = gr.Textbox(
|
| 262 |
-
label="
|
| 263 |
lines=3
|
| 264 |
)
|
| 265 |
save_btn = gr.Button("감상 저장하기")
|
|
@@ -267,132 +279,147 @@ def create_interface():
|
|
| 267 |
headers=["시간", "감상", "감정 분석"],
|
| 268 |
label="기록된 감상들"
|
| 269 |
)
|
| 270 |
-
continue_to_prayer_btn = gr.Button("기원으로 이동하기")
|
| 271 |
|
| 272 |
# 기원
|
| 273 |
-
with gr.Tab("기원",
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
| 274 |
with gr.Row():
|
| 275 |
with gr.Column():
|
| 276 |
voice_input = gr.Audio(
|
| 277 |
-
label="나누고 싶은
|
| 278 |
-
sources=["microphone"]
|
| 279 |
-
type="filepath"
|
| 280 |
)
|
| 281 |
-
|
| 282 |
-
analyze_btn = gr.Button("분석하기")
|
| 283 |
|
| 284 |
with gr.Column():
|
| 285 |
-
transcribed_text = gr.Textbox(
|
| 286 |
-
|
| 287 |
-
|
| 288 |
-
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
| 289 |
|
| 290 |
# 송신
|
| 291 |
-
with gr.Tab("송신",
|
| 292 |
-
gr.Markdown("
|
| 293 |
-
|
| 294 |
-
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
| 295 |
interactive=False,
|
| 296 |
lines=3
|
| 297 |
)
|
| 298 |
-
generate_btn = gr.Button("이미지 생성하기")
|
| 299 |
with gr.Row():
|
| 300 |
-
|
| 301 |
-
|
| 302 |
-
|
| 303 |
-
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
| 304 |
|
|
|
|
| 305 |
def start_journey(name):
|
| 306 |
if not name.strip():
|
| 307 |
-
return "이름을 입력해주세요", gr.update()
|
| 308 |
|
| 309 |
-
|
| 310 |
-
|
| 311 |
-
|
| 312 |
-
|
| 313 |
-
|
| 314 |
-
|
| 315 |
-
|
| 316 |
-
|
| 317 |
-
|
| 318 |
-
|
| 319 |
-
|
| 320 |
-
|
| 321 |
-
|
| 322 |
-
|
| 323 |
-
|
| 324 |
-
|
| 325 |
-
|
| 326 |
-
|
|
|
|
| 327 |
|
| 328 |
-
|
| 329 |
-
|
| 330 |
-
|
|
|
|
|
|
|
|
|
|
| 331 |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
| 332 |
|
| 333 |
-
|
| 334 |
-
|
| 335 |
-
|
| 336 |
-
|
| 337 |
-
|
| 338 |
-
current_time = datetime.now().strftime("%H:%M:%S")
|
| 339 |
-
sentiment = text_analyzer(text)[0]
|
| 340 |
-
new_reflection = [current_time, text, f"{sentiment['label']} ({sentiment['score']:.2f})"]
|
| 341 |
-
|
| 342 |
-
state = state.copy()
|
| 343 |
-
if "reflections" not in state:
|
| 344 |
-
state["reflections"] = []
|
| 345 |
-
|
| 346 |
-
state["reflections"].append(new_reflection)
|
| 347 |
-
return state, state["reflections"]
|
| 348 |
-
except Exception as e:
|
| 349 |
-
print(f"Error in save_reflection: {str(e)}")
|
| 350 |
-
return state, []
|
| 351 |
-
|
| 352 |
-
def analyze_voice(audio_path, state):
|
| 353 |
-
if audio_path is None:
|
| 354 |
-
return state, "음성을 먼저 녹음해주세요.", "", "", ""
|
| 355 |
-
|
| 356 |
-
try:
|
| 357 |
-
result = analyze_voice_with_retry(audio_path, state)
|
| 358 |
-
|
| 359 |
-
voice_result = (
|
| 360 |
-
f"음성 감정: {result['emotions']['primary']} "
|
| 361 |
-
f"(강도: {result['emotions']['intensity']:.1f}%, "
|
| 362 |
-
f"신뢰도: {result['emotions']['confidence']:.2f})\n"
|
| 363 |
-
f"특징: {', '.join(result['emotions']['characteristics'])}"
|
| 364 |
-
)
|
| 365 |
-
|
| 366 |
-
text_result = f"텍스트 감정: {result['sentiment']['label']} "
|
| 367 |
-
f"(강도: {result['sentiment']['score']}/5)"
|
| 368 |
-
|
| 369 |
-
prompt = generate_detailed_prompt(
|
| 370 |
-
result['text'],
|
| 371 |
-
result['emotions'],
|
| 372 |
-
result['sentiment']
|
| 373 |
-
)
|
| 374 |
-
|
| 375 |
-
return state, result['text'], voice_result, text_result, prompt
|
| 376 |
-
except Exception as e:
|
| 377 |
-
return state, f"오류 발생: {str(e)}", "", "", ""
|
| 378 |
|
| 379 |
-
|
| 380 |
-
|
| 381 |
-
|
| 382 |
-
|
| 383 |
-
|
| 384 |
|
| 385 |
-
|
| 386 |
-
|
| 387 |
-
|
| 388 |
-
|
| 389 |
-
|
| 390 |
-
|
| 391 |
-
|
| 392 |
-
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
| 393 |
|
| 394 |
return app
|
| 395 |
|
| 396 |
if __name__ == "__main__":
|
| 397 |
demo = create_interface()
|
| 398 |
-
demo.launch(debug=True)
|
|
|
|
|
|
|
|
|
| 1 |
import gradio as gr
|
| 2 |
import numpy as np
|
| 3 |
import librosa
|
|
|
|
| 5 |
from datetime import datetime
|
| 6 |
import os
|
| 7 |
import requests
|
| 8 |
+
import json
|
| 9 |
+
import time
|
| 10 |
|
| 11 |
+
# 데이터 저장을 위한 간단한 파일 기반 DB
|
| 12 |
+
class SimpleDB:
|
| 13 |
+
def __init__(self, file_path="wishes.json"):
|
| 14 |
+
self.file_path = file_path
|
| 15 |
+
self.wishes = self._load_wishes()
|
| 16 |
+
|
| 17 |
+
def _load_wishes(self):
|
| 18 |
+
try:
|
| 19 |
+
if os.path.exists(self.file_path):
|
| 20 |
+
with open(self.file_path, 'r', encoding='utf-8') as f:
|
| 21 |
+
return json.load(f)
|
| 22 |
+
return []
|
| 23 |
+
except Exception as e:
|
| 24 |
+
print(f"Error loading wishes: {e}")
|
| 25 |
+
return []
|
| 26 |
+
|
| 27 |
+
def save_wish(self, name, wish, timestamp=None):
|
| 28 |
+
if timestamp is None:
|
| 29 |
+
timestamp = datetime.now().strftime("%Y-%m-%d %H:%M:%S")
|
| 30 |
+
|
| 31 |
+
wish_data = {
|
| 32 |
+
"name": name,
|
| 33 |
+
"wish": wish,
|
| 34 |
+
"timestamp": timestamp
|
| 35 |
+
}
|
| 36 |
+
|
| 37 |
+
self.wishes.append(wish_data)
|
| 38 |
+
|
| 39 |
+
try:
|
| 40 |
+
with open(self.file_path, 'w', encoding='utf-8') as f:
|
| 41 |
+
json.dump(self.wishes, f, ensure_ascii=False, indent=2)
|
| 42 |
+
return True
|
| 43 |
+
except Exception as e:
|
| 44 |
+
print(f"Error saving wish: {e}")
|
| 45 |
+
return False
|
| 46 |
+
|
| 47 |
+
# 환경변수 설정
|
| 48 |
HF_API_TOKEN = os.getenv("roots")
|
| 49 |
if not HF_API_TOKEN:
|
| 50 |
raise ValueError("roots token not found in environment variables")
|
| 51 |
|
| 52 |
+
# API 설정
|
| 53 |
API_URL = "https://api-inference.huggingface.co/models/stabilityai/stable-diffusion-xl-base-1.0"
|
| 54 |
headers = {"Authorization": f"Bearer {HF_API_TOKEN}"}
|
| 55 |
|
|
|
|
| 63 |
model="nlptown/bert-base-multilingual-uncased-sentiment"
|
| 64 |
)
|
| 65 |
|
| 66 |
+
# 상수 정의
|
| 67 |
+
IMAGE_DISPLAY_TIME = 30 # 이미지 표시 시간 (초)
|
| 68 |
+
WELCOME_MESSAGE = """
|
| 69 |
+
# 디지털 굿판에 오신 것을 환영합니다
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
| 70 |
|
| 71 |
+
디지털 굿판은 현대 도시 속에서 잊혀진 전통 굿의 정수를 담아낸 **디지털 의례의 공간**입니다.
|
| 72 |
+
이곳에서는 사람들의 목소리와 감정을 통해 **영적 교감**을 나누고, **자연과 도시의 에너지가 연결**됩니다.
|
| 73 |
+
이제, 평온함과 치유의 여정을 시작해보세요.
|
| 74 |
+
"""
|
| 75 |
+
|
| 76 |
+
WORLDVIEW_MESSAGE = """
|
| 77 |
+
## 굿판의 세계관 🌌
|
| 78 |
+
|
| 79 |
+
온천천의 물줄기는 신성한 금샘에서 시작됩니다. 금샘은 생명과 창조의 원천이며,
|
| 80 |
+
천상의 생명이 지상에서 숨을 틔우는 자리입니다. 도시의 소음 속에서도 신성한 생명력을 느껴보세요.
|
| 81 |
+
이곳에서 영적인 교감을 경험하며, 자연과 하나 되는 순간을 맞이해 보시기 바랍니다.
|
| 82 |
+
|
| 83 |
+
이 앱은 온천천의 사운드스케이프를 녹음하여 제작되었으며,
|
| 84 |
+
온천천 온천장역에서 장전역까지 걸으며 더 깊은 체험이 가능합니다.
|
| 85 |
+
"""
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
| 86 |
|
|
|
|
| 87 |
|
| 88 |
+
# Part 2/3 - Core Functions and Image Generation
|
| 89 |
+
|
| 90 |
def generate_image_from_prompt(prompt):
|
| 91 |
"""이미지 생성 함수"""
|
| 92 |
print(f"Generating image with prompt: {prompt}")
|
|
|
|
| 110 |
|
| 111 |
if response.status_code == 200:
|
| 112 |
print("Image generated successfully")
|
| 113 |
+
# 이미지 저장 로직 추가
|
| 114 |
+
timestamp = datetime.now().strftime("%Y%m%d_%H%M%S")
|
| 115 |
+
image_path = f"generated_images/{timestamp}.png"
|
| 116 |
+
os.makedirs("generated_images", exist_ok=True)
|
| 117 |
+
with open(image_path, "wb") as f:
|
| 118 |
+
f.write(response.content)
|
| 119 |
+
return response.content, image_path
|
| 120 |
else:
|
| 121 |
print(f"Error: {response.status_code}")
|
| 122 |
print(f"Response: {response.text}")
|
| 123 |
+
return None, None
|
| 124 |
except Exception as e:
|
| 125 |
print(f"Error generating image: {str(e)}")
|
| 126 |
+
return None, None
|
| 127 |
+
|
| 128 |
+
def analyze_voice_with_retry(audio_path, state, max_retries=3):
|
| 129 |
+
"""음성 분석 함수 (재시도 로직 포함)"""
|
| 130 |
+
for attempt in range(max_retries):
|
| 131 |
+
try:
|
| 132 |
+
y, sr = librosa.load(audio_path, sr=16000)
|
| 133 |
+
|
| 134 |
+
acoustic_features = {
|
| 135 |
+
"energy": float(np.mean(librosa.feature.rms(y=y))),
|
| 136 |
+
"tempo": float(librosa.beat.tempo(y)[0]),
|
| 137 |
+
"pitch": float(np.mean(librosa.feature.zero_crossing_rate(y))),
|
| 138 |
+
"volume": float(np.mean(np.abs(y)))
|
| 139 |
+
}
|
| 140 |
+
|
| 141 |
+
transcription = speech_recognizer(y)
|
| 142 |
+
text = transcription["text"]
|
| 143 |
+
|
| 144 |
+
emotions = map_acoustic_to_emotion(acoustic_features, state.get("baseline_features"))
|
| 145 |
+
text_sentiment = text_analyzer(text)[0]
|
| 146 |
+
|
| 147 |
+
return {
|
| 148 |
+
"text": text,
|
| 149 |
+
"emotions": emotions,
|
| 150 |
+
"sentiment": text_sentiment,
|
| 151 |
+
"features": acoustic_features
|
| 152 |
+
}
|
| 153 |
+
except Exception as e:
|
| 154 |
+
if attempt == max_retries - 1:
|
| 155 |
+
raise e
|
| 156 |
+
print(f"Attempt {attempt + 1} failed, retrying...")
|
| 157 |
+
continue
|
| 158 |
|
| 159 |
def generate_detailed_prompt(text, emotions, text_sentiment):
|
| 160 |
"""감정 기반 상세 프롬프트 생성"""
|
|
|
|
| 185 |
|
| 186 |
def update_final_prompt(state):
|
| 187 |
"""청신의 감상들을 종합하여 최종 프롬프트 업데이트"""
|
| 188 |
+
combined_prompt = "한국 전통 민화 스타일의 추상화, 온천천에서의 감상과 소원을 담아내기:\n\n"
|
| 189 |
+
|
| 190 |
+
if state.get("reflections"):
|
| 191 |
+
combined_prompt += "청신의 감상들:\n"
|
| 192 |
+
for time, text, sentiment in state["reflections"]:
|
| 193 |
+
combined_prompt += f"- {time}: {text} ({sentiment})\n"
|
| 194 |
|
| 195 |
+
if state.get("wish"):
|
| 196 |
+
combined_prompt += f"\n소원:\n{state['wish']}"
|
|
|
|
| 197 |
|
| 198 |
return combined_prompt
|
| 199 |
|
| 200 |
+
def handle_image_timeout(result_image, delay=IMAGE_DISPLAY_TIME):
|
| 201 |
+
"""이미지 자동 사라짐 처리"""
|
| 202 |
+
time.sleep(delay)
|
| 203 |
+
return gr.update(value=None)
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
| 204 |
|
| 205 |
# Part 3/3 - Interface and Main
|
| 206 |
def create_interface():
|
| 207 |
+
# DB 초기화
|
| 208 |
+
db = SimpleDB()
|
| 209 |
+
|
| 210 |
with gr.Blocks(theme=gr.themes.Soft()) as app:
|
| 211 |
state = gr.State({
|
| 212 |
"user_name": "",
|
| 213 |
"baseline_features": None,
|
| 214 |
"reflections": [],
|
| 215 |
+
"wish": None,
|
| 216 |
+
"final_prompt": "",
|
| 217 |
+
"image_path": None
|
| 218 |
})
|
| 219 |
|
| 220 |
+
# 헤더
|
| 221 |
header = gr.Markdown("# 디지털 굿판")
|
| 222 |
user_display = gr.Markdown("")
|
| 223 |
|
| 224 |
+
# 탭 구성
|
| 225 |
with gr.Tabs() as tabs:
|
| 226 |
# 입장
|
| 227 |
+
with gr.Tab("입장", id="intro"):
|
| 228 |
+
gr.Markdown(WELCOME_MESSAGE)
|
| 229 |
+
name_input = gr.Textbox(
|
| 230 |
+
label="이름을 알려주세요",
|
| 231 |
+
placeholder="이름을 입력해주세요"
|
| 232 |
+
)
|
| 233 |
+
worldview_display = gr.Markdown(visible=False)
|
| 234 |
start_btn = gr.Button("여정 시작하기")
|
| 235 |
+
continue_btn = gr.Button("다음 단계로", visible=False)
|
| 236 |
|
| 237 |
# 기준 설정
|
| 238 |
+
with gr.Tab("기준 설정", id="baseline"):
|
| 239 |
+
gr.Markdown("""
|
| 240 |
+
### 축원의 문장을 평온한 마음으로 읽어주세요
|
| 241 |
+
|
| 242 |
+
먼저, 평온한 마음으로 축원의 문장을 읽어주세요.
|
| 243 |
+
이 축원은 당신에게 평화와 안정을 불러일으키며,
|
| 244 |
+
감정을 정확히 이해하기 위한 **기준점**이 될 것입니다.
|
| 245 |
+
""")
|
| 246 |
+
gr.Markdown("'당신의 건강과 행복이 늘 가득하기를'")
|
| 247 |
baseline_audio = gr.Audio(
|
| 248 |
label="축원 문장 녹음하기",
|
| 249 |
+
sources=["microphone"]
|
|
|
|
| 250 |
)
|
| 251 |
set_baseline_btn = gr.Button("기준점 설정 완료")
|
| 252 |
baseline_status = gr.Markdown("")
|
| 253 |
|
| 254 |
# 청신
|
| 255 |
+
with gr.Tab("청신", id="cleansing"):
|
| 256 |
+
gr.Markdown("""
|
| 257 |
+
## 청신 - 소리로 정화하기
|
| 258 |
|
| 259 |
+
온천천의 물소리에 귀 기울이며 **30분간 마음을 정화**해보세요.
|
| 260 |
+
장전역까지 이어지는 이 여정을 함께하며,
|
| 261 |
+
차분히 자연의 소리에 마음을 기울여보세요.
|
| 262 |
""")
|
| 263 |
play_music_btn = gr.Button("온천천의 소리 듣기")
|
| 264 |
with gr.Row():
|
|
|
|
| 271 |
)
|
| 272 |
with gr.Column():
|
| 273 |
reflection_input = gr.Textbox(
|
| 274 |
+
label="지금 이 순간의 감상을 자유롭게 적어보세요",
|
| 275 |
lines=3
|
| 276 |
)
|
| 277 |
save_btn = gr.Button("감상 저장하기")
|
|
|
|
| 279 |
headers=["시간", "감상", "감정 분석"],
|
| 280 |
label="기록된 감상들"
|
| 281 |
)
|
|
|
|
| 282 |
|
| 283 |
# 기원
|
| 284 |
+
with gr.Tab("기원", id="prayer"):
|
| 285 |
+
gr.Markdown("""
|
| 286 |
+
## 기원 - 소원을 전해보세요
|
| 287 |
+
|
| 288 |
+
당신의 소원을 온전히 담아 이곳에 전해주세요.
|
| 289 |
+
당신의 목소리와 감정이 영적 메시지가 되어 전해지며,
|
| 290 |
+
이 기원이 당신에게 평화와 안정을 불러오기를 바랍니다.
|
| 291 |
+
""")
|
| 292 |
with gr.Row():
|
| 293 |
with gr.Column():
|
| 294 |
voice_input = gr.Audio(
|
| 295 |
+
label="소원을 나누고 싶은 마음을 말해주세요",
|
| 296 |
+
sources=["microphone"]
|
|
|
|
| 297 |
)
|
| 298 |
+
analyze_btn = gr.Button("소원 분석하기")
|
|
|
|
| 299 |
|
| 300 |
with gr.Column():
|
| 301 |
+
transcribed_text = gr.Textbox(
|
| 302 |
+
label="인식된 텍스트",
|
| 303 |
+
interactive=False
|
| 304 |
+
)
|
| 305 |
+
voice_emotion = gr.Textbox(
|
| 306 |
+
label="음성 감정 분석",
|
| 307 |
+
interactive=False
|
| 308 |
+
)
|
| 309 |
+
text_emotion = gr.Textbox(
|
| 310 |
+
label="텍스트 감정 분석",
|
| 311 |
+
interactive=False
|
| 312 |
+
)
|
| 313 |
|
| 314 |
# 송신
|
| 315 |
+
with gr.Tab("송신", id="sending"):
|
| 316 |
+
gr.Markdown("""
|
| 317 |
+
## 송신 - 마음의 그림을 남기고, 보내기
|
| 318 |
+
|
| 319 |
+
당신의 마음을 시각화하여 그려봅니다.
|
| 320 |
+
자연과 영적 교감을 통해 얻은 평온과 치유의 흔적을,
|
| 321 |
+
하나의 그림으로 담아보세요.
|
| 322 |
+
""")
|
| 323 |
+
final_prompt = gr.Textbox(
|
| 324 |
+
label="생성된 프롬프트",
|
| 325 |
interactive=False,
|
| 326 |
lines=3
|
| 327 |
)
|
|
|
|
| 328 |
with gr.Row():
|
| 329 |
+
generate_btn = gr.Button("마음의 그림 그리기")
|
| 330 |
+
save_image_btn = gr.Button("이미지 저장하기")
|
| 331 |
+
result_image = gr.Image(label="생성된 이미지")
|
| 332 |
+
image_timer = gr.Markdown(
|
| 333 |
+
"이미지는 30초 후 자동으로 사라집니다...",
|
| 334 |
+
visible=False
|
| 335 |
+
)
|
| 336 |
+
|
| 337 |
+
# 최종 감상
|
| 338 |
+
gr.Markdown("""
|
| 339 |
+
## 마지막 감상을 남겨주세요
|
| 340 |
+
|
| 341 |
+
이제 당신의 여정이 마무리되었습니다.
|
| 342 |
+
마지막으로 느낀 감상을 한 줄로 남겨주세요.
|
| 343 |
+
""")
|
| 344 |
+
final_reflection = gr.Textbox(
|
| 345 |
+
label="마지막 감상",
|
| 346 |
+
placeholder="한 줄로 남겨주세요..."
|
| 347 |
+
)
|
| 348 |
+
save_final_btn = gr.Button("감상 남기기")
|
| 349 |
|
| 350 |
+
# 이벤트 핸들러
|
| 351 |
def start_journey(name):
|
| 352 |
if not name.strip():
|
| 353 |
+
return "이름을 입력해주세요", gr.update(), gr.update()
|
| 354 |
|
| 355 |
+
state = {"user_name": name}
|
| 356 |
+
return (
|
| 357 |
+
WORLDVIEW_MESSAGE,
|
| 358 |
+
gr.update(visible=True),
|
| 359 |
+
gr.update(visible=True)
|
| 360 |
+
)
|
| 361 |
+
|
| 362 |
+
def save_wish_to_db(text, state):
|
| 363 |
+
if text and state.get("user_name"):
|
| 364 |
+
db.save_wish(state["user_name"], text)
|
| 365 |
+
return "소원이 안전하게 저장되었습니다."
|
| 366 |
+
return "저장에 실패했습니다."
|
| 367 |
+
|
| 368 |
+
def handle_image_generation(prompt):
|
| 369 |
+
image_content, image_path = generate_image_from_prompt(prompt)
|
| 370 |
+
if image_content:
|
| 371 |
+
gr.update(visible=True) # 타이머 표시
|
| 372 |
+
return image_content
|
| 373 |
+
return None
|
| 374 |
|
| 375 |
+
# 이벤트 연결
|
| 376 |
+
start_btn.click(
|
| 377 |
+
fn=start_journey,
|
| 378 |
+
inputs=[name_input],
|
| 379 |
+
outputs=[worldview_display, continue_btn, tabs]
|
| 380 |
+
)
|
| 381 |
|
| 382 |
+
set_baseline_btn.click(
|
| 383 |
+
fn=lambda x, s: ({"baseline_features": calculate_baseline_features(x)}, "기준점이 설정되었습니다."),
|
| 384 |
+
inputs=[baseline_audio, state],
|
| 385 |
+
outputs=[state, baseline_status]
|
| 386 |
+
)
|
| 387 |
|
| 388 |
+
save_btn.click(
|
| 389 |
+
fn=save_reflection,
|
| 390 |
+
inputs=[reflection_input, state],
|
| 391 |
+
outputs=[state, reflections_display]
|
| 392 |
+
)
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
| 393 |
|
| 394 |
+
analyze_btn.click(
|
| 395 |
+
fn=analyze_voice,
|
| 396 |
+
inputs=[voice_input, state],
|
| 397 |
+
outputs=[transcribed_text, voice_emotion, text_emotion, state]
|
| 398 |
+
)
|
| 399 |
|
| 400 |
+
generate_btn.click(
|
| 401 |
+
fn=handle_image_generation,
|
| 402 |
+
inputs=[final_prompt],
|
| 403 |
+
outputs=[result_image]
|
| 404 |
+
)
|
| 405 |
+
|
| 406 |
+
save_final_btn.click(
|
| 407 |
+
fn=save_wish_to_db,
|
| 408 |
+
inputs=[final_reflection, state],
|
| 409 |
+
outputs=[gr.Markdown("")] # 저장 상태 메시지
|
| 410 |
+
)
|
| 411 |
+
|
| 412 |
+
# 이미지 자동 사라짐 설정
|
| 413 |
+
result_image.change(
|
| 414 |
+
fn=lambda: gr.update(value=None),
|
| 415 |
+
inputs=[],
|
| 416 |
+
outputs=[result_image],
|
| 417 |
+
_js=f"() => setTimeout(() => {{document.querySelector('#result_image image').src = ''}}, {IMAGE_DISPLAY_TIME*1000})"
|
| 418 |
+
)
|
| 419 |
|
| 420 |
return app
|
| 421 |
|
| 422 |
if __name__ == "__main__":
|
| 423 |
demo = create_interface()
|
| 424 |
+
demo.launch(debug=True)
|
| 425 |
+
|