|
import os |
|
import json |
|
import numpy as np |
|
import librosa |
|
from datetime import datetime |
|
from flask import Flask, send_from_directory, render_template |
|
import gradio as gr |
|
from transformers import pipeline |
|
import requests |
|
from dotenv import load_dotenv |
|
|
|
|
|
load_dotenv() |
|
|
|
|
|
WELCOME_MESSAGE = """ |
|
# 디지털 굿판에 오신 것을 환영합니다 |
|
|
|
이곳은 현대 도시 속에서 잊혀진 전통 굿의 정수를 담아낸 디지털 의례의 공간입니다. |
|
이곳에서는 사람들의 목소리와 감정을 통해 영적 교감을 나누고, 자연과 도시의 에너지가 연결됩니다. |
|
|
|
""" |
|
|
|
ONCHEON_STORY = """ |
|
## 생명의 공간 ‘온천천’ 🌌 |
|
|
|
온천천의 물줄기는 신성한 금샘에서 시작됩니다. 금샘은 생명과 창조의 원천이며, 천상의 생명이 지상에서 숨을 틔우는 자리입니다. |
|
|
|
도시의 소음 속에서도 신성한 생명력을 느껴보세요. 이곳에서 영적인 교감을 경험하며, 자연과 하나 되는 순간을 맞이해 보시기 바랍니다 |
|
|
|
이 프로젝트는 부산광역시 동래구 ‘온천장역’ 에서 금정구 ‘장전역’을 잇는 구간의 온천천 산책로의 사운드 스케이프를 기반으로 제작 되었습니다. |
|
|
|
산책로를 따라 걸으며 본 프로젝트 체험 시 보다 몰입된 경험이 가능합니다. |
|
""" |
|
|
|
|
|
app = Flask(__name__) |
|
|
|
|
|
load_dotenv() |
|
|
|
|
|
@app.route('/static/<path:path>') |
|
def serve_static(path): |
|
return send_from_directory('static', path) |
|
|
|
@app.route('/assets/<path:path>') |
|
def serve_assets(path): |
|
try: |
|
if path.endswith('.mp3'): |
|
return send_from_directory('assets', path, mimetype='audio/mpeg') |
|
return send_from_directory('assets', path) |
|
except Exception as e: |
|
print(f"Asset serving error: {e}") |
|
return f"Error serving asset: {path}", 404 |
|
|
|
@app.route('/wishes/<path:path>') |
|
def serve_wishes(path): |
|
return send_from_directory('data/wishes', path) |
|
|
|
|
|
class SimpleDB: |
|
def __init__(self, reflections_path="data/reflections.json", wishes_path="data/wishes.json"): |
|
self.reflections_path = reflections_path |
|
self.wishes_path = wishes_path |
|
os.makedirs('data', exist_ok=True) |
|
self.reflections = self._load_json(reflections_path) |
|
self.wishes = self._load_json(wishes_path) |
|
|
|
def _load_json(self, file_path): |
|
if not os.path.exists(file_path): |
|
with open(file_path, 'w', encoding='utf-8') as f: |
|
json.dump([], f, ensure_ascii=False, indent=2) |
|
try: |
|
with open(file_path, 'r', encoding='utf-8') as f: |
|
return json.load(f) |
|
except Exception as e: |
|
print(f"Error loading {file_path}: {e}") |
|
return [] |
|
|
|
def save_reflection(self, name, reflection, sentiment, timestamp=None): |
|
if timestamp is None: |
|
timestamp = datetime.now().strftime("%Y-%m-%d %H:%M:%S") |
|
|
|
reflection_data = { |
|
"timestamp": timestamp, |
|
"name": name, |
|
"reflection": reflection, |
|
"sentiment": sentiment |
|
} |
|
|
|
self.reflections.append(reflection_data) |
|
self._save_json(self.reflections_path, self.reflections) |
|
return True |
|
|
|
def save_wish(self, name, wish, emotion_data=None, timestamp=None): |
|
if timestamp is None: |
|
timestamp = datetime.now().strftime("%Y-%m-%d %H:%M:%S") |
|
wish_data = { |
|
"name": name, |
|
"wish": wish, |
|
"emotion": emotion_data, |
|
"timestamp": timestamp |
|
} |
|
self.wishes.append(wish_data) |
|
self._save_json(self.wishes_path, self.wishes) |
|
return True |
|
|
|
def _save_json(self, file_path, data): |
|
try: |
|
with open(file_path, 'w', encoding='utf-8') as f: |
|
json.dump(data, f, ensure_ascii=False, indent=2) |
|
return True |
|
except Exception as e: |
|
print(f"Error saving to {file_path}: {e}") |
|
return False |
|
|
|
def get_all_reflections(self): |
|
return sorted(self.reflections, key=lambda x: x["timestamp"], reverse=True) |
|
|
|
def get_all_wishes(self): |
|
return self.wishes |
|
|
|
|
|
HF_API_TOKEN = os.getenv("roots", "") |
|
if not HF_API_TOKEN: |
|
print("Warning: HuggingFace API token not found. Some features may be limited.") |
|
|
|
API_URL = "https://api-inference.huggingface.co/models/stabilityai/stable-diffusion-xl-base-1.0" |
|
headers = {"Authorization": f"Bearer {HF_API_TOKEN}"} if HF_API_TOKEN else {} |
|
|
|
|
|
try: |
|
speech_recognizer = pipeline( |
|
"automatic-speech-recognition", |
|
model="kresnik/wav2vec2-large-xlsr-korean" |
|
) |
|
text_analyzer = pipeline( |
|
"sentiment-analysis", |
|
model="nlptown/bert-base-multilingual-uncased-sentiment" |
|
) |
|
except Exception as e: |
|
print(f"Error initializing AI models: {e}") |
|
speech_recognizer = None |
|
text_analyzer = None |
|
|
|
|
|
os.makedirs("generated_images", exist_ok=True) |
|
|
|
|
|
def calculate_baseline_features(audio_data): |
|
try: |
|
if isinstance(audio_data, tuple): |
|
sr, y = audio_data |
|
y = y.astype(np.float32) |
|
elif isinstance(audio_data, str): |
|
y, sr = librosa.load(audio_data, sr=16000) |
|
else: |
|
print("Unsupported audio format") |
|
return None |
|
|
|
if len(y) == 0: |
|
print("Empty audio data") |
|
return None |
|
|
|
features = { |
|
"energy": float(np.mean(librosa.feature.rms(y=y))), |
|
"tempo": float(librosa.feature.tempo(y=y, sr=sr)[0]), |
|
"pitch": float(np.mean(librosa.feature.zero_crossing_rate(y=y))), |
|
"volume": float(np.mean(np.abs(y))), |
|
"mfcc": librosa.feature.mfcc(y=y, sr=sr, n_mfcc=13).mean(axis=1).tolist() |
|
} |
|
return features |
|
except Exception as e: |
|
print(f"Error calculating baseline: {str(e)}") |
|
return None |
|
|
|
def map_acoustic_to_emotion(features, baseline_features=None): |
|
if features is None: |
|
return { |
|
"primary": "알 수 없음", |
|
"intensity": 0, |
|
"confidence": 0.0, |
|
"secondary": "", |
|
"characteristics": ["음성 분석 실패"], |
|
"details": { |
|
"energy_level": "0%", |
|
"speech_rate": "알 수 없음", |
|
"pitch_variation": "알 수 없음", |
|
"voice_volume": "알 수 없음" |
|
} |
|
} |
|
|
|
energy_norm = min(features["energy"] * 100, 100) |
|
tempo_norm = min(features["tempo"] / 200, 1) |
|
pitch_norm = min(features["pitch"] * 2, 1) |
|
|
|
if baseline_features: |
|
if baseline_features["energy"] > 0 and baseline_features["tempo"] > 0 and baseline_features["pitch"] > 0: |
|
energy_norm = (features["energy"] / baseline_features["energy"]) * 50 |
|
tempo_norm = (features["tempo"] / baseline_features["tempo"]) |
|
pitch_norm = (features["pitch"] / baseline_features["pitch"]) |
|
|
|
emotions = { |
|
"primary": "", |
|
"intensity": energy_norm, |
|
"confidence": 0.0, |
|
"secondary": "", |
|
"characteristics": [] |
|
} |
|
|
|
|
|
if energy_norm > 70: |
|
if tempo_norm > 0.6: |
|
emotions["primary"] = "기쁨/열정" |
|
emotions["characteristics"].append("빠르고 활기찬 말하기 패턴") |
|
else: |
|
emotions["primary"] = "분노/강조" |
|
emotions["characteristics"].append("강한 음성 강도") |
|
emotions["confidence"] = energy_norm / 100 |
|
elif pitch_norm > 0.6: |
|
if energy_norm > 50: |
|
emotions["primary"] = "놀람/흥분" |
|
emotions["characteristics"].append("높은 음고와 강한 강세") |
|
else: |
|
emotions["primary"] = "관심/호기심" |
|
emotions["characteristics"].append("음고 변화가 큼") |
|
emotions["confidence"] = pitch_norm |
|
elif energy_norm < 30: |
|
if tempo_norm < 0.4: |
|
emotions["primary"] = "슬픔/우울" |
|
emotions["characteristics"].append("느리고 약한 음성") |
|
else: |
|
emotions["primary"] = "피로/무기력" |
|
emotions["characteristics"].append("낮은 에너지 레벨") |
|
emotions["confidence"] = (30 - energy_norm) / 30 |
|
else: |
|
if tempo_norm > 0.5: |
|
emotions["primary"] = "평온/안정" |
|
emotions["characteristics"].append("균형잡힌 말하기 패턴") |
|
else: |
|
emotions["primary"] = "차분/진지" |
|
emotions["characteristics"].append("안정적인 음성 특성") |
|
emotions["confidence"] = 0.5 |
|
|
|
emotions["details"] = { |
|
"energy_level": f"{energy_norm:.1f}%", |
|
"speech_rate": f"{'빠름' if tempo_norm > 0.6 else '보통' if tempo_norm > 0.4 else '느림'}", |
|
"pitch_variation": f"{'높음' if pitch_norm > 0.6 else '보통' if pitch_norm > 0.3 else '낮음'}", |
|
"voice_volume": f"{'큼' if features['volume'] > 0.7 else '보통' if features['volume'] > 0.3 else '작음'}" |
|
} |
|
|
|
return emotions |
|
|
|
def analyze_voice(audio_data, state): |
|
if audio_data is None: |
|
return state, "음성을 먼저 녹음해주세요.", "", "", "" |
|
|
|
try: |
|
sr, y = audio_data |
|
y = y.astype(np.float32) |
|
|
|
if len(y) == 0: |
|
return state, "음성이 감지되지 않았습니다.", "", "", "" |
|
|
|
acoustic_features = calculate_baseline_features((sr, y)) |
|
if acoustic_features is None: |
|
return state, "음성 분석에 실패했습니다.", "", "", "" |
|
|
|
|
|
if speech_recognizer: |
|
try: |
|
transcription = speech_recognizer({"sampling_rate": sr, "raw": y.astype(np.float32)}) |
|
text = transcription["text"] |
|
except Exception as e: |
|
print(f"Speech recognition error: {e}") |
|
text = "음성 인식 실패" |
|
else: |
|
text = "음성 인식 모델을 불러올 수 없습니다." |
|
|
|
|
|
voice_emotion = map_acoustic_to_emotion(acoustic_features, state.get("baseline_features")) |
|
|
|
|
|
if text_analyzer and text: |
|
try: |
|
text_sentiment = text_analyzer(text)[0] |
|
text_result = f"텍스트 감정 분석: {text_sentiment['label']} (점수: {text_sentiment['score']:.2f})" |
|
except Exception as e: |
|
print(f"Text analysis error: {e}") |
|
text_sentiment = {"label": "unknown", "score": 0.0} |
|
text_result = "텍스트 감정 분석 실패" |
|
else: |
|
text_sentiment = {"label": "unknown", "score": 0.0} |
|
text_result = "텍스트 감정 분석을 수행할 수 없습니다." |
|
|
|
voice_result = ( |
|
f"음성 감정: {voice_emotion['primary']} " |
|
f"(강도: {voice_emotion['intensity']:.1f}%, 신뢰도: {voice_emotion['confidence']:.2f})\n" |
|
f"특징: {', '.join(voice_emotion['characteristics'])}\n" |
|
f"상세 분석:\n" |
|
f"- 에너지 레벨: {voice_emotion['details']['energy_level']}\n" |
|
f"- 말하기 속도: {voice_emotion['details']['speech_rate']}\n" |
|
f"- 음높이 변화: {voice_emotion['details']['pitch_variation']}\n" |
|
f"- 음성 크기: {voice_emotion['details']['voice_volume']}" |
|
) |
|
|
|
|
|
prompt = generate_detailed_prompt(text, voice_emotion, text_sentiment) |
|
state = {**state, "final_prompt": prompt} |
|
|
|
return state, text, voice_result, text_result, prompt |
|
|
|
except Exception as e: |
|
print(f"Error in analyze_voice: {str(e)}") |
|
return state, f"오류 발생: {str(e)}", "", "", "" |
|
|
|
|
|
def generate_detailed_prompt(text, emotions, text_sentiment): |
|
emotion_colors = { |
|
"기쁨/열정": "밝은 노랑과 따뜻한 주황색", |
|
"분노/강조": "강렬한 빨강과 짙은 검정", |
|
"놀람/흥분": "선명한 파랑과 밝은 보라", |
|
"관심/호기심": "연한 하늘색과 민트색", |
|
"슬픔/우울": "어두운 파랑과 회색", |
|
"피로/무기력": "탁한 갈색과 짙은 회색", |
|
"평온/안정": "부드러운 초록과 베이지", |
|
"차분/진지": "차분한 남색과 깊은 보라" |
|
} |
|
|
|
abstract_elements = { |
|
"기쁨/열정": "상승하는 나선형과 빛나는 입자들", |
|
"분노/강조": "날카로운 지그재그와 폭발하는 형태", |
|
"놀람/흥분": "물결치는 동심원과 반짝이는 점들", |
|
"관심/호기심": "부드럽게 흐르는 곡선과 floating shapes", |
|
"슬픔/우울": "하강하는 흐름과 흐릿한 그림자", |
|
"피로/무기력": "느리게 흐르는 물결과 흐려지는 형태", |
|
"평온/안정": "부드러운 원형과 조화로운 기하학적 패턴", |
|
"차분/진지": "균형잡힌 수직선과 안정적인 구조" |
|
} |
|
|
|
prompt = f"minimalistic abstract art, {emotion_colors.get(emotions['primary'], '자연스러운 색상')} color scheme, " |
|
prompt += f"{abstract_elements.get(emotions['primary'], '유기적 형태')}, " |
|
prompt += "korean traditional patterns, ethereal atmosphere, sacred geometry, " |
|
prompt += "flowing energy, mystical aura, no human figures, no faces, " |
|
prompt += "digital art, high detail, luminescent effects. " |
|
prompt += "negative prompt: photorealistic, human, face, figurative, text, letters, " |
|
prompt += "--ar 2:3 --s 750 --q 2" |
|
|
|
return prompt |
|
|
|
def generate_image_from_prompt(prompt): |
|
if not prompt: |
|
print("No prompt provided") |
|
return None |
|
|
|
try: |
|
response = requests.post( |
|
API_URL, |
|
headers=headers, |
|
json={ |
|
"inputs": prompt, |
|
"parameters": { |
|
"negative_prompt": "ugly, blurry, poor quality, distorted", |
|
"num_inference_steps": 30, |
|
"guidance_scale": 7.5 |
|
} |
|
} |
|
) |
|
|
|
if response.status_code == 200: |
|
timestamp = datetime.now().strftime("%Y%m%d_%H%M%S") |
|
image_path = f"generated_images/image_{timestamp}.png" |
|
os.makedirs("generated_images", exist_ok=True) |
|
|
|
with open(image_path, "wb") as f: |
|
f.write(response.content) |
|
|
|
return image_path |
|
else: |
|
print(f"Error: {response.status_code}") |
|
print(f"Response: {response.text}") |
|
return None |
|
except Exception as e: |
|
print(f"Error generating image: {str(e)}") |
|
return None |
|
|
|
def create_pwa_files(): |
|
"""PWA 필요 파일들 생성""" |
|
|
|
manifest_path = 'static/manifest.json' |
|
if not os.path.exists(manifest_path): |
|
manifest_data = { |
|
"name": "디지털 굿판", |
|
"short_name": "디지털 굿판", |
|
"description": "현대 도시 속 디지털 의례 공간", |
|
"start_url": "/", |
|
"display": "standalone", |
|
"background_color": "#ffffff", |
|
"theme_color": "#000000", |
|
"orientation": "portrait", |
|
"icons": [ |
|
{ |
|
"src": "/static/icons/icon-72x72.png", |
|
"sizes": "72x72", |
|
"type": "image/png", |
|
"purpose": "any maskable" |
|
}, |
|
{ |
|
"src": "/static/icons/icon-96x96.png", |
|
"sizes": "96x96", |
|
"type": "image/png", |
|
"purpose": "any maskable" |
|
}, |
|
{ |
|
"src": "/static/icons/icon-128x128.png", |
|
"sizes": "128x128", |
|
"type": "image/png", |
|
"purpose": "any maskable" |
|
}, |
|
{ |
|
"src": "/static/icons/icon-144x144.png", |
|
"sizes": "144x144", |
|
"type": "image/png", |
|
"purpose": "any maskable" |
|
}, |
|
{ |
|
"src": "/static/icons/icon-152x152.png", |
|
"sizes": "152x152", |
|
"type": "image/png", |
|
"purpose": "any maskable" |
|
}, |
|
{ |
|
"src": "/static/icons/icon-192x192.png", |
|
"sizes": "192x192", |
|
"type": "image/png", |
|
"purpose": "any maskable" |
|
}, |
|
{ |
|
"src": "/static/icons/icon-384x384.png", |
|
"sizes": "384x384", |
|
"type": "image/png", |
|
"purpose": "any maskable" |
|
}, |
|
{ |
|
"src": "/static/icons/icon-512x512.png", |
|
"sizes": "512x512", |
|
"type": "image/png", |
|
"purpose": "any maskable" |
|
} |
|
] |
|
} |
|
with open(manifest_path, 'w', encoding='utf-8') as f: |
|
json.dump(manifest_data, f, ensure_ascii=False, indent=2) |
|
|
|
|
|
sw_path = 'static/service-worker.js' |
|
if not os.path.exists(sw_path): |
|
with open(sw_path, 'w', encoding='utf-8') as f: |
|
f.write(''' |
|
// 캐시 이름 설정 |
|
const CACHE_NAME = 'digital-gutpan-v1'; |
|
|
|
// 캐시할 파일 목록 |
|
const urlsToCache = [ |
|
'/', |
|
'/static/icons/icon-72x72.png', |
|
'/static/icons/icon-96x96.png', |
|
'/static/icons/icon-128x128.png', |
|
'/static/icons/icon-144x144.png', |
|
'/static/icons/icon-152x152.png', |
|
'/static/icons/icon-192x192.png', |
|
'/static/icons/icon-384x384.png', |
|
'/static/icons/icon-512x512.png', |
|
'/assets/main_music.mp3' |
|
]; |
|
|
|
// 서비스 워커 설치 시 |
|
self.addEventListener('install', event => { |
|
event.waitUntil( |
|
caches.open(CACHE_NAME) |
|
.then(cache => cache.addAll(urlsToCache)) |
|
.then(() => self.skipWaiting()) |
|
); |
|
}); |
|
|
|
// 서비스 워커 활성화 시 |
|
self.addEventListener('activate', event => { |
|
event.waitUntil( |
|
caches.keys().then(cacheNames => { |
|
return Promise.all( |
|
cacheNames.map(cacheName => { |
|
if (cacheName !== CACHE_NAME) { |
|
return caches.delete(cacheName); |
|
} |
|
}) |
|
); |
|
}).then(() => self.clients.claim()) |
|
); |
|
}); |
|
|
|
// 네트워크 요청 처리 |
|
self.addEventListener('fetch', event => { |
|
event.respondWith( |
|
caches.match(event.request) |
|
.then(response => { |
|
if (response) { |
|
return response; |
|
} |
|
return fetch(event.request); |
|
}) |
|
); |
|
}); |
|
'''.strip()) |
|
|
|
|
|
index_path = 'templates/index.html' |
|
if not os.path.exists(index_path): |
|
with open(index_path, 'w', encoding='utf-8') as f: |
|
f.write('''<!DOCTYPE html> |
|
<html lang="ko"> |
|
<head> |
|
<meta charset="UTF-8"> |
|
<meta name="viewport" content="width=device-width, initial-scale=1.0, maximum-scale=1.0, user-scalable=no"> |
|
<title>디지털 굿판</title> |
|
<link rel="manifest" href="/manifest.json"> |
|
<meta name="theme-color" content="#000000"> |
|
<meta name="apple-mobile-web-app-capable" content="yes"> |
|
<meta name="apple-mobile-web-app-status-bar-style" content="black"> |
|
<meta name="apple-mobile-web-app-title" content="디지털 굿판"> |
|
<link rel="apple-touch-icon" href="/static/icons/icon-152x152.png"> |
|
<script> |
|
// 화면 꺼짐 방지 |
|
async function preventSleep() { |
|
try { |
|
if ('wakeLock' in navigator) { |
|
const wakeLock = await navigator.wakeLock.request('screen'); |
|
console.log('화면 켜짐 유지 활성화'); |
|
|
|
document.addEventListener('visibilitychange', async () => { |
|
if (document.visibilityState === 'visible') { |
|
await preventSleep(); |
|
} |
|
}); |
|
} |
|
} catch (err) { |
|
console.log('화면 켜짐 유지 실패:', err); |
|
} |
|
} |
|
|
|
// 서비스 워커 등록 |
|
if ('serviceWorker' in navigator) { |
|
window.addEventListener('load', async () => { |
|
try { |
|
const registration = await navigator.serviceWorker.register('/service-worker.js'); |
|
console.log('ServiceWorker 등록 성공:', registration.scope); |
|
await preventSleep(); |
|
} catch (err) { |
|
console.log('ServiceWorker 등록 실패:', err); |
|
} |
|
}); |
|
} |
|
</script> |
|
</head> |
|
<body> |
|
<div id="gradio-app"></div> |
|
</body> |
|
</html>''') |
|
|
|
def safe_state_update(state, updates): |
|
try: |
|
new_state = {**state, **updates} |
|
|
|
if "user_name" in updates: |
|
new_state["user_name"] = str(updates["user_name"]).strip() or "익명" |
|
if "baseline_features" in updates: |
|
if updates["baseline_features"] is None: |
|
return state |
|
return new_state |
|
except Exception as e: |
|
print(f"State update error: {e}") |
|
return state |
|
|
|
def create_interface(): |
|
db = SimpleDB() |
|
import base64 |
|
|
|
|
|
initial_state = { |
|
"user_name": "", |
|
"baseline_features": None, |
|
"reflections": [], |
|
"wish": None, |
|
"final_prompt": "", |
|
"image_path": None, |
|
"current_tab": 0 |
|
} |
|
|
|
def encode_image_to_base64(image_path): |
|
try: |
|
with open(image_path, "rb") as img_file: |
|
return base64.b64encode(img_file.read()).decode() |
|
except Exception as e: |
|
print(f"이미지 로딩 에러 ({image_path}): {e}") |
|
return "" |
|
|
|
|
|
mobile_logo = encode_image_to_base64("static/DIGITAL_GUTPAN_LOGO_m.png") |
|
desktop_logo = encode_image_to_base64("static/DIGITAL_GUTPAN_LOGO_w.png") |
|
main_image = encode_image_to_base64("static/main-image.png") |
|
|
|
if not mobile_logo or not desktop_logo: |
|
logo_html = """ |
|
<div style="text-align: center; padding: 20px;"> |
|
<h1 style="font-size: 24px;">디지털 굿판</h1> |
|
</div> |
|
""" |
|
else: |
|
logo_html = f""" |
|
<img class="mobile-logo" src="data:image/png;base64,{mobile_logo}" alt="디지털 굿판 로고 모바일"> |
|
<img class="desktop-logo" src="data:image/png;base64,{desktop_logo}" alt="디지털 굿판 로고 데스크톱"> |
|
""" |
|
|
|
main_image_html = f""" |
|
<div class="main-image-container"> |
|
<img src="data:image/png;base64,{main_image}" alt="디지털 굿판 메인 이미지" class="main-image"> |
|
</div> |
|
""" |
|
|
|
css = """ |
|
/* 전체 컨테이너 width 제한 */ |
|
.gradio-container { |
|
margin: 0 auto !important; |
|
max-width: 800px !important; |
|
padding: 1rem !important; |
|
} |
|
|
|
/* 모바일 뷰 */ |
|
@media (max-width: 600px) { |
|
.mobile-logo { |
|
display: none !important; |
|
} |
|
.desktop-logo { |
|
display: block !important; |
|
width: 100%; |
|
height: auto; |
|
max-width: 800px; |
|
margin: 0 auto; |
|
} |
|
.main-image { |
|
width: 100%; |
|
max-width: 100%; |
|
} |
|
} |
|
|
|
/* 데스크톱 뷰 (601px 이상) */ |
|
@media (min-width: 601px) { |
|
.main-image { |
|
width: 600px; |
|
max-width: 600px; |
|
} |
|
.container { padding: 10px !important; } |
|
.gradio-row { |
|
flex-direction: column !important; |
|
gap: 10px !important; |
|
} |
|
.gradio-button { |
|
width: 100% !important; |
|
margin: 5px 0 !important; |
|
min-height: 44px !important; |
|
} |
|
.gradio-textbox { width: 100% !important; } |
|
.gradio-audio { width: 100% !important; } |
|
.gradio-image { width: 100% !important; } |
|
#audio-recorder { width: 100% !important; } |
|
#result-image { width: 100% !important; } |
|
.gradio-dataframe { |
|
overflow-x: auto !important; |
|
max-width: 100% !important; |
|
} |
|
} |
|
|
|
/* 데스크톱 뷰 */ |
|
@media (min-width: 601px) { |
|
.logo-container { |
|
padding: 20px 0; |
|
width: 100%; |
|
max-width: 800px; |
|
margin: 0 auto; |
|
} |
|
.desktop-logo { |
|
display: none !important; |
|
} |
|
.mobile-logo { |
|
display: block !important; |
|
width: 100% !important; |
|
height: auto !important; |
|
max-width: 300px !important; |
|
margin: 0 auto !important; |
|
} |
|
/* 데스크탑에서 2단 컬럼 레이아웃 보완 */ |
|
.gradio-row { |
|
gap: 20px !important; |
|
} |
|
.gradio-row > .gradio-column { |
|
flex: 1 !important; |
|
min-width: 0 !important; |
|
} |
|
} |
|
|
|
/* 전반적인 UI 개선 */ |
|
.gradio-button { |
|
transition: all 0.3s ease; |
|
border-radius: 8px !important; |
|
} |
|
.main-image-container { |
|
width: 100%; |
|
margin: 0 auto 2rem auto; |
|
text-align: center; |
|
} |
|
|
|
.main-image { |
|
width: 100%; |
|
height: auto; |
|
max-width: 100%; |
|
display: block; |
|
margin: 0 auto; |
|
} |
|
|
|
.gradio-button:active { |
|
transform: scale(0.98); |
|
} |
|
|
|
/* 컴포넌트 간격 조정 */ |
|
.gradio-column > *:not(:last-child) { |
|
margin-bottom: 1rem !important; |
|
} |
|
|
|
/* 데이터프레임 스타일링 */ |
|
.gradio-dataframe { |
|
border: 1px solid #e0e0e0; |
|
border-radius: 8px; |
|
overflow: hidden; |
|
} |
|
|
|
/* 오디오 플레이어 컨테이너 */ |
|
.audio-player-container { |
|
max-width: 800px; |
|
margin: 20px auto; |
|
padding: 0 1rem; |
|
} |
|
.audio-player { |
|
margin: 20px auto; |
|
width: 100%; |
|
max-width: 300px; |
|
|
|
/* 탭 스타일링 */ |
|
.tabs { |
|
max-width: 800px; |
|
margin: 0 auto; |
|
} |
|
|
|
/* 마크다운 컨텐츠 */ |
|
.markdown-content { |
|
max-width: 800px; |
|
margin: 0 auto; |
|
padding: 0 1rem; |
|
} |
|
|
|
/* 이미지 컨테이너 */ |
|
.gradio-image { |
|
border-radius: 8px; |
|
overflow: hidden; |
|
max-width: 800px; |
|
margin: 0 auto; |
|
} |
|
|
|
.blessing-status-box { |
|
min-height: 200px !important; |
|
max-height: 300px !important; |
|
overflow-y: auto !important; |
|
padding: 15px !important; |
|
border: 1px solid #ddd !important; |
|
border-radius: 8px !important; |
|
background-color: #f8f9fa !important; |
|
margin: 10px 0 !important; |
|
} |
|
|
|
.blessing-status-box { |
|
min-height: 250px !important; |
|
max-height: 400px !important; |
|
overflow-y: auto !important; |
|
padding: 20px !important; |
|
border: 1px solid #ddd !important; |
|
border-radius: 12px !important; |
|
background-color: #f8f9fa !important; |
|
margin: 15px 0 !important; |
|
font-size: 16px !important; |
|
line-height: 1.6 !important; |
|
} |
|
|
|
.blessing-status-box h3 { |
|
color: #2a5d8f !important; |
|
margin-bottom: 15px !important; |
|
} |
|
|
|
.blessing-status-box strong { |
|
color: #4a90e2 !important; |
|
} |
|
} |
|
""" |
|
|
|
with gr.Blocks(theme=gr.themes.Soft(), css=css) as app: |
|
state = gr.State(value=initial_state) |
|
processing_status = gr.State("") |
|
with gr.Column(elem_classes="logo-container"): |
|
gr.HTML(logo_html) |
|
|
|
with gr.Tabs(selected=0) as tabs: |
|
|
|
with gr.TabItem("입장") as tab_entrance: |
|
gr.HTML(main_image_html) |
|
|
|
|
|
welcome_section = gr.Column(visible=True) |
|
with welcome_section: |
|
gr.Markdown(WELCOME_MESSAGE) |
|
name_input = gr.Textbox( |
|
label="이름을 알려주세요", |
|
placeholder="이름을 입력해주세요", |
|
interactive=True |
|
) |
|
name_submit_btn = gr.Button("축원의식 준비하기", variant="primary") |
|
|
|
|
|
story_section = gr.Column(visible=False) |
|
with story_section: |
|
gr.Markdown(ONCHEON_STORY) |
|
continue_btn = gr.Button("축원의식 시작하기", variant="primary") |
|
|
|
|
|
blessing_section = gr.Column(visible=False) |
|
with blessing_section: |
|
gr.Markdown("### 축원의식을 시작하겠습니다") |
|
gr.Markdown(""" |
|
축원 문장을 읽어주세요: |
|
'명짐 복짐 짊어지고 안가태평하시기를 비도발원 축원 드립니다' |
|
""") |
|
|
|
|
|
baseline_audio = gr.Audio( |
|
label="축원 문장 녹음하기", |
|
sources=["microphone"], |
|
type="numpy", |
|
streaming=False |
|
) |
|
|
|
|
|
set_baseline_btn = gr.Button("축원문 분석하기", variant="primary") |
|
|
|
|
|
blessing_status = gr.Markdown( |
|
value="축원 문장을 녹음한 후 분석하기 버튼을 눌러주세요.", |
|
elem_id="blessing-status", |
|
elem_classes="blessing-status-box" |
|
) |
|
|
|
|
|
entry_guide_section = gr.Column(visible=False) |
|
with entry_guide_section: |
|
gr.Markdown("## 굿판으로 입장하기") |
|
gr.Markdown(""" |
|
굿판에 들어가기 전에 마음을 고요히 하고 신과 연결될 준비를 하세요. |
|
|
|
이 경험은 부산 동래구 온천장역에서 시작하여, 온천천을 따라 신화적 공간과 연결될 수 있도록 설계되었습니다. |
|
특히 이곳에서 시작하면 온천천의 자연스러운 소리와 금샘의 생명력을 더욱 깊이 느낄 수 있습니다. |
|
온천천을 따라 걷다 보면, 금샘과 연결된 물의 정화 에너지가 스며들며 신성을 느끼게 될 것입니다. |
|
|
|
본격적인 의식을 시작하기 전, 마음을 정화하고 감각을 열어 경험에 몰입할 준비를 마치세요. |
|
|
|
**청신 의식을 시작하려면 아래 버튼을 눌러주세요.** |
|
""") |
|
enter_btn = gr.Button("청신 의식 시작하기", variant="primary") |
|
|
|
with gr.TabItem("청신") as tab_listen: |
|
gr.Markdown("## 청신 - 신을 부르기 위한 정화 의식") |
|
gr.Markdown(""" |
|
**청신(淸神)** 단계는 신을 부르는 의식으로, 정화와 연결의 의미를 담고 있습니다. |
|
이 단계에서는 참여자가 도시의 번잡함에서 벗어나 내면의 고요함을 찾고 신성과의 교감을 시작하게 됩니다. |
|
|
|
본격적인 의식을 시작하기 전, 마음을 정화하고 감각을 열어 경험에 몰입할 준비를 마치세요 |
|
|
|
**보다 몰입된 경험을 위해** |
|
이 경험은 부산 동래구 온천장역에서 시작하여, 금정구 장전역까지 온천천을 따라 신화적 공간과 연결될 수 있도록 설계되었습니다. |
|
특히 이곳에서 시작하면 온천천의 자연스러운 소리와 금샘의 생명력을 더욱 깊이 느낄 수 있습니다. |
|
온천천을 따라 걷다 보면, 금샘과 연결된 물의 정화 에너지가 스며들며 신성을 느끼게 될 것입니다. |
|
|
|
청신 단계의 목적은 참여자들이 자연과 신화적 요소를 통해 감각을 깨우고 자신의 감정을 정화하며, 초자연적 존재와 소통할 준비를 하는 데 있습니다. |
|
특히 온천천의 물소리와 자연의 소리는 신을 부르는 소리처럼 참여자의 마음을 고요하게 하고, 금샘 신화의 정화와 생명력의 상징성을 통해 신을 맞이할 준비를 갖추게 합니다. |
|
|
|
**이제 음악을 들으며 감정을 기록해보세요.** |
|
음악을 통해 내면의 평온을 되찾고, 이 과정에서 느껴지는 감정과 생각들을 자유롭게 적어보세요. 이 기록은 이후 과정에서 소망과 의식을 구체화하는 데 큰 도움이 될 것입니다. |
|
""") |
|
|
|
|
|
gr.Markdown("## 聽身, 請神 (몸의 소리를 듣고 신을 청하다) ") |
|
gr.HTML(""" |
|
<div class="soundcloud-container"> |
|
<iframe |
|
width="100%" |
|
height="166" |
|
scrolling="no" |
|
frameborder="no" |
|
allow="autoplay" |
|
src="https://w.soundcloud.com/player/?url=https%3A//soundcloud.com/9arage/demo&color=%23ff5500&auto_play=true&hide_related=true&show_comments=false&show_user=false&show_reposts=false&show_teaser=false" |
|
></iframe> |
|
</div> |
|
<style> |
|
.soundcloud-container { |
|
width: 100%; |
|
max-width: 800px; |
|
margin: 20px auto; |
|
border-radius: 12px; |
|
overflow: hidden; |
|
} |
|
</style> |
|
""") |
|
|
|
with gr.Column(): |
|
reflection_input = gr.Textbox( |
|
label="기록과 함께 마음의 번잡함을 내려놓으세요. 본 정보는 저장되지 않습니다.", |
|
lines=3, |
|
max_lines=5 |
|
) |
|
save_btn = gr.Button("기록 남기기", variant="secondary") |
|
reflections_display = gr.Dataframe( |
|
headers=["시간", "감상", "감정 분석"], |
|
label="기록된 감상들", |
|
value=[], |
|
interactive=False, |
|
wrap=True, |
|
row_count=(5, "dynamic") |
|
) |
|
|
|
|
|
with gr.TabItem("기원") as tab_wish: |
|
gr.Markdown("## 기원 - 소망을 천명하고 신에게 바라는 의식체") |
|
gr.Markdown(""" |
|
'기원' 단계에서는 참여자가 산책로를 걷는 동안 자신의 감정과 내면을 인식하고, 마음속 소망을 음성으로 표현합니다. |
|
입에서 나오는 소리는 단순한 음성이 아니라, 신령이나 자연에 자신의 진정한 소망과 감정을 전달하는 중요한 발화입니다. |
|
|
|
이제 당신의 소망을 음성으로 발화해보세요. 이 발화는 신과의 의식적인 소통의 일부로, |
|
참여자의 소망이 신성의 영역에 닿을 수 있도록 돕습니다. |
|
|
|
마음속에서 떠오르는 바람을 말해보세요. 이 과정은 소망을 명확하게 정리하고, |
|
당신의 감정과 바람을 외부로 표현하는 강력한 의식적 행동이 될 것입니다. |
|
""") |
|
status_display = gr.Markdown("", visible=False) |
|
|
|
with gr.Row(): |
|
with gr.Column(): |
|
voice_input = gr.Audio( |
|
label="당신의 소원을 말해주세요", |
|
sources=["microphone"], |
|
type="numpy", |
|
streaming=False, |
|
elem_id="voice-input" |
|
) |
|
with gr.Row(): |
|
clear_btn = gr.Button("녹음 지우기", variant="secondary") |
|
analyze_btn = gr.Button("소원 분석하기", variant="primary") |
|
|
|
with gr.Column(): |
|
transcribed_text = gr.Textbox( |
|
label="인식된 텍스트", |
|
interactive=False |
|
) |
|
voice_emotion = gr.Textbox( |
|
label="음성 감정 분석", |
|
interactive=False |
|
) |
|
text_emotion = gr.Textbox( |
|
label="텍스트 감정 분석", |
|
interactive=False |
|
) |
|
|
|
|
|
with gr.TabItem("송신") as tab_send: |
|
gr.Markdown("## 송신 - 신과 내 마음을 보내다") |
|
gr.Markdown(""" |
|
송신 단계는 참여자가 내면의 소망을 더욱 구체화하여 외부로 전달하는 중요한 과정입니다. |
|
이 과정에서, 발화된 언어와 감정이 담긴 소망은 시각적 이미지로 표현됩니다.. |
|
|
|
아래 버튼을 눌러 자신의 소망을 그림으로 그려 보세요. |
|
이 그림은 발화된 감정의 흐름과 참여자의 소망을 상징적으로 담아내어 눈에 보이는 형상으로 재현됩니다. |
|
생성된 이미지를 통해 내면의 바람이 어떻게 구체화되는지 경험하고, |
|
당신의 소망이 전해지는 과정을 시각적으로 확인해 보세요. |
|
|
|
""") |
|
final_prompt = gr.Textbox( |
|
label="생성된 프롬프트", |
|
interactive=False, |
|
lines=3 |
|
) |
|
generate_btn = gr.Button("마음의 그림 그리기", variant="primary") |
|
result_image = gr.Image( |
|
label="생성된 이미지", |
|
show_download_button=True |
|
) |
|
|
|
gr.Markdown("## 온천천에 전하고 싶은 소원을 남겨주세요") |
|
final_reflection = gr.Textbox( |
|
label="소원", |
|
placeholder="당신의 소원을 한 줄로 남겨주세요...", |
|
max_lines=3 |
|
) |
|
save_final_btn = gr.Button("소원 전하기", variant="primary") |
|
gr.Markdown(""" |
|
💫 여러분의 소원은 11월 25일 온천천 벽면에 설치될 소원나무에 전시될 예정입니다. |
|
따뜻한 마음을 담아 작성해주세요. |
|
""") |
|
wishes_display = gr.Dataframe( |
|
headers=["시간", "소원", "이름"], |
|
label="기록된 소원들", |
|
value=[], |
|
interactive=False, |
|
wrap=True |
|
) |
|
with gr.TabItem("프로젝트 소개") as tab_intro: |
|
gr.HTML(main_image_html) |
|
gr.Markdown(""" |
|
# 디지털 굿판 |
|
‘디지털 굿판’은 부산문화재단의 지원으로 루츠리딤이 제작한 다원예술 프로젝트입니다. |
|
|
|
본 사업은 전통 굿의 요소와 현대 기술을 결합해 참여자들이 자연과 깊이 연결되며 내면을 탐색하고 치유하는 경험을 제공합니다. |
|
금샘과 온천천의 생명 창조 신화를 배경으로, 참여자들은 자연의 소리에 귀를 기울이고, 신화에 몰입하며, 감정을 표현하는 과정에서 개인적 및 공동체적 치유의 여정을 걷습니다. |
|
|
|
AI와 사운드스케이프 같은 현대 기술, 장소성, 신화적 요소가 어우러져 삶과 예술, 자연과 기술이 조화를 이루는 체험 공간을 창조합니다. |
|
|
|
|
|
# 청신-정화 |
|
청신(정화) 단계에서는 온천천을 따라 자연의 소리와 신화적 요소가 어우러진 사운드스케이프를 경험하게 됩니다. |
|
루츠리딤이 제작한 이 음악은 금샘에서 시작해 바다로 이어지는 길 동안 자연에서 들려오는 다양한 소리들을 수집하여, 현대 음악과 전통 굿의 리듬을 조화롭게 결합하여 탄생한 곡입니다. |
|
참여자들은 온천천 산책로를 걸으며 자연이 내는 소리와 전통적인 굿의 리듬을 통해 내면의 번잡함을 정화하고, 신화 속 금샘의 정화 의미를 느끼며 자신을 치유하는 경험을 하게 됩니다. |
|
|
|
# 윤리조항 |
|
|
|
이 프로젝트는 현대 사회의 삶에 대한 근본적인 질문을 던지며 새로운 문화적 지향점을 모색합니다. |
|
본 프로젝트에서 기록된 정보 중 ‘송신’ 단계의 ‘소원전하기’를 제외한 모든 과정의 정보는(목소리,감상 등) 별도로 저장되지 않으며 AI 학습이나 외부 공유에 사용되지 않습니다. |
|
|
|
- **기획**: 루츠리딤, 전승아 |
|
- **음악**: 루츠리딤 (이광혁) |
|
- **미디어아트**: 송지훈 |
|
""") |
|
|
|
|
|
def handle_name_submit(name, state): |
|
if not name.strip(): |
|
return ( |
|
gr.update(visible=True), |
|
gr.update(visible=False), |
|
gr.update(visible=False), |
|
gr.update(visible=False), |
|
state |
|
) |
|
state = safe_state_update(state, {"user_name": name}) |
|
return ( |
|
gr.update(visible=False), |
|
gr.update(visible=True), |
|
gr.update(visible=False), |
|
gr.update(visible=False), |
|
state |
|
) |
|
|
|
def handle_continue(): |
|
return ( |
|
gr.update(visible=False), |
|
gr.update(visible=False), |
|
gr.update(visible=True), |
|
gr.update(visible=False) |
|
) |
|
|
|
def handle_blessing_complete(audio, state): |
|
if audio is None: |
|
return state, "축원 문장을 먼저 녹음해주세요." |
|
|
|
try: |
|
sr, y = audio |
|
features = calculate_baseline_features((sr, y)) |
|
|
|
if features: |
|
state = safe_state_update(state, {"baseline_features": features}) |
|
detailed_msg = f""" |
|
### 축원 분석이 완료되었습니다 |
|
|
|
**음성 특성 분석:** |
|
- 음성 강도: {features['energy']:.2f} |
|
- 음성 속도: {features['tempo']:.2f} |
|
- 음성 높낮이: {features['pitch']:.2f} |
|
- 음성 크기: {features['volume']:.2f} |
|
|
|
축원이 완료되었습니다. 이제 청신 탭으로 이동하여 의식을 진행해주세요. |
|
""" |
|
return state, detailed_msg |
|
|
|
return state, "분석에 실패했습니다. 다시 시도해주세요." |
|
|
|
except Exception as e: |
|
return state, f"오류가 발생했습니다: {str(e)}" |
|
|
|
|
|
set_baseline_btn.click( |
|
fn=handle_blessing_complete, |
|
inputs=[baseline_audio, state], |
|
outputs=[state, blessing_status] |
|
) |
|
|
|
def handle_enter(): |
|
return gr.update(selected=1) |
|
|
|
def handle_start(): |
|
return gr.update(visible=False), gr.update(visible=True) |
|
|
|
def handle_baseline(audio, current_state): |
|
if audio is None: |
|
return current_state, "음성을 먼저 녹음해주세요.", gr.update(selected=0) |
|
|
|
try: |
|
sr, y = audio |
|
y = y.astype(np.float32) |
|
features = calculate_baseline_features((sr, y)) |
|
if features: |
|
current_state = safe_state_update(current_state, { |
|
"baseline_features": features, |
|
"current_tab": 1 |
|
}) |
|
return current_state, "기준점이 설정되었습니다. 청신 탭으로 이동합니다.", gr.update(selected=1) |
|
return current_state, "기준점 설정에 실패했습니다. 다시 시도해주세요.", gr.update(selected=0) |
|
except Exception as e: |
|
print(f"Baseline error: {str(e)}") |
|
return current_state, "오류가 발생했습니다. 다시 시도해주세요.", gr.update(selected=0) |
|
|
|
def move_to_chungshin(): |
|
return gr.Tabs.update(selected="청신") |
|
|
|
def handle_save_reflection(text, state): |
|
if not text.strip(): |
|
return state, [] |
|
|
|
try: |
|
current_time = datetime.now().strftime("%Y-%m-%d %H:%M:%S") |
|
name = state.get("user_name", "익명") |
|
|
|
if text_analyzer: |
|
sentiment = text_analyzer(text)[0] |
|
sentiment_text = f"{sentiment['label']} ({sentiment['score']:.2f})" |
|
else: |
|
sentiment_text = "분석 불가" |
|
|
|
|
|
db.save_reflection(name, text, sentiment_text) |
|
|
|
|
|
return state, [[current_time, text, sentiment_text]] |
|
|
|
except Exception as e: |
|
print(f"Error saving reflection: {e}") |
|
return state, [] |
|
|
|
def save_reflection_fixed(text, state): |
|
if not text.strip(): |
|
return state, [] |
|
|
|
try: |
|
current_time = datetime.now().strftime("%Y-%m-%d %H:%M:%S") |
|
name = state.get("user_name", "익명") |
|
|
|
if text_analyzer: |
|
sentiment = text_analyzer(text)[0] |
|
sentiment_text = f"{sentiment['label']} ({sentiment['score']:.2f})" |
|
else: |
|
sentiment_text = "분석 불가" |
|
|
|
|
|
db.save_reflection(name, text, sentiment_text) |
|
|
|
|
|
return state, [[current_time, text, sentiment_text]] |
|
|
|
except Exception as e: |
|
print(f"Error saving reflection: {e}") |
|
return state, [] |
|
|
|
def handle_save_wish(text, state): |
|
if not text.strip(): |
|
return "소원을 입력해주세요.", [] |
|
|
|
try: |
|
name = state.get("user_name", "익명") |
|
db.save_wish(name, text) |
|
wishes = db.get_all_wishes() |
|
wish_display_data = [ |
|
[wish["timestamp"], wish["wish"], wish["name"]] |
|
for wish in wishes |
|
] |
|
return "소원이 저장되었습니다.", wish_display_data |
|
except Exception as e: |
|
print(f"Error saving wish: {e}") |
|
return "오류가 발생했습니다.", [] |
|
|
|
def safe_analyze_voice(audio_data, state): |
|
if audio_data is None: |
|
return ( |
|
state, |
|
"음성을 먼저 녹음해주세요.", |
|
"", |
|
"", |
|
"", |
|
"분석 준비 중..." |
|
) |
|
|
|
try: |
|
|
|
status_msg = "음성 분석 중..." |
|
|
|
|
|
sr, y = audio_data |
|
if len(y) == 0: |
|
return ( |
|
state, |
|
"음성이 감지되지 않았습니다.", |
|
"", |
|
"", |
|
"", |
|
"분석 실패" |
|
) |
|
|
|
status_msg = "음성 특성 분석 중..." |
|
acoustic_features = calculate_baseline_features((sr, y)) |
|
|
|
status_msg = "음성 인식 중..." |
|
new_state, text, voice_result, text_result, prompt = analyze_voice(audio_data, state) |
|
|
|
status_msg = "분석 완료" |
|
return ( |
|
new_state, |
|
text, |
|
voice_result, |
|
text_result, |
|
prompt, |
|
status_msg |
|
) |
|
|
|
except Exception as e: |
|
print(f"Voice analysis error: {str(e)}") |
|
return ( |
|
state, |
|
"음성 분석 중 오류가 발생했습니다. 다시 시도해주세요.", |
|
"", |
|
"", |
|
"", |
|
"분석 실패" |
|
) |
|
|
|
name_submit_btn.click( |
|
fn=handle_name_submit, |
|
inputs=[name_input, state], |
|
outputs=[welcome_section, story_section, blessing_section, entry_guide_section, state] |
|
) |
|
|
|
continue_btn.click( |
|
fn=handle_continue, |
|
outputs=[story_section, welcome_section, blessing_section, entry_guide_section] |
|
) |
|
|
|
set_baseline_btn.click( |
|
fn=handle_blessing_complete, |
|
inputs=[baseline_audio, state], |
|
outputs=[state, blessing_status] |
|
) |
|
|
|
continue_to_next.click( |
|
fn=lambda: (gr.update(selected=1)), |
|
outputs=[tabs] |
|
) |
|
|
|
enter_btn.click( |
|
fn=lambda: gr.update(selected=1), |
|
outputs=tabs |
|
) |
|
|
|
save_btn.click( |
|
fn=save_reflection_fixed, |
|
inputs=[reflection_input, state], |
|
outputs=[state, reflections_display] |
|
) |
|
|
|
clear_btn.click( |
|
fn=lambda: None, |
|
outputs=[voice_input] |
|
) |
|
|
|
analyze_btn.click( |
|
fn=safe_analyze_voice, |
|
inputs=[voice_input, state], |
|
outputs=[state, transcribed_text, voice_emotion, text_emotion, final_prompt, status_display] |
|
) |
|
|
|
generate_btn.click( |
|
fn=generate_image_from_prompt, |
|
inputs=[final_prompt], |
|
outputs=[result_image] |
|
) |
|
|
|
save_final_btn.click( |
|
fn=handle_save_wish, |
|
inputs=[final_reflection, state], |
|
outputs=[blessing_status, wishes_display] |
|
) |
|
|
|
return app |
|
|
|
if __name__ == "__main__": |
|
audio_path = os.path.join('assets', 'main_music.mp3') |
|
if os.path.exists(audio_path): |
|
print(f"✅ Audio file found: {audio_path}") |
|
print(f" Size: {os.path.getsize(audio_path)} bytes") |
|
print(f" Absolute path: {os.path.abspath(audio_path)}") |
|
else: |
|
print(f"❌ Audio file not found: {audio_path}") |
|
sw_content = """ |
|
const CACHE_NAME = 'digital-gutpan-v2'; |
|
const urlsToCache = [ |
|
'/', |
|
'/assets/main_music.mp3', |
|
'/static/icons/icon-72x72.png', |
|
'/static/icons/icon-96x96.png', |
|
'/static/icons/icon-128x128.png', |
|
'/static/icons/icon-144x144.png', |
|
'/static/icons/icon-152x152.png', |
|
'/static/icons/icon-192x192.png', |
|
'/static/icons/icon-384x384.png', |
|
'/static/icons/icon-512x512.png' |
|
]; |
|
|
|
self.addEventListener('install', event => { |
|
event.waitUntil( |
|
caches.open(CACHE_NAME) |
|
.then(cache => { |
|
console.log('Opened cache'); |
|
return cache.addAll(urlsToCache); |
|
}) |
|
.then(() => self.skipWaiting()) |
|
); |
|
}); |
|
|
|
self.addEventListener('activate', event => { |
|
event.waitUntil( |
|
caches.keys().then(cacheNames => { |
|
return Promise.all( |
|
cacheNames.map(cacheName => { |
|
if (cacheName !== CACHE_NAME) { |
|
return caches.delete(cacheName); |
|
} |
|
}) |
|
); |
|
}).then(() => self.clients.claim()) |
|
); |
|
}); |
|
|
|
self.addEventListener('fetch', event => { |
|
event.respondWith( |
|
caches.match(event.request) |
|
.then(response => { |
|
if (response) { |
|
return response; |
|
} |
|
|
|
return fetch(event.request).then( |
|
response => { |
|
if(!response || response.status !== 200 || response.type !== 'basic') { |
|
return response; |
|
} |
|
|
|
const responseToCache = response.clone(); |
|
|
|
caches.open(CACHE_NAME) |
|
.then(cache => { |
|
cache.put(event.request, responseToCache); |
|
}); |
|
|
|
return response; |
|
} |
|
); |
|
}) |
|
); |
|
}); |
|
""" |
|
|
|
|
|
with open('static/service-worker.js', 'w') as f: |
|
f.write(sw_content) |
|
|
|
|
|
demo = create_interface() |
|
demo.queue().launch( |
|
server_name="0.0.0.0", |
|
server_port=7860, |
|
share=True, |
|
debug=True, |
|
show_error=True, |
|
height=None, |
|
width="100%" |
|
) |