Spaces:
Running
Running
Upload 2 files
Browse files
app.py
CHANGED
@@ -7,6 +7,7 @@ from io import BytesIO
|
|
7 |
from asyncio import Semaphore
|
8 |
from dotenv import load_dotenv
|
9 |
import os
|
|
|
10 |
# Загрузка токена из .env файла
|
11 |
load_dotenv()
|
12 |
API_TOKEN = os.getenv("HF_API_TOKEN")
|
@@ -14,13 +15,17 @@ API_TOKEN = os.getenv("HF_API_TOKEN")
|
|
14 |
# Конфигурация API
|
15 |
HEADERS = {"Authorization": f"Bearer {API_TOKEN}"}
|
16 |
MODELS = {
|
17 |
-
"
|
|
|
18 |
"Stable Diffusion v2.1": "stabilityai/stable-diffusion-2-1",
|
19 |
"Stable Diffusion v3.5 Large": "stabilityai/stable-diffusion-3.5-large",
|
|
|
|
|
20 |
}
|
21 |
|
22 |
# Настройки
|
23 |
MAX_CONCURRENT_REQUESTS = 3
|
|
|
24 |
|
25 |
|
26 |
# Асинхронная функция для отправки запроса к API
|
@@ -48,17 +53,37 @@ async def query_model(prompt, model_name, model_url, semaphore):
|
|
48 |
return model_name, None
|
49 |
|
50 |
|
51 |
-
# Асинхронная обработка запросов
|
52 |
-
async def
|
53 |
semaphore = Semaphore(MAX_CONCURRENT_REQUESTS) # Создаём локальный семафор
|
54 |
tasks = [
|
55 |
query_model(prompt, model_name, model_url, semaphore)
|
56 |
-
for model_name, model_url in MODELS.items()
|
57 |
]
|
58 |
results = await asyncio.gather(*tasks)
|
59 |
return {model_name: image for model_name, image in results if image}
|
60 |
|
61 |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
62 |
# Интерфейс Gradio
|
63 |
with gr.Blocks() as demo:
|
64 |
gr.Markdown("## Генерация изображений с использованием моделей Hugging Face")
|
|
|
7 |
from asyncio import Semaphore
|
8 |
from dotenv import load_dotenv
|
9 |
import os
|
10 |
+
|
11 |
# Загрузка токена из .env файла
|
12 |
load_dotenv()
|
13 |
API_TOKEN = os.getenv("HF_API_TOKEN")
|
|
|
15 |
# Конфигурация API
|
16 |
HEADERS = {"Authorization": f"Bearer {API_TOKEN}"}
|
17 |
MODELS = {
|
18 |
+
"Midjourney": "Jovie/Midjourney",
|
19 |
+
"FLUX.1 [dev]": "black-forest-labs/FLUX.1-dev",
|
20 |
"Stable Diffusion v2.1": "stabilityai/stable-diffusion-2-1",
|
21 |
"Stable Diffusion v3.5 Large": "stabilityai/stable-diffusion-3.5-large",
|
22 |
+
"Stable Diffusion v1.0 Large": "stabilityai/stable-diffusion-xl-base-1.0",
|
23 |
+
"Leonardo AI": "goofyai/Leonardo_Ai_Style_Illustration",
|
24 |
}
|
25 |
|
26 |
# Настройки
|
27 |
MAX_CONCURRENT_REQUESTS = 3
|
28 |
+
GROUP_DELAY = 61 # Задержка в секундах между группами запросов
|
29 |
|
30 |
|
31 |
# Асинхронная функция для отправки запроса к API
|
|
|
53 |
return model_name, None
|
54 |
|
55 |
|
56 |
+
# Асинхронная обработка запросов первой группы
|
57 |
+
async def handle_first_group(prompt):
|
58 |
semaphore = Semaphore(MAX_CONCURRENT_REQUESTS) # Создаём локальный семафор
|
59 |
tasks = [
|
60 |
query_model(prompt, model_name, model_url, semaphore)
|
61 |
+
for model_name, model_url in list(MODELS.items())[:3]
|
62 |
]
|
63 |
results = await asyncio.gather(*tasks)
|
64 |
return {model_name: image for model_name, image in results if image}
|
65 |
|
66 |
|
67 |
+
# Асинхронная обработка запросов второй группы
|
68 |
+
async def handle_second_group(prompt):
|
69 |
+
await asyncio.sleep(GROUP_DELAY) # Задержка перед запросами ко второй группе
|
70 |
+
semaphore = Semaphore(MAX_CONCURRENT_REQUESTS) # Создаём локальный семафор
|
71 |
+
tasks = [
|
72 |
+
query_model(prompt, model_name, model_url, semaphore)
|
73 |
+
for model_name, model_url in list(MODELS.items())[3:]
|
74 |
+
]
|
75 |
+
results = await asyncio.gather(*tasks)
|
76 |
+
return {model_name: image for model_name, image in results if image}
|
77 |
+
|
78 |
+
|
79 |
+
# Асинхронная обработка запросов
|
80 |
+
async def handle(prompt):
|
81 |
+
# Обработка двух групп моделей
|
82 |
+
first_group_results = await handle_first_group(prompt)
|
83 |
+
second_group_results = await handle_second_group(prompt)
|
84 |
+
return {**first_group_results, **second_group_results}
|
85 |
+
|
86 |
+
|
87 |
# Интерфейс Gradio
|
88 |
with gr.Blocks() as demo:
|
89 |
gr.Markdown("## Генерация изображений с использованием моделей Hugging Face")
|
icon.jpg
ADDED
![]() |