Spaces:
Runtime error
Runtime error
Update app.py
Browse files
app.py
CHANGED
@@ -214,10 +214,12 @@ def generate_30(
|
|
214 |
prompt_embedsb = pipe.text_encoder(text_input_ids2.to(device), output_hidden_states=True)
|
215 |
prompt_embedsb = prompt_embedsb.hidden_states[-2]
|
216 |
prompt_embeds = torch.cat([prompt_embedsa,prompt_embedsb]).mean(dim=-1)
|
217 |
-
|
|
|
218 |
options = {
|
219 |
#"prompt": prompt,
|
220 |
"prompt_embeds": prompt_embeds,
|
|
|
221 |
"negative_prompt": negative_prompt,
|
222 |
"negative_prompt_2": neg_prompt_2,
|
223 |
"width": width,
|
@@ -281,10 +283,12 @@ def generate_60(
|
|
281 |
prompt_embedsb = pipe.text_encoder(text_input_ids2.to(device), output_hidden_states=True)
|
282 |
prompt_embedsb = prompt_embedsb.hidden_states[-2]
|
283 |
prompt_embeds = torch.cat([prompt_embedsa,prompt_embedsb]).mean(dim=-1)
|
284 |
-
|
|
|
285 |
options = {
|
286 |
#"prompt": prompt,
|
287 |
"prompt_embeds": prompt_embeds,
|
|
|
288 |
"negative_prompt": negative_prompt,
|
289 |
"negative_prompt_2": neg_prompt_2,
|
290 |
"width": width,
|
@@ -348,10 +352,12 @@ def generate_90(
|
|
348 |
prompt_embedsb = pipe.text_encoder(text_input_ids2.to(device), output_hidden_states=True)
|
349 |
prompt_embedsb = prompt_embedsb.hidden_states[-2]
|
350 |
prompt_embeds = torch.cat([prompt_embedsa,prompt_embedsb]).mean(dim=-1)
|
351 |
-
|
|
|
352 |
options = {
|
353 |
#"prompt": prompt,
|
354 |
"prompt_embeds": prompt_embeds,
|
|
|
355 |
"negative_prompt": negative_prompt,
|
356 |
"negative_prompt_2": neg_prompt_2,
|
357 |
"width": width,
|
|
|
214 |
prompt_embedsb = pipe.text_encoder(text_input_ids2.to(device), output_hidden_states=True)
|
215 |
prompt_embedsb = prompt_embedsb.hidden_states[-2]
|
216 |
prompt_embeds = torch.cat([prompt_embedsa,prompt_embedsb]).mean(dim=-1)
|
217 |
+
pooled_prompt_embeds = prompt_embeds[0]
|
218 |
+
|
219 |
options = {
|
220 |
#"prompt": prompt,
|
221 |
"prompt_embeds": prompt_embeds,
|
222 |
+
"pooled_prompt_embeds": pooled_prompt_embeds,
|
223 |
"negative_prompt": negative_prompt,
|
224 |
"negative_prompt_2": neg_prompt_2,
|
225 |
"width": width,
|
|
|
283 |
prompt_embedsb = pipe.text_encoder(text_input_ids2.to(device), output_hidden_states=True)
|
284 |
prompt_embedsb = prompt_embedsb.hidden_states[-2]
|
285 |
prompt_embeds = torch.cat([prompt_embedsa,prompt_embedsb]).mean(dim=-1)
|
286 |
+
pooled_prompt_embeds = prompt_embeds[0]
|
287 |
+
|
288 |
options = {
|
289 |
#"prompt": prompt,
|
290 |
"prompt_embeds": prompt_embeds,
|
291 |
+
"pooled_prompt_embeds": pooled_prompt_embeds,
|
292 |
"negative_prompt": negative_prompt,
|
293 |
"negative_prompt_2": neg_prompt_2,
|
294 |
"width": width,
|
|
|
352 |
prompt_embedsb = pipe.text_encoder(text_input_ids2.to(device), output_hidden_states=True)
|
353 |
prompt_embedsb = prompt_embedsb.hidden_states[-2]
|
354 |
prompt_embeds = torch.cat([prompt_embedsa,prompt_embedsb]).mean(dim=-1)
|
355 |
+
pooled_prompt_embeds = prompt_embeds[0]
|
356 |
+
|
357 |
options = {
|
358 |
#"prompt": prompt,
|
359 |
"prompt_embeds": prompt_embeds,
|
360 |
+
"pooled_prompt_embeds": pooled_prompt_embeds,
|
361 |
"negative_prompt": negative_prompt,
|
362 |
"negative_prompt_2": neg_prompt_2,
|
363 |
"width": width,
|