Spaces:
Runtime error
Runtime error
File size: 1,069 Bytes
caff9fa b0b4e93 caff9fa b0b4e93 caff9fa b0b4e93 caff9fa b0b4e93 caff9fa b0b4e93 caff9fa b0b4e93 caff9fa b0b4e93 |
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 |
import torch
from transformers import AutoImageProcessor
from PIL import Image
import requests
from io import BytesIO
# آدرس مدل
model_url = "https://huggingface.co/facebook/sapiens/resolve/main/sapiens_lite_host/torchscript/normal/checkpoints/sapiens_0.3b"
model = torch.jit.load(model_url)
# بارگذاری پردازشگر تصویر
processor = AutoImageProcessor.from_pretrained("facebook/sapiens")
def segment_image(image):
# پردازش تصویر
inputs = processor(images=image, return_tensors="pt")
# اجرای مدل روی تصویر پردازش شده
with torch.no_grad():
outputs = model(inputs['pixel_values'])
# فرض میکنیم خروجی یک ماسک است
segmentation = outputs.argmax(dim=1).detach().cpu().numpy()[0]
return Image.fromarray(segmentation)
# رابط Gradio
import gradio as gr
interface = gr.Interface(
fn=segment_image,
inputs=gr.Image(type="pil"),
outputs=gr.Image(type="pil"),
title="Sapiens Body Part Segmentation"
)
interface.launch()
|