from transformers import AutoModelForCausalLM, AutoTokenizer import gradio as gr # تحميل النموذج والTokenizer model = AutoModelForCausalLM.from_pretrained("microsoft/Phi-4-mini-instruct") tokenizer = AutoTokenizer.from_pretrained("microsoft/Phi-4-mini-instruct") # وظيفة للتفاعل مع النموذج def generate_response(user_input): inputs = tokenizer(user_input, return_tensors="pt") outputs = model.generate(**inputs, max_new_tokens=500) return tokenizer.decode(outputs[0], skip_special_tokens=True) # واجهة Gradio interface = gr.Interface( fn=generate_response, inputs="text", outputs="text", title="Phi-4-mini-instruct Chatbot", description="تفاعل مع نموذج Phi-4-mini-instruct من Microsoft." ) # تشغيل الواجهة interface.launch()