import streamlit as st from transformers import AutoModelForCausalLM, AutoTokenizer # تحميل النموذج والTokenizer @st.cache_resource def load_model(): model_name = "microsoft/Phi-4-mini-instruct" st.write("جارٍ تحميل النموذج...") model = AutoModelForCausalLM.from_pretrained(model_name) tokenizer = AutoTokenizer.from_pretrained(model_name) st.write("تم تحميل النموذج بنجاح!") return model, tokenizer model, tokenizer = load_model() # واجهة Streamlit st.title("Phi-4-mini-instruct Chatbot") st.write("تفاعل مع نموذج Phi-4-mini-instruct من Microsoft.") # إدخال النص user_input = st.text_input("أدخل نصك هنا:") # توليد النص if user_input: st.write("جارٍ معالجة النص...") inputs = tokenizer(user_input, return_tensors="pt") outputs = model.generate(**inputs, max_new_tokens=100) response = tokenizer.decode(outputs[0], skip_special_tokens=True) st.write("النموذج يقول:", response)