import streamlit as st from transformers import AutoModelForCausalLM, AutoTokenizer # تحميل النموذج والTokenizer @st.cache_resource # لتخزين النموذج في الذاكرة المؤقتة def load_model(): model_name = "microsoft/Phi-4-mini-instruct" model = AutoModelForCausalLM.from_pretrained(model_name) tokenizer = AutoTokenizer.from_pretrained(model_name) return model, tokenizer model, tokenizer = load_model() # واجهة Streamlit st.title("Phi-4-mini-instruct Chatbot") st.write("تفاعل مع نموذج Phi-4-mini-instruct من Microsoft.") # إدخال النص user_input = st.text_input("أدخل نصك هنا:") # توليد النص if user_input: inputs = tokenizer(user_input, return_tensors="pt") outputs = model.generate(**inputs, max_new_tokens=100) response = tokenizer.decode(outputs[0], skip_special_tokens=True) st.write("النموذج يقول:", response)