Spaces:
Sleeping
Sleeping
from transformers import AutoConfig, AutoTokenizer, TFAutoModel | |
# بارگذاری تنظیمات، توکنایزر و مدل | |
config = AutoConfig.from_pretrained("HooshvareLab/bert-fa-zwnj-base") | |
tokenizer = AutoTokenizer.from_pretrained("HooshvareLab/bert-fa-zwnj-base") | |
model = TFAutoModel.from_pretrained("HooshvareLab/bert-fa-zwnj-base") | |
# متن فارسی | |
text = "ما در هوشواره معتقدیم با انتقال صحیح دانش و آگاهی، همه افراد میتوانند از ابزارهای هوشمند استفاده کنند. شعار ما هوش مصنوعی برای همه است." | |
# توکنایز کردن متن | |
tokens = tokenizer.tokenize(text) | |
print("Tokens:", tokens) | |
# تبدیل متن به ورودی مدل | |
inputs = tokenizer(text, return_tensors="tf", padding=True, truncation=True) | |
# عبور دادهها از مدل | |
outputs = model(**inputs) | |
# استخراج بردارهای embedding | |
embeddings = outputs.last_hidden_state | |
# نمایش اطلاعات | |
print("Shape of embeddings:", embeddings.shape) |