import torch from transformers import GPT2LMHeadModel, GPT2Tokenizer # بارگذاری مدل GPT-2 و توکنایزر model_name = "gpt2" # می‌توانید از نسخه‌های دیگر مانند 'gpt2-medium' یا 'gpt2-large' استفاده کنید model = GPT2LMHeadModel.from_pretrained(model_name) tokenizer = GPT2Tokenizer.from_pretrained(model_name) # تابعی برای گفت‌وگو با مدل def chat_with_gpt2(input_text): # تبدیل متن ورودی به توکن‌ها inputs = tokenizer.encode(input_text + tokenizer.eos_token, return_tensors='pt') # استفاده از مدل برای تولید پاسخ with torch.no_grad(): outputs = model.generate(inputs, max_length=150, num_return_sequences=1, no_repeat_ngram_size=2, pad_token_id=tokenizer.eos_token_id) # تبدیل توکن‌ها به متن response = tokenizer.decode(outputs[0], skip_special_tokens=True) return response # شروع گفت‌وگو print("سلام! از من سوال بپرسید.") while True: user_input = input("شما: ") if user_input.lower() == "خروج": print("خداحافظ!") break response = chat_with_gpt2(user_input) print("GPT-2: " + response)