Spaces:
Sleeping
Sleeping
import gradio as gr | |
from huggingface_hub import InferenceClient | |
import requests | |
from bs4 import BeautifulSoup | |
import json | |
# Hugging Face Inference API istemcisi | |
client = InferenceClient("HuggingFaceH4/zephyr-7b-beta") | |
# TÜBİTAK veri çekme fonksiyonu | |
def fetch_tubitak_data(): | |
""" | |
TÜBİTAK web sitesinden veri çeken fonksiyon. | |
""" | |
try: | |
url = "https://www.tubitak.gov.tr/tr" | |
response = requests.get(url) | |
if response.status_code != 200: | |
return [{"title": "Web sitesine erişim sağlanamadı", "description": "Lütfen internet bağlantınızı kontrol edin."}] | |
soup = BeautifulSoup(response.text, "html.parser") | |
# TÜBİTAK haberlerini çekme | |
news = [] | |
for item in soup.find_all("div", class_="news-title"): | |
title = item.text.strip() | |
link = item.find("a")["href"] | |
news.append({"title": title, "link": f"https://www.tubitak.gov.tr{link}"}) | |
return news | |
except Exception as e: | |
return [{"title": "Hata oluştu", "description": str(e)}] | |
# Anahtar kelimelere göre veri çekme kontrolü | |
KEYWORDS = ["tübitak", "bilgem", "blog", "YTE", "YZE", "SAGE", "MAM"] | |
# Chatbot yanıt fonksiyonu | |
def respond( | |
message, | |
history: list[tuple[str, str]], | |
system_message, | |
max_tokens, | |
temperature, | |
top_p, | |
): | |
""" | |
Kullanıcı mesajını ve geçmiş konuşmaları kullanarak yanıt oluşturur. | |
""" | |
try: | |
# Eğer mesajda belirlenen anahtar kelimelerden biri geçiyorsa TÜBİTAK verilerini getir | |
if any(keyword.lower() in message.lower() for keyword in KEYWORDS): | |
data = fetch_tubitak_data() | |
response = "\n".join([f"{item['title']} (Daha fazla bilgi: {item['link']})" for item in data]) | |
if not response.strip(): | |
response = "Şu anda TÜBİTAK ile ilgili bilgileri getiremedim. Lütfen daha sonra tekrar deneyin." | |
yield response | |
return | |
# Normal durumlarda model yanıtını üret | |
messages = [{"role": "system", "content": system_message}] | |
for val in history: | |
if val[0]: | |
messages.append({"role": "user", "content": val[0]}) | |
if val[1]: | |
messages.append({"role": "assistant", "content": val[1]}) | |
messages.append({"role": "user", "content": message}) | |
response = "" | |
for message in client.chat_completion( | |
messages, | |
max_tokens=max_tokens, | |
stream=True, | |
temperature=temperature, | |
top_p=top_p, | |
): | |
token = message.choices[0].delta.content | |
response += token | |
yield response | |
except Exception as e: | |
yield f"Hata oluştu: {str(e)}" | |
# Gradio Chat Arayüzü | |
demo = gr.ChatInterface( | |
respond, | |
additional_inputs=[ | |
gr.Textbox( | |
value=( | |
"You are a TÜBİTAK chatbot designed to answer questions about TÜBİTAK and its affiliated institutions. " | |
"Your primary task is to provide clear and concise answers in Turkish using information from TÜBİTAK's official website " | |
"(https://www.tubitak.gov.tr/tr) and the BİLGEM Blog (https://yteblog.bilgem.tubitak.gov.tr). " | |
"If possible, include links to the official sources in your answers and ensure they are professional and accurate." | |
), | |
label="System message" | |
), | |
gr.Slider(minimum=1, maximum=2048, value=512, step=1, label="Max new tokens"), | |
gr.Slider(minimum=0.1, maximum=4.0, value=0.7, step=0.1, label="Temperature"), | |
gr.Slider( | |
minimum=0.1, | |
maximum=1.0, | |
value=0.95, | |
step=0.05, | |
label="Top-p (nucleus sampling)", | |
), | |
], | |
title="TÜBİTAK Chatbot", | |
description="TÜBİTAK ve BİLGEM hakkında bilgi edinmek için sorular sorun. [ChatYTE İçin Sentetik Veri Oluşturmak Amacıyla Geliştirilmiştir]", | |
) | |
# Uygulamayı başlat | |
if __name__ == "__main__": | |
demo.launch() | |