import nltk from nltk.tokenize import word_tokenize import streamlit as st # İlk kez kullanıyorsanız, aşağıdaki satırları çalıştırarak gerekli veri setlerini indirebilirsiniz: # nltk.download('punkt') # Kötü kelime listesi oluşturma bad_words = ["kötükelime1", "kötükelime2", "kötükelime3"] # Bu listeye daha fazla kelime ekleyebilirsiniz # Kötü kelimeleri tespit eden fonksiyon def detect_bad_words(text, bad_words): # Metni küçük harflere dönüştür ve tokenize et words = word_tokenize(text.lower()) # Kötü kelimeleri tespit et detected_bad_words = [word for word in words if word in bad_words] return detected_bad_words # Kullanıcıdan metin alma ve fonksiyonu kullanma user_text = st.text_area("Lütfen metni girin: ") detected_words = detect_bad_words(user_text, bad_words) if detected_words: st.write("Tespit edilen kötü kelimeler:", detected_words) else: st.write("Hiçbir kötü kelime tespit edilmedi.")