Spaces:
Sleeping
Sleeping
import nltk | |
from nltk.tokenize import word_tokenize | |
import streamlit as st | |
# İlk kez kullanıyorsanız, aşağıdaki satırları çalıştırarak gerekli veri setlerini indirebilirsiniz: | |
nltk.download('punkt') | |
# Kötü kelime listesi oluşturma | |
bad_words = ["qehbe","sik","sikim","skm"] # Bu listeye daha fazla kelime ekleyebilirsiniz | |
# Kötü kelimeleri tespit eden fonksiyon | |
def detect_bad_words(text, bad_words): | |
# Metni küçük harflere dönüştür ve tokenize et | |
words = word_tokenize(text.lower()) | |
# Kötü kelimeleri tespit et | |
detected_bad_words = [word for word in words if word in bad_words] | |
return detected_bad_words | |
# Kullanıcıdan metin alma ve fonksiyonu kullanma | |
user_text = st.text_area("Lütfen metni girin: ") | |
detected_words = detect_bad_words(user_text, bad_words) | |
if detected_words: | |
st.write("Tespit edilen kötü kelimeler:", detected_words) | |
else: | |
st.write("Hiçbir kötü kelime tespit edilmedi.") |