Spaces:
Sleeping
Sleeping
import subprocess | |
subprocess.run('pip install transformers tensorflow[and-cuda] pytorch --no-build-isolation', env={'FLASH_ATTENTION_SKIP_CUDA_BUILD': "TRUE"}, shell=True) | |
import streamlit as st | |
from transformers import pipeline | |
# Configurar el modelo | |
pipe = pipeline("text-generation", model="gplsi/Aitana-6.3B") | |
# Funci贸n para generar respuesta del modelo | |
def generate_response(input_text): | |
return pipe(input_text, max_length=50, do_sample=True, temperature=0.7)[0]['generated_text'] | |
# Configuraci贸n de la aplicaci贸n Streamlit | |
def main(): | |
st.title("Chat con Aitana") | |
st.write("隆Bienvenido al chat con Aitana! Escribe algo para comenzar la conversaci贸n.") | |
# 脕rea de entrada de texto | |
user_input = st.text_area("T煤:") | |
# Bot贸n para enviar mensaje | |
if st.button("Enviar"): | |
if user_input.strip() != "": | |
# Generar respuesta | |
response = generate_response(user_input) | |
# Mostrar respuesta | |
st.text_area("Aitana:", value=response, height=200, max_chars=None, key=None) | |
if __name__ == "__main__": | |
main() | |