AitanaParla / app.py
ygutierrez's picture
Update app.py
505f957 verified
import subprocess
subprocess.run('pip install transformers tensorflow[and-cuda] pytorch --no-build-isolation', env={'FLASH_ATTENTION_SKIP_CUDA_BUILD': "TRUE"}, shell=True)
import streamlit as st
from transformers import pipeline
# Configurar el modelo
pipe = pipeline("text-generation", model="gplsi/Aitana-6.3B")
# Funci贸n para generar respuesta del modelo
def generate_response(input_text):
return pipe(input_text, max_length=50, do_sample=True, temperature=0.7)[0]['generated_text']
# Configuraci贸n de la aplicaci贸n Streamlit
def main():
st.title("Chat con Aitana")
st.write("隆Bienvenido al chat con Aitana! Escribe algo para comenzar la conversaci贸n.")
# 脕rea de entrada de texto
user_input = st.text_area("T煤:")
# Bot贸n para enviar mensaje
if st.button("Enviar"):
if user_input.strip() != "":
# Generar respuesta
response = generate_response(user_input)
# Mostrar respuesta
st.text_area("Aitana:", value=response, height=200, max_chars=None, key=None)
if __name__ == "__main__":
main()