mateoluksenberg commited on
Commit
f759069
·
verified ·
1 Parent(s): e9c25bf

Update app.py

Browse files
Files changed (1) hide show
  1. app.py +9 -7
app.py CHANGED
@@ -211,10 +211,6 @@ EXAMPLES = [
211
  [{"text": "Quiero armar un JSON, solo el JSON sin texto, que contenga los datos de la primera mitad de la tabla de la imagen (las primeras 10 jurisdicciones 901-910). Ten en cuenta que los valores numéricos son decimales de cuatro dígitos. La tabla contiene las siguientes columnas: Codigo, Nombre, Fecha Inicio, Fecha Cese, Coeficiente Ingresos, Coeficiente Gastos y Coeficiente Unificado. La tabla puede contener valores vacíos, en ese caso dejarlos como null. Cada fila de la tabla representa una jurisdicción con sus respectivos valores.", }]
212
  ]
213
 
214
- from threading import Thread
215
- from transformers import AutoModelForCausalLM, AutoTokenizer, TextIteratorStreamer
216
- import torch
217
-
218
  @spaces.GPU()
219
  def simple_chat(message: dict, temperature: float = 0.8, max_length: int = 4096, top_p: float = 1, top_k: int = 10, penalty: float = 1.0):
220
  try:
@@ -244,7 +240,7 @@ def simple_chat(message: dict, temperature: float = 0.8, max_length: int = 4096,
244
  input_text = message['text']
245
 
246
  conversation = [{"role": "user", "content": input_text}]
247
- input_ids = tokenizer.apply_chat_template(conversation, tokenize=True, add_generation_prompt=True, return_tensors="pt", return_dict=True).to(model.device)
248
  streamer = TextIteratorStreamer(tokenizer, timeout=60.0, skip_prompt=True, skip_special_tokens=True)
249
 
250
  generate_kwargs = dict(
@@ -275,19 +271,25 @@ def simple_chat(message: dict, temperature: float = 0.8, max_length: int = 4096,
275
  # Wait for the generation thread to finish
276
  thread.join()
277
 
 
 
 
 
278
  print(" ")
279
  print("------")
280
  print(" ")
281
- print(buffer)
282
  print(" ")
283
  print("------")
284
 
285
- return PlainTextResponse(buffer)
286
  except Exception as e:
287
  return PlainTextResponse(f"Error: {str(e)}")
288
 
289
 
290
 
 
 
291
  # @spaces.GPU()
292
  # def simple_chat(message: dict, temperature: float = 0.8, max_length: int = 4096, top_p: float = 1, top_k: int = 10, penalty: float = 1.0):
293
  # try:
 
211
  [{"text": "Quiero armar un JSON, solo el JSON sin texto, que contenga los datos de la primera mitad de la tabla de la imagen (las primeras 10 jurisdicciones 901-910). Ten en cuenta que los valores numéricos son decimales de cuatro dígitos. La tabla contiene las siguientes columnas: Codigo, Nombre, Fecha Inicio, Fecha Cese, Coeficiente Ingresos, Coeficiente Gastos y Coeficiente Unificado. La tabla puede contener valores vacíos, en ese caso dejarlos como null. Cada fila de la tabla representa una jurisdicción con sus respectivos valores.", }]
212
  ]
213
 
 
 
 
 
214
  @spaces.GPU()
215
  def simple_chat(message: dict, temperature: float = 0.8, max_length: int = 4096, top_p: float = 1, top_k: int = 10, penalty: float = 1.0):
216
  try:
 
240
  input_text = message['text']
241
 
242
  conversation = [{"role": "user", "content": input_text}]
243
+ input_ids = tokenizer(conversation[-1]['content'], return_tensors="pt").to(model.device)
244
  streamer = TextIteratorStreamer(tokenizer, timeout=60.0, skip_prompt=True, skip_special_tokens=True)
245
 
246
  generate_kwargs = dict(
 
271
  # Wait for the generation thread to finish
272
  thread.join()
273
 
274
+ # Process to remove any prefix or unwanted prompt
275
+ text_original = input_text.strip()
276
+ results_text = buffer[len(text_original):].strip()
277
+
278
  print(" ")
279
  print("------")
280
  print(" ")
281
+ print(results_text)
282
  print(" ")
283
  print("------")
284
 
285
+ return PlainTextResponse(results_text)
286
  except Exception as e:
287
  return PlainTextResponse(f"Error: {str(e)}")
288
 
289
 
290
 
291
+
292
+
293
  # @spaces.GPU()
294
  # def simple_chat(message: dict, temperature: float = 0.8, max_length: int = 4096, top_p: float = 1, top_k: int = 10, penalty: float = 1.0):
295
  # try: