SivaResearch commited on
Commit
1fa2929
·
verified ·
1 Parent(s): 3530ccb

Update app.py

Browse files
Files changed (1) hide show
  1. app.py +3 -2
app.py CHANGED
@@ -54,16 +54,17 @@ def inference(input_prompts, model, tokenizer, system_prompt="System: "):
54
  for input_prompt in input_prompts:
55
  formatted_query = create_prompt_with_chat_format([{"role": "user", "content": input_prompt}], add_bos=False, system_prompt=system_prompt)
56
  encodings = tokenizer(formatted_query, padding=True, return_tensors="pt")
57
- encodings = encodings.to(device)
58
 
59
  with torch.no_grad():
60
- outputs = model.generate(encodings.input_ids, do_sample=False, max_length=250)
61
 
62
  output_text = tokenizer.decode(outputs[0], skip_special_tokens=True)
63
  output_texts.append(output_text[len(input_prompt):])
64
  return output_texts
65
 
66
 
 
67
  examples = [
68
  ["मुझे अपने करियर के बारे में सुझाव दो", "मैं कैसे अध्ययन कर सकता हूँ?"],
69
  ["कृपया मुझे एक कहानी सुनाएं", "ताजमहल के बारे में कुछ बताएं"],
 
54
  for input_prompt in input_prompts:
55
  formatted_query = create_prompt_with_chat_format([{"role": "user", "content": input_prompt}], add_bos=False, system_prompt=system_prompt)
56
  encodings = tokenizer(formatted_query, padding=True, return_tensors="pt")
57
+ encodings = {key: value.to(device) for key, value in encodings.items()} # Move input data to the same device as the model
58
 
59
  with torch.no_grad():
60
+ outputs = model.generate(encodings["input_ids"], do_sample=False, max_length=250)
61
 
62
  output_text = tokenizer.decode(outputs[0], skip_special_tokens=True)
63
  output_texts.append(output_text[len(input_prompt):])
64
  return output_texts
65
 
66
 
67
+
68
  examples = [
69
  ["मुझे अपने करियर के बारे में सुझाव दो", "मैं कैसे अध्ययन कर सकता हूँ?"],
70
  ["कृपया मुझे एक कहानी सुनाएं", "ताजमहल के बारे में कुछ बताएं"],