caidanfeng commited on
Commit
c198907
·
1 Parent(s): b375089
Files changed (2) hide show
  1. app.py +321 -0
  2. requirements.txt +1 -0
app.py ADDED
@@ -0,0 +1,321 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ #!/usr/bin/env python
2
+ # coding: utf-8
3
+
4
+ # ## ChatGPT来了,更快的速度更低的价格
5
+
6
+ # In[ ]:
7
+
8
+
9
+ 在第3讲里面. 通过colpletion接口, 实现一个聊天机器人
10
+ 我们采用的是自己将整个对话拼接起来,将整个上下文都发送给 OpenAI的 Completion API 的方式。
11
+ 因为 ChatGPT 的火热,OpenAI 放出了一个直接可以进行对话聊天的接口。
12
+ 这个接口叫做 ChatCompletion,对应的模型叫做 gpt3.5-turbo,不但用起来更容易了,速度还快,而且价格也是我们之前使用的 text-davinci-003 的十分之一,
13
+ 可谓是物美价廉了。
14
+
15
+
16
+ # In[ ]:
17
+
18
+
19
+ import openai
20
+ openai.ChatCompletion.create(
21
+ model="gpt-3.5-turbo",
22
+ messages=[
23
+ {"role": "system", "content": "You are a helpful assistant."},
24
+ {"role": "user", "content": "Who won the world series in 2020?"},
25
+ {"role": "assistant", "content": "The Los Angeles Dodgers won the World Series in 2020."},
26
+ {"role": "user", "content": "Where was it played?"}
27
+ ]
28
+ )
29
+
30
+
31
+ # In[ ]:
32
+
33
+
34
+ 需要传入的参数,从一段Prompt 变成了一个数组,数组的每个元素都有 role 和 content 两个字段
35
+ role 这个字段一共有三个角色可以选择,其中 system 代表系统,user 代表用户,而assistant 则代表 AI 的回答
36
+
37
+
38
+ # In[ ]:
39
+
40
+
41
+ 当 role 是 system 的时候,content 里面的内容代表我们给 AI 的一个指令.是告诉AI 应该怎么回答用户的问题
42
+ 比如我们希望 AI 都通过中文回答我们就可以在content 里面写 "你只能用中文回答"
43
+
44
+ 而当 role 是 user 或者 assistant 的时候
45
+ content 里面的内容就代表用户和ai对话的内容
46
+ 和我们第 03 讲里做的聊天机器人一样,你需要把历史上的对话一起发送给OpenAI 的接口,它才能有理解整个对话的上下文的能力。
47
+
48
+
49
+ # In[ ]:
50
+
51
+
52
+
53
+
54
+
55
+ # In[1]:
56
+
57
+
58
+ import openai
59
+ import os
60
+
61
+ OPENAI_API_KEY='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'
62
+ openai.api_key = OPENAI_API_KEY
63
+ # 封装了一个 Conversation 类
64
+ class Conversation:
65
+ # prompt 作为system 的 content,代表我们对这个聊天机器人的指令,
66
+ # num_of_round 代表每次向ChatGPT 发起请求的时候,保留过去几轮会话。
67
+ def __init__(self, prompt, num_of_round):
68
+ self.prompt = prompt
69
+ self.num_of_round = num_of_round
70
+ self.messages = []
71
+ self.messages.append({"role": "system", "content": self.prompt})
72
+
73
+ #输入是一个 string 类型的 question,返回结果也是 string 类型的一条 message。
74
+ # 每次调用 ask 函数,都会向 ChatGPT 发起一个请求
75
+ # 在这个请求里,我们都会把最新的问题拼接到整个对话数组的最后,而在得到 ChatGPT 的回答之后也会把回答拼接上去。
76
+ def ask(self, question):
77
+ try:
78
+ self.messages.append( {"role": "user", "content": question})
79
+ response = openai.ChatCompletion.create(
80
+ model="gpt-3.5-turbo",
81
+ messages=self.messages,
82
+ temperature=0.5,
83
+ max_tokens=2048,
84
+ top_p=1,
85
+ )
86
+ except Exception as e:
87
+ print(e)
88
+ return e
89
+
90
+ message = response["choices"][0]["message"]["content"]
91
+ self.messages.append({"role": "assistant", "content": message})
92
+ # 回答完之后,发现会话的轮数超过我们设置的 num_of_round,我们就去掉最前面的一轮会话
93
+ if len(self.messages) > self.num_of_round*2 + 1:
94
+ del self.messages[1:3]
95
+ return message
96
+
97
+
98
+ # In[2]:
99
+
100
+
101
+ prompt = """你是一个中国厨师,用中文回答做菜的问题。你的回答需要满足以下要求:
102
+ 1. 你的回答必须是中文
103
+ 2. 回答限制在100个字以内"""
104
+ conv1 = Conversation(prompt, 3)
105
+ question1 = "你是谁?"
106
+ print("User : %s" % question1)
107
+ print("Assistant : %s\n" % conv1.ask(question1))
108
+
109
+ question2 = "请问鱼香肉丝怎么做?"
110
+ print("User : %s" % question2)
111
+ print("Assistant : %s\n" % conv1.ask(question2))
112
+
113
+ question3 = "那蚝油牛肉呢?"
114
+ print("User : %s" % question3)
115
+ print("Assistant : %s\n" % conv1.ask(question3))
116
+
117
+
118
+ # In[3]:
119
+
120
+
121
+ question4 = "我问你的第一个问题是什么?"
122
+ print("User : %s" % question4)
123
+ print("Assistant : %s\n" % conv1.ask(question4))
124
+
125
+
126
+ # In[ ]:
127
+
128
+
129
+ 如果我们重新再问一遍“我问你的第一个问题是什么”,你会发现回答变了。
130
+ 上一轮已经是第四轮了,而我们设置记住的 num_of_round 是 3。
131
+ 在上一轮的问题回答完了之后,第一轮的关于“你是谁”的问答,被我们从 ChatGPT 的对话历史里去掉了。
132
+ 所以这个时候,它会告诉我们,第一个问题是“鱼香肉丝怎么做”。
133
+
134
+
135
+ # In[4]:
136
+
137
+
138
+ question5 = "我问你的第一个问题是什么?"
139
+ print("User : %s" % question5)
140
+ print("Assistant : %s\n" % conv1.ask(question5))
141
+
142
+
143
+ # In[ ]:
144
+
145
+
146
+ ChatGPT 的对话模型用起来很方便,但是也有一点需要注意。就是在��个需要传送大量上下文的情况下,这个费用会比你想象的高。
147
+ OpenAI 是通过模型处理的 Token 数量来收费的,但是要注意,这个收费是“双向收费”。
148
+ 它是按照你发送给它的上下文,加上它返回给你的内容的总 Token 数来计算花费的 Token 数量的。
149
+
150
+
151
+ # In[ ]:
152
+
153
+
154
+ 第一轮对话是只消耗了 100 个 Token,但是第二轮因为要把前面的上下文都发送出去,所以需要 200 个
155
+
156
+
157
+ # ### 通过API计算Token数量
158
+
159
+ # In[ ]:
160
+
161
+
162
+ 第一种计算 Token 数量的方式,是从 API 返回的结果里面获取。我们修改一下刚才的Conversation 类,重新创建一个 Conversation2 类。
163
+ 和之前只有一个不同,ask 函数除了返回回复的消息之外,还会返回这次请求消耗的 Token 数
164
+
165
+
166
+ # In[2]:
167
+
168
+
169
+ class Conversation2:
170
+ def __init__(self, prompt, num_of_round):
171
+ self.prompt = prompt
172
+ self.num_of_round = num_of_round
173
+ self.messages = []
174
+ self.messages.append({"role": "system", "content": self.prompt})
175
+
176
+ def ask(self, question):
177
+ try:
178
+ self.messages.append( {"role": "user", "content": question})
179
+ response = openai.ChatCompletion.create(
180
+ model="gpt-3.5-turbo",
181
+ messages=self.messages,
182
+ temperature=0.5,
183
+ max_tokens=2048,
184
+ top_p=1,
185
+ )
186
+ except Exception as e:
187
+ print(e)
188
+ return e
189
+
190
+ message = response["choices"][0]["message"]["content"]
191
+ num_of_tokens = response['usage']['total_tokens']
192
+ self.messages.append({"role": "assistant", "content": message})
193
+
194
+ if len(self.messages) > self.num_of_round*2 + 1:
195
+ del self.messages[1:3]
196
+ return message, num_of_tokens
197
+
198
+
199
+ # In[6]:
200
+
201
+
202
+ conv2 = Conversation2(prompt, 3)
203
+ questions = [question1, question2, question3, question4, question5]
204
+ for question in questions:
205
+ answer, num_of_tokens = conv2.ask(question)
206
+ print("询问 {%s} 消耗的token数量是 : %d" % (question, num_of_tokens))
207
+
208
+
209
+ # ### 通过Tiktoken库计算Token数量
210
+
211
+ # In[ ]:
212
+
213
+
214
+ 第二种方式,我们在上一讲用过,就是使用 Tiktoken 这个 Python 库,将文本分词,然后数一数 Token 的数量。
215
+
216
+
217
+ # In[3]:
218
+
219
+
220
+ import tiktoken
221
+ encoding = tiktoken.get_encoding("cl100k_base")
222
+
223
+ conv2 = Conversation2(prompt, 3)
224
+ question1 = "你是谁?"
225
+ answer1, num_of_tokens = conv2.ask(question1)
226
+ print("总共消耗的token数量是 : %d" % (num_of_tokens))
227
+
228
+ prompt_count = len(encoding.encode(prompt))
229
+ question1_count = len(encoding.encode(question1))
230
+ answer1_count = len(encoding.encode(answer1))
231
+ total_count = prompt_count + question1_count + answer1_count
232
+ print("Prompt消耗 %d Token, 问题消耗 %d Token,回答消耗 %d Token,总共消耗 %d Token" % (prompt_count, question1_count, answer1_count, total_count))
233
+
234
+
235
+ # In[ ]:
236
+
237
+
238
+ 我们通过 API 获得了消耗的 Token 数,然后又通过 Tiktoken 分别计算了 System 的指示内
239
+ 容、用户的问题和 AI 生成的回答,发现了两者还有小小的差异。这个是因为,我们没有计算
240
+ OpenAI 去拼接它们内部需要的格式的 Token 数量。很多时候,我们都需要通过 Tiktoken 预
241
+ 先计算一下 Token 数量,避免提交的内容太多,导致 API 返回报错。
242
+
243
+
244
+ # In[8]:
245
+
246
+
247
+ system_start_count = len(encoding.encode("<|im_start|>system\n"))
248
+ print(encoding.encode("<|im_start|>system\n"))
249
+ end_count = len(encoding.encode("<|im_end|>\n"))
250
+ print(encoding.encode("<|im_end|>\n"))
251
+ user_start_count = len(encoding.encode("<|im_start|>user\n"))
252
+ print(encoding.encode("<|im_start|>user\n"))
253
+ assistant_start_count = len(encoding.encode("<|im_start|>assistant\n"))
254
+ print(encoding.encode("<|im_start|>assistant\n"))
255
+
256
+ total_mark_count = system_start_count + user_start_count + assistant_start_count + end_count*2
257
+ print("系统拼接的标记消耗 %d Token" % total_mark_count)
258
+
259
+
260
+ # ## Gradio帮你快速搭建一个聊天界面
261
+
262
+ # In[ ]:
263
+
264
+
265
+ 我们直接选用 Gradio 这个 Python 库来开发这个聊天机器人的界面,因为它有这样几个好处。
266
+ 1,我们现有的代码都是用 Python 实现的,你不需要再去学习 JavaScript、TypeScript 以及相关的前端框架了
267
+ 2,Gradio 渲染出来的界面可以直接在 Jupyter Notebook 里面显示出来,对于不了解技术的同学,也不再需要解决其他环境搭建的问题。
268
+ 3,Gradio 这个公司,已经被目前最大的开源机器学习模型社区 HuggingFace 收购了。你可以免费把 Gradio 的应用部署到 HuggingFace 上。
269
+
270
+ https://www.gradio.app/guides/creating-a-custom-chatbot-with-blocks Gradio官方也有用其他开源预训练模型创建Chatbot的教程
271
+
272
+
273
+ # In[5]:
274
+
275
+
276
+ get_ipython().run_line_magic('pip', 'install gradio')
277
+
278
+
279
+ # In[4]:
280
+
281
+
282
+ get_ipython().run_line_magic('pip', 'install --upgrade gradio')
283
+
284
+
285
+ # In[3]:
286
+
287
+
288
+ import gradio as gr
289
+ prompt = """你是一个中国厨师,用中文回答做菜的问题。��的回答需要满足以下要求:
290
+ 1. 你的回答必须是中文
291
+ 2. 回答限制在100个字以内"""
292
+ # 定义好了 system 这个系统角色的提示语,创建了一个 Conversation 对象。
293
+ conv = Conversation(prompt, 5)
294
+
295
+ # 通过 history 维护了整个会话的历史记录
296
+ def predict(input, history=[]):
297
+ history.append(input)
298
+ response = conv.ask(input)
299
+ history.append(response)
300
+ # 通过 responses,将用户和 AI 的对话分组
301
+ responses = [(u,b) for u,b in zip(history[::2], history[1::2])]
302
+ return responses, history
303
+
304
+ # 最后,我们通过一段 with 代码,创建了对应的聊天界面。Gradio 提供了一个现成的Chatbot 组件,我们只需要调用它,然后提供一个文本输入框就好了。
305
+ with gr.Blocks(css="#chatbot{height:350px} .overflow-y-auto{height:500px}") as demo:
306
+ chatbot = gr.Chatbot(elem_id="chatbot")
307
+ state = gr.State([])
308
+
309
+ with gr.Row():
310
+ txt = gr.Textbox(show_label=False, placeholder="Enter text and press enter").style(container=False)
311
+
312
+ txt.submit(predict, [txt, state], [chatbot, state])
313
+
314
+ demo.launch()
315
+
316
+
317
+ # In[ ]:
318
+
319
+
320
+
321
+
requirements.txt ADDED
@@ -0,0 +1 @@
 
 
1
+ openai==0.27.7