caidanfeng commited on
Commit
5120594
·
1 Parent(s): c198907
Files changed (1) hide show
  1. app.py +1 -94
app.py CHANGED
@@ -6,12 +6,6 @@
6
  # In[ ]:
7
 
8
 
9
- 在第3讲里面. 通过colpletion接口, 实现一个聊天机器人
10
- 我们采用的是自己将整个对话拼接起来,将整个上下文都发送给 OpenAI的 Completion API 的方式。
11
- 因为 ChatGPT 的火热,OpenAI 放出了一个直接可以进行对话聊天的接口。
12
- 这个接口叫做 ChatCompletion,对应的模型叫做 gpt3.5-turbo,不但用起来更容易了,速度还快,而且价格也是我们之前使用的 text-davinci-003 的十分之一,
13
- 可谓是物美价廉了。
14
-
15
 
16
  # In[ ]:
17
 
@@ -28,37 +22,12 @@ openai.ChatCompletion.create(
28
  )
29
 
30
 
31
- # In[ ]:
32
-
33
-
34
- 需要传入的参数,从一段Prompt 变成了一个数组,数组的每个元素都有 role 和 content 两个字段
35
- role 这个字段一共有三个角色可以选择,其中 system 代表系统,user 代表用户,而assistant 则代表 AI 的回答
36
-
37
-
38
- # In[ ]:
39
-
40
-
41
- 当 role 是 system 的时候,content 里面的内容代表我们给 AI 的一个指令.是告诉AI 应该怎么回答用户的问题
42
- 比如我们希望 AI 都通过中文回答我们就可以在content 里面写 "你只能用中文回答"
43
-
44
- 而当 role 是 user 或者 assistant 的时候
45
- content 里面的内容就代表用户和ai对话的内容
46
- 和我们第 03 讲里做的聊天机器人一样,你需要把历史上的对话一起发送给OpenAI 的接口,它才能有理解整个对话的上下文的能力。
47
-
48
-
49
- # In[ ]:
50
-
51
-
52
-
53
-
54
-
55
- # In[1]:
56
 
57
 
58
  import openai
59
  import os
60
 
61
- OPENAI_API_KEY='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'
62
  openai.api_key = OPENAI_API_KEY
63
  # 封装了一个 Conversation 类
64
  class Conversation:
@@ -123,47 +92,17 @@ print("User : %s" % question4)
123
  print("Assistant : %s\n" % conv1.ask(question4))
124
 
125
 
126
- # In[ ]:
127
-
128
-
129
- 如果我们重新再问一遍“我问你的第一个问题是什么”,你会发现回答变了。
130
- 上一轮已经是第四轮了,而我们设置记住的 num_of_round 是 3。
131
- 在上一轮的问题回答完了之后,第一轮的关于“你是谁”的问答,被我们从 ChatGPT 的对话历史里去掉了。
132
- 所以这个时候,它会告诉我们,第一个问题是“鱼香肉丝怎么做”。
133
 
134
 
135
- # In[4]:
136
-
137
 
138
  question5 = "我问你的第一个问题是什么?"
139
  print("User : %s" % question5)
140
  print("Assistant : %s\n" % conv1.ask(question5))
141
 
142
 
143
- # In[ ]:
144
-
145
 
146
- ChatGPT 的对话模型用起来很方便,但是也有一点需要注意。就是在这个需要传送大量上下文的情况下,这个费用会比你想象的高。
147
- OpenAI 是通过模型处理的 Token 数量来收费的,但是要注意,这个收费是“双向收费”。
148
- 它是按照你发送给它的上下文,加上它返回给你的内容的总 Token 数来计算花费的 Token 数量的。
149
-
150
-
151
- # In[ ]:
152
 
153
 
154
- 第一轮对话是只消耗了 100 个 Token,但是第二轮因为要把前面的上下文都发送出去,所以需要 200 个
155
-
156
-
157
- # ### 通过API计算Token数量
158
-
159
- # In[ ]:
160
-
161
-
162
- 第一种计算 Token 数量的方式,是从 API 返回的结果里面获取。我们修改一下刚才的Conversation 类,重新创建一个 Conversation2 类。
163
- 和之前只有一个不同,ask 函数除了返回回复的消息之外,还会返回这次请求消耗的 Token 数
164
-
165
-
166
- # In[2]:
167
 
168
 
169
  class Conversation2:
@@ -206,16 +145,8 @@ for question in questions:
206
  print("询问 {%s} 消耗的token数量是 : %d" % (question, num_of_tokens))
207
 
208
 
209
- # ### 通过Tiktoken库计算Token数量
210
-
211
- # In[ ]:
212
 
213
 
214
- 第二种方式,我们在上一讲用过,就是使用 Tiktoken 这个 Python 库,将文本分词,然后数一数 Token 的数量。
215
-
216
-
217
- # In[3]:
218
-
219
 
220
  import tiktoken
221
  encoding = tiktoken.get_encoding("cl100k_base")
@@ -232,17 +163,6 @@ total_count = prompt_count + question1_count + answer1_count
232
  print("Prompt消耗 %d Token, 问题消耗 %d Token,回答消耗 %d Token,总共消耗 %d Token" % (prompt_count, question1_count, answer1_count, total_count))
233
 
234
 
235
- # In[ ]:
236
-
237
-
238
- 我们通过 API 获得了消耗的 Token 数,然后又通过 Tiktoken 分别计算了 System 的指示内
239
- 容、用户的问题和 AI 生成的回答,发现了两者还有小小的差异。这个是因为,我们没有计算
240
- OpenAI 去拼接它们内部需要的格式的 Token 数量。很多时候,我们都需要通过 Tiktoken 预
241
- 先计算一下 Token 数量,避免提交的内容太多,导致 API 返回报错。
242
-
243
-
244
- # In[8]:
245
-
246
 
247
  system_start_count = len(encoding.encode("<|im_start|>system\n"))
248
  print(encoding.encode("<|im_start|>system\n"))
@@ -257,20 +177,7 @@ total_mark_count = system_start_count + user_start_count + assistant_start_count
257
  print("系统拼接的标记消耗 %d Token" % total_mark_count)
258
 
259
 
260
- # ## Gradio帮你快速搭建一个聊天界面
261
-
262
- # In[ ]:
263
-
264
-
265
- 我们直接选用 Gradio 这个 Python 库来开发这个聊天机器人的界面,因为它有这样几个好处。
266
- 1,我们现有的代码都是用 Python 实现的,你不需要再去学习 JavaScript、TypeScript 以及相关的前端框架了
267
- 2,Gradio ��染出来的界面可以直接在 Jupyter Notebook 里面显示出来,对于不了解技术的同学,也不再需要解决其他环境搭建的问题。
268
- 3,Gradio 这个公司,已经被目前最大的开源机器学习模型社区 HuggingFace 收购了。你可以免费把 Gradio 的应用部署到 HuggingFace 上。
269
-
270
- https://www.gradio.app/guides/creating-a-custom-chatbot-with-blocks Gradio官方也有用其他开源预训练模型创建Chatbot的教程
271
-
272
 
273
- # In[5]:
274
 
275
 
276
  get_ipython().run_line_magic('pip', 'install gradio')
 
6
  # In[ ]:
7
 
8
 
 
 
 
 
 
 
9
 
10
  # In[ ]:
11
 
 
22
  )
23
 
24
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
25
 
26
 
27
  import openai
28
  import os
29
 
30
+ OPENAI_API_KEY=os.environ.get("OPENAI_API_KEY")
31
  openai.api_key = OPENAI_API_KEY
32
  # 封装了一个 Conversation 类
33
  class Conversation:
 
92
  print("Assistant : %s\n" % conv1.ask(question4))
93
 
94
 
 
 
 
 
 
 
 
95
 
96
 
 
 
97
 
98
  question5 = "我问你的第一个问题是什么?"
99
  print("User : %s" % question5)
100
  print("Assistant : %s\n" % conv1.ask(question5))
101
 
102
 
 
 
103
 
 
 
 
 
 
 
104
 
105
 
 
 
 
 
 
 
 
 
 
 
 
 
 
106
 
107
 
108
  class Conversation2:
 
145
  print("询问 {%s} 消耗的token数量是 : %d" % (question, num_of_tokens))
146
 
147
 
 
 
 
148
 
149
 
 
 
 
 
 
150
 
151
  import tiktoken
152
  encoding = tiktoken.get_encoding("cl100k_base")
 
163
  print("Prompt消耗 %d Token, 问题消耗 %d Token,回答消耗 %d Token,总共消耗 %d Token" % (prompt_count, question1_count, answer1_count, total_count))
164
 
165
 
 
 
 
 
 
 
 
 
 
 
 
166
 
167
  system_start_count = len(encoding.encode("<|im_start|>system\n"))
168
  print(encoding.encode("<|im_start|>system\n"))
 
177
  print("系统拼接的标记消耗 %d Token" % total_mark_count)
178
 
179
 
 
 
 
 
 
 
 
 
 
 
 
 
180
 
 
181
 
182
 
183
  get_ipython().run_line_magic('pip', 'install gradio')