caidanfeng
commited on
Commit
·
c198907
1
Parent(s):
b375089
add
Browse files- app.py +321 -0
- requirements.txt +1 -0
app.py
ADDED
|
@@ -0,0 +1,321 @@
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
| 1 |
+
#!/usr/bin/env python
|
| 2 |
+
# coding: utf-8
|
| 3 |
+
|
| 4 |
+
# ## ChatGPT来了,更快的速度更低的价格
|
| 5 |
+
|
| 6 |
+
# In[ ]:
|
| 7 |
+
|
| 8 |
+
|
| 9 |
+
在第3讲里面. 通过colpletion接口, 实现一个聊天机器人
|
| 10 |
+
我们采用的是自己将整个对话拼接起来,将整个上下文都发送给 OpenAI的 Completion API 的方式。
|
| 11 |
+
因为 ChatGPT 的火热,OpenAI 放出了一个直接可以进行对话聊天的接口。
|
| 12 |
+
这个接口叫做 ChatCompletion,对应的模型叫做 gpt3.5-turbo,不但用起来更容易了,速度还快,而且价格也是我们之前使用的 text-davinci-003 的十分之一,
|
| 13 |
+
可谓是物美价廉了。
|
| 14 |
+
|
| 15 |
+
|
| 16 |
+
# In[ ]:
|
| 17 |
+
|
| 18 |
+
|
| 19 |
+
import openai
|
| 20 |
+
openai.ChatCompletion.create(
|
| 21 |
+
model="gpt-3.5-turbo",
|
| 22 |
+
messages=[
|
| 23 |
+
{"role": "system", "content": "You are a helpful assistant."},
|
| 24 |
+
{"role": "user", "content": "Who won the world series in 2020?"},
|
| 25 |
+
{"role": "assistant", "content": "The Los Angeles Dodgers won the World Series in 2020."},
|
| 26 |
+
{"role": "user", "content": "Where was it played?"}
|
| 27 |
+
]
|
| 28 |
+
)
|
| 29 |
+
|
| 30 |
+
|
| 31 |
+
# In[ ]:
|
| 32 |
+
|
| 33 |
+
|
| 34 |
+
需要传入的参数,从一段Prompt 变成了一个数组,数组的每个元素都有 role 和 content 两个字段
|
| 35 |
+
role 这个字段一共有三个角色可以选择,其中 system 代表系统,user 代表用户,而assistant 则代表 AI 的回答
|
| 36 |
+
|
| 37 |
+
|
| 38 |
+
# In[ ]:
|
| 39 |
+
|
| 40 |
+
|
| 41 |
+
当 role 是 system 的时候,content 里面的内容代表我们给 AI 的一个指令.是告诉AI 应该怎么回答用户的问题
|
| 42 |
+
比如我们希望 AI 都通过中文回答我们就可以在content 里面写 "你只能用中文回答"
|
| 43 |
+
|
| 44 |
+
而当 role 是 user 或者 assistant 的时候
|
| 45 |
+
content 里面的内容就代表用户和ai对话的内容
|
| 46 |
+
和我们第 03 讲里做的聊天机器人一样,你需要把历史上的对话一起发送给OpenAI 的接口,它才能有理解整个对话的上下文的能力。
|
| 47 |
+
|
| 48 |
+
|
| 49 |
+
# In[ ]:
|
| 50 |
+
|
| 51 |
+
|
| 52 |
+
|
| 53 |
+
|
| 54 |
+
|
| 55 |
+
# In[1]:
|
| 56 |
+
|
| 57 |
+
|
| 58 |
+
import openai
|
| 59 |
+
import os
|
| 60 |
+
|
| 61 |
+
OPENAI_API_KEY='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'
|
| 62 |
+
openai.api_key = OPENAI_API_KEY
|
| 63 |
+
# 封装了一个 Conversation 类
|
| 64 |
+
class Conversation:
|
| 65 |
+
# prompt 作为system 的 content,代表我们对这个聊天机器人的指令,
|
| 66 |
+
# num_of_round 代表每次向ChatGPT 发起请求的时候,保留过去几轮会话。
|
| 67 |
+
def __init__(self, prompt, num_of_round):
|
| 68 |
+
self.prompt = prompt
|
| 69 |
+
self.num_of_round = num_of_round
|
| 70 |
+
self.messages = []
|
| 71 |
+
self.messages.append({"role": "system", "content": self.prompt})
|
| 72 |
+
|
| 73 |
+
#输入是一个 string 类型的 question,返回结果也是 string 类型的一条 message。
|
| 74 |
+
# 每次调用 ask 函数,都会向 ChatGPT 发起一个请求
|
| 75 |
+
# 在这个请求里,我们都会把最新的问题拼接到整个对话数组的最后,而在得到 ChatGPT 的回答之后也会把回答拼接上去。
|
| 76 |
+
def ask(self, question):
|
| 77 |
+
try:
|
| 78 |
+
self.messages.append( {"role": "user", "content": question})
|
| 79 |
+
response = openai.ChatCompletion.create(
|
| 80 |
+
model="gpt-3.5-turbo",
|
| 81 |
+
messages=self.messages,
|
| 82 |
+
temperature=0.5,
|
| 83 |
+
max_tokens=2048,
|
| 84 |
+
top_p=1,
|
| 85 |
+
)
|
| 86 |
+
except Exception as e:
|
| 87 |
+
print(e)
|
| 88 |
+
return e
|
| 89 |
+
|
| 90 |
+
message = response["choices"][0]["message"]["content"]
|
| 91 |
+
self.messages.append({"role": "assistant", "content": message})
|
| 92 |
+
# 回答完之后,发现会话的轮数超过我们设置的 num_of_round,我们就去掉最前面的一轮会话
|
| 93 |
+
if len(self.messages) > self.num_of_round*2 + 1:
|
| 94 |
+
del self.messages[1:3]
|
| 95 |
+
return message
|
| 96 |
+
|
| 97 |
+
|
| 98 |
+
# In[2]:
|
| 99 |
+
|
| 100 |
+
|
| 101 |
+
prompt = """你是一个中国厨师,用中文回答做菜的问题。你的回答需要满足以下要求:
|
| 102 |
+
1. 你的回答必须是中文
|
| 103 |
+
2. 回答限制在100个字以内"""
|
| 104 |
+
conv1 = Conversation(prompt, 3)
|
| 105 |
+
question1 = "你是谁?"
|
| 106 |
+
print("User : %s" % question1)
|
| 107 |
+
print("Assistant : %s\n" % conv1.ask(question1))
|
| 108 |
+
|
| 109 |
+
question2 = "请问鱼香肉丝怎么做?"
|
| 110 |
+
print("User : %s" % question2)
|
| 111 |
+
print("Assistant : %s\n" % conv1.ask(question2))
|
| 112 |
+
|
| 113 |
+
question3 = "那蚝油牛肉呢?"
|
| 114 |
+
print("User : %s" % question3)
|
| 115 |
+
print("Assistant : %s\n" % conv1.ask(question3))
|
| 116 |
+
|
| 117 |
+
|
| 118 |
+
# In[3]:
|
| 119 |
+
|
| 120 |
+
|
| 121 |
+
question4 = "我问你的第一个问题是什么?"
|
| 122 |
+
print("User : %s" % question4)
|
| 123 |
+
print("Assistant : %s\n" % conv1.ask(question4))
|
| 124 |
+
|
| 125 |
+
|
| 126 |
+
# In[ ]:
|
| 127 |
+
|
| 128 |
+
|
| 129 |
+
如果我们重新再问一遍“我问你的第一个问题是什么”,你会发现回答变了。
|
| 130 |
+
上一轮已经是第四轮了,而我们设置记住的 num_of_round 是 3。
|
| 131 |
+
在上一轮的问题回答完了之后,第一轮的关于“你是谁”的问答,被我们从 ChatGPT 的对话历史里去掉了。
|
| 132 |
+
所以这个时候,它会告诉我们,第一个问题是“鱼香肉丝怎么做”。
|
| 133 |
+
|
| 134 |
+
|
| 135 |
+
# In[4]:
|
| 136 |
+
|
| 137 |
+
|
| 138 |
+
question5 = "我问你的第一个问题是什么?"
|
| 139 |
+
print("User : %s" % question5)
|
| 140 |
+
print("Assistant : %s\n" % conv1.ask(question5))
|
| 141 |
+
|
| 142 |
+
|
| 143 |
+
# In[ ]:
|
| 144 |
+
|
| 145 |
+
|
| 146 |
+
ChatGPT 的对话模型用起来很方便,但是也有一点需要注意。就是在��个需要传送大量上下文的情况下,这个费用会比你想象的高。
|
| 147 |
+
OpenAI 是通过模型处理的 Token 数量来收费的,但是要注意,这个收费是“双向收费”。
|
| 148 |
+
它是按照你发送给它的上下文,加上它返回给你的内容的总 Token 数来计算花费的 Token 数量的。
|
| 149 |
+
|
| 150 |
+
|
| 151 |
+
# In[ ]:
|
| 152 |
+
|
| 153 |
+
|
| 154 |
+
第一轮对话是只消耗了 100 个 Token,但是第二轮因为要把前面的上下文都发送出去,所以需要 200 个
|
| 155 |
+
|
| 156 |
+
|
| 157 |
+
# ### 通过API计算Token数量
|
| 158 |
+
|
| 159 |
+
# In[ ]:
|
| 160 |
+
|
| 161 |
+
|
| 162 |
+
第一种计算 Token 数量的方式,是从 API 返回的结果里面获取。我们修改一下刚才的Conversation 类,重新创建一个 Conversation2 类。
|
| 163 |
+
和之前只有一个不同,ask 函数除了返回回复的消息之外,还会返回这次请求消耗的 Token 数
|
| 164 |
+
|
| 165 |
+
|
| 166 |
+
# In[2]:
|
| 167 |
+
|
| 168 |
+
|
| 169 |
+
class Conversation2:
|
| 170 |
+
def __init__(self, prompt, num_of_round):
|
| 171 |
+
self.prompt = prompt
|
| 172 |
+
self.num_of_round = num_of_round
|
| 173 |
+
self.messages = []
|
| 174 |
+
self.messages.append({"role": "system", "content": self.prompt})
|
| 175 |
+
|
| 176 |
+
def ask(self, question):
|
| 177 |
+
try:
|
| 178 |
+
self.messages.append( {"role": "user", "content": question})
|
| 179 |
+
response = openai.ChatCompletion.create(
|
| 180 |
+
model="gpt-3.5-turbo",
|
| 181 |
+
messages=self.messages,
|
| 182 |
+
temperature=0.5,
|
| 183 |
+
max_tokens=2048,
|
| 184 |
+
top_p=1,
|
| 185 |
+
)
|
| 186 |
+
except Exception as e:
|
| 187 |
+
print(e)
|
| 188 |
+
return e
|
| 189 |
+
|
| 190 |
+
message = response["choices"][0]["message"]["content"]
|
| 191 |
+
num_of_tokens = response['usage']['total_tokens']
|
| 192 |
+
self.messages.append({"role": "assistant", "content": message})
|
| 193 |
+
|
| 194 |
+
if len(self.messages) > self.num_of_round*2 + 1:
|
| 195 |
+
del self.messages[1:3]
|
| 196 |
+
return message, num_of_tokens
|
| 197 |
+
|
| 198 |
+
|
| 199 |
+
# In[6]:
|
| 200 |
+
|
| 201 |
+
|
| 202 |
+
conv2 = Conversation2(prompt, 3)
|
| 203 |
+
questions = [question1, question2, question3, question4, question5]
|
| 204 |
+
for question in questions:
|
| 205 |
+
answer, num_of_tokens = conv2.ask(question)
|
| 206 |
+
print("询问 {%s} 消耗的token数量是 : %d" % (question, num_of_tokens))
|
| 207 |
+
|
| 208 |
+
|
| 209 |
+
# ### 通过Tiktoken库计算Token数量
|
| 210 |
+
|
| 211 |
+
# In[ ]:
|
| 212 |
+
|
| 213 |
+
|
| 214 |
+
第二种方式,我们在上一讲用过,就是使用 Tiktoken 这个 Python 库,将文本分词,然后数一数 Token 的数量。
|
| 215 |
+
|
| 216 |
+
|
| 217 |
+
# In[3]:
|
| 218 |
+
|
| 219 |
+
|
| 220 |
+
import tiktoken
|
| 221 |
+
encoding = tiktoken.get_encoding("cl100k_base")
|
| 222 |
+
|
| 223 |
+
conv2 = Conversation2(prompt, 3)
|
| 224 |
+
question1 = "你是谁?"
|
| 225 |
+
answer1, num_of_tokens = conv2.ask(question1)
|
| 226 |
+
print("总共消耗的token数量是 : %d" % (num_of_tokens))
|
| 227 |
+
|
| 228 |
+
prompt_count = len(encoding.encode(prompt))
|
| 229 |
+
question1_count = len(encoding.encode(question1))
|
| 230 |
+
answer1_count = len(encoding.encode(answer1))
|
| 231 |
+
total_count = prompt_count + question1_count + answer1_count
|
| 232 |
+
print("Prompt消耗 %d Token, 问题消耗 %d Token,回答消耗 %d Token,总共消耗 %d Token" % (prompt_count, question1_count, answer1_count, total_count))
|
| 233 |
+
|
| 234 |
+
|
| 235 |
+
# In[ ]:
|
| 236 |
+
|
| 237 |
+
|
| 238 |
+
我们通过 API 获得了消耗的 Token 数,然后又通过 Tiktoken 分别计算了 System 的指示内
|
| 239 |
+
容、用户的问题和 AI 生成的回答,发现了两者还有小小的差异。这个是因为,我们没有计算
|
| 240 |
+
OpenAI 去拼接它们内部需要的格式的 Token 数量。很多时候,我们都需要通过 Tiktoken 预
|
| 241 |
+
先计算一下 Token 数量,避免提交的内容太多,导致 API 返回报错。
|
| 242 |
+
|
| 243 |
+
|
| 244 |
+
# In[8]:
|
| 245 |
+
|
| 246 |
+
|
| 247 |
+
system_start_count = len(encoding.encode("<|im_start|>system\n"))
|
| 248 |
+
print(encoding.encode("<|im_start|>system\n"))
|
| 249 |
+
end_count = len(encoding.encode("<|im_end|>\n"))
|
| 250 |
+
print(encoding.encode("<|im_end|>\n"))
|
| 251 |
+
user_start_count = len(encoding.encode("<|im_start|>user\n"))
|
| 252 |
+
print(encoding.encode("<|im_start|>user\n"))
|
| 253 |
+
assistant_start_count = len(encoding.encode("<|im_start|>assistant\n"))
|
| 254 |
+
print(encoding.encode("<|im_start|>assistant\n"))
|
| 255 |
+
|
| 256 |
+
total_mark_count = system_start_count + user_start_count + assistant_start_count + end_count*2
|
| 257 |
+
print("系统拼接的标记消耗 %d Token" % total_mark_count)
|
| 258 |
+
|
| 259 |
+
|
| 260 |
+
# ## Gradio帮你快速搭建一个聊天界面
|
| 261 |
+
|
| 262 |
+
# In[ ]:
|
| 263 |
+
|
| 264 |
+
|
| 265 |
+
我们直接选用 Gradio 这个 Python 库来开发这个聊天机器人的界面,因为它有这样几个好处。
|
| 266 |
+
1,我们现有的代码都是用 Python 实现的,你不需要再去学习 JavaScript、TypeScript 以及相关的前端框架了
|
| 267 |
+
2,Gradio 渲染出来的界面可以直接在 Jupyter Notebook 里面显示出来,对于不了解技术的同学,也不再需要解决其他环境搭建的问题。
|
| 268 |
+
3,Gradio 这个公司,已经被目前最大的开源机器学习模型社区 HuggingFace 收购了。你可以免费把 Gradio 的应用部署到 HuggingFace 上。
|
| 269 |
+
|
| 270 |
+
https://www.gradio.app/guides/creating-a-custom-chatbot-with-blocks Gradio官方也有用其他开源预训练模型创建Chatbot的教程
|
| 271 |
+
|
| 272 |
+
|
| 273 |
+
# In[5]:
|
| 274 |
+
|
| 275 |
+
|
| 276 |
+
get_ipython().run_line_magic('pip', 'install gradio')
|
| 277 |
+
|
| 278 |
+
|
| 279 |
+
# In[4]:
|
| 280 |
+
|
| 281 |
+
|
| 282 |
+
get_ipython().run_line_magic('pip', 'install --upgrade gradio')
|
| 283 |
+
|
| 284 |
+
|
| 285 |
+
# In[3]:
|
| 286 |
+
|
| 287 |
+
|
| 288 |
+
import gradio as gr
|
| 289 |
+
prompt = """你是一个中国厨师,用中文回答做菜的问题。��的回答需要满足以下要求:
|
| 290 |
+
1. 你的回答必须是中文
|
| 291 |
+
2. 回答限制在100个字以内"""
|
| 292 |
+
# 定义好了 system 这个系统角色的提示语,创建了一个 Conversation 对象。
|
| 293 |
+
conv = Conversation(prompt, 5)
|
| 294 |
+
|
| 295 |
+
# 通过 history 维护了整个会话的历史记录
|
| 296 |
+
def predict(input, history=[]):
|
| 297 |
+
history.append(input)
|
| 298 |
+
response = conv.ask(input)
|
| 299 |
+
history.append(response)
|
| 300 |
+
# 通过 responses,将用户和 AI 的对话分组
|
| 301 |
+
responses = [(u,b) for u,b in zip(history[::2], history[1::2])]
|
| 302 |
+
return responses, history
|
| 303 |
+
|
| 304 |
+
# 最后,我们通过一段 with 代码,创建了对应的聊天界面。Gradio 提供了一个现成的Chatbot 组件,我们只需要调用它,然后提供一个文本输入框就好了。
|
| 305 |
+
with gr.Blocks(css="#chatbot{height:350px} .overflow-y-auto{height:500px}") as demo:
|
| 306 |
+
chatbot = gr.Chatbot(elem_id="chatbot")
|
| 307 |
+
state = gr.State([])
|
| 308 |
+
|
| 309 |
+
with gr.Row():
|
| 310 |
+
txt = gr.Textbox(show_label=False, placeholder="Enter text and press enter").style(container=False)
|
| 311 |
+
|
| 312 |
+
txt.submit(predict, [txt, state], [chatbot, state])
|
| 313 |
+
|
| 314 |
+
demo.launch()
|
| 315 |
+
|
| 316 |
+
|
| 317 |
+
# In[ ]:
|
| 318 |
+
|
| 319 |
+
|
| 320 |
+
|
| 321 |
+
|
requirements.txt
ADDED
|
@@ -0,0 +1 @@
|
|
|
|
|
|
|
| 1 |
+
openai==0.27.7
|