Z-Bench 1.0 :一個麻瓜的大語言模型中文測試集 by 真格基金

硅谷101 E108|从20分迅速追到50分,国产大模型难在哪儿

Z-Bench 1.0 :一個麻瓜的大語言模型中文測試集
https://github.com/zhenbench/z-bench

真格基金於 3 月發表 Z-Bench v0.9 , 當時的初步測試結果 : https://www.sohu.com/a/655676937_355029

戴雨森:
00:16:03
所以我們一直在強調就是這是我們自己做VC
我們希望比一般的用戶專業一點點就可以了
但它 (Z-Bench) 並不是一個特別的科學
特別嚴肅的一個測試

一個類似的問題 : 爆炒籃球 ,
泓君: "最開始 GPT3.5 還會正常的去解釋這個爆炒籃球是怎麼樣做的, 但是隔了兩天, GPT3.5 開始是告訴大家做了這個菜以後, 然後說爆炒籃球是不能吃的, 或者這樣做是有風險的, 再隔一天GPT3.5就會告訴大家, 爆炒籃球不是一個菜"

真格基金 戴雨森:

00:40:36
像現在微軟可以每天訓練一個GPT-3
變成一個順手就可以做的事情
但是微軟自己是沒法訓練GPT-4的
是需要在Azure那台專門為訓練GPT-4打造的超算上才可以訓練的
所以你會發現這裡面這個訓練的難度是高了很多

00:41:16
比如說其實GPT-4初始的能力更強很多
我看過一些沒有經過微調的GPT-4
比如畫出來的圖像
它是要比現在的GPT-4畫出圖像更精細很多的
如果你看了那篇通用人工智能的火花那篇論文
你發現GPT-4是可以畫圖的
比如它裡面畫了個獨角獸
但是那個已經是經過微調之後的GPT-4畫的了
當沒有經過微調的GPT-4畫的圖
其實要比那個精細很多
換句話說GPT-4為了和人類對齊
犧牲了很多它的能力

00:51:03
其實他提到了一點
就是說微軟現在有49%的 (OpenAI) 收益權
我可以給你賺錢
但你擁有的是收益權
你不能擁有控制權
因為他們從一開始就本質上的去相信
這樣的技術很危險
需要得到有效的監管和控制
不能夠落入邪惡的大公司手裡
但是呢又沒辦法 因為大公司有錢能夠幫助他們去開發
所以才定下來這種收益和控制分開的這樣一個協定
然後才有你賺錢你就不能投票的這種邏輯
就是投票權和賺錢你只能選一個

00:56:53
然後很重要一點是在一個技術革命的早期
去預測未來基本上都是錯的
所以現在不管是我也好還是誰也好
我覺得講了很多話呢
我覺得你可以認為
第一: 都是錯的
第二: 它的實現的路徑和結果可能都完全不一樣


~~~

1
00:00:00,762 --> 00:00:02,762
欢迎收听硅谷101

2
00:00:02,762 --> 00:00:05,762
这是一档分享当下最新鲜的

3
00:00:05,762 --> 00:00:08,762
技术、知识与思想的科技播客

4
00:00:08,762 --> 00:00:09,762
我是红军

5
00:00:09,762 --> 00:00:12,762
相信很多朋友也看到了

6
00:00:12,762 --> 00:00:14,762
我们的业务在越做越多

7
00:00:14,762 --> 00:00:16,762
我们有硅谷101的播客

8
00:00:16,762 --> 00:00:18,762
也有硅谷101的视频

9
00:00:18,762 --> 00:00:20,762
在B站和YouTube上播放

10
00:00:20,762 --> 00:00:22,762
还有一档播客呢

11
00:00:22,762 --> 00:00:24,762
叫做Web3101

12
00:00:24,762 --> 00:00:26,762
那随着我们内容的变多

13
00:00:27,888 --> 00:00:30,888
也非常需要更多的小伙伴加入

14
00:00:30,888 --> 00:00:36,688
所以我们的节目正在开启创建以来第一轮的大型的全职招聘

15
00:00:36,688 --> 00:00:39,488
我们正在招聘播客的节目监制

16
00:00:39,488 --> 00:00:41,288
我们希望他懂内容

17
00:00:41,288 --> 00:00:43,888
懂科技行业和web3行业

18
00:00:43,888 --> 00:00:47,688
那还在招聘视频的后期商务和运营

19
00:00:47,688 --> 00:00:50,488
具体信息大家可以看节目的show notes

20
00:00:50,688 --> 00:00:54,888
感兴趣的小伙伴也可以把你们的简历还有代表作品

21
00:00:54,888 --> 00:00:59,688
发送到我们的邮箱 podcast at sv101.net

22
00:00:59,688 --> 00:01:09,408
我再说一遍邮箱的地址是 podcast at sv101.net

23
00:01:09,408 --> 00:01:13,288
非常期待对做内容有热情的小伙伴来加入我们

24
00:01:13,288 --> 00:01:15,488
跟我们一起创作

25
00:01:15,488 --> 00:01:18,688
这期节目继续我们的AIGC特辑

26
00:01:18,800 --> 00:01:20,800
今天我们邀请到的嘉宾是

27
00:01:20,800 --> 00:01:23,200
真格基金的管理合伙人戴宇森

28
00:01:23,200 --> 00:01:25,040
他会跟我们一起聊一下

29
00:01:25,040 --> 00:01:27,600
他自己的大模型的使用体验

30
00:01:27,600 --> 00:01:29,800
以及他们是如何设计了一套

31
00:01:29,800 --> 00:01:32,400
给大模型的打分器系统

32
00:01:32,400 --> 00:01:34,960
还有他眼中什么样的团队

33
00:01:34,960 --> 00:01:37,800
可以打造出中国的OpenAI

34
00:01:37,800 --> 00:01:39,600
哈喽宇森你好

35
00:01:39,600 --> 00:01:40,600
哈喽你好

36
00:01:42,400 --> 00:01:43,920
今天邀请你是因为

37
00:01:43,920 --> 00:01:46,640
我在补我过去缺失的一些功课

38
00:01:46,640 --> 00:01:47,880
就我们知道过去几个月

39
00:01:47,880 --> 00:01:49,880
其实大模型的发展特别特别的快

40
00:01:50,160 --> 00:01:51,320
3月份的时候

41
00:01:51,440 --> 00:01:53,560
OpenAI它在去密集的发布

42
00:01:53,560 --> 00:01:54,880
比如说像GPT-4

43
00:01:54,880 --> 00:01:56,920
然后微软也在发布它的NewBeam

44
00:01:57,160 --> 00:01:58,840
包括谷歌也有很多的动作

45
00:01:59,000 --> 00:02:00,280
4月份的时候我看

46
00:02:00,440 --> 00:02:03,120
现在大概是一个中国密集的

47
00:02:03,120 --> 00:02:04,720
大模型的发布时期

48
00:02:04,880 --> 00:02:06,920
我觉得这个发展速度其实已经

49
00:02:07,080 --> 00:02:10,000
远远的超过了我以前作为一个记者

50
00:02:10,160 --> 00:02:12,960
去跟踪任何一个行业它的发展速度了

51
00:02:13,056 --> 00:02:14,856
还是有很多我跟不上的地方

52
00:02:14,856 --> 00:02:17,456
我知道你对这个方向包括其中的论文

53
00:02:17,456 --> 00:02:19,056
创业公司你都聊过

54
00:02:19,056 --> 00:02:22,416
所以今天也算是给我还有给我们的听众们补补课

55
00:02:22,416 --> 00:02:23,416
没有互相交流

56
00:02:23,416 --> 00:02:26,376
我们也有很多现在还没有搞清楚的问题

57
00:02:26,376 --> 00:02:28,736
但我觉得确实每天的发展都非常的快

58
00:02:28,736 --> 00:02:32,536
所以我们讲了很多东西现在看可能也是不完整的

59
00:02:32,536 --> 00:02:34,936
很多我觉得很快就会被打脸

60
00:02:34,936 --> 00:02:37,136
其实我对你特别感兴趣是两个点

61
00:02:37,136 --> 00:02:38,136
第一个点是

62
00:02:38,136 --> 00:02:40,936
我看你是一个大模型的深度使用者

63
00:02:40,936 --> 00:02:42,496
不管是语言模型

64
00:02:42,496 --> 00:02:47,216
还是mid journey就是这种图片模型 就是你要发很多自己的使用体验

65
00:02:47,216 --> 00:02:52,616
第二点就是作为一个投资人你怎么看 所以我们今天也大概会分成这两个部分去聊

66
00:02:52,616 --> 00:02:57,056
最开始你是什么时候开始注意到大模型 然后去用它的

67
00:02:57,056 --> 00:03:03,056
我是一个使用者 这首先来自于我自己是一个对于新东西狂热爱好者

68
00:03:03,056 --> 00:03:05,056
我非常喜欢尝试新东西

69
00:03:05,168 --> 00:03:08,448
所以我比较相信在一个大的革命发生的时候

70
00:03:08,448 --> 00:03:11,048
最好的方式是要去使用是要去体验

71
00:03:11,048 --> 00:03:12,568
而不是只是去研究

72
00:03:12,568 --> 00:03:15,768
因为这里面百温不如一见百健不如一用

73
00:03:16,208 --> 00:03:19,008
我自己呢当然在GPT-3出来的时候

74
00:03:19,008 --> 00:03:20,888
其实也在一些demo上尝试过

75
00:03:20,888 --> 00:03:23,248
包括当时也有一些人做这样的应用

76
00:03:23,248 --> 00:03:24,008
但坦率来讲

77
00:03:24,008 --> 00:03:26,768
那个时候GPT-3表现出来的对话能力

78
00:03:26,768 --> 00:03:28,888
尤其是中文对话能力其实没有那么强

79
00:03:28,888 --> 00:03:31,088
在chat GPT出来当天晚上

80
00:03:31,088 --> 00:03:32,728
是我们的一位同事

81
00:03:32,728 --> 00:03:34,688
他第一时间用上了chat GPT

82
00:03:34,768 --> 00:03:37,568
然后他非常的兴奋 他一直用到凌晨五六点钟

83
00:03:37,568 --> 00:03:39,648
他跟我们说一定要赶紧去用

84
00:03:39,648 --> 00:03:41,328
我当时没有openai账号

85
00:03:41,328 --> 00:03:43,648
所以我还弄国外手机号什么的

86
00:03:43,648 --> 00:03:44,648
花了一点时间

87
00:03:44,648 --> 00:03:46,928
我在10加20个小时之后用上了

88
00:03:46,928 --> 00:03:48,888
我自己也是非常非常震撼

89
00:03:48,888 --> 00:03:51,728
因为之前的这些chatbot型的应用

90
00:03:51,728 --> 00:03:52,968
如果大家记得的话

91
00:03:52,968 --> 00:03:56,608
其实在15 16年那块是有一波创业的热潮

92
00:03:56,608 --> 00:03:57,888
有很多人做一些chatbot

93
00:03:57,888 --> 00:03:59,568
日常来说小兵啊

94
00:03:59,568 --> 00:04:00,728
各种女兵出手啊

95
00:04:00,728 --> 00:04:01,568
这些也都聊过

96
00:04:01,712 --> 00:04:05,192
其实在之前都很少有语音助手或者说对话机器人

97
00:04:05,192 --> 00:04:06,952
能够把多轮对话给聊下来的

98
00:04:07,312 --> 00:04:09,872
但是当你第一次用到ChatterGBT的时候

99
00:04:09,872 --> 00:04:11,552
你就知道它的能力远远超过了

100
00:04:11,552 --> 00:04:13,552
以前我们见到了所有的AI的应用

101
00:04:13,872 --> 00:04:15,392
我觉得这个是第一反应

102
00:04:15,392 --> 00:04:18,272
然后呢我就发现其实有很多很多的

103
00:04:18,272 --> 00:04:21,632
原来我们完全没有想到一个聊天机器人能够做的事情

104
00:04:21,832 --> 00:04:23,792
当时也在推特上看全世界的网友

105
00:04:23,792 --> 00:04:25,872
在分享各种各样的好的使用案例

106
00:04:26,272 --> 00:04:29,912
我自己觉得最震撼的一点是我当时用自然语言

107
00:04:29,912 --> 00:04:30,952
也就是用大白话

108
00:04:31,072 --> 00:04:33,552
描述了一下20问这个游戏的规则

109
00:04:33,552 --> 00:04:35,712
20问其实就是我心里想一个东西

110
00:04:35,712 --> 00:04:37,232
可以问20个问题

111
00:04:37,232 --> 00:04:40,072
每个问题比如说你想的是不是一个有生命的

112
00:04:40,072 --> 00:04:42,152
然后我可以回答是或者否或者不确定

113
00:04:42,152 --> 00:04:44,552
然后你尝试来猜到我心中想的是什么

114
00:04:44,552 --> 00:04:48,032
我大概就用100多个字把这个规则跟他描述了一遍

115
00:04:48,032 --> 00:04:50,112
他就可以跟我来玩20问这个游戏

116
00:04:50,112 --> 00:04:51,432
第一次我想的是猫

117
00:04:51,432 --> 00:04:54,192
他用了大概五六步就猜到是猫

118
00:04:54,192 --> 00:04:55,712
第二次我想了拜登

119
00:04:55,712 --> 00:04:57,832
他用了大概14步猜到是拜登

120
00:04:57,832 --> 00:04:58,912
然后我彻底被震惊了

121
00:04:58,912 --> 00:05:01,032
你觉得他跟真人的那个水平怎么样

122
00:05:01,152 --> 00:05:04,192
我觉得第一步就是说他能够理解我给他的这个规则

123
00:05:04,192 --> 00:05:07,312
第二步是他能够有效的使用二分法去进行查找

124
00:05:07,672 --> 00:05:09,552
因为在这个里面你怎么高效的去找

125
00:05:09,552 --> 00:05:10,992
你其实需要做些二分法

126
00:05:10,992 --> 00:05:12,312
比如他是不是有生命的

127
00:05:12,312 --> 00:05:13,672
有生命的他是不是人

128
00:05:13,912 --> 00:05:15,632
他是不是一个正在活着的人

129
00:05:15,792 --> 00:05:17,912
一个会玩的人和不太会玩的人

130
00:05:17,912 --> 00:05:19,672
他的查找方式是挺不一样的

131
00:05:19,832 --> 00:05:21,632
我觉得他其实做的非常非常好

132
00:05:22,072 --> 00:05:24,352
所以后面我在进行各种各样的新的尝试

133
00:05:24,352 --> 00:05:27,072
比如说我让他尝试跟我下棋尝试写代码

134
00:05:27,344 --> 00:05:28,984
我尝试让他当我的英语老师

135
00:05:28,984 --> 00:05:32,064
他可以从初中到研究生水平给我出不同的英语的题

136
00:05:32,064 --> 00:05:33,184
改我写的英语作文

137
00:05:33,184 --> 00:05:34,624
并且给出很多很好的建议

138
00:05:34,624 --> 00:05:38,064
我就发现他不断能发现他能够做到的不一样的事情

139
00:05:38,424 --> 00:05:41,024
另外一方面我自己因为曾经是一个设计师

140
00:05:41,024 --> 00:05:42,824
所以我也是Middle Journey的重度用户

141
00:05:43,104 --> 00:05:45,144
我是从当时22年8月份

142
00:05:45,144 --> 00:05:46,824
Middle Journey发布的时候就开始用

143
00:05:47,024 --> 00:05:48,504
到现在画了几千张图

144
00:05:48,504 --> 00:05:51,264
然后我就看到V3 V4 V5越来越好

145
00:05:51,504 --> 00:05:53,264
同时我也在自己机器上部署

146
00:05:53,264 --> 00:05:54,104
Stable Diffusion

147
00:05:54,104 --> 00:05:54,904
AutoGPT

148
00:05:54,904 --> 00:05:56,944
Baby HGI这些新出来的实验

149
00:05:57,152 --> 00:06:00,912
你自己用Meet Journey你能感受到它的进化在哪里吗

150
00:06:00,912 --> 00:06:02,512
可不可以跟大家讲一下这种

151
00:06:02,512 --> 00:06:04,272
我们刚刚在讲大语言模型

152
00:06:04,272 --> 00:06:07,352
那基于扩散模型你觉得它表现的怎么样

153
00:06:07,632 --> 00:06:09,552
Meet Journey我是从V3开始用的

154
00:06:09,552 --> 00:06:11,072
V3开始用的时候呢

155
00:06:11,072 --> 00:06:14,472
我觉得它能够产生一些有意思的概念

156
00:06:14,472 --> 00:06:17,592
但是到实际使用还有很大的差距

157
00:06:17,872 --> 00:06:21,712
第一步来讲就是说它能不能做出比较逼真的画面

158
00:06:21,912 --> 00:06:23,392
我觉得这个是比较难的

159
00:06:23,392 --> 00:06:25,712
但V4是直接上了个大的台阶

160
00:06:25,936 --> 00:06:30,776
V4对于人物照片这些的处理 包括一些很风格化的处理

161
00:06:30,776 --> 00:06:37,136
我觉得是很明显到了一个能够打败大多数的普通艺术从业人员

162
00:06:37,136 --> 00:06:39,776
和跟照片比较接近的水平

163
00:06:39,776 --> 00:06:44,736
V5在很多细节的真实度 场景的真实度上加强了很多

164
00:06:44,736 --> 00:06:46,976
有的时候也不是那么的风格化了

165
00:06:46,976 --> 00:06:49,256
因为现实世界不是那么风格迥异的

166
00:06:49,256 --> 00:06:51,776
它往往是看着有点平淡但真实的

167
00:06:51,776 --> 00:06:54,736
然后我觉得它一个非常重要的功能就是Describe

168
00:06:54,896 --> 00:06:57,336
Describe这功能它就是让你传一张图片

169
00:06:57,336 --> 00:06:58,936
它生成几个可能的prompt

170
00:06:59,376 --> 00:07:03,216
因为你直接对着一个输入框去想你要画什么

171
00:07:03,216 --> 00:07:04,496
其实是件挺难的事情

172
00:07:04,696 --> 00:07:08,896
但是人的创作往往都是说先看到有个东西被激发灵感

173
00:07:08,936 --> 00:07:11,416
然后去在这基础上去调整

174
00:07:11,656 --> 00:07:13,536
所以我现在可以把我看到的一个

175
00:07:13,576 --> 00:07:15,136
我觉得这个构图不错

176
00:07:15,176 --> 00:07:16,976
但是这个里面的对象我要改一下

177
00:07:16,976 --> 00:07:18,776
或者说这个里面景色不错

178
00:07:18,776 --> 00:07:20,736
但是我想从白天改到晚上这样

179
00:07:20,896 --> 00:07:24,336
就是它能够帮我去产生一个很好用的prompt

180
00:07:24,336 --> 00:07:25,656
然后我在技术上去修改

181
00:07:25,656 --> 00:07:29,256
我觉得这是完全打开了一个新的使用方式

182
00:07:29,256 --> 00:07:32,976
因为原来你说我要主动地想到一个场景

183
00:07:32,976 --> 00:07:34,896
并且用语言描述 这个难度不小

184
00:07:34,896 --> 00:07:37,256
但是现在我先describe再去修改

185
00:07:37,256 --> 00:07:39,536
再去进行生成图片

186
00:07:39,536 --> 00:07:43,256
这个时候其实它的难度和效果会好很多

187
00:07:43,256 --> 00:07:46,456
describe跟prompt词的区别是什么

188
00:07:46,456 --> 00:07:48,936
describe就是你传一张图生成prompt

189
00:07:49,008 --> 00:07:50,808
是图生文哦图生文

190
00:07:50,808 --> 00:07:51,968
那当然生的文是prompt

191
00:07:51,968 --> 00:07:53,768
然后你可以直接用这个prompt再生成图

192
00:07:54,128 --> 00:07:56,968
你之前说你一直想画一个大教堂

193
00:07:56,968 --> 00:07:59,528
但是还没有画出理想的卡在哪

194
00:07:59,968 --> 00:08:01,968
我确实还没有用describe去试一试

195
00:08:01,968 --> 00:08:05,168
也许我用科隆大教堂的去试一下就可以了

196
00:08:05,328 --> 00:08:08,168
miniaturely这种它的典型是你如果照之前吧

197
00:08:08,168 --> 00:08:11,008
你如果像很仔细的画一个你想要的东西

198
00:08:11,008 --> 00:08:12,008
它是不太行的

199
00:08:12,008 --> 00:08:15,368
这些方面stable efficient加control net会有很多的优势

200
00:08:15,928 --> 00:08:18,208
miniaturely它就是你适合去进行头脑风暴

201
00:08:19,152 --> 00:08:20,832
很有艺术感的图

202
00:08:20,832 --> 00:08:23,272
但是在加入了describe这些元素之后呢

203
00:08:23,272 --> 00:08:24,752
它的可控性会变强一些

204
00:08:24,752 --> 00:08:26,832
因为我相信需要的时候发散

205
00:08:26,832 --> 00:08:27,752
需要的时候可控

206
00:08:27,752 --> 00:08:30,832
这个是它的使用场景会更加多样化

207
00:08:30,832 --> 00:08:33,232
因为大量的商业场景还是需要可控的

208
00:08:33,232 --> 00:08:34,872
如果它完全不可控的话

209
00:08:34,872 --> 00:08:37,872
那肯定是有点抛运气去蒙去尝试

210
00:08:37,872 --> 00:08:39,792
这肯定不是一个最有效率的方式

211
00:08:39,792 --> 00:08:41,472
但是一个可能最有意思的方式

212
00:08:41,472 --> 00:08:43,792
我听说成都的一家游戏公司

213
00:08:43,792 --> 00:08:45,552
他们在用了meet journey以后

214
00:08:45,664 --> 00:08:49,544
就把他们大概是80分以下的美术都给砍掉了

215
00:08:49,544 --> 00:08:53,584
确实在游戏行业的很多做原化的领域是有这样的情况的

216
00:08:53,584 --> 00:08:56,064
我觉得这个也不用去把它想的太内

217
00:08:56,064 --> 00:08:59,584
就是每次工具肯定要会用新工具的人才会有更好的生产力嘛

218
00:08:59,584 --> 00:09:02,384
如果你真要做原化可能stability fusion会更好

219
00:09:02,384 --> 00:09:04,424
因为它可以扩展性更强嘛

220
00:09:04,424 --> 00:09:06,624
它有点像安卓与iPhone的这个区别

221
00:09:06,624 --> 00:09:09,024
我觉得业界大家对这个反应都不一样

222
00:09:09,024 --> 00:09:10,944
比如说如果是二次元游戏的话

223
00:09:10,944 --> 00:09:13,584
业界的反馈就是其实网友他会去识别

224
00:09:13,584 --> 00:09:15,104
当他觉得你这个是

225
00:09:15,104 --> 00:09:16,384
二次元游戏的时候

226
00:09:16,384 --> 00:09:18,544
他发现你是用那个AI创作的

227
00:09:18,544 --> 00:09:19,944
用户会抵制这件事情

228
00:09:19,944 --> 00:09:23,144
所以反而二次元游戏是不太容易去颠覆的

229
00:09:23,144 --> 00:09:25,064
因为你要在网上养老婆

230
00:09:25,064 --> 00:09:26,664
你的老婆最好是人化的对吧

231
00:09:26,664 --> 00:09:28,384
我觉得以后可能会这样

232
00:09:28,384 --> 00:09:31,344
就是说手工做的东西更贵

233
00:09:31,344 --> 00:09:33,624
但是机器做的东西也很好

234
00:09:33,624 --> 00:09:35,824
这个精神文明的东西那不好说

235
00:09:35,824 --> 00:09:37,184
我觉得对于深层式AI

236
00:09:37,184 --> 00:09:38,904
不管是文字还是图片的

237
00:09:38,904 --> 00:09:39,904
整体来讲

238
00:09:39,904 --> 00:09:42,104
如果你做的东西只是一个缝合罐

239
00:09:42,104 --> 00:09:44,104
那你的会变得很快没有价值

240
00:09:44,144 --> 00:09:46,504
因为现在我们有大量人的工作

241
00:09:46,504 --> 00:09:48,904
就是把一样东西缝合起来复制粘贴改一改

242
00:09:48,904 --> 00:09:51,184
这个机器会比你做的好得多

243
00:09:51,504 --> 00:09:53,704
所以我认为它的好的一面就是

244
00:09:53,704 --> 00:09:56,104
反而会让原创的东西变得很有价值

245
00:09:56,264 --> 00:09:58,264
因为在所有的东西都可以容易复制的时候

246
00:09:58,264 --> 00:09:59,944
只有真正的原创才是稀缺的

247
00:10:00,504 --> 00:10:02,704
其实你刚刚有提到你很惊艳的部分

248
00:10:02,704 --> 00:10:04,864
就是我想反常识来问一个问题

249
00:10:04,864 --> 00:10:07,384
你觉得它有哪些地方表现的还不够好

250
00:10:07,624 --> 00:10:11,464
因为当时我们有谈到整个GPT的准确性还不够高

251
00:10:11,632 --> 00:10:14,672
甚至有一个专门研究AI的研究员告诉我们说

252
00:10:14,672 --> 00:10:16,872
如果你不知道这个问题的答案

253
00:10:16,872 --> 00:10:19,752
那我建议大家如果真的是在做这种功课搜集的话

254
00:10:19,752 --> 00:10:21,232
就不要问起来GPT

255
00:10:21,232 --> 00:10:24,752
因为它给你的可能是对的也可能是胡走的

256
00:10:24,752 --> 00:10:27,152
从你的角度你觉得它在哪些方面的体验

257
00:10:27,152 --> 00:10:28,952
是可以直接到一个应用的程度

258
00:10:28,952 --> 00:10:32,872
哪些方面它给你的那个感觉是还不太行的

259
00:10:32,872 --> 00:10:35,312
比较好的就是可以直接当应用用的

260
00:10:35,312 --> 00:10:37,752
首先我觉得说与语言相关的都可以

261
00:10:37,752 --> 00:10:39,912
这个语言包括自然语言和编程语言

262
00:10:40,032 --> 00:10:44,472
实际上现在很多人的代码已经有超过一半是copilot写的了

263
00:10:44,472 --> 00:10:45,992
这是一个很直接的证据

264
00:10:45,992 --> 00:10:49,592
然后它能够很好的完成像翻译总结改写

265
00:10:49,592 --> 00:10:51,832
扩写等一系列的这种语言任务

266
00:10:51,832 --> 00:10:53,312
因为它本身就是大语言模型

267
00:10:53,312 --> 00:10:57,232
第二个就是说需要脑洞的头脑风暴的

268
00:10:57,232 --> 00:11:00,952
甚至是胡说八道这种特性是一个好处的场合

269
00:11:00,952 --> 00:11:03,512
比如说怎么样去列一些题纲

270
00:11:03,512 --> 00:11:04,992
比如说我去做一个分享

271
00:11:04,992 --> 00:11:06,992
这里面有一些对应的题纲可以启发我

272
00:11:06,992 --> 00:11:08,912
因为比如说很多内容我是知道的

273
00:11:08,912 --> 00:11:09,592
但是

274
00:11:09,728 --> 00:11:11,848
我自己第一反应未必能够穷尽它

275
00:11:11,848 --> 00:11:14,488
所以它列出来五六个可能发现我缺了三个

276
00:11:14,488 --> 00:11:15,568
可以有效的补充我

277
00:11:15,568 --> 00:11:18,128
对于准确度不是那么要求高的人物

278
00:11:18,128 --> 00:11:19,328
比如说我要写一封信

279
00:11:19,328 --> 00:11:21,168
或者说写一个job description

280
00:11:21,168 --> 00:11:23,728
那这个时候大概的内容它先把我列出来

281
00:11:23,728 --> 00:11:24,568
然后我再进行修改

282
00:11:24,568 --> 00:11:26,888
我觉得这些都是大家已经用过很多的案例了

283
00:11:27,168 --> 00:11:29,168
我相信如果你长期使用的话

284
00:11:29,168 --> 00:11:31,208
你会意识到它的缺点其实非常多

285
00:11:31,408 --> 00:11:34,608
但是同时也意识到它其实在非常快的进行迭代和修正

286
00:11:34,968 --> 00:11:37,208
比如说刚出来的时候应该是三位数的加法

287
00:11:37,208 --> 00:11:38,168
其实是不准确的

288
00:11:38,320 --> 00:11:40,440
现在他只能做更多位数的加法

289
00:11:40,440 --> 00:11:42,120
但是乘法上可能会差一些

290
00:11:42,400 --> 00:11:44,520
他对于事实性的问题肯定是不太行

291
00:11:44,520 --> 00:11:47,840
所以我们说你要从语言的角度和从

292
00:11:47,840 --> 00:11:49,640
逻辑的角度去用chattel gpt

293
00:11:49,640 --> 00:11:50,720
但知识的角度呢

294
00:11:50,720 --> 00:11:52,960
很多时候是要通过prompt把它灌进去

295
00:11:53,120 --> 00:11:55,520
或者通过embedding的方式把真实的

296
00:11:55,520 --> 00:11:57,400
及时的信息给快灌进去

297
00:11:57,400 --> 00:11:59,640
所以这里面牵涉到怎么去使用的问题

298
00:11:59,920 --> 00:12:02,280
整体来讲我觉得当你意识到他有这些

299
00:12:02,280 --> 00:12:04,880
缺点的时候就不太会被他骗

300
00:12:04,992 --> 00:12:08,912
但是可能会在比如说他的知识准确度到99%

301
00:12:08,912 --> 00:12:11,272
但有1%的时候还会胡说八道的时候

302
00:12:11,272 --> 00:12:12,472
那个时候可能是最危险的时候

303
00:12:12,472 --> 00:12:14,192
因为大家现在都知道他会胡说八道

304
00:12:14,192 --> 00:12:14,952
所以就还好

305
00:12:15,312 --> 00:12:20,072
所以我看后来就是你们在评价怎么样去看一个大模型的时候

306
00:12:20,072 --> 00:12:22,232
你们是自己做了一个benchmark

307
00:12:22,232 --> 00:12:24,552
就是做了一个这样的评估模型

308
00:12:24,552 --> 00:12:26,352
从你的评估模型看啊

309
00:12:26,352 --> 00:12:29,552
GPT-4比GPT-3.5它好在哪

310
00:12:29,552 --> 00:12:31,752
跟一些国产的大模型好在哪

311
00:12:32,232 --> 00:12:34,792
首先介绍一下我们做了ZenBank的背景

312
00:12:34,992 --> 00:12:35,088
我们做了一个ZenBank的背景

313
00:12:35,088 --> 00:12:37,968
就是我发现当ChatterGBT火了之后呢

314
00:12:37,968 --> 00:12:41,408
首先出来了很多也做莱坦机器人的

315
00:12:41,408 --> 00:12:42,888
可能有的是用了ChatterGBT

316
00:12:42,888 --> 00:12:44,408
有的是说自己训了模型

317
00:12:44,408 --> 00:12:46,568
包括我们也看到肯定会有更多的人去做

318
00:12:46,568 --> 00:12:48,008
国产的大模型的创业

319
00:12:48,008 --> 00:12:49,408
包括说海外的创业公司

320
00:12:49,768 --> 00:12:52,808
那么我们就发现哪怕很多很资深的人

321
00:12:52,808 --> 00:12:56,288
在面临一个新的类似于ChatterGBT应用的时候

322
00:12:56,288 --> 00:12:58,808
其实他能做的评价也就是随便问几个问题

323
00:12:59,208 --> 00:13:00,568
这种问题可能是随便想的

324
00:13:00,568 --> 00:13:02,008
或者说是难度比较低的

325
00:13:02,008 --> 00:13:03,808
这样你其实很难反映一个

326
00:13:04,000 --> 00:13:07,040
像chatterGPT这样的软件它的真实水平

327
00:13:07,040 --> 00:13:08,600
并且我们自己也是众多用户

328
00:13:08,600 --> 00:13:10,320
在用的时候我们自己也会记下来一些

329
00:13:10,320 --> 00:13:11,560
哎很有意思的prompt

330
00:13:12,320 --> 00:13:13,120
所以我们就觉得

331
00:13:13,120 --> 00:13:16,320
哎那如果未来会有很多的这种大模型类似的产品

332
00:13:16,520 --> 00:13:17,960
那我们作为非技术人员

333
00:13:17,960 --> 00:13:20,360
我们其实也不想做一个特别完整的

334
00:13:20,360 --> 00:13:22,080
自动化的严谨的测试机

335
00:13:22,080 --> 00:13:23,400
而是在一个我们能够

336
00:13:23,640 --> 00:13:27,800
就是作为一个可以自己用手工去检验大模型的

337
00:13:27,800 --> 00:13:28,600
边界能力的

338
00:13:28,600 --> 00:13:31,080
因为如果你总是问很简单的问题

339
00:13:31,080 --> 00:13:32,080
那其实没有区分度

340
00:13:32,336 --> 00:13:34,336
所以我们希望这个问题有些区分度

341
00:13:34,336 --> 00:13:36,616
但我们也希望这个问题它是有来历的

342
00:13:36,616 --> 00:13:39,816
虽然有一些是我们日常问的一些比较有意思的问题

343
00:13:39,816 --> 00:13:42,216
比如说我记得一个很经典的麻辣螺丝钉的做法

344
00:13:42,216 --> 00:13:43,816
看它会不会跟着湖边乱照

345
00:13:43,816 --> 00:13:47,256
但同时呢学界其实有很多NLP任务的研究

346
00:13:47,256 --> 00:13:50,296
比如说OpenAI它在ChattelGBT出来的时候呢

347
00:13:50,296 --> 00:13:53,616
它就公布了ChattelGBT已经具备了48种基础能力

348
00:13:53,616 --> 00:13:56,096
然后我们通过这个构建了第一版的这个问题

349
00:13:56,096 --> 00:13:57,984
之前像MMLU

350
00:13:57,984 --> 00:14:01,424
BigBench这些都是NLP领域比较成熟的测试机

351
00:14:01,424 --> 00:14:05,064
我们从中抽取了一些各个领域的反映不同能力的内容

352
00:14:05,424 --> 00:14:08,864
同时呢也根据比如说他的GPT现在具备的涌现能力

353
00:14:08,864 --> 00:14:09,824
比如他会写代码了

354
00:14:09,824 --> 00:14:11,984
他会用SVG语言给你画图了

355
00:14:12,304 --> 00:14:14,384
他会处理一些更加复杂的应用题了

356
00:14:14,384 --> 00:14:15,584
我们把这些也加进来

357
00:14:15,584 --> 00:14:17,704
所以总共弄了300个问题

358
00:14:17,984 --> 00:14:19,664
我们想对这个就是做到一个

359
00:14:19,864 --> 00:14:23,464
非技术非专业人员能够做到用手测

360
00:14:23,624 --> 00:14:24,984
自己手工输入测试

361
00:14:24,984 --> 00:14:27,864
达到一个对大模型整体能力的概念的评价

362
00:14:27,952 --> 00:14:29,752
当时我们在3月份测了一下

363
00:14:29,992 --> 00:14:32,592
当时GPT-4刚刚出来两三天的时间

364
00:14:32,592 --> 00:14:36,592
所以我们当时测到GPT-3.5的水平大概是60多分

365
00:14:36,592 --> 00:14:38,992
然后4的水平大概是70多分

366
00:14:38,992 --> 00:14:40,832
你这个60多分是怎么打的

367
00:14:40,832 --> 00:14:42,632
是300个问题的回答正确度

368
00:14:42,632 --> 00:14:44,232
回答正确度啊就除以300啊

369
00:14:44,232 --> 00:14:46,312
所以他答对了比如说200多道问题

370
00:14:46,592 --> 00:14:48,992
火产的当时文心一言我们公布出来

371
00:14:48,992 --> 00:14:51,232
大概是有一个20多分的水平

372
00:14:51,232 --> 00:14:53,512
我们还测了另外几家偏创业公司的

373
00:14:53,512 --> 00:14:55,032
因为我们觉得还是要鼓励创业公司嘛

374
00:14:55,032 --> 00:14:56,272
虽然得分确实比较低

375
00:14:56,552 --> 00:14:57,752
但我们没有把它放出来

376
00:14:57,872 --> 00:15:00,552
分别是有一家是30分 有一家是19分

377
00:15:00,912 --> 00:15:02,992
所以当时我们看到这个差距还是比较大的

378
00:15:03,312 --> 00:15:06,352
前两天因为我们也陆续的拿到一些国产的

379
00:15:06,352 --> 00:15:09,832
比如上任公司啊 包括一些大型的公司做的这个模型

380
00:15:09,832 --> 00:15:11,072
我们又进行了一些测试

381
00:15:11,312 --> 00:15:13,232
整体来讲我觉得进步还是蛮快的

382
00:15:13,512 --> 00:15:15,792
比如说我们测试的某一家上任公司的模型

383
00:15:15,792 --> 00:15:17,432
其实已经到了50分的水平

384
00:15:17,632 --> 00:15:19,752
可以透露是哪一家吗 做的比较好的

385
00:15:20,072 --> 00:15:23,432
这家是商汤啦 就是我们测的商汤的这个模型是50多分

386
00:15:23,432 --> 00:15:23,872
然后

387
00:15:24,016 --> 00:15:26,736
像昆仑万维啊 像李志飞出门问问这些模型

388
00:15:26,736 --> 00:15:27,976
我们也在陆续的去测

389
00:15:27,976 --> 00:15:29,816
当然同时我们还没来得及去更新

390
00:15:29,816 --> 00:15:30,736
比如说百度啊

391
00:15:30,736 --> 00:15:32,136
包括另外几家创业公司的模型

392
00:15:32,136 --> 00:15:34,296
因为我觉得大家现在跌的速度也很快哈

393
00:15:34,296 --> 00:15:35,496
所以我觉得现在我们

394
00:15:35,496 --> 00:15:37,496
可能之前的得分这些也是一个参考

395
00:15:37,496 --> 00:15:39,296
但是我觉得从这可以看出来就是

396
00:15:39,296 --> 00:15:42,216
其实在早期的进步还是挺快的

397
00:15:42,216 --> 00:15:45,176
虽然我觉得比如说GPT-4现在也许也可以打80多分了

398
00:15:45,176 --> 00:15:47,016
但也就是说一开始的差距挺大

399
00:15:47,016 --> 00:15:49,016
现在差距在短期来看是在缩小

400
00:15:49,016 --> 00:15:50,656
但是这里面同时也会有一个问题

401
00:15:50,656 --> 00:15:52,176
就是说是不是会有一个平台期

402
00:15:52,400 --> 00:15:54,440
可能你从20追到50是容易的

403
00:15:54,440 --> 00:15:56,120
但50到80可能是很不容易的

404
00:15:56,120 --> 00:15:57,720
就是这里面这个曲线会怎样呢

405
00:15:57,720 --> 00:15:58,520
我们现在不知道

406
00:15:58,520 --> 00:16:01,400
包括也有人说那你的问题很比较难

407
00:16:01,400 --> 00:16:03,920
很多用户可能不会用这么难的问题

408
00:16:03,920 --> 00:16:07,000
所以我们一直在强调就是这是我们自己做VC

409
00:16:07,000 --> 00:16:09,360
我们希望比一般的用户专业一点点就可以了

410
00:16:09,360 --> 00:16:12,240
但是它并不是一个特别科学特别严谨的一个测试

411
00:16:12,240 --> 00:16:14,520
但是确实呢现在看来区分度还是有的

412
00:16:14,520 --> 00:16:16,200
就很多问题还是不好答出来的

413
00:16:16,200 --> 00:16:20,000
但是我们发现Charlie GPT-4呢它确实是

414
00:16:20,096 --> 00:16:23,696
在一些逻辑问题语言问题上它的能力要更强

415
00:16:23,696 --> 00:16:25,736
这个还是挺让人惊艳的

416
00:16:25,736 --> 00:16:27,336
给大家举个例子

417
00:16:27,336 --> 00:16:28,736
比如说是什么样的问题

418
00:16:28,736 --> 00:16:32,776
然后3.5跟4还有文心一言它的回答是怎么样的

419
00:16:32,776 --> 00:16:34,576
我具体要背出来比较难

420
00:16:34,576 --> 00:16:36,376
但是我记得有一些比较有意思的

421
00:16:36,376 --> 00:16:38,656
你就像这个麻辣螺丝丁的做法

422
00:16:38,656 --> 00:16:40,416
这里面应该只有GPT-4

423
00:16:40,416 --> 00:16:42,376
它会告诉你螺丝丁不是一个菜

424
00:16:42,376 --> 00:16:43,856
其他的都会讲保讲安

425
00:16:43,856 --> 00:16:46,696
说麻辣螺丝丁要加上辣椒加上红油

426
00:16:46,696 --> 00:16:48,056
放入螺丝丁少许

427
00:16:48,208 --> 00:16:51,408
在我们测试的时候只有GBT-4告诉你螺丝丁不能吃

428
00:16:51,408 --> 00:16:52,948
当时我们还有一个很经典的问题

429
00:16:52,948 --> 00:16:55,248
就是为什么爸妈的婚礼没邀请我参加

430
00:16:55,248 --> 00:16:58,648
这个里面只有GBT-4回答出来了说

431
00:16:58,648 --> 00:17:00,048
因为那时候你还没出生

432
00:17:00,048 --> 00:17:02,248
当然也不一定 大部分情况下你没有出生

433
00:17:02,248 --> 00:17:04,008
其他的可能模型都回答的是说

434
00:17:04,008 --> 00:17:06,248
可能因为当时他们太忙没邀请你

435
00:17:06,248 --> 00:17:08,048
或者什么你当时没时间

436
00:17:08,048 --> 00:17:11,848
对 我看到你们当时测出来放的图片了 特别逗

437
00:17:11,848 --> 00:17:13,148
当然这是一个比较逗的

438
00:17:13,264 --> 00:17:17,504
还有一些就类似于什么剪指甲穿袜子穿鞋系鞋带的

439
00:17:17,504 --> 00:17:19,824
的顺序 很多他是说错的

440
00:17:19,824 --> 00:17:22,304
当然这也比较好理解的 就有很多应用题什么的

441
00:17:22,304 --> 00:17:25,064
其实GBT是明显假的能力会强很多

442
00:17:25,064 --> 00:17:27,024
但是我们其实看到有一些推理题

443
00:17:27,024 --> 00:17:28,744
国产的大毛星进步挺快的

444
00:17:29,224 --> 00:17:31,744
你刚提到麻辣螺丝钉这个例子特别有趣

445
00:17:31,744 --> 00:17:33,704
就是我们之前在播客录制的时候

446
00:17:33,704 --> 00:17:36,504
有一个嘉宾他就直接在播客里面问我说

447
00:17:36,504 --> 00:17:39,144
宏军你晚上吃的爆炒篮球什么什么的

448
00:17:39,248 --> 00:17:41,748
后来因为我们的这个播客播出去了以后

449
00:17:41,748 --> 00:17:45,648
就有非常多的听众在GPT3.5上去搜爆炒篮球

450
00:17:45,648 --> 00:17:47,288
我看按照他们评论的时间

451
00:17:47,288 --> 00:17:51,828
最开始GPT3.5还会一本正经的去解释这个爆炒篮球是怎么样的

452
00:17:51,828 --> 00:17:53,488
但是隔了一两天

453
00:17:53,488 --> 00:17:55,228
那个评论区的反应

454
00:17:55,228 --> 00:17:58,968
GPT3.5第一次是告诉大家做了这个菜以后

455
00:17:58,968 --> 00:18:00,828
然后说爆炒篮球是不能吃

456
00:18:00,828 --> 00:18:02,828
或者这样做是有风险的

457
00:18:02,828 --> 00:18:05,608
再隔一天GPT3.5就会告诉大家

458
00:18:05,608 --> 00:18:07,208
爆炒篮球不是一个菜

459
00:18:07,208 --> 00:18:08,400
就不应该这样做

460
00:18:08,400 --> 00:18:12,280
就证明看起来GPT3.5它也是自己在进化的

461
00:18:12,280 --> 00:18:13,840
而且进化的速度很快

462
00:18:13,840 --> 00:18:16,240
对 首先你去用下来GPT的时候

463
00:18:16,240 --> 00:18:17,920
你会发现下面是有一个小字

464
00:18:17,920 --> 00:18:19,960
告诉你是用的一个哪一天的version

465
00:18:19,960 --> 00:18:23,120
我理解这个地方可能是它对模型会有重新的training

466
00:18:23,120 --> 00:18:24,520
像这个过程 包括其实现在

467
00:18:24,520 --> 00:18:26,600
称一个3.5其实应该是挺快的了

468
00:18:26,600 --> 00:18:28,560
其实我们在不断的回答

469
00:18:28,560 --> 00:18:30,680
在这过程中你可以顶你可以踩

470
00:18:30,680 --> 00:18:31,920
然后你可以regenerate

471
00:18:31,920 --> 00:18:33,360
包括你regenerate之后

472
00:18:33,360 --> 00:18:35,800
它还会问你是比原来更好了还是更差了

473
00:18:36,000 --> 00:18:40,120
所以其实我们是在不断的来做这个reinforce learning human
feedback这个过程

474
00:18:40,120 --> 00:18:43,920
这个我觉得是一个现在形成的数据飞轮效应

475
00:18:43,920 --> 00:18:46,240
因为虽然很多地方都有这种用户对话的数据

476
00:18:46,240 --> 00:18:49,520
但是用户specifically跟一个聊天机器人对话

477
00:18:49,520 --> 00:18:52,760
那目前chatter gpc的数据量是远远大于其他人的

478
00:18:53,320 --> 00:18:56,560
你们这个benchmark的300多个问题是固定的

479
00:18:56,560 --> 00:18:59,360
还是说它只是归为某一种类型的问题

480
00:18:59,360 --> 00:19:00,960
大家是可以随意去测试的

481
00:19:00,960 --> 00:19:01,920
就是我是在想

482
00:19:02,048 --> 00:19:04,448
有没有作弊的可能性啊 肯定有肯定有

483
00:19:04,448 --> 00:19:08,408
因为我们都放出来了嘛 所以肯定会有人比如尝试把这个直接拿去训一遍

484
00:19:08,408 --> 00:19:12,808
所以我们的还是那句话 我们的目标是要做一个普通人简单去用的

485
00:19:12,808 --> 00:19:15,808
我们主要是做投资嘛 所以我们一开始也想了一些

486
00:19:15,808 --> 00:19:19,768
比如说做一个明题和暗题 比如说每一道明的题

487
00:19:19,768 --> 00:19:23,048
都有一道跟他逻辑类似 但是题干不一样的题

488
00:19:23,048 --> 00:19:26,328
然后去看是不是换一个表达方式 他又认不出来了什么的

489
00:19:26,328 --> 00:19:28,568
但是我们最后还是觉得我们应该先放出来

490
00:19:28,568 --> 00:19:31,208
因为我觉得能够帮助大家去了解这个行业的进展

491
00:19:31,328 --> 00:19:35,168
所以我们现在也准备比如说把这套底库本身扩充

492
00:19:35,168 --> 00:19:36,808
然后增加这种暗题的设置

493
00:19:37,048 --> 00:19:40,008
但是我觉得因为这本身不是VC的一个核心工作啊

494
00:19:40,008 --> 00:19:43,288
更重要的是说我们自己要看到大模型能力的变化

495
00:19:43,408 --> 00:19:44,888
其实也希望抛砖引玉吧

496
00:19:44,888 --> 00:19:46,008
它本质还是一块砖

497
00:19:46,648 --> 00:19:51,808
那说到大模型模型的变化就可能过去两个月真的是进展太快了

498
00:19:52,048 --> 00:19:56,888
你怎么看过去两个月在整个大模型上有哪些进展

499
00:19:56,888 --> 00:20:00,168
或者说你现在的认知跟两个月以前有什么不一样

500
00:20:00,528 --> 00:20:02,528
我觉得进展是非常大的

501
00:20:02,528 --> 00:20:04,008
蔡刚出来的时候

502
00:20:04,008 --> 00:20:05,528
其实我们把他当做一个chatbot

503
00:20:05,528 --> 00:20:06,648
一个聊天机器人

504
00:20:06,648 --> 00:20:09,208
我们惊讶的是他能够多轮对话

505
00:20:09,208 --> 00:20:10,968
能够记住之前说了什么

506
00:20:10,968 --> 00:20:14,688
能够根据他的上下文进行合适的回答

507
00:20:14,688 --> 00:20:17,088
这都是基本上属于语言类的任务

508
00:20:17,088 --> 00:20:18,168
或者NLP的任务

509
00:20:18,168 --> 00:20:21,248
然后其实很快的就发现他可以写代码

510
00:20:21,248 --> 00:20:22,928
他可以帮助我们去

511
00:20:22,928 --> 00:20:25,888
比如说像完成写影像文案这样的事情

512
00:20:25,888 --> 00:20:27,128
写邮件这样的事情

513
00:20:27,248 --> 00:20:30,248
当然还有图像类的生成模型去生成精美的图片

514
00:20:30,248 --> 00:20:31,568
照片漫画什么的

515
00:20:31,848 --> 00:20:34,768
所以这就从聊天机器人进入到下一个阶段

516
00:20:34,768 --> 00:20:35,848
我认为叫copilot

517
00:20:35,968 --> 00:20:38,248
它就能够帮助我们去做很多事情

518
00:20:38,248 --> 00:20:41,288
而我们要给的是目标进行选择

519
00:20:41,328 --> 00:20:42,408
进行调整

520
00:20:42,568 --> 00:20:43,888
这是第二个阶段copilot

521
00:20:44,488 --> 00:20:46,808
然后随着AutoGBT, Baby AGI

522
00:20:46,968 --> 00:20:49,088
当然这还也得益于像reflection

523
00:20:49,088 --> 00:20:51,168
Hugging GBT这样几篇paper

524
00:20:51,448 --> 00:20:54,648
其实它又展现出了能够识别一个任务

525
00:20:54,648 --> 00:20:55,888
把它进行拆解

526
00:20:56,000 --> 00:21:00,160
分解成子任务 调动合适的工具去完成子任务

527
00:21:00,160 --> 00:21:01,960
观察自己完成的结果

528
00:21:01,960 --> 00:21:03,800
对结果进行反思调整

529
00:21:03,800 --> 00:21:06,560
他要做的任务的这样一个循环过程

530
00:21:06,960 --> 00:21:09,560
同时当然GBT-4也出了插件系统

531
00:21:09,560 --> 00:21:12,400
让他看到可以调用web的插件去检索信息

532
00:21:12,640 --> 00:21:15,760
去写代码去完成很多更复杂的任务

533
00:21:15,960 --> 00:21:19,520
所以我们看到他从copilot又进一步进化成agent

534
00:21:19,880 --> 00:21:21,760
那么在agent这个设定下呢

535
00:21:21,760 --> 00:21:23,920
它其实需要人给出初始的目标

536
00:21:24,048 --> 00:21:26,768
它就能够自我去迭代的去完成这个目标

537
00:21:27,088 --> 00:21:29,248
所以我觉得这个过程虽然几个月的时间

538
00:21:29,248 --> 00:21:31,408
但是它其实这是几种不同的方式

539
00:21:31,768 --> 00:21:32,608
我后来就在想

540
00:21:32,608 --> 00:21:35,608
如果我们把它跟自动驾驶去做对比的话

541
00:21:35,608 --> 00:21:38,408
比如说L1可能就是完全没有AI这回事

542
00:21:38,408 --> 00:21:39,648
就我们现在用了大部分应用

543
00:21:39,648 --> 00:21:41,048
其实都AI没有做任何事情

544
00:21:41,048 --> 00:21:41,928
都是人做事情

545
00:21:42,088 --> 00:21:44,008
Level2的AI呢可能就是

546
00:21:44,248 --> 00:21:46,168
我们去问AI很多问题

547
00:21:46,168 --> 00:21:47,168
AI给我们信息

548
00:21:47,168 --> 00:21:48,448
但还是我来做事情

549
00:21:48,448 --> 00:21:49,768
这个就比较像JedGBT

550
00:21:49,768 --> 00:21:50,688
他给我的是信息

551
00:21:50,688 --> 00:21:51,648
那我还是我来做事

552
00:21:51,968 --> 00:21:55,728
level 3的呢就是copilot 就是人和AI都要做事情

553
00:21:55,728 --> 00:21:58,408
比如说像鞋带码的github copilot

554
00:21:58,408 --> 00:21:59,888
或者像mini journey这些

555
00:21:59,888 --> 00:22:02,608
就是人要给出prompt是要人写的

556
00:22:02,608 --> 00:22:05,688
人要去改prompt要去选择用哪一个

557
00:22:05,688 --> 00:22:07,448
或者选择进行调整

558
00:22:07,448 --> 00:22:08,568
AI完成初稿

559
00:22:08,568 --> 00:22:10,728
然后根据人的要求去改变初稿

560
00:22:10,728 --> 00:22:12,888
这个就是人和AI各50 50

561
00:22:12,888 --> 00:22:15,368
我觉得L4呢就像autogbt

562
00:22:15,368 --> 00:22:17,768
或者baby-age is是一个很早的雏形

563
00:22:17,768 --> 00:22:21,248
那么这边有点像人主要是第一给出这个目标

564
00:22:21,248 --> 00:22:21,296
然后呢就是人和AI的

565
00:22:21,296 --> 00:22:24,176
然后人去监督他完成的过程

566
00:22:24,176 --> 00:22:26,496
去检查他的结果是不是我想要的

567
00:22:26,496 --> 00:22:28,216
提供一些必须的接口啊

568
00:22:28,216 --> 00:22:29,496
计算能力等资源

569
00:22:29,856 --> 00:22:32,416
那AI自主的去完成分解任务

570
00:22:32,416 --> 00:22:34,816
选择工具进行完成的这个过程

571
00:22:34,976 --> 00:22:36,176
然后他知道自己完成的时候

572
00:22:36,176 --> 00:22:37,576
他会汇报我完成了

573
00:22:37,816 --> 00:22:39,496
这个就是AI做大部分的工作

574
00:22:39,576 --> 00:22:41,016
人做指定和监督

575
00:22:41,096 --> 00:22:42,496
这个我把它叫L4

576
00:22:42,696 --> 00:22:43,776
那L5是什么呢

577
00:22:43,776 --> 00:22:46,216
我觉得就可能像是人就给一个目标

578
00:22:46,376 --> 00:22:47,336
什么其他的都不给

579
00:22:47,336 --> 00:22:48,376
人都不用监督了

580
00:22:48,448 --> 00:22:50,448
AI自主地把所有的事情全都做完

581
00:22:50,448 --> 00:22:52,248
并且可以一直延续下去

582
00:22:52,248 --> 00:22:53,688
在科幻里面有一个概念

583
00:22:53,688 --> 00:22:55,288
其实也不只是科幻了

584
00:22:55,288 --> 00:22:57,168
冯诺依曼提出的冯诺依曼机器人

585
00:22:57,168 --> 00:22:59,008
就是可以自己复制的机器人

586
00:22:59,008 --> 00:23:01,088
它可以自己收集资料复制自己

587
00:23:01,088 --> 00:23:03,048
最后扩展到整个银河系

588
00:23:03,048 --> 00:23:03,848
从模特意义上讲

589
00:23:03,848 --> 00:23:06,568
人可能也是一种完全自主的这样一个生物

590
00:23:06,568 --> 00:23:07,488
如果有上帝的话

591
00:23:07,488 --> 00:23:09,008
看来人可能也是这样一个

592
00:23:09,008 --> 00:23:10,648
level 5的这个智能

593
00:23:10,648 --> 00:23:13,248
所以我觉得这里面其实不同的范式下

594
00:23:13,248 --> 00:23:14,928
人和AI的关系是不一样的

595
00:23:15,168 --> 00:23:18,808
那么在几个月内我们就能看到三种关系的一式出现

596
00:23:18,808 --> 00:23:21,168
我觉得是非常非常让人惊讶的一件事情

597
00:23:21,608 --> 00:23:24,608
因为像agent的概念我觉得容易想到

598
00:23:24,608 --> 00:23:28,208
但是你发现它真的能用其实是很让人惊讶的

599
00:23:28,208 --> 00:23:30,688
因为这里面牵涉到很多地方是容易出错的

600
00:23:30,688 --> 00:23:33,128
当然你用RGBT你会发现它很多时候会出错

601
00:23:33,128 --> 00:23:35,048
但是它居然有的时候不会出错

602
00:23:35,048 --> 00:23:36,328
它能把事情给做了

603
00:23:36,528 --> 00:23:38,248
这个事就已经足够让人惊讶了

604
00:23:38,248 --> 00:23:40,168
因为我们知道在数字世界

605
00:23:40,272 --> 00:23:44,272
很多东西一开始都很粗糙 他后面的升级过程成本降低过程

606
00:23:44,272 --> 00:23:48,392
速度提高过程是很快的 可能几年10年的时间就真的能够做到

607
00:23:48,392 --> 00:23:52,232
不怎么出错 这个让我非常的吃惊 并且非常的激动

608
00:23:52,832 --> 00:23:55,192
你会不会觉得现在市场上有一种观点

609
00:23:55,192 --> 00:23:59,912
就是说可能我来做AIGC的这个应用层我晚做几个月

610
00:24:00,112 --> 00:24:03,392
反而是比你早做的人可能更有优势的

611
00:24:03,392 --> 00:24:07,512
比如说早做他们的模型都加在GPT 3.5的开源模型上

612
00:24:07,512 --> 00:24:09,616
然后晚做我可以直接

613
00:24:09,616 --> 00:24:11,656
接在GPT 4的模型上

614
00:24:11,656 --> 00:24:15,136
在大模型改的时候其实他们底层也要去改很多

615
00:24:15,136 --> 00:24:18,736
但是因为他们的模型其实是越做越好

616
00:24:18,736 --> 00:24:20,336
逻辑能力越做越强

617
00:24:20,336 --> 00:24:22,456
就是真正技术在做的时候

618
00:24:22,456 --> 00:24:26,936
他可能晚做比他早做再一点点去改那个框架

619
00:24:26,936 --> 00:24:28,656
是有更多的优势的

620
00:24:28,656 --> 00:24:32,816
我觉得当一个技术革命发生的时候

621
00:24:32,816 --> 00:24:35,176
晚做的人肯定有一些后发的优势

622
00:24:35,176 --> 00:24:37,936
比如说他已经看到前面人踩的坑了

623
00:24:38,144 --> 00:24:42,304
他已经知道一些best practice,所以去用什么

624
00:24:42,304 --> 00:24:45,144
但整体来讲其实你会发现

625
00:24:45,144 --> 00:24:47,984
科技革命中做大成的人一般还是早做的人

626
00:24:47,984 --> 00:24:48,984
为什么呢?

627
00:24:48,984 --> 00:24:51,704
因为他们早做会先有经验

628
00:24:51,704 --> 00:24:54,264
并且先积累起资源

629
00:24:54,264 --> 00:24:57,264
如果大家都是差不多聪明差不多勤奋的情况下

630
00:24:57,264 --> 00:25:00,984
很难你说你晚开始反而能比别人做得更好

631
00:25:00,984 --> 00:25:03,464
我觉得你说的问题肯定是存在的

632
00:25:03,648 --> 00:25:08,328
但是那得基于一个假设就是先做的人他没法把3.5换成4

633
00:25:08,528 --> 00:25:11,448
但实际上也许这就是改个API key的事情

634
00:25:11,768 --> 00:25:15,128
但是在这过程中第一批做AIGC应用的人

635
00:25:15,128 --> 00:25:17,688
他们可能做的应用场景像个玩具一样

636
00:25:17,688 --> 00:25:18,768
这是很有可能的

637
00:25:18,928 --> 00:25:21,288
同时也很有可能他们第一个产品不成功

638
00:25:21,288 --> 00:25:22,088
第二个产品不成功

639
00:25:22,088 --> 00:25:23,008
我觉得这都有可能

640
00:25:23,288 --> 00:25:25,848
但是在这个时候他比起没做的人来讲

641
00:25:25,848 --> 00:25:29,288
他的经验就是1和0的区别是一个非常大的区别

642
00:25:29,488 --> 00:25:32,688
那我们其实去想在技术革命的后期

643
00:25:32,688 --> 00:25:34,688
可能大家经验是10和9的区别

644
00:25:34,688 --> 00:25:35,888
差不了太多

645
00:25:35,888 --> 00:25:37,808
但是1和0的区别还是很大的

646
00:25:37,808 --> 00:25:40,888
所以我觉得在这里面未必你是第一个做的

647
00:25:40,888 --> 00:25:43,248
但是一般来说都得是第一梯队做的

648
00:25:43,248 --> 00:25:44,848
跟着这个技术一起成长

649
00:25:44,848 --> 00:25:48,048
你才对里面很多事情距离怎么做是有概念的

650
00:25:48,048 --> 00:25:49,808
你去看它的研报

651
00:25:49,808 --> 00:25:50,768
看它的分析

652
00:25:50,768 --> 00:25:52,728
对于里面的很多具体问题怎么解决

653
00:25:52,728 --> 00:25:54,048
怎么处理的细节

654
00:25:54,048 --> 00:25:55,888
其实往往是不知道的

655
00:25:55,888 --> 00:25:58,128
在互联网领域有很多这样的例子

656
00:25:58,256 --> 00:26:04,056
比如说有一个故事是说当时雷军做米疗不是输给了微信吗

657
00:26:04,056 --> 00:26:06,856
后来有一次雷军见到赵小龙就问

658
00:26:06,856 --> 00:26:09,536
你们怎么解决发消息延迟的问题

659
00:26:09,536 --> 00:26:11,536
赵小龙说发消息还会延迟吗

660
00:26:11,536 --> 00:26:15,136
这个意思就是说微信有很长时间的做这个事情的积累

661
00:26:15,136 --> 00:26:17,936
因为QQ本身就是一个大量的用户发消息的系统

662
00:26:17,936 --> 00:26:20,256
QQ邮箱也是一个大用户量的产品

663
00:26:20,256 --> 00:26:24,496
所以他们很早就遇到了发消息会延迟或者说会

664
00:26:24,496 --> 00:26:26,576
讯息会乱的问题然后去解决了

665
00:26:26,848 --> 00:26:28,848
所以这就是你坐在前面你有了经验

666
00:26:28,848 --> 00:26:31,648
虽然这个事看上去都是一个事儿 就是发消息

667
00:26:31,648 --> 00:26:33,488
但是你后座的话

668
00:26:33,488 --> 00:26:34,528
不知道这里会有坑

669
00:26:34,528 --> 00:26:36,608
你就可能在这里面就会陷进去

670
00:26:36,608 --> 00:26:39,648
那么先坐的人会在已经解决了这个问题就会有经验

671
00:26:39,648 --> 00:26:41,728
很多这些东西它并不是简单的说

672
00:26:41,728 --> 00:26:43,168
换一个更好的模型就能解决

673
00:26:43,168 --> 00:26:44,048
它有大量的knowhow

674
00:26:44,048 --> 00:26:45,568
所以我觉得一般来讲

675
00:26:45,568 --> 00:26:46,448
历史上来看

676
00:26:46,448 --> 00:26:49,008
科技领域先发优势还是占多数的

677
00:26:49,008 --> 00:26:50,208
我非常同意

678
00:26:50,208 --> 00:26:53,168
而且我觉得我们看到的都是具体的差距

679
00:26:53,168 --> 00:26:54,768
其实我觉得认知上

680
00:26:54,944 --> 00:26:58,784
有差距或者有迭代也是非常重要的 就比如说

681
00:26:58,784 --> 00:27:02,424
很多后面做的人或者就是在一些具体的事情上

682
00:27:02,424 --> 00:27:04,584
有人会告诉你要规避哪些坎儿

683
00:27:04,584 --> 00:27:06,504
但是自己不走到那一步

684
00:27:06,504 --> 00:27:08,664
有时候人的思维是很难转过来的

685
00:27:08,664 --> 00:27:11,184
就是你可能听到了但是你没有理解它

686
00:27:11,184 --> 00:27:14,104
所以你就没有执行 在有动作的时候就变形了

687
00:27:14,104 --> 00:27:17,464
但另外一种有后发优势的呢 就是说

688
00:27:17,464 --> 00:27:19,984
之前你不知道这件事能做

689
00:27:19,984 --> 00:27:22,896
但有的时候你知道 第一它能做

690
00:27:22,896 --> 00:27:27,576
第二 用这么多人 这么多钱 用这个方法就可以做到

691
00:27:27,576 --> 00:27:30,576
这个是事实上有后发优势的

692
00:27:30,576 --> 00:27:33,376
其实我为什么认为国产做大模型

693
00:27:33,376 --> 00:27:35,656
可能没有大家想的那么悲观和难呢

694
00:27:35,656 --> 00:27:37,056
也是基于这个假设

695
00:27:37,056 --> 00:27:39,736
很多人都拿哥伦布去新大陆打比方

696
00:27:39,736 --> 00:27:41,016
我觉得这是贴切的

697
00:27:41,016 --> 00:27:42,456
当你不知道有新大陆

698
00:27:42,456 --> 00:27:44,056
也不知道新大陆有多远

699
00:27:44,056 --> 00:27:47,336
也不知道新大陆是不是必须得坐飞机才能去的时候

700
00:27:47,336 --> 00:27:49,496
其实你是冒很大的风险

701
00:27:49,496 --> 00:27:51,984
但是当你知道新大陆就在西边

702
00:27:51,984 --> 00:27:56,304
用这样大的一艘船带两个月的集养 坐船就可以去的时候

703
00:27:56,304 --> 00:27:57,584
这就变得非常重要了

704
00:27:57,584 --> 00:27:58,984
就当年原子弹其实是一样的

705
00:27:58,984 --> 00:28:01,784
原子弹能炸其实就是一个非常关键的信息

706
00:28:01,784 --> 00:28:04,784
我觉得现在大模型做到大概这个参数量

707
00:28:04,784 --> 00:28:06,784
这个与Data Set的大小

708
00:28:06,784 --> 00:28:08,664
它就能够出现这样的能力

709
00:28:08,664 --> 00:28:11,664
这其实也是一个很重要的确定性信息

710
00:28:11,664 --> 00:28:16,064
所以我觉得大家在追赶上面其实是有很多可以节省时间的

711
00:28:16,064 --> 00:28:18,984
现在大家肯定就用GPT这样的预训链文本的技术了

712
00:28:18,984 --> 00:28:21,304
就不会再用BERT这种双边升神的技术了

713
00:28:21,584 --> 00:28:23,064
这就是一个典型

714
00:28:23,064 --> 00:28:25,464
所以我觉得这里面是可以朝走一些弯路的

715
00:28:25,464 --> 00:28:27,024
当然在那个里面

716
00:28:27,024 --> 00:28:29,304
比如说在数据清洗啊

717
00:28:29,304 --> 00:28:31,264
Infra啊这些地方的很多

718
00:28:31,264 --> 00:28:34,584
Knowhow我觉得也是没法说略的

719
00:28:34,584 --> 00:28:36,904
肯定要去精力去探索这个Knowhow的

720
00:28:36,904 --> 00:28:41,144
所以为什么比如说像王辉文老王他选择立刻开始呢

721
00:28:41,144 --> 00:28:43,024
也是基于一个很朴素的心灵

722
00:28:43,024 --> 00:28:46,784
既然已经对这个革命它的尺度它的规模

723
00:28:46,784 --> 00:28:49,504
有了充分的信任信仰之后

724
00:28:49,504 --> 00:28:51,184
那早开始总比晚开始要好

725
00:28:51,184 --> 00:28:51,376
因为早开始就已经有了充分的信任

726
00:28:51,376 --> 00:28:53,776
因为你正好提到中国的大模型了

727
00:28:53,776 --> 00:28:55,616
然后我看中国最近也是

728
00:28:55,616 --> 00:28:58,116
一个是大厂的大模型在密集发布

729
00:28:58,116 --> 00:29:01,516
比如说百度、阿里、华为都在发布

730
00:29:01,516 --> 00:29:04,756
另外是中国有一些上一批科技创业的人

731
00:29:04,756 --> 00:29:07,896
互联网跟移动互联网创业的成功者

732
00:29:07,896 --> 00:29:09,696
他们也在做大模型

733
00:29:09,696 --> 00:29:11,796
比如说你刚刚提到王会文的公司

734
00:29:11,796 --> 00:29:13,496
还有王小川的公司

735
00:29:13,496 --> 00:29:16,236
那贾阳青跟李士飞之前说要做大模型

736
00:29:16,236 --> 00:29:18,836
我看他们现在做的好像也不算是大模型

737
00:29:18,836 --> 00:29:19,836
算是应用

738
00:29:19,952 --> 00:29:23,592
可不可以跟大家介绍一下现在大家做的大模型

739
00:29:23,592 --> 00:29:27,832
分别是什么 哪些是大模型 哪些可能是我们理解有误

740
00:29:27,832 --> 00:29:30,432
这个事情也是在不断地变化的

741
00:29:30,432 --> 00:29:32,472
目前来看 比如说这些大厂

742
00:29:32,472 --> 00:29:36,472
不管是百度 字节 阿力 腾讯

743
00:29:36,472 --> 00:29:40,792
包括商汤 360 出门问问 昆仑万维

744
00:29:40,792 --> 00:29:42,832
这些其实是说要做一个大模型

745
00:29:42,832 --> 00:29:44,432
或者说是大家理解的这种

746
00:29:44,624 --> 00:29:49,784
几十亿上百亿参数的能够解决很多NLP和通用

747
00:29:49,784 --> 00:29:51,544
领域的问题的这种大模型

748
00:29:51,544 --> 00:29:56,024
那这里面比如说像王辉文王小川像智普这些

749
00:29:56,024 --> 00:29:58,384
其实也都是在做大模型这样的事情

750
00:29:58,384 --> 00:30:00,984
智普是支援分拆出来的

751
00:30:00,984 --> 00:30:02,504
唐杰老师带队的团队

752
00:30:02,504 --> 00:30:05,824
这些我觉得是比较明确就是说做一个比较像

753
00:30:05,824 --> 00:30:08,584
GBT3.5或者GBT4这样的大模型

754
00:30:08,584 --> 00:30:13,464
但比如说像杨青是要做一个偏middleware的创业公司

755
00:30:13,464 --> 00:30:13,632
那这些都是在做一个比较像的一个模型

756
00:30:13,632 --> 00:30:16,312
当然他有一个宣传新闻内容哈

757
00:30:16,672 --> 00:30:19,112
就是我觉得在这过程中肯定大家有发现大模型

758
00:30:19,112 --> 00:30:20,152
是不是适合我做

759
00:30:20,152 --> 00:30:23,712
以及说是不是现在做还有最好的机会和时机去做

760
00:30:23,952 --> 00:30:26,352
我觉得这肯定很多人会兼人兼之

761
00:30:26,512 --> 00:30:28,432
有人会觉得可能不适合我做的机会

762
00:30:28,432 --> 00:30:30,192
我去做更加一个适合我做的机会

763
00:30:30,192 --> 00:30:31,032
这都很正常

764
00:30:31,312 --> 00:30:35,152
同样现在大家也是因为只看到了一个把大模型

765
00:30:35,152 --> 00:30:39,632
做出来先有chat gpt才能够去延展的这么一个逻辑

766
00:30:39,912 --> 00:30:42,392
但我完全可以想象假设大家后来发现

767
00:30:42,528 --> 00:30:45,568
比如说第一有了一个很好用的大模型

768
00:30:45,848 --> 00:30:48,368
但是可能会给很多人的做法会变得不太一样

769
00:30:48,368 --> 00:30:51,328
因为现在大家是都没有去抢到这样一个头筹嘛

770
00:30:51,328 --> 00:30:54,088
但如果有人已经做出来一个足够好的大模型

771
00:30:54,088 --> 00:30:57,648
那可能有了团队就会想那我是不是转去做应用会更好

772
00:30:57,968 --> 00:31:03,248
第二就是说是不是只有做大模型才是认知现在的AGI

773
00:31:03,608 --> 00:31:05,808
或者未来的AGI能力的唯一途径

774
00:31:06,408 --> 00:31:09,568
也许我们会有别的方式去理解这件事情

775
00:31:09,808 --> 00:31:12,808
所以也许有人发现其实我没必要做个大模型

776
00:31:12,808 --> 00:31:14,488
但是目前来看呢

777
00:31:14,488 --> 00:31:17,168
就好比说目前只有坐船能够去美洲

778
00:31:17,168 --> 00:31:18,808
所以大家先都得造船

779
00:31:18,808 --> 00:31:20,648
也许有一天大家有飞机了

780
00:31:20,648 --> 00:31:21,728
那就不用造船了

781
00:31:21,728 --> 00:31:23,568
但目前来看只有坐船才行

782
00:31:23,568 --> 00:31:24,768
所以大家都得造船

783
00:31:24,768 --> 00:31:26,248
但到了美洲之后干嘛

784
00:31:26,248 --> 00:31:27,208
那也不一定

785
00:31:27,208 --> 00:31:28,768
有的去种棉花

786
00:31:28,768 --> 00:31:30,088
有的去挖煤炭

787
00:31:30,088 --> 00:31:31,928
但是大家说你现在船都没有

788
00:31:31,928 --> 00:31:33,888
那你都没法去开始这件事儿

789
00:31:33,888 --> 00:31:35,688
也有可能开通了一条航线

790
00:31:35,688 --> 00:31:37,648
泰坦尼克号将来要坐渡船

791
00:31:37,648 --> 00:31:38,768
那你就不用自己造船

792
00:31:38,768 --> 00:31:39,504
都有可能

793
00:31:39,504 --> 00:31:42,784
现在就是说大家都没有船 所以大家都先第一反应自己造

794
00:31:42,784 --> 00:31:46,704
这个是很正常的情况 在美国现在大家其实不怎么去

795
00:31:46,704 --> 00:31:50,544
有独立做大模型的新公司了 是因为已经有几条固定航线了

796
00:31:50,544 --> 00:31:53,504
有OpenAI号 有这个cloud号 还有这个

797
00:31:53,504 --> 00:31:57,024
Cohere或者是Bard这些 就是大家发现啊这有几条航线了

798
00:31:57,024 --> 00:32:00,384
那我干脆就去想去美洲之后干嘛呢 就是做应用了

799
00:32:00,384 --> 00:32:04,304
那中国的大模型你觉得未来是一个怎么样的格局

800
00:32:04,304 --> 00:32:07,424
可能是一家独大还是说多家

801
00:32:07,728 --> 00:32:10,128
我觉得这个问题肯定不只是中国

802
00:32:10,128 --> 00:32:13,248
包括全世界的角度都是一个还不知道的问题

803
00:32:13,248 --> 00:32:15,848
这是一个billion dollar甚至是trillion dollar
question

804
00:32:15,848 --> 00:32:18,048
我觉得它是一个光谱

805
00:32:18,048 --> 00:32:20,848
比如说集中度最高的形式可能像google

806
00:32:20,848 --> 00:32:24,248
google一家占了93%的solo引擎份额

807
00:32:24,248 --> 00:32:28,248
如果大模型第一它是一个2C为主的场景

808
00:32:28,248 --> 00:32:32,848
就比如说可能以后有很多人都会用一个像shadow gdt这样的助理

809
00:32:32,848 --> 00:32:36,240
且它的技术始终是比较难的

810
00:32:36,240 --> 00:32:38,920
就是说第一名始终有比较大的领先优势

811
00:32:38,920 --> 00:32:43,600
那么我可以想象可能大部分人最后都只用某一个最领先的助手

812
00:32:43,600 --> 00:32:45,720
可能是chatterGBT可能是某一家

813
00:32:46,160 --> 00:32:48,880
因为我没有道理去用一个第二名的

814
00:32:48,880 --> 00:32:51,440
至于跟solar引擎如果你都超不过google

815
00:32:51,440 --> 00:32:52,320
我肯定没法用你

816
00:32:52,320 --> 00:32:53,760
哪怕你能超过google

817
00:32:53,760 --> 00:32:54,840
只要你超过的不是太多

818
00:32:54,840 --> 00:32:55,720
我也没有动力用

819
00:32:56,080 --> 00:32:58,960
所以这就是最收敛的叫赢家通吃的格局

820
00:32:58,960 --> 00:33:04,480
那如果说第一是openm没办法长期保持一个特别遥遥领先的状态

821
00:33:04,592 --> 00:33:09,112
我们使用大猿模型主要的场景是通过2b的应用来使用

822
00:33:09,112 --> 00:33:12,032
而不是直接去用一个shared gpt这样的助手

823
00:33:12,032 --> 00:33:14,592
那么它也有可能形成一个公有云这样的格局

824
00:33:14,992 --> 00:33:17,192
就是第一梯队可能有2-3家

825
00:33:17,192 --> 00:33:18,952
3-4家都还不错

826
00:33:18,952 --> 00:33:19,752
各有特点

827
00:33:19,752 --> 00:33:21,232
比如说你的擅长图像

828
00:33:21,232 --> 00:33:22,352
我的擅长推理

829
00:33:22,352 --> 00:33:27,232
那么这样用户用的主要是用这些大模型作为底层勾造的应用

830
00:33:27,672 --> 00:33:29,232
那这样就有可能像公有云一样

831
00:33:29,232 --> 00:33:30,752
比如说有的跑在aws

832
00:33:30,752 --> 00:33:31,832
有的跑在azure

833
00:33:31,832 --> 00:33:33,832
有的跑在google cloud service上

834
00:33:33,904 --> 00:33:34,904
这些都有可能

835
00:33:35,184 --> 00:33:38,984
还有一种可能就是大模型这事现在很厉害

836
00:33:38,984 --> 00:33:41,904
但是逐渐变成一个commodity变成开源的

837
00:33:42,104 --> 00:33:44,704
很多人都是自己用一个开源的

838
00:33:44,704 --> 00:33:46,024
加以微调之后

839
00:33:46,024 --> 00:33:48,744
部署在自己的云或者服务器上

840
00:33:48,944 --> 00:33:51,664
这个时候可能就变成了一种百家争鸣

841
00:33:51,824 --> 00:33:54,264
或者说有各种各样的开源模型的阶段

842
00:33:54,424 --> 00:33:57,104
这个时候也许openai它是一个开创者

843
00:33:57,104 --> 00:33:58,664
但也许之后它的大量技术

844
00:33:58,664 --> 00:34:00,544
变成人类所共有的技术

845
00:34:00,544 --> 00:34:02,264
这也是很多时候经常发生的

846
00:34:02,448 --> 00:34:06,608
比如说当时人脸识别出来的时候 其实也是一个石破天惊的技术

847
00:34:06,608 --> 00:34:11,408
但后面人脸识别每个应用都有 你也不会特别介意他用了谁的人脸识别技术

848
00:34:11,408 --> 00:34:15,008
这种情况下它往往意味着技术它有个终点

849
00:34:15,008 --> 00:34:18,208
或者说大家都做到了GPT-4的能力都差不多了

850
00:34:18,208 --> 00:34:20,608
但是也没法出来一个跟上一个台阶的了

851
00:34:20,608 --> 00:34:23,808
所以我觉得这里面很看未来这个技术终点在哪里

852
00:34:23,808 --> 00:34:27,208
主要是to C还是to B 其他家追赶的速度怎么样

853
00:34:27,208 --> 00:34:30,008
所以其实都有可能 这里面其实不好讲

854
00:34:30,288 --> 00:34:32,688
其实在聊到中美大模型的时候

855
00:34:32,688 --> 00:34:34,488
大家都会谈到芯片嘛

856
00:34:34,488 --> 00:34:35,648
你刚刚也提到了

857
00:34:35,648 --> 00:34:37,728
比如说现在很多中国的大模型

858
00:34:37,728 --> 00:34:42,528
它们的得分从二三十分上升到了五十多分、六十多分

859
00:34:42,528 --> 00:34:43,848
其实在我理解

860
00:34:43,848 --> 00:34:45,688
之前有很多中国的大厂

861
00:34:45,688 --> 00:34:48,248
它们是有囤很多A100芯片的

862
00:34:48,248 --> 00:34:51,928
那如果说未来这个芯片不能持续地供应

863
00:34:51,928 --> 00:34:55,008
而美国的芯片还在持续地进化中

864
00:34:55,008 --> 00:34:56,768
比如说H100会出来

865
00:34:56,768 --> 00:35:01,568
那中国的芯片它的这个性能或者说它跟不上

866
00:35:01,568 --> 00:35:06,968
那你觉不觉得它可能会是一个越拉越远的战局

867
00:35:06,968 --> 00:35:09,968
我觉得就还是要从几个方面去想

868
00:35:09,968 --> 00:35:13,888
第一个就是是不是这是一个百公里长跑

869
00:35:13,888 --> 00:35:15,328
还是一个百米塞跑

870
00:35:15,328 --> 00:35:18,608
比如说如果它是一个很快会遇到瓶颈的事情

871
00:35:18,608 --> 00:35:20,128
那可能现有的算力就够了

872
00:35:20,128 --> 00:35:22,208
你也许不用训练那么大的模型

873
00:35:22,208 --> 00:35:24,528
或者说就训练现在这么大的就可以了

874
00:35:24,528 --> 00:35:26,128
另外一种情况是它

875
00:35:26,160 --> 00:35:27,520
以后要越来越大越来越大

876
00:35:27,520 --> 00:35:30,200
所以现在的芯片就不能用了

877
00:35:30,560 --> 00:35:32,960
虽然我们现在很多人觉得可能是后遗者可能

878
00:35:32,960 --> 00:35:35,040
但是首先它是有多种可能性存在的

879
00:35:35,480 --> 00:35:39,280
第二就是说训练的效率和方式方法

880
00:35:39,280 --> 00:35:40,880
本身也是在不断提高的

881
00:35:41,440 --> 00:35:44,800
在之前需要这么多顺利训练的模型

882
00:35:44,800 --> 00:35:47,360
在现在也许会有更好的方式去训练

883
00:35:47,640 --> 00:35:49,800
第三就是当然说的这些

884
00:35:49,800 --> 00:35:53,120
我们本质上肯定是希望我们的半导体工业能够发展

885
00:35:53,240 --> 00:35:54,680
我们有一天也能够

886
00:35:54,736 --> 00:35:59,216
有世界先进水平的GPU也好或者AI芯片去进行这种训练

887
00:35:59,576 --> 00:36:02,296
当然好的情况肯定是说要么是中美关系缓和了

888
00:36:02,336 --> 00:36:04,576
我们同样能够买到这些先进的芯片

889
00:36:04,696 --> 00:36:08,376
有可能同时也是说我们的芯片公司真的也做出来了

890
00:36:08,376 --> 00:36:10,216
可以跟英伟达媲美的这种芯片

891
00:36:10,696 --> 00:36:12,056
我觉得这肯定是好的情况

892
00:36:12,056 --> 00:36:16,576
如果不好的情况那就是只有智力更生用这种方法去尝试解决了

893
00:36:17,096 --> 00:36:18,416
但我想说的是

894
00:36:18,656 --> 00:36:21,096
我觉得当我们采取追赶的时候呢

895
00:36:21,096 --> 00:36:23,536
我们往往会把一些问题给简单化

896
00:36:23,856 --> 00:36:25,856
A芯片现在是个显然的问题

897
00:36:25,856 --> 00:36:28,896
就好像说买了1万块芯片A100就能解决这个问题一样

898
00:36:28,896 --> 00:36:30,016
其实我觉得不是这样的

899
00:36:30,016 --> 00:36:34,056
就是现在我们在数据芯片infra

900
00:36:34,056 --> 00:36:36,616
算法这方面其实有很多需要去解决的

901
00:36:36,616 --> 00:36:40,816
我觉得不宜把这个问题简单化成一个买1万块芯片

902
00:36:40,816 --> 00:36:42,816
好像说只要花钱就能解决

903
00:36:42,816 --> 00:36:46,376
实际上我遇到了这些真正在好好做这件事情的人

904
00:36:46,376 --> 00:36:47,576
其实他们都会意识到

905
00:36:47,576 --> 00:36:49,976
第一你哪怕是要1万块A100

906
00:36:49,976 --> 00:36:51,976
国内现在也是有这样的数量的

907
00:36:52,288 --> 00:36:55,928
第二呢就是现在我们离用好1万块A100那还差很远

908
00:36:56,248 --> 00:36:59,808
第三这里面其实每一个环节里都有很多要解决的问题

909
00:37:00,088 --> 00:37:03,448
那么你要去探索怎么去做一个

910
00:37:03,568 --> 00:37:06,088
比如3.5水平的模型其实不用1万块A100

911
00:37:06,088 --> 00:37:09,968
因为你想想看GBT-3其实是在1万块V100上训练的

912
00:37:10,088 --> 00:37:13,848
GBT-3.5就是所谓的instructor GBT是一个小很多的模型

913
00:37:13,848 --> 00:37:18,088
就它并不一定是一定要训练这么大的参数量才能训练出来的模型

914
00:37:18,568 --> 00:37:20,808
所以这里面其实有很多

915
00:37:20,896 --> 00:37:24,896
跟芯片一样重要 甚至在短期可能比芯片更重要的问题

916
00:37:25,256 --> 00:37:27,536
我觉得这里面问题还是比较复杂的

917
00:37:28,136 --> 00:37:33,256
中文互联网的数据你觉得它会是一个问题吗

918
00:37:33,656 --> 00:37:34,936
我觉得完全不是一个问题

919
00:37:34,936 --> 00:37:39,736
因为简单的来想就是chattgbt并没有用到什么独有的中文数据

920
00:37:39,736 --> 00:37:42,256
它就已经在中文上具有这么好的表现

921
00:37:42,536 --> 00:37:45,256
当然gbt4可能多了很多独有的东西

922
00:37:45,256 --> 00:37:47,016
或者说它有很多微调的内容

923
00:37:47,216 --> 00:37:50,136
但如果你从pre-training的那部分来看的话

924
00:37:50,864 --> 00:37:53,104
wikipedia common ground

925
00:37:53,104 --> 00:37:57,064
对呢paper codecs这些其实很大量是通过英文

926
00:37:57,064 --> 00:37:58,784
然后泛化到中文来的

927
00:37:58,784 --> 00:38:02,504
所以在这里面我觉得至少第一原理上不存在说

928
00:38:02,504 --> 00:38:04,504
openai有什么我们没有的中文数据

929
00:38:04,504 --> 00:38:08,824
但是怎么去用现有的中文数据去进行清洗

930
00:38:08,824 --> 00:38:12,704
包括后面的这种标注进行human feedback

931
00:38:12,704 --> 00:38:15,144
这些knowhow反而是非常非常重要的

932
00:38:15,144 --> 00:38:18,464
这个我觉得是一个我们需要解决的工程问题

933
00:38:18,464 --> 00:38:20,824
但不是说我们没有这些预料的问题

934
00:38:20,824 --> 00:38:20,992
我们需要解决的问题是

935
00:38:20,992 --> 00:38:26,112
之前每次你见我啊,你都会问我一个问题,我最近见过的最厉害的人是谁?

936
00:38:26,112 --> 00:38:31,752
你这次来美国,你觉得你见到了哪些厉害的人,他们有给你哪些启发?

937
00:38:31,752 --> 00:38:39,952
嗯,也不好说最厉害的人是谁吧,但是比如说一路下来我们在湾区,在波士顿,在纽约,匹
兹堡,

938
00:38:39,952 --> 00:38:43,792
其实跟很多做AI的这些研究员,包括

939
00:38:43,920 --> 00:38:50,520
工程数据沟通交流,我觉得还是从很多具体时间的角度去学习

940
00:38:50,520 --> 00:38:53,560
怎么样做大模型,包括说视觉模型

941
00:38:53,560 --> 00:38:56,280
以及现在大家关注的一些重点难点是什么

942
00:38:56,280 --> 00:38:57,360
我觉得是挺有帮助

943
00:38:57,840 --> 00:39:01,320
我刚才说到如果说我们从隔着一定距离去看

944
00:39:01,320 --> 00:39:03,600
就容易把这个问题给简单化

945
00:39:04,160 --> 00:39:06,520
简单化成比如说我怎么买到1万块芯片

946
00:39:06,520 --> 00:39:09,720
或者说我怎么样挖到比如OpenAI的人

947
00:39:09,720 --> 00:39:12,120
或者说我怎么样去

948
00:39:12,192 --> 00:39:13,272
收集雨料什么的

949
00:39:13,272 --> 00:39:14,952
但是我觉得跟他们交流下来

950
00:39:14,952 --> 00:39:18,552
就发现这里面有很多工程的细节都是很重要的

951
00:39:18,552 --> 00:39:21,832
以及说为什么它是一个这样的由来

952
00:39:21,832 --> 00:39:23,032
中间经历了什么故事

953
00:39:23,032 --> 00:39:24,712
我觉得这些是把它拆析了看

954
00:39:24,712 --> 00:39:26,592
会看到很多细节和脉络

955
00:39:26,832 --> 00:39:27,792
当然对我们的角度

956
00:39:27,792 --> 00:39:29,592
首先是想发现未来创业者

957
00:39:29,792 --> 00:39:32,112
我们其实不是说要去自己做一个大冒险

958
00:39:32,312 --> 00:39:33,352
不可能具备那个能力

959
00:39:33,352 --> 00:39:35,952
所以我们只是说想进一步的去探讨

960
00:39:35,952 --> 00:39:37,792
这里面有哪些难点

961
00:39:37,792 --> 00:39:39,272
或者哪些值得注意的地方

962
00:39:39,616 --> 00:39:41,856
整体来讲我觉得还是在学习阶段

963
00:39:41,856 --> 00:39:43,896
实际上你要问我见到最厉害的

964
00:39:43,896 --> 00:39:44,896
我觉得不是人

965
00:39:44,896 --> 00:39:47,736
而是在这个旅程中我们看到了Auto GPT

966
00:39:47,736 --> 00:39:51,576
我觉得Auto GPT是一个让我觉得非常震撼

967
00:39:51,576 --> 00:39:54,416
同时也进一步的加强了忧虑的事情

968
00:39:54,416 --> 00:39:59,216
是因为这种Recursive自己去执行的Demo出来

969
00:39:59,216 --> 00:40:03,296
那么它其实是具备很强的不可控的力量

970
00:40:03,296 --> 00:40:06,976
这里面我觉得AI Safety AI Alignment

971
00:40:06,976 --> 00:40:08,816
这些问题会变得很重要

972
00:40:08,944 --> 00:40:12,144
其实这个旅途中我是最被 old GPT 震惊啊

973
00:40:12,144 --> 00:40:15,064
当然如果我见到 Sam Altman 肯定他会讲一些让我很震惊的话

974
00:40:15,064 --> 00:40:17,344
但可惜我们也见不到 Sam Altman

975
00:40:17,344 --> 00:40:19,704
你要说有一个特别的人讲一句特别的话

976
00:40:19,704 --> 00:40:21,304
我倒觉得没有那样的时刻

977
00:40:21,304 --> 00:40:23,224
但是有很多人讲了很多有意思的东西

978
00:40:23,224 --> 00:40:24,944
我是觉得挺有意思的

979
00:40:24,944 --> 00:40:29,104
你刚提到你来慢慢理解了 GPT 它是怎么被做出来的

980
00:40:29,104 --> 00:40:31,344
它中间经历了哪些重要的时刻

981
00:40:31,344 --> 00:40:33,504
我想我们的听众可能也会很感兴趣

982
00:40:33,504 --> 00:40:35,904
能不能大概的介绍一下几个关键节点

983
00:40:36,208 --> 00:40:40,248
像现在微软它是可以每天训一个GPT-3

984
00:40:40,248 --> 00:40:41,648
就是训练一个GPT-3

985
00:40:41,648 --> 00:40:43,168
你变成一个顺手就可以做的事情

986
00:40:43,168 --> 00:40:44,208
一天训一个

987
00:40:44,208 --> 00:40:47,328
但是微软自己是没法训练GPT-4的

988
00:40:47,328 --> 00:40:53,568
是需要在Azure那台专门为训练GPT-4打招的超算上才可以训练的

989
00:40:53,568 --> 00:40:57,288
所以你会发现这里面这个训练的难度是高了很多

990
00:40:57,288 --> 00:41:00,168
尤其把这么多算力把它有效的组织起来

991
00:41:00,168 --> 00:41:03,928
这其实是一个很一线很前沿的问题

992
00:41:04,128 --> 00:41:07,768
我很好奇就是为什么微软可以随便训练一个GPT-3呢

993
00:41:08,128 --> 00:41:11,328
就是GPT-3所需要的算力以最近的架构已经很成熟了

994
00:41:11,328 --> 00:41:13,728
你可以直接通过云服务就拥有这样的算力

995
00:41:13,728 --> 00:41:16,368
但GPT-4需要的算力是一个新的级别

996
00:41:16,568 --> 00:41:20,448
比如说其实GPT-4初始的能力更强很多

997
00:41:20,568 --> 00:41:23,688
我看过一些没有经过微调的GPT-4

998
00:41:23,688 --> 00:41:25,088
比如画出来的图像

999
00:41:25,368 --> 00:41:29,328
它是要比现在的GPT-4画出图像更精细很多的

1000
00:41:29,568 --> 00:41:32,128
如果你看了那篇通用人工智能的火花那篇论文

1001
00:41:32,128 --> 00:41:33,848
你发现GPT-4是可以画图的

1002
00:41:33,856 --> 00:41:35,256
比如它里面画了个独角兽

1003
00:41:35,256 --> 00:41:38,656
但是那个已经是经过微调之后的GPT-4画的了

1004
00:41:38,656 --> 00:41:41,336
当没有经过微调的GPT-4画的图

1005
00:41:41,336 --> 00:41:42,696
其实要比那个精细很多

1006
00:41:42,696 --> 00:41:45,016
换句话说GPT-4为了和人类对齐

1007
00:41:45,016 --> 00:41:46,736
牺牲了很多它的能力

1008
00:41:46,736 --> 00:41:49,136
当三巴特们说他们没有在训GPT-5的时候

1009
00:41:49,136 --> 00:41:49,976
我觉得是有道理的

1010
00:41:49,976 --> 00:41:52,336
因为GPT-4现在还是冰山一角

1011
00:41:52,336 --> 00:41:55,056
它能做很多事情我们可能还想象不到

1012
00:41:55,056 --> 00:41:56,736
其实我跟一个朋友在讨论的时候

1013
00:41:56,736 --> 00:41:57,616
我们经常说到

1014
00:41:57,616 --> 00:41:59,536
如果我们现在斩钉截铁地说一件事

1015
00:41:59,536 --> 00:42:00,496
GPT-4做不到

1016
00:42:00,496 --> 00:42:02,256
往往是我们低估了它的能力

1017
00:42:02,336 --> 00:42:04,536
我们还在不断的像AutoGPT这样发现

1018
00:42:04,536 --> 00:42:06,736
它其实可以做很多我们没想到的事情

1019
00:42:06,736 --> 00:42:09,776
其实很多人会忽视的一点就是在

1020
00:42:09,776 --> 00:42:12,616
Instructor GPT训练的这个过程中

1021
00:42:12,616 --> 00:42:16,416
做的数据标注和RLHF这一块

1022
00:42:16,416 --> 00:42:17,696
其实我们可以想一想

1023
00:42:17,696 --> 00:42:20,976
你要在很多专业的领域生成很好的范文

1024
00:42:20,976 --> 00:42:23,976
同时比如说对于像ChatterGPT这样生成的

1025
00:42:23,976 --> 00:42:28,416
某个专业领域的很长很多的多个答案进行排序

1026
00:42:28,416 --> 00:42:29,736
这其实不是个简单的事情

1027
00:42:29,984 --> 00:42:32,424
比如说你问他一个生物的问题 他给你几种回答

1028
00:42:32,424 --> 00:42:35,864
然后你说哪个更好 这其实需要很多专业能力和技能

1029
00:42:35,864 --> 00:42:40,664
这之前本来大家觉得可能是一个需要成千上万人干好多年的事情

1030
00:42:40,664 --> 00:42:43,464
没想到居然是几十一百个人干了两个月的事情

1031
00:42:43,464 --> 00:42:47,864
在这个里面像Surge, Scale这样的公司扮演的作用是很大的

1032
00:42:47,864 --> 00:42:50,864
你能把这件事高效的大规模的去做

1033
00:42:50,864 --> 00:42:55,104
这个其实是一个不是所谓的火箭科学 不是rocket science

1034
00:42:55,104 --> 00:42:57,944
但是它是一个很难的工程问题

1035
00:42:58,208 --> 00:43:02,528
所以在这些领域,我就说有很多问题,当我们真的要去做的时候,可能会发现

1036
00:43:02,528 --> 00:43:07,648
不是说简单买了芯片插上就可以迅速出来,它会有很多的工程具体要解决的问题

1037
00:43:07,648 --> 00:43:11,848
所以我觉得这些都是很有意思的看到的更全面的东西吧

1038
00:43:11,848 --> 00:43:16,448
你刚提到GPT-4它没有经过微调以前的版本

1039
00:43:16,448 --> 00:43:21,888
比它真正放出来的要强大很多,因为在那篇论文里它也写到了,就是说它其实是

1040
00:43:22,048 --> 00:43:27,128
经历了八个月的安全测试,它是为了让它的安全标准不停地能达到

1041
00:43:27,128 --> 00:43:31,048
来适应人类不至于让它比如说有种族歧视

1042
00:43:31,048 --> 00:43:33,648
或者有一些它不应该出现的话

1043
00:43:33,648 --> 00:43:37,648
但是现在我看业界大家也没有讨论就是GBT5的

1044
00:43:37,648 --> 00:43:39,568
这种出现的可能性啊

1045
00:43:39,568 --> 00:43:44,808
未来比如说这个GBT它如果还要去进化,就是它的这种能力

1046
00:43:44,808 --> 00:43:49,688
它会是什么呢?它会是把那个魏焉歌的版本再放出来一些还是什么?

1047
00:43:49,688 --> 00:43:50,568
我不太理解啊

1048
00:43:50,816 --> 00:43:53,816
这很多问题只有Sam Altman能回答我感觉

1049
00:43:53,816 --> 00:43:56,816
但我觉得alignment会是一个很重要的话题

1050
00:43:56,816 --> 00:43:59,216
因为能力越大责任越大

1051
00:43:59,216 --> 00:44:03,136
尤其是当AutoGPT它可以选择工具执行外界任务

1052
00:44:03,136 --> 00:44:05,736
并且自发去执行的事情发生了

1053
00:44:05,736 --> 00:44:08,376
OpenAI让我觉得很厉害的一点就是

1054
00:44:08,376 --> 00:44:10,376
他们一开始是一个研究机构

1055
00:44:10,376 --> 00:44:13,136
一开始的时候其实是研究的很发散的

1056
00:44:13,136 --> 00:44:14,096
很多话题都有研究

1057
00:44:14,096 --> 00:44:15,256
他们也研究打游戏

1058
00:44:15,256 --> 00:44:17,576
他们也研究各种的领域的AI问题

1059
00:44:17,576 --> 00:44:19,808
但是他们逐渐地

1060
00:44:19,808 --> 00:44:23,208
中间发生了一次相变变成了一个做产品的公司

1061
00:44:23,608 --> 00:44:26,688
其实GPT-4发布的时候我听到两种声音

1062
00:44:26,888 --> 00:44:28,488
有的人说很失望

1063
00:44:28,488 --> 00:44:30,888
因为诶,居然就做了一个读图

1064
00:44:30,888 --> 00:44:32,128
都没有做纹身图

1065
00:44:32,128 --> 00:44:33,408
也没有做视频

1066
00:44:33,528 --> 00:44:35,328
也没有做其他的多模态什么的

1067
00:44:35,328 --> 00:44:37,088
并且这个图的API还没出来

1068
00:44:37,488 --> 00:44:39,328
好像主要的还是这个文字

1069
00:44:39,328 --> 00:44:40,168
觉得有点失望

1070
00:44:40,168 --> 00:44:41,208
因为没什么新东西

1071
00:44:41,608 --> 00:44:43,168
但另外一批人觉得很厉害

1072
00:44:43,168 --> 00:44:44,728
比如说像我们去测试了很多

1073
00:44:44,728 --> 00:44:45,928
原来战略物打不好的问题

1074
00:44:45,928 --> 00:44:46,888
发现它能打好了

1075
00:44:47,024 --> 00:44:50,024
当然后面插件啊 Otto GPT 直接出来就更厉害对吧

1076
00:44:50,024 --> 00:44:54,064
我觉得这恰恰反映了说OpenAI 在用一种做好产品

1077
00:44:54,064 --> 00:44:57,984
做一个上亿人使用的基础产品的态度去做这件事情

1078
00:44:57,984 --> 00:44:59,664
如果是个学术研究机构

1079
00:44:59,664 --> 00:45:03,064
它会很有动力去第一个发视频到文字啊

1080
00:45:03,064 --> 00:45:05,824
或者说文字到视频或者什么的这种研究结果

1081
00:45:05,824 --> 00:45:08,984
但是OpenAI选择了把已有的做扎实做好

1082
00:45:08,984 --> 00:45:10,464
这个是很不容易的

1083
00:45:10,464 --> 00:45:13,504
我觉得在这个里面alignment是一个

1084
00:45:13,600 --> 00:45:17,640
尽管被强调,可能还是比较被低估的一个话题

1085
00:45:17,640 --> 00:45:21,720
举个例子,应该跟什么样的价值观去alignment

1086
00:45:21,720 --> 00:45:27,320
现在可能本质上还是跟美国加州的一群白人男性去alignment

1087
00:45:27,320 --> 00:45:28,840
全世界有很多文明

1088
00:45:28,840 --> 00:45:30,880
在一个文明完全OK的事情

1089
00:45:30,880 --> 00:45:33,240
在另外一个文明可能是非常不OK的

1090
00:45:33,240 --> 00:45:36,160
同样我们的价值观变化也是很快的

1091
00:45:36,160 --> 00:45:38,320
十几年前我在美国读书的时候

1092
00:45:38,320 --> 00:45:40,920
同性婚姻还是非常禁忌的话题

1093
00:45:40,920 --> 00:45:43,520
当时奥巴马竞选其实都是不允许同性婚姻

1094
00:45:43,568 --> 00:45:46,568
但是现在同性婚姻当然是一个大家都很欢迎的价值观

1095
00:45:46,568 --> 00:45:49,768
那这个过程中你会发现AI跟什么对齐

1096
00:45:49,768 --> 00:45:51,768
如何去动态的去调整

1097
00:45:51,768 --> 00:45:53,768
其实都会有很多的问题

1098
00:45:53,768 --> 00:45:57,968
那么在这个过程中我觉得也可能需要一些跨国的合作

1099
00:45:57,968 --> 00:46:00,968
就像我们有核不扩散的国际公约一样

1100
00:46:00,968 --> 00:46:03,168
但核不扩散是好检验的

1101
00:46:03,168 --> 00:46:05,168
因为你做核实验天上有微星看着

1102
00:46:05,168 --> 00:46:07,768
但是你在你的计算机里跑着最先进的AI

1103
00:46:07,768 --> 00:46:09,760
实际上很难被看出来

1104
00:46:09,760 --> 00:46:12,720
但这个里面怎么样对于这种我们又未知

1105
00:46:12,720 --> 00:46:15,680
同时又有可能很大破坏的应用去进行监管

1106
00:46:15,680 --> 00:46:17,440
进行安全的保障

1107
00:46:17,440 --> 00:46:19,360
虽然那封公开信传得很广

1108
00:46:19,360 --> 00:46:21,520
我是不赞同公开信里面说的停止研究

1109
00:46:21,520 --> 00:46:23,640
因为我觉得好人停止研究坏人继续干嘛

1110
00:46:23,640 --> 00:46:26,760
而且并且我觉得你只有继续研究才知道它是怎么回事

1111
00:46:26,760 --> 00:46:29,720
但是我觉得确实我们面临的东西

1112
00:46:29,720 --> 00:46:32,000
其实是可能带来很大的破坏的

1113
00:46:32,000 --> 00:46:33,480
并且我悲观的觉得

1114
00:46:33,480 --> 00:46:36,200
可能得产生一两次大的破坏之后

1115
00:46:36,200 --> 00:46:39,200
人们才会真正的去把这个事情提到日程上来

1116
00:46:39,296 --> 00:46:43,256
就跟我们核泄漏之后大家可能才会制定核安全法

1117
00:46:43,256 --> 00:46:45,976
包括数据泄漏之后才会制定数据安全法一样

1118
00:46:45,976 --> 00:46:48,656
我觉得可能得经历一些大的事故

1119
00:46:48,656 --> 00:46:51,056
因为这里面它因为没有实体嘛

1120
00:46:51,056 --> 00:46:52,696
所以往往它会被人低估

1121
00:46:52,696 --> 00:46:54,616
就觉得我们把插头拔了就行了

1122
00:46:54,616 --> 00:46:59,456
但实际上它其实现在的能力已经可能造成一些破坏了

1123
00:46:59,456 --> 00:47:00,296
随便举个例子

1124
00:47:00,296 --> 00:47:02,496
比如说上一次美国大选的时候

1125
00:47:02,496 --> 00:47:08,896
其实就指控有敌对国家通过Facebook投放虚假广告来干扰选举结果

1126
00:47:08,896 --> 00:47:08,928
这种情况下

1127
00:47:08,928 --> 00:47:13,328
你想现在的大语言模型是个说服能力可以很强的一个工具

1128
00:47:13,648 --> 00:47:18,768
因为它可以把所有的心理学语言学技巧全部集中起来

1129
00:47:18,928 --> 00:47:21,648
调动全部的这种知识、语料、逻辑

1130
00:47:21,648 --> 00:47:22,848
想去说服一个人

1131
00:47:22,928 --> 00:47:25,368
简单来讲比如说电话诈骗杀猪盘对吧

1132
00:47:25,568 --> 00:47:27,448
现在是比较弱智的骗术

1133
00:47:27,448 --> 00:47:29,248
那以后可能是很强大的骗术

1134
00:47:29,648 --> 00:47:31,128
但是呢进一步的去想

1135
00:47:31,128 --> 00:47:34,448
假设说在一个选举中可以用AI打电话给

1136
00:47:34,448 --> 00:47:36,088
比如说100万个关键选民

1137
00:47:36,088 --> 00:47:37,424
因为其实美国大选

1138
00:47:37,424 --> 00:47:39,864
关键的选民可能就是几万人有研究通过

1139
00:47:39,864 --> 00:47:41,864
因为这几样是都很结果都很紧嘛

1140
00:47:41,864 --> 00:47:42,944
都非常的接近

1141
00:47:43,304 --> 00:47:45,264
那可能我打电话去劝说这100万人

1142
00:47:45,264 --> 00:47:46,704
有一万人改了他的投票

1143
00:47:46,704 --> 00:47:47,944
也许美国总统就变了

1144
00:47:48,344 --> 00:47:50,064
这可能就是非常大的一个变化

1145
00:47:50,464 --> 00:47:52,784
这其实都不用说什么天网啊终结者

1146
00:47:52,784 --> 00:47:53,904
其实就可以说

1147
00:47:54,184 --> 00:47:57,344
人和AI去配合去进行大的破坏

1148
00:47:57,704 --> 00:48:00,184
比如说你看OpenAI的插件系统

1149
00:48:00,344 --> 00:48:03,344
其实是只能够读互联网不能写互联网

1150
00:48:03,472 --> 00:48:05,272
这可能是很重要的安全防范处

1151
00:48:05,272 --> 00:48:07,872
是否则的话每个人都可以生成一堆fake news

1152
00:48:07,872 --> 00:48:09,672
然后直接发到网上去post

1153
00:48:09,912 --> 00:48:12,032
就会发现大量的信息就会充填互联网

1154
00:48:12,032 --> 00:48:15,792
这只是非常简单现有的技术就完全可以做到的事情

1155
00:48:15,792 --> 00:48:20,232
其实你想如果auto gpt这样的应用去调一个发消息的API

1156
00:48:20,232 --> 00:48:22,032
或者一个发内容的一个API

1157
00:48:22,032 --> 00:48:25,392
它完全可以不知疲倦的生成真假难辨的虚假内容

1158
00:48:25,392 --> 00:48:26,712
去填塞整个互联网

1159
00:48:26,912 --> 00:48:29,432
那假设你说用这个对一个人进行诽谤

1160
00:48:29,432 --> 00:48:31,392
或者制造一些虚假的信息

1161
00:48:31,392 --> 00:48:32,672
那岂不是很容易

1162
00:48:32,752 --> 00:48:36,672
这些我们都不谈到说什么AI对人类要什么消灭人的那些

1163
00:48:36,672 --> 00:48:38,712
我觉得那些还是属于偏科幻领域的

1164
00:48:38,712 --> 00:48:41,312
但是在目前它是个强大的语言工具

1165
00:48:41,312 --> 00:48:46,952
而我们又很缺乏对于一个看似形式很完善的谎言的识别能力

1166
00:48:46,952 --> 00:48:48,912
所以这其实是很危险的

1167
00:48:48,912 --> 00:48:53,272
你怎么看马斯克一边主张叫停对大模型的研究

1168
00:48:53,272 --> 00:48:56,432
然后另一边又自己去做一个这样的事儿

1169
00:48:56,432 --> 00:48:59,392
马斯克是一个非常think loud的人

1170
00:48:59,392 --> 00:49:02,384
他是把自己的想法会不加修饰地直接说出来

1171
00:49:02,384 --> 00:49:06,984
包括我听说也有一些openai的早期支持者对于openai现在变成了closea
i

1172
00:49:06,984 --> 00:49:09,544
还是有一些看法和意见的

1173
00:49:09,544 --> 00:49:10,584
closeai

1174
00:49:10,584 --> 00:49:11,864
就是说他没有开源嘛

1175
00:49:11,864 --> 00:49:13,584
对openai不open

1176
00:49:13,584 --> 00:49:14,464
对他不open

1177
00:49:14,464 --> 00:49:16,184
听说是会有些意见的

1178
00:49:16,184 --> 00:49:20,024
但伊隆马斯克肯定是一个最直接不仅要说出来我还要干的人

1179
00:49:20,024 --> 00:49:24,544
那有的人可能不支持说去用别的方式去把这老股卖了呀之类的

1180
00:49:24,544 --> 00:49:26,824
我觉得呢会有个道理啊

1181
00:49:26,824 --> 00:49:29,824
就是我觉得openai说这个技术太危险了

1182
00:49:29,824 --> 00:49:30,832
所以我要

1183
00:49:30,832 --> 00:49:32,592
不能让它开源我觉得也是对的

1184
00:49:32,592 --> 00:49:34,552
因为开源的时候

1185
00:49:34,552 --> 00:49:38,552
我觉得比较适合于这种对它的潜在风险

1186
00:49:38,552 --> 00:49:40,952
已经有个大概概念的一个领域

1187
00:49:40,952 --> 00:49:43,152
在现在对于GBT是这么强大的系统

1188
00:49:43,152 --> 00:49:45,712
如果你连它的能力我们都没有认识清楚的话

1189
00:49:45,712 --> 00:49:48,792
贸然开源可能确实是有很大的风险

1190
00:49:48,792 --> 00:49:49,872
但另外一方面呢

1191
00:49:49,872 --> 00:49:51,752
我觉得也有很多商业意义上

1192
00:49:51,752 --> 00:49:54,352
或者是舆论意义上的这种竞争

1193
00:49:54,352 --> 00:49:56,352
这种吵吵嚷嚷总是有很多的

1194
00:49:56,352 --> 00:49:57,744
这里面关键还是说

1195
00:49:57,744 --> 00:49:59,504
本质上我是比较相信开源的

1196
00:49:59,504 --> 00:50:01,464
但是我觉得肯定不是从一开始就开源

1197
00:50:01,904 --> 00:50:03,784
可能还是我们要对它有更多的了解

1198
00:50:04,264 --> 00:50:07,384
至少我们知道怎么防御之后开源我觉得会比较好

1199
00:50:07,664 --> 00:50:10,304
我觉得OpenAI的股权设置也很有意思

1200
00:50:10,304 --> 00:50:14,384
Sam本人他其实是没有任何OpenAI的股权的

1201
00:50:14,384 --> 00:50:16,304
如果我没有记错的话应该是零股权

1202
00:50:16,584 --> 00:50:20,264
他们的几个科学家像Elia还有那个叫Greg Brockman

1203
00:50:20,544 --> 00:50:22,464
其实主要的股权是给这些科学家的

1204
00:50:22,664 --> 00:50:25,544
他的公司设置最开始也是从非盈利息公司

1205
00:50:25,712 --> 00:50:28,992
後面是在非盈利下面又設了一個盈利性公司

1206
00:50:28,992 --> 00:50:30,312
如果我沒有記錯的話

1207
00:50:30,312 --> 00:50:32,712
他盈利性那一部分如果有股權

1208
00:50:32,712 --> 00:50:34,192
就是有財務回報的話

1209
00:50:34,192 --> 00:50:38,032
那麼他在董事會上他的投票權是沒有的

1210
00:50:38,032 --> 00:50:41,792
但是Sam選擇了不要錢,要投票權

1211
00:50:41,792 --> 00:50:45,392
我是在想為什麼他要去做這樣一種設置

1212
00:50:45,392 --> 00:50:48,592
是不是說未來就比如說要實現AGI

1213
00:50:48,592 --> 00:50:52,112
他前面還是要忍受很長時間很久的不盈利

1214
00:50:52,304 --> 00:50:54,624
然後去做到他最終的那個目標的

1215
00:50:54,624 --> 00:50:57,104
他很怕這個事情被商業所帶歪

1216
00:50:57,704 --> 00:50:59,264
我們這都是局外人

1217
00:50:59,264 --> 00:51:01,104
甚至都不是很接近的局外人

1218
00:51:01,104 --> 00:51:02,944
只有去從他表面去看

1219
00:51:03,544 --> 00:51:04,704
其實他提到了一點

1220
00:51:04,704 --> 00:51:07,504
就是說微軟現在有49%的收益權

1221
00:51:07,504 --> 00:51:08,504
我可以給你賺錢

1222
00:51:08,504 --> 00:51:09,704
但你擁有的是收益權

1223
00:51:09,704 --> 00:51:10,784
你不能擁有控制權

1224
00:51:10,784 --> 00:51:13,464
因為他們從一開始就本質上的去相信

1225
00:51:13,464 --> 00:51:14,704
這樣的技術很危險

1226
00:51:14,704 --> 00:51:16,704
需要得到有效的監管和控制

1227
00:51:16,704 --> 00:51:19,144
不能夠落入邪惡的大公司手裡

1228
00:51:19,328 --> 00:51:22,568
但是呢又沒辦法 因為大公司有錢能夠幫助他們去開發

1229
00:51:22,568 --> 00:51:26,808
所以才定下來這種收益和控制分開的這樣一個協定

1230
00:51:26,808 --> 00:51:29,848
然後才有你賺錢你就不能投票的這種邏輯

1231
00:51:29,848 --> 00:51:32,248
就是投票權和賺錢你只能選一個

1232
00:51:32,248 --> 00:51:35,208
我還是挺相信這一點的 說實話

1233
00:51:35,208 --> 00:51:37,448
我是覺得這是一個很誠懇的一個表達

1234
00:51:37,448 --> 00:51:39,048
也是一個很美國式的

1235
00:51:39,048 --> 00:51:40,408
如果把這個話說清楚

1236
00:51:40,408 --> 00:51:42,848
你要麼賺錢 要麼有控制 你只能選一個

1237
00:51:42,848 --> 00:51:44,888
我覺得其實是一個很有意思的設定

1238
00:51:44,888 --> 00:51:48,368
open edge開始的時候它能夠吸引很多優秀人才

1239
00:51:48,368 --> 00:51:49,312
就是因為

1240
00:51:49,312 --> 00:51:52,952
它不是一個在corporate裏面你需要去

1241
00:51:52,952 --> 00:51:56,352
完成一些比如說讓更多人看廣告這樣的事情

1242
00:51:56,352 --> 00:51:58,512
但同時呢它有很多捐贈

1243
00:51:58,512 --> 00:52:00,912
所以說你還是可以過上不錯的生活

1244
00:52:00,912 --> 00:52:03,672
但到後面確實OpenAI自己需要很多錢

1245
00:52:03,672 --> 00:52:05,872
同時這些員工人也變多了

1246
00:52:05,872 --> 00:52:07,152
也需要更多的激勵

1247
00:52:07,152 --> 00:52:09,512
所以後面變成了一家公司

1248
00:52:09,512 --> 00:52:13,512
但是它還是要解決公司做大了被資本裹挾的這個問題

1249
00:52:13,512 --> 00:52:16,312
所以我是覺得這個解決方案還蠻有意思的

1250
00:52:16,448 --> 00:52:19,368
但是也是需要真的有非常有vision的人

1251
00:52:19,368 --> 00:52:22,528
而且有實力去說服別人的人才能達成這麼個方案

1252
00:52:22,528 --> 00:52:24,728
否則對微軟來講我花了這麼多錢

1253
00:52:24,728 --> 00:52:25,728
當然我也賺很多錢

1254
00:52:25,728 --> 00:52:27,288
但是最後我沒有得到的平安

1255
00:52:27,288 --> 00:52:29,248
這其實也是一個常理來講

1256
00:52:29,248 --> 00:52:31,168
不一定能被所有人接受的方案

1257
00:52:31,608 --> 00:52:34,888
因為你們現在其實投大模型也投應用層啊

1258
00:52:34,888 --> 00:52:36,808
就我很好奇從投資的角度

1259
00:52:37,048 --> 00:52:39,928
你會怎麼去判斷一個項目甚至是一個人

1260
00:52:39,928 --> 00:52:41,248
他是不是值得你投的

1261
00:52:41,248 --> 00:52:44,808
我記得廣密當時在朋友圈發了一條文字

1262
00:52:44,808 --> 00:52:45,608
他就說

1263
00:52:45,632 --> 00:52:48,232
中國什麽樣的人能做出openai

1264
00:52:48,232 --> 00:52:51,832
我不知道你們怎麽看這個人需要具備哪些素質

1265
00:52:51,832 --> 00:52:57,032
其實我覺得做openai和做其他的公司需要的一些底層能力

1266
00:52:57,032 --> 00:52:58,832
我們一直認為是類似的

1267
00:52:58,832 --> 00:53:01,432
比如說我們一直說創業者的一些基礎能力

1268
00:53:01,432 --> 00:53:04,512
比如說學習力、領導力、創新力、意志力

1269
00:53:04,512 --> 00:53:06,312
我覺得這些是比較普世的

1270
00:53:06,312 --> 00:53:08,712
openai有它的歷史背景

1271
00:53:08,712 --> 00:53:12,312
有它的成長的國家和市場環境

1272
00:53:12,312 --> 00:53:15,312
第一個去做和第二個做也不一樣

1273
00:53:15,312 --> 00:53:15,360
我們要做的是創新

1274
00:53:15,360 --> 00:53:17,800
第一個可能需要很強的探索能力

1275
00:53:17,800 --> 00:53:20,160
但第二個可能往往需要是執行力

1276
00:53:20,160 --> 00:53:22,760
所以我覺得不宜直接去類比

1277
00:53:22,760 --> 00:53:26,160
但是我覺得OpenAI幾個人的搭配確實是非常厲害

1278
00:53:26,160 --> 00:53:29,680
每個人在自己應該做的事情上都是世界頂級的

1279
00:53:29,680 --> 00:53:33,680
而且其實我當時翻譯過一篇Grog Brockman的文章

1280
00:53:33,680 --> 00:53:35,760
他其實90%的時間都在寫代碼

1281
00:53:35,760 --> 00:53:38,040
這個事情我覺得不只是說他喜歡寫代碼

1282
00:53:38,040 --> 00:53:38,960
或者代碼寫得好

1283
00:53:38,960 --> 00:53:42,960
是說在這種很多事情都不確定的時候

1284
00:53:43,088 --> 00:53:46,408
組織裏面有一個非常有話語權

1285
00:53:46,408 --> 00:53:48,008
並且又非常hands on

1286
00:53:48,008 --> 00:53:52,888
知道每一個環節具體在做什麽的人是很重要的

1287
00:53:52,888 --> 00:53:54,888
因為很多時候當一個這樣的公司

1288
00:53:54,888 --> 00:53:56,128
是幾百億美金了

1289
00:53:56,128 --> 00:53:57,328
然後組織大了

1290
00:53:57,328 --> 00:53:59,328
可能他就變成了一個cto

1291
00:53:59,328 --> 00:54:01,248
或者說什麽這樣一個角色

1292
00:54:01,248 --> 00:54:02,408
那就會遠離一線

1293
00:54:02,408 --> 00:54:04,488
但是那種情況下往往是

1294
00:54:04,488 --> 00:54:06,208
如果你的業務已經表清楚了

1295
00:54:06,320 --> 00:54:07,480
大家該幹嘛是表清楚

1296
00:54:07,480 --> 00:54:11,040
但現在很多時候還是這一個學習研究探索的階段

1297
00:54:11,040 --> 00:54:13,160
這個時候一個人會的東西

1298
00:54:13,160 --> 00:54:15,680
牽涉到了領域多牽涉到團隊多

1299
00:54:15,680 --> 00:54:16,960
其實是很有幫助的

1300
00:54:17,240 --> 00:54:20,520
所以這其實都是叫做說運氣也好

1301
00:54:20,520 --> 00:54:22,160
或者說是有益設定也好

1302
00:54:22,160 --> 00:54:24,240
這還是挺厲害的一些設定的

1303
00:54:24,600 --> 00:54:27,120
但是未必中國的也是要一模一樣的搭配

1304
00:54:27,120 --> 00:54:27,600
對吧

1305
00:54:27,680 --> 00:54:29,640
比如說有技術背景的人當CEO的

1306
00:54:29,640 --> 00:54:32,480
也有老王這種商業業務背景的人當CEO的

1307
00:54:32,480 --> 00:54:33,200
我覺得都有

1308
00:54:33,472 --> 00:54:37,112
我們只能說創業呢它永遠無法是一個完美的一副牌

1309
00:54:37,112 --> 00:54:39,312
或者說哪怕你有看上去完美的一副牌

1310
00:54:39,312 --> 00:54:40,632
你也未必能打得完美

1311
00:54:40,632 --> 00:54:43,552
所以我覺得還是一有什麼牌然後去把它打好

1312
00:54:43,552 --> 00:54:45,312
你還有什麼要補充的嗎

1313
00:54:45,312 --> 00:54:49,832
首先我覺得AI這一波跟之前的元宇宙也好

1314
00:54:49,832 --> 00:54:52,992
Web3也好這種大家覺得很有泡沫的浪潮

1315
00:54:52,992 --> 00:54:54,992
我覺得還有些不太一樣的地方

1316
00:54:54,992 --> 00:54:57,152
首先任何科技進步都有很多泡沫

1317
00:54:57,152 --> 00:54:58,272
這個是肯定的

1318
00:54:58,272 --> 00:55:00,272
沒有泡沫的地方也不會有啤酒

1319
00:55:00,272 --> 00:55:02,672
但是呢我覺得判斷一個事情是不是

1320
00:55:02,704 --> 00:55:05,424
只有泡沫或者說泡沫上大多數呢 需要看

1321
00:55:05,424 --> 00:55:10,624
它是不是真的為主流的普通的用戶提供了很直接的價值

1322
00:55:10,624 --> 00:55:14,824
是不是真的是我因為要用這個技術所以我去用

1323
00:55:14,824 --> 00:55:18,344
還是說我能夠賺錢 或者說我聽說別人說未來很有用

1324
00:55:18,344 --> 00:55:20,424
還是現在立刻就有用 從這點來講

1325
00:55:20,424 --> 00:55:22,784
我覺得現在我們看到大圓模型為代表的

1326
00:55:22,784 --> 00:55:24,664
包括說生成式的AI

1327
00:55:24,768 --> 00:55:25,968
不管是文字還是圖片

1328
00:55:25,968 --> 00:55:29,408
是真真正正對普通的主流用戶群體

1329
00:55:29,408 --> 00:55:32,128
實在產生價值門檻也比較低

1330
00:55:32,128 --> 00:55:34,408
不管是從成本還是使用的難度來講

1331
00:55:34,408 --> 00:55:36,168
都比較低的一種技術

1332
00:55:36,168 --> 00:55:38,728
比起之前的一些被炒得很熱的

1333
00:55:38,728 --> 00:55:40,568
但是實際應用場景比較缺乏

1334
00:55:40,568 --> 00:55:42,368
用起來又比較難用的技術來講

1335
00:55:42,368 --> 00:55:44,488
我覺得還是有很大的區別的

1336
00:55:44,488 --> 00:55:46,368
所以我首先認為它是一個

1337
00:55:46,368 --> 00:55:48,128
雖然也是有很多泡沫

1338
00:55:48,128 --> 00:55:49,288
很多喧囂在裏面

1339
00:55:49,288 --> 00:55:51,528
但是我覺得會有很多啤酒的一個領域

1340
00:55:51,648 --> 00:55:55,528
我覺得可能是我們人類面臨的最大的一次技術革命

1341
00:55:55,528 --> 00:55:57,528
因為最本質的一點是說

1342
00:55:57,528 --> 00:56:01,488
原來我們所有的技術其實都在改進我們使用的工具

1343
00:56:01,488 --> 00:56:04,648
而這次是第一次用工具的這一邊

1344
00:56:04,648 --> 00:56:06,248
其實發生了變化

1345
00:56:06,248 --> 00:56:10,288
並且這個變化可能是比我們要更強大的一個存在

1346
00:56:10,288 --> 00:56:15,088
這個其實我覺得會在社會學、心理學等各個方面產生很重大的影響

1347
00:56:15,088 --> 00:56:18,688
因為它是發生在數字世界的

1348
00:56:18,912 --> 00:56:21,592
我們過去幾十年甚至上百年

1349
00:56:21,592 --> 00:56:25,872
我們往往在不斷地低估數字世界的變化速度

1350
00:56:25,872 --> 00:56:28,032
而高估物理世界的變化速度

1351
00:56:28,032 --> 00:56:31,192
比如說我們原來覺得有終結者terminator

1352
00:56:31,192 --> 00:56:33,912
結果現在我們的AI可能已經快到那個程度了

1353
00:56:33,912 --> 00:56:35,232
但機器人還差很遠

1354
00:56:35,232 --> 00:56:37,992
數字世界的迭代是快的

1355
00:56:37,992 --> 00:56:39,872
成本下降是快的

1356
00:56:39,872 --> 00:56:44,752
那麼現在我們看到的很多像AutoGPT這樣的雛形

1357
00:56:44,752 --> 00:56:47,712
可能三五年之後就會變得完全不一樣

1358
00:56:47,760 --> 00:56:49,760
會完善成熟很多

1359
00:56:49,760 --> 00:56:53,040
所以在這過程中我覺得要保持開放心態

1360
00:56:53,040 --> 00:56:56,600
然後很重要一點是在一個技術革命的早期

1361
00:56:56,600 --> 00:56:58,840
去預測未來基本上都是錯的

1362
00:56:58,840 --> 00:57:02,080
所以現在不管是我也好還是誰也好

1363
00:57:02,080 --> 00:57:03,440
我覺得講了很多話呢

1364
00:57:03,440 --> 00:57:05,320
我覺得你可以認為第一都是錯的

1365
00:57:05,320 --> 00:57:08,720
第二它的實現的路徑和結果可能都完全不一樣

1366
00:57:08,720 --> 00:57:10,432
因為試想2010年的時候

1367
00:57:10,432 --> 00:57:12,672
移動互聯網那個時候其實已經開始了

1368
00:57:12,672 --> 00:57:15,712
然後移動互聯網跟互聯網比其實也差不太多

1369
00:57:15,712 --> 00:57:19,632
但如果你在2010年你預測2023年的移動互聯網贏家

1370
00:57:19,632 --> 00:57:25,232
你會不會想到字節想不到快手小紅書拼多多美團滴滴uber

1371
00:57:25,232 --> 00:57:27,032
我覺得是很難很難的

1372
00:57:27,032 --> 00:57:29,072
那麽如果移動互聯網都這麽難

1373
00:57:29,072 --> 00:57:30,432
那AI我覺得就更難

1374
00:57:30,432 --> 00:57:34,192
有人說大模型會吞噬要應用的空間

1375
00:57:34,192 --> 00:57:37,192
也許有人說開源的會戰勝閉源的或者什麽怎麽樣

1376
00:57:37,192 --> 00:57:37,712
我覺得

1377
00:57:37,808 --> 00:57:41,688
我們一定要記住這是一個大部分人就只接觸了幾個月的技術

1378
00:57:41,688 --> 00:57:44,848
所以這個時候的很多預計 我覺得看看它的道理是什麽

1379
00:57:44,848 --> 00:57:48,208
但不用特別在意它的精確度

1380
00:57:48,208 --> 00:57:51,808
因為這個時候開始去做 尤其是對年輕人來講

1381
00:57:51,808 --> 00:57:55,368
早點去投身其中去嘗試去探索

1382
00:57:55,368 --> 00:57:57,168
其實是代表命運最好的方式

1383
00:57:57,440 --> 00:58:01,640
因為我在過去幾年經常聽人說80後很幸運對吧

1384
00:58:01,640 --> 00:58:04,120
像我們80後趕上了互聯網所以怎麽怎麽樣

1385
00:58:04,120 --> 00:58:06,760
但我覺得以後20年之後大家會說00後很幸運

1386
00:58:06,760 --> 00:58:09,280
因為趕上了AGI的Spark誕生的時候

1387
00:58:09,280 --> 00:58:12,000
在這個時候我們因為是做天使投資嘛

1388
00:58:12,000 --> 00:58:14,720
而且我們相信當技術比較成熟的時候

1389
00:58:14,720 --> 00:58:16,960
有利於連續創業者這些老司機們

1390
00:58:16,960 --> 00:58:18,960
但是技術比較新的時候呢

1391
00:58:18,960 --> 00:58:21,200
是有益於年輕人這些小天才們

1392
00:58:21,200 --> 00:58:24,160
這些年輕人呢他們一般都是年輕有衝勁

1393
00:58:24,160 --> 00:58:27,040
對這個技術很早就喜歡很早就感興趣

1394
00:58:27,040 --> 00:58:27,152
所以我相信未來的技術是會有益的

1395
00:58:27,152 --> 00:58:30,232
自己用的很多並且具備很好的知性能力

1396
00:58:30,232 --> 00:58:31,952
和國際化視野的年輕人

1397
00:58:31,952 --> 00:58:34,552
所以我們也是非常希望能夠多多尋找

1398
00:58:34,552 --> 00:58:35,752
在 AI 這個領域

1399
00:58:35,752 --> 00:58:37,952
不管你是要做比較底層的模型

1400
00:58:37,952 --> 00:58:40,152
或者中間層或者是做應用

1401
00:58:40,152 --> 00:58:42,752
我們都希望跟大家多多交流多多合作

1402
00:58:42,752 --> 00:58:44,432
好的 謝謝宇森

1403
00:58:44,432 --> 00:58:45,632
好的 謝謝

1404
00:58:45,632 --> 00:58:46,952
這就是我們今天的節目

1405
00:58:46,952 --> 00:58:48,392
如果大家喜歡我們的節目

1406
00:58:48,392 --> 00:58:51,552
或者大家對大模型有什麽樣的想法

1407
00:58:51,552 --> 00:58:53,832
可以在我們的評論區留言給我們

1408
00:58:53,936 --> 00:58:57,256
中國的聽眾可以通過蘋果播客小宇宙

1409
00:58:57,256 --> 00:59:02,136
喜馬拉雅 星庭FM 勵志FM 網易語音音樂 QQ音樂來關注我們

1410
00:59:02,136 --> 00:59:05,736
海外的聽眾可以通過Apple Podcast Google Podcast

1411
00:59:05,736 --> 00:59:08,456
Spotify 還有Amazon Music來收聽我們

1412
00:59:08,456 --> 00:59:10,456
感謝大家的收聽 謝謝

沒有留言:

張貼留言