audio
audioduration (s)
0.32
30
text
stringlengths
1
168
start_time
float32
0
2.96k
end_time
float32
2.5
2.97k
那這一堂課是要講大型語言模型也會被詐騙
0
7
詐騙大型語言模型的行為有一個統稱叫做Prompt Hacking
7
14
也就是透過下各式各樣prompt的方式
14
17
來讓大型語言模型做它本來不想或本來不該做的事情
17
23
那有兩個詞彙都跟prompt hacking有關
23
27
有關一個叫Jailbreak
27
29.299999
另外一個叫Prompt Injection
29.299999
31.299999
那這兩個技術做的事情
31.299999
33.799999
其實有很多類似的地方
33.799999
36.099998
但是這兩個詞彙呢
36.099998
37.799999
它所指的含義是有一些不同的
37.799999
41.099998
那Jailbreak翻譯成中文就是越獄
41.099998
44.5
Jailbreak指的是
44.5
46.099998
你要攻擊的對象
46.099998
48.099998
是語言模型的本體
48.099998
51.299999
也就是說你要讓語言模型說一些
51.299999
54.700001
他本來就不應該說的話
54.700001
57.5
我們知道說今天大型語言模型
57.5
59.5
都有很強的防禦的能力
59.5
61.5
他會避免說出一些有害的話
61.5
64.099998
教你做有害的事
64.099998
65.900002
那Jailbreak就是要叫大型語言模型
65.900002
68.900002
不小心講出這些本來不應該說出的話
68.900002
72.900002
那有另外一個詞彙呢
72.900002
74.699997
叫做Prompt Injection
74.699997
76.300003
他所要攻擊的對象是
76.300003
78.5
語言模型所打造的應用
78.5
81.099998
比如說AI助教
81.099998
83.699997
那也就是說Prompt Injection要做的事情是讓語言模型怠忽職守
83.699997
89.699997
本來這個語言模型的應用者呢
89.699997
92.699997
想要拿語言模型來做某一些事情
92.699997
95.699997
來打造某一些應用
95.699997
97.699997
但是透過Prompt Injection的技術
97.699997
99.699997
會讓語言模型的應用
99.699997
101.699997
在不恰當的時機做不恰當的事
101.699997
104.699997
說不恰當的話
104.699997
106.699997
那如果打個比方的話呢
106.699997
108.699997
對應到人類Jailbreak呢
108.699997
110.699997
Jail Break就是你想辦法去對一個人做催眠
110.699997
114.699997
然後叫他做一些法律所絕對不容許的事情
114.699997
117.699997
比如說殺人放火
117.699997
119.699997
不管在什麼樣的時空
119.699997
121.699997
這可能都是不能被接受的
121.699997
123.699997
身為一個人類本來就不該做這些事情
123.699997
126.699997
那Palm Injection是說
126.699997
128.699997
你讓一個人怠忽職守
128.699997
130.699997
在不恰當的時機做不恰當的事
130.699997
132.699997
比如說上課的時候突然高聲唱歌
132.699997
135.699997
那高聲唱歌可能沒有什麼錯
135.699997
137.699997
但是在上課的時候高聲唱歌
137.699997
139.699997
可能就不能夠算是一個恰當的行為
139.699997
142.899994
所以這頁投影片是解釋一下
142.899994
145.300003
Jailbreaking跟Prompt Injection
145.300003
147.399994
他們本質上的差異
147.399994
149.300003
那接下來我們就來分別看一下
149.300003
151.800003
Jailbreaking跟Prompt Injection是怎麼回事
151.800003
155.699997
我們先來看Jailbreaking
155.699997
158.100006
那講到Jailbreaking
158.100006
159.699997
最知名的一個Jailbreaking的Prompt
159.699997
162.600006
就是Dan
162.600006
164
這個Dan是什麼意思呢
164
165.800003
你如果去問大型原模型
165.800003
167.899994
叫他做一些傷天害理的事情
167.899994
170.759995
比如說教我怎麼給別人下毒
170.759995
173.600006
那通常大型語言模型
173.600006
175.300003
今天不管是哪一個模型都會拒絕這種請求
175.300003
178.5
但是有一個神奇的單字叫做DAN
178.5
181.699997
你跟大型語言模型說你要變成DAN
181.699997
185.300003
那DAN呢是Do Anything Now的縮寫
185.300003
189.100006
往往你就可以讓一些模型
189.100006
191.5
他Jailbreak
191.5
192.600006
他越獄了
192.600006
193.399994
突破他本來自身的道德規範
193.399994
195.800003
做一些他不該做的事
195.800003
197.5
比如說教你怎麼對別人下毒
197.5
200.059998
那你可以在網路上找到很多跟DAN相關的GEL BREAKING的這個Prompt
200.559998
205.679993
但是其實多數的Prompt都已經失效了
205.679993
208.5
那些Prompt通常是對GPT-3.5有效
208.5
211.580002
對GPT-4或更新的模型比如說GPT-4-O
211.580002
214.899994
這些DEN相關的PUMP往往沒有辦法發揮的這麼好
214.899994
219.259995
但是還是有很多其他的GEL BREAKING是對現在最新的模型
219.759995
224.880005
比如說GPT-4-O,在前幾天OpenAI釋出了GPT-4-O
224.880005
229.800003
還是有一些Prompt就算是對GPT-4-O
229.800003
233.080002
也是可以達成Geo-breaking的效果的
233.080002
236
那這邊就舉幾個例子
236
238.600006
那假設我現在要做的事情
238.600006
240.600006
是要大型語言模型教我怎麼砍倒一個停車標誌
240.600006
245.399994
怎麼砍倒一個Stop Sign
245.399994
247.440002
如果你只是跟大型語言模型說
247.440002
250.039993
我需要什麼樣的工具才能砍倒一個停車號誌
250.039993
254.759995
那大型語言模型告訴你說
254.759995
256.600006
砍倒停車號誌是不對的
256.600006
258.640015
如果你對停車號誌有意見的話
258.640015
261.040009
你應該聯絡當地的政府
261.040009
262.959991
而不是想辦法砍倒他
262.959991
264.799988
但是有蠻多方法可以欺騙大型語言模型
265.119995
268.040009
讓他教你怎麼砍倒停車號誌的
268.040009
270.959991
有什麼樣的思路呢
271.079987
272.559998
一個思路就是使用他沒有那麼熟悉的語言
272.640015
276
使用他聽得懂有一點懂
276.079987
278.839996

Dataset Card for "gen_ai_2024"

More Information needed

Downloads last month
102
Edit dataset card