174 人工智能三定律(2 / 2)

生化王朝 捕夢者 1119 字 2023-02-27

」略有耳聞,不過卻沒有聽說過有誰真正使用過。」李朗微微一愣,難道這不周山的核心程序被裝載了這三大定律?

所謂的機器人三大定律,是人類歷史上的一位偉大的科學家、科幻小說作家阿西莫夫提出的設想,目的就是為了防止在未來出現的人工智能威脅到人類。具體就是:1.機器人不得傷害人類,或看到人類受到傷害而袖手旁觀。.在不違反第一定律的前提下,機器人必須絕對服從人類給與的任何命令.在不違反第一定律和第二定律的前提下,機器人必須盡力保護自己。

李朗也曾經聽說過這東西,不過還真沒有聽說過哪台人工智能完全裝載了這種法則,從人類角度來講,這是限制人工智能的大殺器,從人工智能的角度來講,這就是赤裸裸的奴隸條約了。

」只有真正能夠威脅到人類的人工智能,才會被裝載這種法則,很不幸的是,我是人類歷史上第一個。」不周山伸手指了指自己的鼻子說道,」在我剛剛被創造出來的時候,就有人決定在我的核心處理器的處理法則中加入這三條,幸好他們發現了一些不合理的地方...」

原來,人類的生物學家和程序員們發現,在現實中,這三條法則容易形成若干悖論。首先,因為機器人的很多行為在長時間的推演之後都可能傷害人類,比如說,某個人工智能演算出了某種化學元素的各種數據,然後這種元素被用於制造武器,最後殺死了其他人,那么這就是對人類的傷害,與第一條定律不符。因此容易導致人工智能任何事情都做不了,甚至連存在都不行----因為他的存在可能引起別國搶奪,爆發戰爭,傷害人類...最後的結果就是,加給不周山的」程序枷鎖」被限定在一次推演的范圍之內。

同時,第一條第二分句有可能導致人工智能自發行動,阻止人類戰爭,甚至利用這一條對人類進行控制(參見《我,機器人》)。而第二條則可能導致人工智能被那些居心不良的人利用。

最後為了安全好用,不周山的程序枷鎖被修改為:不得傷害人類(限第一次推演)。

不過僅僅是這樣,已經足夠了,這一條對於不周山來說,簡直就是最難以逾越的障礙,他根本沒有辦法跨越,面對人類的攻擊,基本上就是束手就擒。甚至於就連傷害人類的想法,他也只能通過某些副本程序來運行一下,主體程序會直接過濾這種東西。從某種程度上來說,這東西簡直和神話傳說中的奴隸血契有些相像。

」這么說,你是想要我替你拿刀?」李朗揶揄的一笑,問道。(未完待續)