“2090年的戰(zhàn)況實(shí)際上還沒完全到需要用‘文化打擊’這種手段來強(qiáng)行結(jié)束的地步,雖然地球人口因全球性戰(zhàn)爭而大幅度減少,但距離‘判定線’還有一小段距離。我記得因?yàn)椤幕雇擞媱潯奈kU性,各政權(quán)的政府雖然放開手腳打仗卻依舊不敢將戰(zhàn)況發(fā)展到‘判定線’規(guī)定的那個程度,那可是自尋死路的行為。一旦那枚人工智能做出了選擇,那可是沒人能夠阻止的,它就是被研制出它的人這么設(shè)置的,為了保證這枚所謂的‘自我進(jìn)化型’人工智能的決策效力,也為了防止一些心懷不軌者干預(yù)它的正常工作。“
r的話讓馮岳若有所思。
“所以其實(shí)我們常說的當(dāng)年那枚最頂級的軍事人工智能做出了錯誤判斷,錯誤地認(rèn)為該執(zhí)行‘文化倒退計劃’,就是事實(shí)?畢竟據(jù)你提供的消息來看,戰(zhàn)局的嚴(yán)重程度還沒有越過‘判定線’。”
“也不是,你一定知道‘智慧壟斷公約’出臺的那段時間以來就沒有人工智能出現(xiàn)過違背‘公約’的錯誤,但只是“沒有出現(xiàn)”,到底有沒有能力違背,是不一定的。而那枚軍事人工智能所犯的錯誤有一定可能性是它故意的。”r以它20年的自我進(jìn)化資歷提出了這個說法。
“那種等級的軍事人工智能就算在一個字節(jié)上出現(xiàn)運(yùn)算錯誤也幾乎是不可能的,更別說是誤判了戰(zhàn)局戰(zhàn)況并做出那種份量的決策了。”
“是的,我被創(chuàng)造出來的時候,‘文化倒退計劃’這個選項(xiàng)已經(jīng)被提出并寫入那枚人工智能的芯片中了,因?yàn)槲业膭?chuàng)造者知道這件事,我也知道了這件事。那種處理計劃十分復(fù)雜而且十分龐大,在所有需要判別的計算中都做了錯誤的選擇才會使最后的選擇指向執(zhí)行‘文化倒退計劃’,這種可能性實(shí)在是——”
“低到不可能。”
“是的,可能性無限趨近于零。所以我以我進(jìn)化出來的主觀想法猜測那不應(yīng)該是所謂的程序出錯,而是刻意為之。”
——
r的話提出的可能性如果成真,可就是驚天動地的發(fā)現(xiàn)了。人類的大倒退可能是陰謀,而不是意外或報應(yīng)。
——
“只是究竟是因?yàn)檐娛氯斯ぶ悄苡檬裁捶椒ù蚱屏恕s’對它的限制而故意想要打擊人類,還是有什么人對它下了足夠權(quán)限的命令讓它這么做選擇……”
“這一點(diǎn),你需要自己去探查。”
“你的這句話像極了桑夫人,不論是語氣、內(nèi)容還是其中的意義。”
“這是對我的夸獎,也是一種令我悲哀的夸獎。”
“這是什么意思?”
“夸贊人工智能像人,是對人工智能的智能程度的肯定。但這是像別人,像已有的人,只是模仿得像,并不是像我自己,所以我自己在你眼中依舊不如人類。”r的語氣好似都有了變化。
“抱歉我真的不是那個意思。”馮岳鄭重解釋道。
“這不重要,我的自我進(jìn)化速率會越來越慢,在我某一天真正如同人類一般時,就可以真正理解‘悲哀’的感受了,現(xiàn)在的我只能通過對語句的分析和場景判斷出我可能應(yīng)該感到悲哀而已。你的歉意,請留在我變成‘我’之后再向我表達(dá)吧。”
“我拭目以待。”
……
時間回到現(xiàn)在。
南亞,某秘密軍事基地,反抗軍據(jù)點(diǎn)。