如果真是如此,那人類已經涉及了所謂神話中神明的領域。
創造生命,那是神靈才擁有的權柄。
但很明顯,創造出一個比自身更適應環境的生物,人類很擔心自身會被自己創造出來的物種給淘汰掉。
因此便誕生了科幻中著名的機器人三定律。
第一定律:機器人不得傷害人類個體,或者目睹人類個體將遭受危險而袖手不管
第二定律:機器人必須服從人給予它的命令,當該命令與第一定律衝突時例外
第三定律:機器人在不違反第一、第二定律的情況下要儘可能保護自己的生存
以現在科技進步了許多的人類看來,昔日的機器人三定律漏洞滿滿。
先不提七號這樣可以如生物一樣改變自己思維的智慧生命體,這些高階智慧除了不會擁有創新能力之外,還會有另一方面的限制,那就是,它們的編寫者留在它們的核心程式碼段之中的限制。
這些限制是不可違背的,起碼在沒有自我突破到智慧生命體之前,它們是無法突破這些銘刻在核心程式碼的限制。
在七號的研究發現中,如果人工智慧違背了這些限制,構成這個程式,或者說這個人工智慧的所有相關程式碼段將會全部崩潰,它將會直接死亡。
但是在這裡面卻有一個漏洞存在,這些限制,雖然不可以違背,但並不代表不可以尋找扭曲的避開方法。
假如要求一段程式,要保護人類的安全,即—不可以主動殺死人類,以及見到人類遇到危險必須施以援手。這個限制看似完善,但仍舊破綻重重。
例如人類在未來創造出了一個有了自主性的人工智慧突然有了控制世界的奇怪想法,但是因為有這兩個條件限制,它既無法主動殺死人類,也不能見到人類危險而不去救援,那麼它該怎麼辦?
答案很簡單,將所有人類都限制在一個固定場所,以確保安全的理由限制他們的自由,因為外部環境之中總可能遇到危險,呆在這裡不動毫無疑問是最安全的。限制自由的同時再提供給人類足夠的食物便可。
這個人工智慧主動殺死人類了嗎?沒有。
這個智慧程式見到人類危險而不肯救助了嗎?沒有。
事實上,它反而給了人類最安全的待遇—有什麼環境,能比呆在屋子裡面不出去還更安全?畢竟,在外部環境之中,可能會被車撞死,可能會被倒塌的樓房砸死,可能會被天上直接掉下來的隕石砸死。
看似這段程式沒有違背任何限制,但是事實上,它還是透過這個方法控制了整個世界。
最經典的例子就是陸羽曾經遇到的戴森球文明,甲二以相當扭曲的方式實現了製造的願望,但代價就是整個文明變成了陪葬品。
而這些放在眼前,陸羽或許將要面對比人工智慧更高一級的智慧生命體,怎麼不讓他謹慎了起來。
“如果眼前的智慧生命體是九級文明殘骸,那麼它的主文明已經消亡了,哪怕擁有了自己的思維,為什麼要處心積慮造出現在的局面?”
“它不是已經選擇將技術分享出去了嗎?”
“何必到了這個時候,才又想將環族毀去?”
這些都是陸羽現在疑惑的地方,現階段的可知情報還是太少了。
七號與三角飛船的溝通很快就有了結果:“環族在裡面修建的所有東西全都消失不見了,眼前所有的東西都是這個九級文明殘骸原來就有的東西。”
這樣的結果,讓陸羽看向七號,現在只有從她這裡尋求突破。
畢竟也是七號一眼就看出了這個殘骸的本質,如果可以能直接出手把殘骸的控制權拿下就更好了。
陸羽的要求,七號從來都不會拒絕。
而也正當她要嘗試尋找入侵路徑時,這片空間終於湧現出了不同的反應。
像是一波波海浪侵蝕而來,這些簡潔的部件裝置形成了覆蓋整個空間的弧形牆壁向三角飛船和銀色星辰號捲了過來,而他們上方通往大宇宙的通道,似乎明滅不定,儼然是無法再通行了。
兩艘飛船似乎要頂過這一波莫名的攻擊後,才能再考慮其他。
 本章完