3

近日,超過12000位知名人士共同簽署了一封公開信,他們要求停止人工智能殺戮機器的研發。巧合的是,聯合國最近也就這一問題進行了激烈的爭論。因為他們認為這類機器人的研發有些走火入魔了,未來可能會帶來不可估量的后果。
走火入魔?不可估量的后果?有那么嚴重嗎?澳大利亞新南威爾士大學的研究員Jai Galliott是一個機器人研究者,他整個職業生涯都跟軍用機器人打交道。他認為這實在是過于敏感了。
在這場大討論發起之初,他也與簽署公開信的人持一樣的觀點,站在國際機器人武裝控制委員會(ICRAC)這一邊。不過現在他改變了觀點,并給出了以下幾個原因。
那些簽署公開信的人都是為了擾亂民心,目的是要禁止自動武器,因為他們認為一旦武器鎖定和攻擊目標時不再需要人類干預,機器就會有自主意識,過不了多久就會對人類大開殺戒。
不過你細想一下就會發現,這種假設現在根本不能成立,人類不可能不參與到殺戮的過程中。確實,機器人也許已經強大到可以殺人,不過就像人類平時所做的那樣,機器也需要遵守一個復雜的機制,這就意味著人類沒必要天天盯著這一致命系統。不過歸根到底,機器人的一切活動都會有人類的身影。
當今的科技已經讓機器人可以模仿人類的大腦,進行學習和做決定,許多人便擔心機器人可以擁有“自主意識”,從而對人類大開殺戒。不過這一過程人類可是深度參與了的。
程序員、認知科學家、工程師等在這一自動系統研發過程中扮演了重要角色,如果我們忽略他們的作用,是不是就有些荒謬了?即使去除這些人的影響,難道將軍、軍隊和政府也會不作為嗎?這些人的作用我們也能無視嗎?
這些人一心想要禁止的機器我們早就研發出來了。
澳大利亞海軍的艦載近防武器系統(CIWS)早已高度自動化了。這一系統可以每分鐘發射上千發彈藥,在反艦導彈來襲時,可以為水面艦艇提供最后一層防護。另外,除了士兵進行手動操作之外,電腦也可以自動控制其完成作戰任務。
當處于自動作戰狀態時,這一近防系統的表現完全可與士兵手動操作相匹敵。它可以自動執行搜索、探測、威脅評估、目標獲取和鎖定和擊毀目標等一系列戰術動作。
如果這一近防武器系統已經屬于殺人機器了,也應該被禁。但我們沒聽說過誰對這一系統有過異議,因為它們遠在天邊,眼不見心不煩,而且只有在敵方武器高速來襲時才會進行反擊。
正因為如此,與常規戰斗相比,它們失手殺人的幾率幾乎為零。
所以為什么我們不把著力點放在現有的法律上呢?制定相關法律條款限制這類武器的使用范圍不就好了?

這樣看來,真正促使這些人強烈反對機器人的原因,并不是殺戮過程沒有人類干預,而是怕機器人未來擁有自主意識。
考慮到上個世紀以來人類科技的發展速度,有這樣的疑慮也無可厚非。從萊特兄弟第一次試飛到飛向太空,我們只用了不到七十年,所以如果有足夠的時間,創造一個真正的智能機器人并非不可能。
不過也許我們完全不用擔心,因為橫在研發人員面前的困難很難克服。首先,我們每個人都擁有獨一無二的靈魂,機器人無法復制這一點。另外,通過邏輯論證我們了解到人類的腦活動并沒有固定的算法,這也是機器人無法習得的。
現在我們所能構想的系統,無論是否具有自主學習能力或者高度復雜的操作,都是編程和人工智能的產物,其背后都是程序員和系統設計師,擁有自主意識的智能機器人永遠不會出現。一旦人們意識到這一點,對所謂殺戮機器的反對就完全是無源之水無本之木。
聯合國的禁令事實上也并沒有用。看看那些被反步兵地雷奪走一條腿的人吧,聯合國的禁令只是一紙空文,那些壞人才不按常理出牌。
我們該做的,是為更有效和實際的智能機器人監管法規而努力。
via gizmodo
雷峰網原創文章,未經授權禁止轉載。詳情見轉載須知。