0

研究人員對于人工智能何時能上升到人類的理解水平意見不一。但奧巴馬政府不會坐等答案。白宮表示,當人工智能還是依賴于人類的時候,政府需要開始思考如何調節和使用這種強大的技術。
“當我們說人工智能的時候,公眾腦海里應該有一個準確的答案。”華盛頓大學法律教授Ryan Calo說。今年夏天,白宮主持了4個關于如何應對人工智能日益驅動整個世界的研討會,而Calo在上周第1個會上發言。盡管學者和政策制定者都認為華盛頓應該在這方面發揮作用,目前尚不清楚應該如何制定政策,緊迫的問題卻日益積累。它們包括何時和如何決定谷歌的自動駕駛汽車能上美國的公路和如何檢驗偏差滲透算法。
“我們可以肯定的一件事是,人工智能已經使得制定政策變成一種挑戰,比如如何確保技術仍然安全,可控,可預測,即使它變得更復雜和更聰明。”美國科學和技術政策的副領導Ed Felten說,其領導著夏季的人工智能研究。 “其中一些問題隨著技術的進步將變得更具挑戰性,所以我們需要加大馬力,緊隨其腳步。”
盡管在某一些領域,人工智能已經超過了人類的能力,谷歌的AlphaGo反復擊敗了世界上最好的棋手,但是每個系統的應用仍然有限,而且依賴于人類。 “智能和自主權是兩種完全不同的事情,”非營利人工智能艾倫研究所主管Oren Etzioni說,同時也是美國時間周二的研討會發言人, “人的智慧和自主性是齊頭并進的,但對于計算機而言就完全不是這樣的情況了。”他說。
整個團隊花了幾年時間研究技術,精心打造和管理最聰明的人工智能系統。正如Etzioni指出,沒有人按下按鈕的話,AlphaGo就不能進行下一輪對戰。但是,人類在輸入和設計的不可靠性,使得學者和政策專家焦慮。機器要獲得學習的能力,它們必須要接收大規模的數據集。而人類,帶著他們所有的固有缺點,一直在輸入數據。
最近白宮的一份報告中概述看大數據潛在的歧視性。為了使數據有意義,必須有人將其分類和作簡介。技術人員和設計人員可能將現有的偏見和結構性不平等灌輸給人工智能。
這不是一個學術問題。谷歌的廣告交付算法把較高工資的工作廣告,更多地發放給男性。ProPublica最近報道說,依賴人工智能系統判刑和作假釋決定的法官,其所做的風險評估結果出現種族偏見。
“該記者發現,被標記為潛在慣犯的白人非裔美國人之間存在懸殊的差距,”微軟研究員Kate Crawford說。 “這是一個從設計開始就存在偏見的系統,但我們看不到它是如何工作的。該系統是專有的,他們沒有共享數據。我們不知道為什么系統會獲得這些結果。”
如果人工智能將決定如誰能得到抵押貸款,工作,或假釋之類的東西,Crawford說,為確保其準確性,對灌輸到這些系統中的數據采取一定程度的應用問責,將是越來越重要的。
人工智能不僅用于做人生選擇、司法結果等等。它也可以用來做出即時的決定,舉個例子,一輛無人駕駛汽車如何避免碰撞。試圖控制這些技術的問題是,它們仍在開發階段。南卡羅來納大學的法學教授和自動駕駛汽車全國領先的專家之一Bryant Walker Smith說。
早期任何一種設計要求能抑制建設一個更安全,更負責任的機器,Smith說。自動駕駛汽車的創作者有責任讓公眾安全。
同時,政府已經與如何規范和監督已經在使用的人工智能作斗爭,如無人機、癌癥的檢測分析。白宮的科學和技術政策辦公室聚集幾個機構一起,基于證據,而不是焦慮來考慮應對方法。政府將要考慮其能買什么,以及在什么條件下,投資使人工智能更安全的研究。
然而,盡管政府努力追趕世界上已經存在的技術,值得記住的是,人工智能仍然新生。為了在未來能規范人工智能,在人類還能做主的時候就應該奠定基礎。
via wired
雷峰網原創文章,未經授權禁止轉載。詳情見轉載須知。