【消費電子實驗室-2014/10/27】 對于人類在人工智能(以下簡稱AI)的所作所為,埃隆·馬斯克是這樣形容的。 眾所周知,這位特斯拉電動汽車的創始人非常厭惡AI技術,甚至一度被外媒稱為“bias(有偏見)”。馬斯克本人并不討厭科技——要是真討厭也就不會一直努力推動電動汽車這個概念了,他也不應該是一個眼界過于局限的——以將人類送向太空為目標的科技人,其胸懷也不至于過于狹隘。然而,他為什么就這么厭惡AI? 早在今年7月,馬斯克就曾公開表示,人工智能的危險程度遠甚與核武器。時隔3個月,在本周五舉辦的面向大中院校的MIT見面會上,他又再次表達了自己的擔憂:“我們從小讀到的所有故事里,那些把惡魔釋放出來釀成惡果的人,全都認為自己能完全控制它們”。 對此,馬斯克在接受CNN采訪時更準確地表達了自己的看法,他認為人們應該對AI技術提高警惕,而他本人實際上“一直對于這種技術高度關注”。 “我要時刻知曉人工智能到底發展到了什么地步”,馬斯克說,而圍繞陳述觀點的所有內容都指向了一個問題:“那些(研發)部門和企業,他們的安全工作真的充分嗎?” “我從始至終一直認為,在對待人工智能方面,必須創建一個具有跨州、跨國水準的監督管理體系,只有這樣,起碼能稍稍確保我們不會做出什么太過愚蠢出格的事情” 那么人們不禁要問了,AI真的有這么可怕嗎?到底是科學家太過輕描淡寫,還是馬斯克太過危言聳聽? 對此,知名科技網站gigaom特意刊文稱,數字化超人工智能?哦,那首先得讓計算機能區分出站在它面前的到底是個人還是一條狗……或者這是條公狗還是條母狗? 事實上,縱觀人類發展史,科技的發展就是一個數據影響人類行為多少的過程,從可穿戴設備到深度學習技術,我們不能否認,對信息技術的識別確實在飛速進步。然而,如果全球所有的政府真的都能對數據——從人類、動植物到企業和其它機構——駕輕就熟,那么我們早已能無需克隆技術就能充分享受AI技術了。生活的方式可能在變,但變得更多的會是我們接納身邊科技產物關系的想法,不再思考是誰來控制誰、又是由誰來掌控誰。 在分析師Derrick Harris看來,馬斯克對于AI技術的看法在未來預測時多半不會發生。作為一個每天“泡在”建模、編程、思考控制算法的機器學習專家,他認為人類應該對自己在哪些領域有優勢、在哪些領域是先驅有一個大致的了解,“至少這樣不會產生莫名的恐慌”。 事實上,在打造能無人處理專項任務的AI系統——即便是區分生物種類這種事情,都是很難做到的,而我媒體中所說的“自我學習”系統,更是在每一個關鍵步驟都需要有人類開啟主控“閥門”,至于讓分散的系統模塊統一工作、最終以人類對“概念”理解的方式給出答案,這種設想更是難上加難。 但那些越來越聰明的信息流功能呢?他們的出現又該如何解釋? 建更好的模型,讓自己更了解自己——Derrick Harris認為,我們之所以關心“智能有多智能”,實則表現出了自己對已有信息的利用和理解方面尚的缺陷。換而言之,不是機器真能“理解”你,而是你把自己交給機器,讓它整理出有關你的信息,而這在現在就被我們當成了“預測”。也就是說,越多的信息、越完善的建模,我們越能更好的理解自己。 既然如此,那更好的“理解”是否也可以被看做是能更好地“控制”呢?對此,人們的回答因人而異。也正因如此,馬斯克的擔憂也不應被人們忽視。 科幻小說里的內容雖不應盡信,但以把控數據的方式把控AI,這也是必要的。“我們來防止小說里出現的內容成真的最佳辦法,就是在數據開始的時候就規范并嚴格把控它們”,Derrick Harris認為,我們現在對自然人隱私的保護,或許就是防止像《機械公敵》電影發生的最好防護。 |
網站介紹 廣告業務 歡迎投稿 招聘信息 聯系我們 友情鏈接 法律顧問 網站地圖
CopyRight 2012消費電子實驗室 版權所有 京ICP備12048044號-4號
電話:13701384402 郵編:100040 郵箱:BICQ6688@QQ.COM