📖 ZKIZ Archives


馬斯克的“腦機融合”比人工智能更危險

來源: http://www.infzm.com/content/124907

(東方IC/圖)

(本文首發於2017年5月25日《南方周末》)

無論是馬斯克之流的AI腦機接口派還是VR領域的直接輸入派,都沒回答過這樣一個致命的問題:“你們知道如何防止人類的自我意識被徹底抹除嗎?”

弄好了我們接近神仙,弄不好呢,馬斯克還沒來得及做的事,被虛擬現實大牛搶先了。一旦大家腦部被插,無論是在VR還是AI領域的人幹的,可能結果就是人類文明終結。

馬斯克和霍金都在預警人工智能對人類的極大威脅,馬斯克還宣稱有了應對措施:先把人腦與人工智能融合。他還說幹就幹,成立了新公司。

但我的預警卻是:馬斯克要做的事對人類的威脅,比人工智能的威脅要大得多。我們要聯合起來,堅決抵制!

致命的問題

埃隆·馬斯克(Elon Musk)成立的新公司Neuralink要把人腦與計算機直接融合。馬斯克宣稱,人類社會即將全面進入人工智能時代,為了避免被新物種——超人工智能威脅甚至消滅,人們唯一的出路就是將自己的大腦與AI融為一體。

無獨有偶,我最近在很多場合做演講談到VR(虛擬現實)的未來發展,期望頭盔越來越小越來越輕變成一般眼鏡的樣子,就經常有業界人士接茬說,以後哪里需要眼鏡,接到腦中樞就是了。

馬斯克希望“腦機界面”能進行人類意識的實時翻譯並將之轉化為可輸出的電子信號,從而可以連接並控制各種外部設備,用他的話說就是“當你的念頭一閃而過時,電視機或車庫門便自動打開了”。初一看,這里說的是人腦控制信號的輸出,但是所有的控制都需要信號的反饋,也就是說,在設計輸出的接口時同時還要設計輸入的回路,才能實施控制。

但是,無論是馬斯克之流的AI腦機接口派還是VR領域的直接輸入派,都沒回答過這樣一個致命的問題:“你們知道如何防止人類的自我意識被徹底抹除嗎?”

信息與信號的分離或混淆

我們的自然感官,主要是讓我們接受認知性的信息,而不是讓外來的控制信號隨便侵入,這就為保護和維持我們每個個體的主體地位打下了基礎。有鑒於此,我們必須要堅持如下三條初始狀態的“非對稱原則”:

1.從客體到主體這個方向,信息越通暢越好,控制信號阻滯度越高越好。

2.從主體到客體這個方向,控制信號越暢通越好,信息密封度越高越好。

3.以上兩條的松動調節,以最嚴苛的程序保證以各個主體為主導。

那麽,如果現在放開搞“腦機連接”,危險在哪里呢?對照以上原則,我們可以歸納出以下幾方面的可能風險。

其一,由於現今人類對自己的大腦與自我意識的關聯的認識還非常有限,也對認知性智能與自由意誌之間的關聯的認識基本為零,在這樣無知的前提下貿然實施大腦直接幹涉,很有可能將人類的自我意識(或曰“靈魂”)嚴重破壞甚至徹底抹除。

其二,就算沒有抹除,在作為認知材料的“信息”和控制人的行為的“信號”之間不能做到基本分離的社會和技術條件下,有了繞過人的自然感官直接刺激腦中樞的技術手段,將給一部分人控制另一部分人提供極大的方便,對人的自由和尊嚴構成嚴重的外來威脅。

其三,當人們還沒達成法律共識將腦機接口的信息和信號的流向設置權完全賦予同一主體之前,一個人由於可能直接被外來意識控制所帶來的損失,比他可以直接控制外部設備所帶來的方便,或許要大得多。

以上幾條不同層面的風險,哪一條都足以構成我們聯合抵制馬斯克等人的“腦機融合”項目的充足理由。

被誇大的人工智能的威脅

當今,滲透到人類生活各個層面的互聯網、飛速運轉的計算機、海量儲存能力的雲儲存以及時下大熱的虛擬現實與人工智能等新興科學技術,將人類拋進一個既似熟悉又還陌生的環境中。人們熟悉的是,以往傳統生活模式中的基本事務的處理在這些技術的協助下變得更為方便快捷,而陌生的是,在如此快速的技術叠代下,人們對現實與虛擬之間的界限的感知變得越來越模糊、對人類與機器的關系的把握越來越恍惚、對人類社會既定的規範制度的有效性的判定也越來越迷茫。以2016年阿爾法圍棋(AlphaGo)與李世石的博弈為例,圍棋世界冠軍、職業九段選手李世石以4:1的總比分落敗於一款人工智能圍棋程序,過後不久,AlphaGo更以Master為賬號橫掃所有人類頂級對手。這樣的結果,讓不少觀者開始憂心忡忡,甚至擔心發展到具有“人類意識”的人工智能會不會統治甚至毀滅人類社會。馬斯克、蓋茨、霍金這些偶像級的大人物,都在發出警示。

而馬斯克還即刻付諸行動,要將人類每個個體先用AI全面武裝起來,以對抗壟斷AI的假想的邪惡勢力。但是,從上文我們已經看到,如此具有行動力的人,卻有著一個思想力上的致命傷,對人的自我主體意識問題缺乏思考,從而成為了一個危險人物。

馬斯克在哲學界有個同道,這就是尼克·博斯特姆(Nick Bostrom)教授。他相信無論只有智能的AI還是具有自主意識的AI,都完全是由計算來實現的。由此他還做出了一個逆天的判斷:我們人類的意識,在接近100%的概率上,不是真實存在的意識,而是被計算機模擬出來的“假意識”。但是,第三人稱世界的對象可以分真假,第一人稱世界中的意識何以分真假?博斯特姆基於自然主義的計算主義使他陷入到虛妄的境地之中。更為嚴重的是,大企業家馬斯克之流也循著這個思路前行的話,就會徹底忽略“腦機連接”項目最致命的危險。

筆者經過多年的獨立研究,加上近來與美國量子物理學家亨利·斯塔普(Henry Stapp)的討論,筆者已經得出結論,物理主義和計算主義對人類意識的解釋是誤入歧途的,因為這些解釋者都不可避免地陷入了“整一性投射謬誤”(Fallacy of Unity Projection)之中不可自拔(見《哲學研究》2015年第6期筆者發表的論文)。筆者得出的結論是,以計算機模仿神經元網絡的方式造出來的人工智能不可能具有真正的自我意識,只有按照某種非定域原理(比如量子力學)建造出來的人工系統,才有可能具有第一人稱視角的主觀世界和自由意誌。所以,除非有人以確鑿的證據向我們證明如何按照非定域原理把精神意識引入某個人工系統,不管該系統的可觀察行為與人類行為多麽相似,我們都不能認為該系統真的具有了精神意識,該系統都還是屬於工具性的“弱人工智能”。

弱人工智能是在特定領域類似、等同或者超過人類智能/效率(不具備自我意識)的機器智能。就目前已廣泛應用的人體識別、機器視覺、自動駕駛、機器深度學習等AI技術而言,都屬於擅長單一活動的弱人工智能範疇。可以“戰勝”李世石一百次的AlphaGo也不例外。AlphaGo的工作原理是訓練多層符號化的人工神經網絡進行“深度學習”,這種“學習”,實質是將大量矩陣數據作為輸入,通過非線性激活方法取權重,再產生另一個數據集合作為輸出,調整權重分配,反複叠代逼近期望值,直至滿意,就把權重矩陣固化下來,從學習狀態轉到工作狀態。本人與斯塔普的研究表明,這樣的學習過程,從頭到尾都沒有任何機會讓“自我意識”湧現。

以雷·庫茲韋爾為代表的未來學家認為“智能爆炸”正在發生,但他們並沒有論證過人類的自我意識和人類的智能的分別在哪里,也就無法揭示這種所謂的“智能爆炸”到底是福還是禍,從而所謂的“樂觀”還是“悲觀”的區分都顯得膚淺和不得要領。雖然我們在這里沒法展開系統的論證,分析一下這種威脅論的直接起因,還是可行的。

首先,人工智能可以通過“學習”無窮叠代改進其“能力”,而這種權重分配為何能達到這個能力,卻是一個無人可以破解的黑箱內的矩陣狀態。這樣的事態,聽起來就會引起大家的心理恐慌。此種危機意識是人類自己將“對未知領域的不確定和不可控性”“對未知領域可能產生的巨大影響”與“缺乏學理根據的科幻想象”糅合之後的產物。也就是說,這種危機感類似於被迫害妄想癥,而問題癥結不在於人工智能這項技術,而在於有這種意識的人群本身。因為在沒有完全弄清楚人工智能與自主意識的問題之前,將人工智能擬人化或主觀賦予其行為動機都是出於人們臆想的焦灼和恐懼,所以這種威脅實屬“人為”而非“機為”。

其次,以馬斯克為代表的一部分人擔憂,如果懷有惡意的個人/組織/集團/政府率先掌握了超人工智能技術並用其實現自己的邪惡計劃,那麽人類的處境將會變得岌岌可危。這類危機來源圍繞的仍舊是人的動機,關涉的依然是人與人之間的操縱與被操縱的“政治”問題,而無關乎人工智能是否具有“征服”的意圖。只要不脫離人際間的關系,看似由人工智能所導致的控制危機實質上就仍然屬於人類自古以來一直都在面對的統治與被統治的話題。這與黑幕後的政客或極端恐怖分子掌握大規模殺傷性武器本質上是一樣的,也與我們造了大壩卻對其後果難以預測和把控的情況相差無幾。所以,人工智能這項新型技術可能會對我們過往經驗構成嚴峻挑戰,但並不會產生完全不同類型的新問題。也就是說,人們擔心的“智能爆炸”所引發的後果並不是一個新難題,而是一系列老問題的疊加。

再次,對於人工智能技術的焦慮還來自另一類認為它將取代人類勞動力,從而造成大量人類失業的威脅。這類憂慮,實則是對人類內在價值的誤讀。其實,“不勞而獲”只是在有人“勞”另有人“獲”時才是壞事,而使得所有人都可以“不勞而獲”,正是所有技術進步的應有目的。人類謀生所需的體力勞動和腦力勞動被機器替代是必然的趨勢,而這正是我們所有經濟發展技術創新所謀求的主要目標。由此看來,人工智能取代人類勞動,我們應該拍手叫好才是。只要我們的分配制度與人類勞作的關系理順了,人類並不會因為失業就喪失了生活的意義,反而這讓人們有更多的機會去使其內在價值大放異彩,直接謀取生活的意義。

所謂人類生活的內在價值,是與其外在價值或工具價值相對而言的。比如,單從一個人來說,為了購買食物讓自己生存下去而不得不從事一份枯燥乏味的工作,這種工作並沒有任何獨立的價值,其價值完全是工具性的、附屬於生存需要的。另一方面,內在價值卻是非工具性的。或許哲學家們在幾千年的爭論中還未能將具體哪些是人類的內在價值給出一個精準的劃分和描述,但諸如幸福、自由、正義、尊嚴、創造等這類基本內在價值是鮮有否定的。這些價值不是為了其他價值或目的而存在,它們本身就具有至高無上的價值,失去這些價值訴求,人們生活所欲求的全部內容將不複存在。而人工智能取代人類勞動力從事基礎工種的勞動,恰恰是將人類從勞作謀生的桎梏中解放出來,讓人們投身到藝術、認知、思想、情愛、創造等實現人的內在價值的活動中去。

最後,正如最近大熱的科幻劇集《西部世界》和《黑鏡》系列所隱喻的那樣,部分人認為人工智能的“覺醒”才是對人類最致命的威脅。他們害怕人工智能發展到具有自由意誌和自主意識的強人工智能階段後,會擁有跟人類一樣的“人性”腹黑面而與人為敵。但是,正如以上所說,現今馮·諾依曼框架下的二進制計算機的工作原理依賴經典物理學的“定域原則”,永遠不可能“覺醒”,而只有以“非定域原則”為構架的計算機(比如量子計算機)才有可能產生自我意識。所以,在現今神經網絡人工智能獨領風騷的情況下,這種擔心完全多余。

那麽,如果基於量子力學我們真的制造出了具有自我主體意識的強人工智能呢?這時我們就要徹底轉變思路了,此時有意識和情感的人工智能也具有與人類對等的人格結構,在社會地位與權利尊嚴等方面應與人類一致。拿它們去買賣,相當於法律上的販賣人口。進一步地,我們必須將它們看成是我們的後代,與我們在實驗室培育試管嬰兒並無本質上的差別。自古以來,我們都希望自己的後代超越自己啊,“強人工智能”比我們強,我們慶賀都來不及,還焦慮什麽呢?

總之,按照人文理性的要求,面對自己創造的具有自我意識的強人工智能存在體,我們的基本態度應是接受並認可他們是人類進化了的後代。正如經過上萬年的演變後,躲在山洞里的智人成為穿梭於摩天大廈里的現代人的歷史進程一樣,人類以嶄新的方式繁衍出一種新面貌的超級智能人,這不是滅世的劫難而是人類的跳躍式進化。

但是,目前以Neuralink為代表的科技公司所試圖做的腦機互聯,卻極有可能將人類個體變成徒有人形的機器人,亦即行走的“僵屍”,徹底終結人類文明。如若僅僅出於害怕人類在超人工智能時代到來時不能與AI在勞動力市場相匹敵甚至被淘汰而企圖將人類變成AI,這將是對人類最緊迫且最嚴重的威脅。就像上文所說的那樣,人腦是迄今為止我們所知的最為複雜精巧的東西,在我們還沒有基本摸清其運作原理之前,對其進行任何加工改造都是極端危險的行為。

虛擬現實的顛覆性

著有《未來簡史》的哲學家赫拉利最近在英國的《衛報》發表了一篇文章,題為“無需就業就實現人生意義”,宣稱人工智能的發展將大多數人變成“不可就業”後,虛擬現實讓人們直接實現生活的意義。他還把人們在VR世界中與生產力脫離的活動類比於古往今來的宗教活動,試圖說明人們從來都是在生產活動之外才找到深層意義的源頭。

赫拉利認為勞作不是生活意義的源頭,與我們以上的觀點不謀而合。但他將人們在虛擬世界中的活動與宗教類比,卻忽略了一個最重要的問題,那就是,在宗教中,人一般被當成被造的存在,而在虛擬世界中,每個人都可以是世界的“造物主”。他沒註意到,“創造”與“被造”,是相反的。

在VR與物聯網整一起之前,VR只是一個體驗的世界,很多東西並不會在真實社會中直接造成實質性後果。VR和物聯網整在一起就不一樣了,那就是ER,擴展現實,我們此時就可以從虛擬世界操作現實世界中的物理過程,完成生產任務了。這方面我們界定完了以後,就可以討論,到底在現實世界不能幹的事情,是否可以允許人們在虛擬世界中去實現。

有人認為現實世界不許幹的事都是壞事,那可不一定。因為,現實中的自然限制不一定符合人的需求,人為的規矩也不一定是最合理的規矩。比如說孫悟空,還有《山海經》那種古代傳說中的很多東西,我們在現實中就幹不了。但是如果我們看不出這種神仙般的能力有啥不好,或許很好,我們就讓大家high起來啊。再比如說,現實生活中有國界,而虛擬世界中可以沒有國界,沒國界到底是好事還是壞事?沒有進一步討論之前,我們先不要輕易下結論。一下子從管制角度看,它好像是壞事,但是終極來看也許並不是壞事。是我們制度要適應這種東西,而不是倒過來,讓我們適應已有的制度。這就需要非常嚴格的邏輯思維,對人類社會本性有一種透徹的理解,對我們的生活的內在價值,都要有一些比較深刻的理解,才能想清楚這些我們必須面對的新問題。這就有很多思想資源,有兩千多年來哲學家討論的東西,平時人家不關心這些。現在虛擬世界和人工智能等東西來了,那些東西就變成任何人都要面對的事情。我們立法,和人建立關系打交道,都變成要思考最抽象的哲學問題了,這就要激活大家的人文理性。

VR領域真正的問題,其實是與馬斯克的“腦機融合”項目類似的問題。虛擬現實行業的不少人與馬斯克有類似的危險想法,就是繞過人的自然感官直接刺激腦中樞來給人輸入虛擬世界的信號。經過我們以上的分析,我們知道,這是萬萬使不得的。

不同的是,這邊形勢更加緊迫,卻少有人關註。虛擬現實與物聯網的結合是不久後幾乎必然要發生的事情,我已在實驗室中做出了可操作的原型了。做出這個,就是要警示大家,弄好了我們接近神仙,弄不好呢,馬斯克還沒來得及做的事,被虛擬現實大牛搶先了。一旦大家腦部被插,無論是在VR還是AI領域的人幹的,可能結果就是人類文明終結。

PermaLink: https://articles.zkiz.com/?id=250843

32歲靚仔拍劇為主《哈比人》Aiden密斟做新占士邦

1 : GS(14)@2016-03-17 14:52:57

自從現任占士邦、英國男星丹尼爾基格(Daniel Craig)表示不想再演007後,一直以來都有傳將有接班人頂上。近日英國傳媒報道,現年32歲的愛爾蘭男星Aiden Turner獲睇中做下任占士邦,並頻頻與電影公司密斟。



■Aiden(左)於《哈比人》系列演矮人Kili。

■丹尼爾拍完《007:鬼影帝國》後,已不想再繼續拍邦片。



飛洛城會電影公司

丹尼爾基格去年於其主演的第四部邦片《007:鬼影帝國》(Spectre)上映前,曾講過寧願割腕都不想再演占士邦,去意已決。丹尼爾的老友、英國男星Mark Strong最近受訪時亦漏口風,Mark被問到有沒有興趣演邦片奸角時回應:「如果丹尼爾繼續拍占士邦電影,我很有興趣演奸角,因為他是我的朋友。但是我想他已走到占士邦時期的盡頭。」據英國多間傳媒如《鏡報》及《太陽報》報道,片商心目中已有新任占士邦人選。於《哈比人》(The Hobbit)三部曲扮演矮人Kili的愛爾蘭男星Aiden Turner上周拍完英劇《Poldark》後,已飛到洛杉磯與電影公司繼續斟演占士邦,有指他早已見過電影公司人員作初步商議。《Poldark》監製Karen Thrussel上周出席活動時,被問到Aiden為何未有出席時,她卻說:「我好肯定不關占士邦事,但……即管睇吓點。」似乎暗示Aiden正在斟演邦片。外形俊俏的Aiden演戲經驗尚淺,他07年參演英劇《都鐸王朝》(The Tudors)後陸續演出不同劇集,其後又獲導演彼得積遜(Peter Jackson)賞識,找他參演《哈比人》。撰文:泰米





來源: http://hk.apple.nextmedia.com/entertainment/art/20160317/19532475
PermaLink: https://articles.zkiz.com/?id=298303

人比人心有不甘前全國冠軍淪為抑鬱流浪漢

1 : GS(14)@2017-01-14 07:54:20

曾經是16歲齡段的全國網球男單、男雙冠軍,原來與高鵬、公茂鑫、孫勝男等運動員屬同一梯隊的董財康,近日被發現患上抑鬱症,更被發現成為流浪漢,要靠好心人送食物維生。網上照片顯示,董財康現在留着長髮,衣衫襤褸,在破舊的房屋居住,對於前往送食物、探望的人,不太理睬。沒人知道董財康的確切年齡,也不知道他的家人在哪。據報道,董財康曾入選過4世界少年網球錦標賽的名單,是備戰2008年北京奧運會的重點培養對象。但因為過早退役當教練,眼看自己隊友飛黃騰達,參加各種比賽,自己卻只能當個小教練,董財康因而患上抑鬱症。新浪微博




來源: http://hk.apple.nextmedia.com/international/art/20170113/19895650
PermaLink: https://articles.zkiz.com/?id=322491

Next Page

ZKIZ Archives @ 2019