📖 ZKIZ Archives


李開複:人工智能是下一個革命,需要思考5秒以下的人類工作將被取代

來源: http://www.iheima.com/zixun/2016/0924/158921.shtml

李開複:人工智能是下一個革命,需要思考5秒以下的人類工作將被取代
李開複 李開複

李開複:人工智能是下一個革命,需要思考5秒以下的人類工作將被取代

9月22日,創新工場2016年度峰會在中國的創新之城深圳舉行,在會上,李開複就中國互聯網的創新與趨勢進行了分享。

以下為演講全文:

各位大家上午好,今天我想跟大家分享的主要有以下幾點:

一,我們眼中今天中國互聯網的現狀以及我們從中看到的重大投資機會;

二,創新工場現在對重大投資領域的部署;

三,我們過去一年的表現。

在創新工場創立之初,我們主要關註的是互聯網,後來我們在遊戲、社交、應用APP領域都做了很好投資。但是我們從來沒有把自己定位成一個僅僅投資互聯網的公司,我們實際上要做的是成為一家追隨科技趨勢的投資公司:如果一個公司能夠最了解科技的趨勢和方向,找到這個風口,而且在別的投資人和創業者沒有看到的時候就把錢帶進去,這樣會給投資者帶來很大的回報。

創新工場具有兩大特色,第一,我們是最懂投資者的VC,第二,我們會給我們的創業者帶來最大的價值。今天我將主要圍繞這兩點解釋我們所看到的未來趨勢,同時投資之後會給創業者什麽價值。

5019043

一. 互聯網的新趨勢與新機會

現狀與趨勢

首先,講一下國內互聯網的重大趨勢改變。這些趨勢和改變意味著我們的投資和方向也需要不斷調整,我們每一年都在調整方向。

下面這張圖所告訴我們的是近年幾個重大趨勢的改變。

c15482b

左上角的數據告訴我們,雖然中國是世界上最大的互聯網國家,但是其用戶成長率在下降,這就意味著,過去那種依靠人口紅利的創業模式,僅僅靠燒錢、燒用戶,之後再琢磨怎麽賺錢的模式已經不是最好的模式,因為中國互聯網人口已經接近飽和。

當然,接近飽滿的時候這些人越來越有錢,越來越能夠移動支付,他可能帶來新的投資機會,但以前所謂幾個小朋友做一個APP炒火炒紅的創業模式已然很難行得通了。

左下角的數據顯示,雖然APP總量在快速成長,但實際非活躍的APP,也就是僵屍APP卻是越來越多。這也再一次告訴我們,現在要再一次尋找新的風口,新的標的,新的投資方向。

過去一段時間,我們也看到一些人口紅利創業模式在做向下一步的自然延伸。從七年前五年前看過來,我們會發現,一個企業往往先是依靠人口紅利做起來,然後慢慢找到賺錢的方法,而它所在的行業也會從剛開始的藍海變成紅海,從很多競爭者變成少數的,直到趨於壟斷,所以看到美團也好,58也好,現在都是通過合並來尋找下一步最大成長的機會。

93b93ff

最近大家都在說的互聯網寒冬,實際上與目前市場的估值過高不無關系。從上面左邊兩個圖我們可以看到,確實在VC眼中,現在的項目太貴,在創業者看來,又找不到投資。賣者不願意降價,買者不願意付費,所以市場就會變得冷清。

從投資案例數看,2015年是非常好的一年,但是從今年前半年的數據看,如果後半年跟前半年一樣的話,今年整體的投資案例數大概只能達到2015年的水平。

從這個角度看起來,大家可能會有一些擔心,但是實際上不是這樣。雖然數據告訴我們整個大環境可能有點問題,像P2P、O2O可能開始有點讓人擔心,但是在有不少的領域還是非常火。例如人工智能、AR、VR、教育市場等這幾個市場都非常火,都發展得非常好。這些重點成長的領域或者所謂的風口,其實投資量是在增加的。

創新工場投資的幾個案子,包括馭勢科技吳甘沙,包括第四範式,這幾個公司都是在所謂的泡沫,所謂寒冬的時候用非常好的估值融到下一輪。雖然他們沒有足夠大的收入,但當這些公司有很棒的創始人,找到了一個好的風口時,他們其實是不需要擔心投資的,而相應的,VC也不需要再去看過去的什麽紅海了,而是在把時間放在看這些新的崛起的領域有什麽機會。

創新工場的投資策略

下面這張圖內容非常豐富:

c15482b

上圖中,藍色的柱形是我們創新工場在各個行業投資數量的真實數據,橘色的曲線則是市場對該領域的追逐熱度。曲線向上代表熱度高,大家都在往里鉆,曲線位置低則代表著大家都不想投。

第一張是P2P金融行業。所謂P2P金融就是利用一個賣家的機會在網上形成一個市場,他有可能打破金融市場的壟斷,可以產生非常好的機會,但是也可能帶來很多欺詐,產生很多道德風險以及監管難題,鑒於這些顧慮,我們創新工場從來沒有進入P2P金融。

我記得我生病回來,記者一直問我為什麽不進入P2P,我的回答是擔心這個行業會發生問題,結果後來真的發生了。所以現在也沒有人再問我們這個問題了。

這其實說明我們一向非常謹慎。做風投當然有可能錯過一兩個機會,但是更重要的是我們抓在手里的那些機會都是對的,其他的,即便錯過一兩個也沒關系,事實上不投也OK的。

在對於金融的改革和金融創新方面,我們看的還是它里面核心的技術,無論是人工智能的技術,還是區塊鏈的技術,這些技術對金融的改革是真實的、可持續的、長期的。

對金融創新和AI的投資證明了我剛才所講的投資原則。我們可以看到,在我們2012年做AI投資的時候,業界還沒有聽過AI,2013年也是一樣,2015年開始有意識了,2016年到AlphaGo的時候,我們已經投資了幾十個案子,這就是我們作為創新工場識別趨勢的優勢。

從上面我們可以看到,O2O的來臨,還有消費升級,這兩個有點相關的領域實際上已經慢慢被識別為重要的機會領域。O2O我們從來不認為是不成立的,O2O今天即便燒了很多錢,很多挑戰和公司倒閉,但是滴滴這一個公司說不定能賺回所有出行公司輸掉的錢。問題只是在於有些公司燒錢太快,這樣的方法一定會失敗的,這實際上不是O2O的問題,而是VC的風格和選擇問題。從上圖可以看到,在O2O方面我們整體來說基本是跟市場走得差不多,但是實際投資的量又是非常少的,我們的投資非常謹慎,我們所投的公司量並不多,錢也不多,絕大多數的情況都挺好。

消費升級待會再詳細解釋,這里只是想強調的是,當人口紅利消失的時候,這些已經成為移動互聯網用戶的群體,他們實際上在想的是怎麽樣生活得更好,這是我們特別重視的領域,在消費升級這個詞還沒有造出來我們就投了很多案子。

在2014年我們停止了對移動遊戲的投資,因為我們認為遊戲已經達到一個頂峰。但因為在投資遊戲的時候,我們對虛擬和變現有了非常深刻的理解,因此把我們怎麽在虛擬社會里賺錢這個認知投射到了新的領域:文化娛樂。

文娛這個領域可能看起來很廣,但是簡單來說就是電影、電視劇、綜藝節目,無論在網上還是傳統渠道上這些內容都很賺錢,但是他們未來會更多的進入網絡時代,他們需要學習怎麽用遊戲的那套方法來運營、獲利、變現,所以我們非常奇怪的變成了很多電影、電視的最好的投資夥伴,這是我們當初沒有料到的事情,從中也賺到錢——雖然這可能不是最高的回報。

從以上這些行業投資例子可以看到,創新工場最希望做的,就是成為最懂科技趨勢的投資人,而到底我們是不是懂,看一下我們的投資領域就很清楚:我們選擇投或不投,我們選擇在哪些領域投,我們選擇在哪些領域轉移方向,數據最有說服力。

雙幣基金為什麽是必須的

a0318a9

在今天的中國融資領域里面,一個雙貨幣資金是必須的。為什麽這麽看?我來講一下理由。

回顧過去的10年,國內最頂尖的VC肯定是美金投資人,但最近幾年人民幣也越來越受創業者青睞。但這兩種基金都各自特點,因此對於創業者,他就需要根據自己的需求來決定是需要美元投資還是人民幣投資。關於兩者的區別,大家可以從上圖中清晰的看到。

另外需要強調的是,美金的周期是10+2,我們人民幣的周期是5+2,美國標準的項目可能是最大的成功概率只有10%,但是可以得到100倍回報,最典型的人民幣項目能夠成功退出的概率是40%,但是可能是8倍到10倍回報。

作為一個管理雙幣基金的VC,我們很高興為兩者服務,我們希望對所有的創業者都有吸引力,我們必須要有兩種貨幣,並不是所有的VC都清晰的看到這一點,但我們認為看到這一點並作合適調整是最好的。這也驗證了創新工場有獨特的眼光和風格和魄力,在正確的時候作一些正確的改變。

二. 創新工場的重大投資部署

人工智能

既然人口紅利已經到頂了,移動互聯網也基本風口已過,那麽下一個革命是什麽?下一個革命是人工智能。

我們認為在未來10年,大部分人類需要思考5秒鐘以下的工作都會被取代,比如我們巴曙松教授寫的文章,或者《紐約時報》的文章這些不會被簡單的替代,但是簡單的、交易型的,所有中介的公司,所有助理的公司、職位都會消失。人工智能沒有我們腦子那麽奧妙的結構,但是當它掌握了比人這一輩子能看到數據還多的數據量的時候,輔以特殊的學習方式,它就可以超越人了。

在這里可以看到創新工場對人工智能的藍圖,這里可以劃分成五部分,第一是大數據,第二個感知,我們認為語音和人臉、物體的識別會越做越好,對自然語言的理解在一個領域可以做得很好,但是跨領域還需要更長的時間,還有在傳感器方面,現在都比較貴,但是隨著大量的生產就會變便宜。機器人更多是商業的應用,而不是家庭的應用,因為機器人實際上離人的期望值還挺遠,但是我們並不是不看好所有家庭機器人,也有一個例外的,比如可以播放音樂增加家庭娛樂性的機器人等等。

d080f8c

中間棕色的是最重要的,就是平臺的形成,我們認為平臺的形成還有幾年。當有平臺時,人工智能就可以普及,應用就可以井噴了,這個還要4到5年。這4到5年非常關鍵,因為在人工智能平臺未形成之前的這段時間,人工智能專家還會有非常獨特的優勢,如果我們找到這些專家就有創業的機會。任何一個好的技術變成一個平臺都需要若幹年時間的演化,移動互聯網如此,人工智能如此。

我們在人工智能方面投了很多公司,我們獨特的優勢是我們在中國、美國都有投資。美國的投資非常著重AI的領域,同時中國畢業的學生對AI興趣非常大,國內外有很多頂尖媒體都報道了我們所投資的公司,例如《紐約時代》、《福布斯》雜誌等都已經報道了我們的項目。

文化娛樂

我們第二大投資領域應該是文化娛樂領域。文娛我們看兩個方向。第一是IP,而且是可持續性的,呈高成長性的那種IP。第二要看用戶的平臺,當然平臺是可遇不可求的,不是在創業第一天就做出一個平臺,這是兩個我們主要看到的方向。

94a5655

7a15df8

那麽在內容方面我們一個專長,過去跟大家介紹的,就是了解95後,我們有一批經理,每天去找新的現象和投資機會,比如當年投美圖秀秀、SNH48,比如說我們投了動漫,是日本最頂尖的,還有我們投了古風,年輕人很喜歡這個,這些可能不見得在座的人都了解,因為95後這一批人真正出生在成長在虛擬世界里面的,他們的思維方式跟我們都不一樣。

我很幸運的是,雖然當我的90後孩子在用他們喜歡的產品時,我沒有辦法再追上他們的腳步,但是由於我的孩子允許我在Facebook上成為他的朋友,所以我還是有機會了解這些新東西的趨勢。終有一天,我們會發現我們老了,孩子們玩的東西玩不慣了,最後就OUT,我相信在國內看到直播、網紅,他們還會越走越快,終有一天他們也會OUT,我的悲傷你們有一天也會感同身受到。

因為我們做的SNH48,因為我們做了馬東的《奇葩說》,因為我們是懂互聯網的VC,因為我們懂對接,我們就成為了傳統娛樂界的好朋友,如果他們中誰想創業,想走互聯網的路線,我們就成為他們第一的選擇。

在線教育

下一個領域是在線教育。

119c7d9

我們看到的幾個趨勢,一個是教育可以靠互聯網來傳播、獲客,因為音頻視頻質量的問題慢慢得到解決,所以空間、距離不是問題,你遠程也可以學習,而且一樣清楚、精彩。第二是,在線教育要關註現實問題:家長希望孩子升學,老師希望學生分數越高,所以出現了越來越多交互性強的、趣味性強的,能夠真正讓孩子們多學到知識的創業創新。另外我們看到,AI是可以運用到教育上的,該做什麽方向,給家長什麽暗示,讓孩子該走什麽路線,這都是人工智能的優勢。

在教育上我們投了三個比較大的代表性公司,第一個是VIPKID,第二個是在老師在課堂上用,非常能夠幫助學生成長的工具盒子魚,它已經進入一萬個學校,而且基本上所有頂尖城市的頂尖高中都在用它,做英語教學。第三是The ONE智能鋼琴,這個以前介紹過了,現在他一個月的銷售接近6000臺。

B2B

再下面是B2B的領域,B2C的時代已經達到峰值,下面我們更想看的是產品怎麽樣和產業鏈對接,怎麽樣能夠賣東西給企業用戶而不是終極用戶。我們認為B2B也能夠進入3.0的時代,不是關心怎麽買得最快、最便宜,而是關心怎麽買到最適合他的,怎麽才能最快的獲得服務。另外,我們跟釘釘是唯一合作夥伴。

消費升級

再下面我想講的是消費升級,大家都想過好的生活,那麽好的生活蘊涵有什麽機會?第一個機會是可以經過渠道做過去沒有的產品和品牌,比如說要出發告訴大家出行不一定要去旅行社,要出發是適合中國的。

dda62b9

第二,左邊是互聯網傳播的方式,比如經過微博、微信公眾號可以傳播很多新的品牌和產品,過去是沒有的,比如我們投資的新風尚等。設計是過去很難打造的一個產品,但是現在有互聯網、網紅的力量,這些是不是可以改變?

右下角我們可以看到重組的供應鏈,比如說我們在飲食方面,因為互聯網和送餐改變了中國的飲食習慣,也感謝百度外賣和餓了嗎,所以這方面我們投的都是這一類的公司。原麥山丘因為有自己的平臺很快獲得幾千萬的利潤。

三. 創新工場過去一年的成績

最後,我想介紹一下,左邊看到的是我們3億美元資金,感謝大家對我們的信任,右邊是第二期人民幣基金,25億,也感謝大家對我們的信任。

06ca5d7

在我們繼續幫助創業者培訓方面,我們繼續在做我們的兄弟會,也在做我們的群英會,新銳營、同學會等等,讓我們有更多的資源。感謝我們基金規模大了,這些創業者如果到了A輪或者B輪我們都可以投資它。

db49df2

去年我們帶中國創業者去參觀了矽谷,拜訪了比如說谷歌、蘋果、Facebook等等大公司,見到了矽谷的頂級的創業者,在這過程中我們的創業者都獲得了很大的啟發。這幾年一些中國創業者成功速度很快,但是在實現一個偉大夢想和做一個百億甚至千億美元公司的過程中,中國創業者還有很多要跟美國學習,這也是很特殊的、也只有創新工場能做到的培訓項目。

另外我們在北京上海,今天在深圳成立了公司,我們還有眾多合夥夥伴能夠大力幫助我們的創業者,當我們產品需要代言的時候,也找到明星在各個地方幫他們推廣。

最後一點,昨天我們創新工場宣布成立了人工智能工程院,我們想做的是把特別早期的科學家拉進來幫他們創業,科學家創業跟過去APP創業是不一樣的,因為科學家特別有技術能力,但並不是特別好的CEO,所以要幫他們找CEO,但是這些人創造的價值非常大,我過幾天就要去美國,把美國頂級的華人拉回來,讓他們參與我們的工程院,只要他們要創業,我們就投資他們,謝謝大家!

創新工場 李開複
贊(...)
文章評論
匿名用戶
發布
PermaLink: https://articles.zkiz.com/?id=216691

人工智能長篇報告:1.5萬字告訴你AI的應用究竟對人類社會經濟有哪些影響

來源: http://www.iheima.com/zixun/2016/1008/159076.shtml

人工智能長篇報告:1.5萬字告訴你AI的應用究竟對人類社會經濟有哪些影響
豬場智能菌 豬場智能菌

人工智能長篇報告:1.5萬字告訴你AI的應用究竟對人類社會經濟有哪些影響

目前關於人工智能的四個關鍵性問題的答案,都在這里了。

來源 / AI Now《The AI Now Report》

譯者 / 網易智能(孫文文 費寧 誌文 阿樹 止水 倪盛)

前  言  

人工智能(Artificial Intelligence,簡稱AI)是一系列技術的集合,其下包括機器學習、推理、感知和自然語言處理等。人工智能的概念和應用65年前就已開始,不過最近AI的進步和應用讓這種技術再次成為熱議。隨著AI被更廣闊地應用到人類社會和經濟生活各個方面,新的機遇和挑戰隨之而生。其巨大的潛在影響讓人類不得不謹慎思考AI技術的發展與應用。

於今年7月舉行的“AI Now”研討會是由白宮科技政策辦公室和美國國家經濟委員會聯合推動的一系列研究的最後一個環節。此前的一系列研究分別從不同的角度對AI進行了分析研究,從政策法規到AI的安全控制,再到AI公益以及如何挖掘AI的更多潛能。這次“AI Now”則主要就未來十年AI在社會和經濟領域的影響進行討論。來自全球多個領域的專家學者集聚一堂,發表自己的觀點。討論的問題包括:現階段AI的迅速發展造成了哪些問題?如何更好地理解與使用AI來創造更公平公正的未來?

社會和經濟的問題多不勝數,本次“AI Now”主要圍繞“醫療”、“勞工就業”、“AI公平”以及“AI道德”準則展開討論。

之所以選擇“醫療”和“勞工就業”作為主要話題,是因為目前這兩個領域中AI滲入廣泛,AI所能帶來的問題在這兩個領域中較為突出和明顯。而“AI公平”和“AI道德”則是未來大家都關註的問題:AI會有助於世界大同還是會加劇社會不公?以及如何確保AI的利益被全體人類享用?

該研討會的舉行旨在讓AI能夠更好地造福人類社會。通過眾多專家學者聚集一堂進行討論的方式,本次“AI Now”研討會對人工智能學界內外都具有顯著意義。

  問題和建議  

研討會對未來AI所可能造成的情況做出了預見,並分別給出相應的建議。需要聲明的是,下列建議融合了全體與會人員的智慧,並不代表個人或某組織的立場。

隨著AI愈加緊密地被應用到社會經濟生活的方方面面,以下列出的問題和對應的建議可以作為投資者和相關領域從業者在對來的參考指南。

1、問題:AI的發展和應用有賴於特定的基礎設施和人、物資源。這些基礎資源的短缺無疑會限制AI的發展,對這些基礎設施和資源的掌握在AI發展前期變的至關重要。

建議:從多個渠道改善發展AI的資源基礎。註重數據集、計算機、相關人才教育培訓等配套領域的建設。

2、問題:雖然目前AI水平還在初級,不過在多個領域AI已經作為人工輔助的角色存在,並且對勞動關系產生了影響。奧巴馬經濟顧問委員會的主席傑森·弗曼(Jason Furman)就表示,低技術的體力勞動是最有可能被AI和自動化機械取而代之的職位。如果機器人開始和人類競爭工作,人力資源的分配也將迎來變革。

建議:更新自己的思維和技能,來應對AI參與所帶來的就業結構的改變。未來AI機器將承擔絕大多數低技術水平的工作職位,人們需要調整自己的技能儲備和收支方向以應對新形勢。

3、問題:AI和自動化的過程通常都是在人們目所不及的幕後進行。缺少了人類的參與,機器可能做出有失公允或不慎恰當的決定。隨著AI應用的進一步增長,對AI判斷和勘誤將變得更加重要,也更加困難。

建議:支持AI校準和勘誤的研究,AI錯誤危害評估程序也應提上日程。這些研究應和AI的突飛猛進配套發展,就像人類系統中司法之於行政。如此能夠及時發現AI犯下的錯誤,並避免嚴重後果。

4、問題:針對AI模式下公私機構公平和問責制的研究似乎與當前美國一些法律相忤,比如計算機欺詐與濫用法案(CFAA)和數字千年版權法案(DMCA)。

建議:需要澄清的是,無論是計算機欺詐與濫用法案還是數字千年版權法案,都沒有限制相關研究。

5、問題:盡管AI正以飛快的速度被運用在醫療、勞工等諸多領域,但目前人類沒有一個公認的辦法來在評估AI所帶來的影響。

建議:支持AI影響評估系統的研究。而且該領域的研究應該和政府機構通力合作,使成果能為政府行政所用。

6、問題:那些因部署AI而權益受到損害的人,其聲音往往被忽視。

建議:在打造AI系統的時候,受影響者的意見應該被聽取。AI應由各方共同設計以免有失公允和太過激進。

7、問題:AI的研究主要集中在電子技術上,對於人性方面問題的關註常常不足。在未來,計算機科學領域的成員將益加呈現同質化和單一化對特點,這不利於AI開發者的眼界和經驗,進而影響到AI產品的打造。

建議:AI研究員和開發者應該盡量多元化,開發人員的多樣與多元也會帶來更豐富紛呈的AI產品。未來AI領域應該多多支持跨學科研究,從而使得AI系統能夠融合電子計算、社會科學以及人文氣息。

8、問題:現有的道德準則已經不能應對AI在現實中所面臨問題的複雜性。(比如在醫療、執法、犯罪判決以及勞務等等)同時,在大學里的計算機課堂上,盡管這些理工課程也逐漸開始重視道德教育,然而並未徹底貫徹到實踐中。

建議:同美國人工智能協會(AAAI)、美國計算機協會(ACM)以及電器和電子工程師協會(IEEE)這些專業機構進行合作,推動產生可以面對新形勢的道德準則。同時在學校課堂上貫徹落實這些新道德準則的教育。每個有誌於計算機科學的學生在專業課之外也應接受公民權利、自由等道德教育。相應的,那些有AI滲入的領域(比如醫療場所)的從業人員也應該對這些新道德標準有所知悉。

目前關於人工智能的四個關鍵性問題    

我們現在將對目前關於人工智能的四個關鍵問題進行深入探討,為讀者提供一個了解業內專家見解以及建議的機會。相關探討包括每個關鍵問題所面臨的挑戰、機遇以及可采用的幹預措施。

  1. 社會不公  

人工智能系統如何造成偏見以及歧視等社會不公現象?

人工智能系統在高風險決策領域的作用越來越重要——從信貸、保險再到第三方決策以及假釋問題。人工智能技術將代替人工決定誰會獲得重要機遇,而誰又將被拋棄,由此將會引發一系列關於權利、自由以及社會公正問題。

有些人認為人工智能系統的應用有助於克服人類主觀偏見帶來的一系列問題,而有些人則擔心人工智能系統將會放大這些偏見,反而會進一步擴大機會的不均等。

在這場討論中,數據將會起到至關重要的作用,引發人們的強烈關註。人工智能系統的運行往往取決於其所獲得的數據,也是這些數據的直觀反映。其中也包括這些數據的來源以及收集過程中的偏差。從這方面來講,關於人工智能的影響是與相應的大數據技術密切相關的。

從廣義上講,數據偏差有兩種形式。第一種是采集的數據客觀上不能夠準確反映現實情況(主要歸因於測量方法的不準確;數據采集不完整或過於片面;非標準化的自我評價以及數據采集過程中的其他缺陷)。第二種在數據采集的過程中主觀上存在結構性偏差(諸如在關於職業數據的采集中有目的性地通過主觀性的重男輕女來預測職場成功率)。前一種的數據偏差可以通過“凈化數據”或者改進數據采集過程來加以解決。但後一種則需要複雜的人工幹預措施。值得註意的是,雖然有很多機構都為解決這種問題做了大量的工作,但對於如何“檢測”數據偏差尚無定論。

當采集的數據存在上述偏差時,用這種數據所訓練的人工智能系統也會存在相應偏差,其產生的模型或者結果不肯避免的會複制並放大這種偏差。在這種情況下,人工智能系統所作出的決策將會產生差別效應,從而引發社會不公。而這種不公平要比人為偏見和不公隱晦的多。

在以風險控制為主導的行業中,隨著人工智能系統的廣泛應用,導致人與人之間的細微差別異化對待等現象顯著增加,在保險以及其他社會擔保行業尤為如此。人工智能系統的應用能夠使公司更加有效地通過“逆向選擇”來識別特定群體以及個人,從而有效避免風險。

諸如在醫療保險領域,人工智能系統會對投保人的特征以及表現行為進行分析,並對那些被識別為特殊疾病或者是未來發病率高的投保人收取更多保費。在這種情況下,對於那些健康狀況不佳且經濟能力差的人群尤為不利。這就是為何批評者經常會指責稱,即便人工智能系統的預測準確,保險人行為理性,但效果卻常常是帶來負面影響。

保險業的競爭或許會加劇這種發展趨勢,最終人工智能系統的應用或許會加劇這種不平等性。當然,相關反歧視法律法規中的規範性原則能夠為解決這些問題帶來幫助,雖然這種方法可能不是最有效、最公平的。此外,對人工智能系統進行設計和部署也很重要,但現有的法律框架或許會使相應研究受到阻礙。諸如如計算機欺詐和濫用法(CFAA)和數字千年版權法案(DMCA)都對這方面研究進行了限制,因此當下也需要對現行法規進行改革,確保必要的研究能夠順利進行。

人工智能將受益少數人?

人工智能系統為經濟價值的產生帶來了新的方式,也對經濟價值的分配產生了新的影響。在某種程度上,人工智能系統的價值分配會使一部分群體受益,從而延續或加劇現有的薪資、收入以及財富分配差距。

那些有能力研發人工智能技術的組織將會加劇這種不平等性。據預測,人工智能是一個每年市值達到數十億美元的龐大產業。開發人工智能技術需要大量的前期投資,其中包括海量的計算資源以及大數據,兩者的成本都非常之大。這導致人工智能的開發和應用被限制在一個特定的範圍之內。在這種情況下,那些擁有強大數據以及計算能力的企業才能夠通過人工智能系統深入了解市場動態,從而獲取更多優勢,為自己帶來“富者更富”的馬太效應,帶來更多成功。

從另一方面來說,人工智能以及自動化系統能夠降低商品和服務成本,如果這些降低的成本能夠使消費者受益,那麽人工智能就可以縮小貧富差距。在這種情況下,人工智能系統能夠提高整個社會的生活水平,甚至於引發一個漸進式的再分配效應。

此外,人工智能也會帶來全新的生活方式。在人工智能環境下,那些工作落伍的人有機會需求獲取資源的新方式,而工作受到影響的人也能夠通過人工智能創造新的就業機會。換而言之,人工智能能夠緩解勞動力危機,讓人們自由追求生活以及工作新方式,從而提高社會的整體福利。

盡管如此,一些評論家指出,人工智能系統會使得某些工人的技能多余化,那些被自動化所取代的工人不得不尋求新的就業機會。即便這部分工人能夠找到新的工作,這種工作也常常是低附加值的,且工作穩定性更低。從這個角度將,人工智能以及自動化系統反而消除了就業機會。

更進一步,如果學習新的工作技能非常昂貴,工人們或許會認為這種職業技能培訓與新工作並不成正比。在這種情況下,人工智能系統不僅會增加社會不公,更會帶來永久性的失業以及貧窮。這就是為何理解人工智能系統對勞動力的潛在影響是理解其對經濟平等性影響的重要方面。

和以往許多技術一樣,人工智能技術也往往反映了其創建者的價值觀。因此,也可以通過在人工智能開發、部署、維護階段的多元化來推動人工智能技術的平等性。

當前,在人工智能甚至於整個計算機科學家技術行業,女性以及少數民族從業人員所占比例還很少。這種現狀也在一定程度上導致整個技術缺乏包容性,導致一定的偏見,延續或限制相關從業者對其他群體的考慮。

人們也越來越清楚的認識到,人工智能領域從業者的多樣性有助於人工智能系統滿足不同人群的利益。為了解決偏見、歧視和不平等問題,人工智能團隊需要一個更廣泛的視角。

 2.  勞工關系   

目前有關就業和AI系統的討論往往都集中在對人們未來將會失業的擔憂上。最新的研究表明,還存在更加複雜、影響更加直接的問題,這些問題不僅僅影響勞工市場,還影響雇主與雇員之間的關系、權力動力學、職業責任和工作在人類生活中的角色。

許多傳統經濟研究人員正在密切追蹤美國國內勞工市場和企業機構,以此來考量AI系統的影響。這類研究可帶來非常重要的定性數據,能夠促進對宏觀經濟趨勢和勞工供需狀況的理解,比如未來將會有多少工作崗位。

與此同時,社會科學研究則評估工作屬性和工作動力的改變正在如何改變人們的日常生活體驗。這兩個研究視角對於衡量AI系統短期對勞動力的社會影響和經濟影響都必不可少。

AI會影響工作崗位需求嗎?

自動化技術在經濟中的角色遠非新議題,事實上對於AI系統影響的考慮是出現於長期以來的討論。

雖然表面來看勞工需求會隨著自動化技術的日益普及而下降,畢竟需要做的工作將會很有限,但也有經濟學家並不這麽認為,他們稱該觀點是“勞動合成”謬論。他們指出,隨著一個行業的生產力的提升(由於自動化技術或者其它因素),新行業也會誕生,因而會產生新的勞工需求。例如,1900年農業在美國勞動力中的占比為41%,到2000年該占比只有2%。兩位勞工經濟學家大衛·奧特爾(David Autor)和大衛·多恩(David Dorn)稱,即便出現這種劇變,失業率長期來看並沒有出現上升,就業人口比率實際上反而出現提升。另外兩位經濟學家詹姆斯·亨廷頓(James Huntington)和卡爾·弗雷(Carl Frey)則給出了可怕的預言:AI系統將會大大減少工作崗位。

還有人在爭論勞動市場的變化和波動是否與技術進步有關,是否只是因經濟政策而出現。這類看法聚焦於現有的法律體系和監管機制對於AI和自動化系統的發展應該擔當什麽樣的角色。例如,羅伯特·戈登(Robert Gordon)認為當前的創新浪潮其實並沒有它們表面上看起來那麽具有變革性。不少持相反意見的人則稱,勞動市場正因為技術變化而發生重要轉變。這些人包括約瑟夫·斯蒂格利茨(Joseph Stiglitz)和拉里·米歇爾(Larry Mishel),他們認為,要保護勞動力,就必須要對AI和自動化系統相關的監管和其它政策變化上保持高度的重視。

奧特爾、多恩等經濟學家發現“就業兩極分化”現象正變得非常明顯,即中等技能崗位在減少,而高等技能和低等技能的崗位則在增加。雖然未來可能會出現新的崗位,但它們往往都收入比較低,不受歡迎。

例如,許多支持AI系統的工作事實上需要由人類去完成,他們需要維護那些基礎設施,照顧系統的“健康狀況”。這種勞動力往往不大顯眼,至少從媒體的報道和人們對AI的印象來看是這樣。因此它往往受到低估。這類工作包括負責清潔辦公室和維護工作的清潔工,負責維修服務器故障的維修工,以及有位記者所說的“數據衛生工”(能夠“清理”數據,為數據分析做好準備)。

AI系統對勞動力的影響相關的問題應當不僅僅包括未來是否會創造出新崗位,還應當包括那些崗位會否是能維持生計的體面工作。

此外,有關AI系統和勞工市場未來的討論通常都專註於傳統上被認為是低收入的工人階級崗位,如制造業、卡車運輸、零售或者服務工作,但研究表明,未來各行各業都將受到影響,其中包括需要專業訓練或者高學歷的專業工作,如放射學或者法律。關於這一點,未來將需要解決職業責任和義務方面的新問題。

AI將會如何影響主雇關系?

近年來,研究人員開始研究依靠大數據的AI和自動化系統(從Uber到應用於大型零售商的自動化調度軟件,再到工作間監視)正在如何改變雇主與雇員之間的關系。

研究發現,雖然這類系統可以用來賦能員工,但該類技術也可能會引發大問題,如剝奪員工權利,加劇就業歧視問題,以及催生不當勞動行為。

例如,AI驅動的勞動力管理和調度系統正越來越多地被用來管理勞動力,助力按需經濟的增長和“朝不保夕族”(precariat)的崛起。雖然部分研究人員稱恰當的調度能夠帶來很有價值的彈性,但到目前為止,更多的研究發現受該類系統管制的員工存在情緒緊張和缺乏安全感問題。

由這類系統管理的員工的不利體驗包括長期不充分就業,財務狀況不穩定,缺少傳統全職員工能夠獲得的福利保障,無力為家庭或者自我照顧(又或者因為忍受不了該類工作往往要求的隨時待命性質而尋找別的工作)做規劃。此外,受這些問題影響的員工更多是女性和少數族裔。

另外,基於AI系統的新遠程管理模式會加大將“系統”所做的嚴重影響員工的決策歸責於雇主的難度。因此,員工更容易受到剝削。

例如,像Uber這樣的由大數據和AI驅動的平臺會遠程控制行駛路線、定價、報酬甚至人際交流方面的標準——這些決定傳統上說通常都有人工親自管理。

除了模糊化特定決策的性質和邏輯之外,這類遠程管理通常並不被認為是“雇員管理”。

由於這些新管理模式不大符合現有的監管模式,像Uber這樣的公司會將自己標榜為技術公司,而非雇員的管理者。按照這一理念,這類公司將自己視作促進連接的平臺,因此不會像傳統雇主那樣對雇員負責。依照這種模式,雇員最終要承擔權益保障(如減輕稅項負擔、醫療保健和其它的勞工保障)和潛在救濟模式的就業帶來的風險。

  3.  醫療健康  

像我們現在所看到的大多數已被應用到醫療健康領域的AI系統,它們幾乎都依賴於大型數據庫,這些AI系統會通過各種複雜的統計模型和機器學習技術,從其所收集到的海量數據中,自動提煉出各種重要信息。

那些已投入使用的醫療數據信息源(仍處在不斷增長當中)——包括電子病歷(EHRs)、臨床和醫保數據庫、從各類消費電子產品和App上傳來的健康數據——目前已經被大量地應用到AI系統的實踐,這些AI系統具有極大的能改善社會醫保水平的潛力。

無論是臨床診斷、病人護理,還是施藥;無論是藥品生產、組織管理,還是醫保信息交互,這些AI系統都為醫療從業者的工作起到了極大的助力。

AI是如何被融入到醫學研究和醫療健康的?

將AI系統融入到醫學研究,具有令人極為欣喜的應用前景,它能幫助我們更好地理解那些疾病的病理,幫助我們開發出更多的新式治療手段,實現更為精準的醫學診斷,甚至還能私人訂制地為個人生產出特制的藥品。

然而,鑒於目前仍存在的將AI應用到醫療領域的局限和偏見,它們或將阻礙這些應用前景的實現,而這就需要研究人員更為細心謹慎地去探索這一前沿的技術。

目前,這些將AI技術應用到醫療領域的局限,包括有不完整或不準確的研究數據,即未含蓋到特定的少數群體,除此之外,尤以美國醫保系統為代表的複雜醫療補貼激勵制度,也將在一定程度上阻礙到了AI醫療技術的應用。舉個簡單的例子,目前的一些醫療補貼制度會更支持個別種類的藥物研發,或是更傾向於補貼個別治療方案。

醫療研究數據時常會表現出客觀、通用的屬性,但在實際應用的過程中,這些研究結論往往會表現出片面、暫時和只針對某些團體或病癥的特性,而AI系統根據這些“片面”數據所分析和建立出的模型,可能會引出、建立或是衍生出一些錯誤的猜測。

所幸的是,這樣的錯誤情況是可以避免的。如果一個AI系統所收集的數據不存在上面我們所提到的那些瑕疵(假設這點是可以被保證的),或是該AI系統所使用的數據框架像隨機對照試驗方法(randomized control trials, RCTs)或是其它公共醫療數據庫那樣,具有自行矯正這些問題的能力,能減小其內在錯誤偏差的話,它就能有效地避免重大誤差的出現。

假設這些誤差微小到可被忽略,將AI系統融入到醫療健康研究和臨床實踐中心的一個最有可能實現的應用前景,是讓AI去協助醫生進行病癥診斷,從海量數據中發現規律性的模式,從而幫助醫生更早地揪出那些藏匿在身體深處的“狡猾”病竈。

事實上,AI系統目前已經可以完成對部分病癥的診斷了,這其中就包括了白血病。在檢查和臨床護理環節,AI系統在一些情況下,也有幾率能減少,甚至預防誤診情況的出現。須知,誤診是可以致命的,AI輔助診斷技術的價值之高,可想而知。

在這方面,AI系統在診斷和確立病癥的環節上,正扮演越來越重要的角色。然而,也正是因為如此,研究人員必須警惕,要避免出現因AI錯誤猜測,而推斷出“正常”或是“平均”等健康狀況描述的情況的發生。

類似的,我們只需要回顧一下美國在1973年前的那段歷史,就想象出當AI出現誤診時,會發生什麽樣慘劇。彼時,美國精神病學協會(American Psychiatric Association)將同性戀作為一種精神疾病列入到了它權威的精神病診斷和統計手冊當中,這樣一來,悲劇的出現就不可避免了。

同樣的,當AI系統被直接地應用到病人護理時,它們將涉足到診斷和臨床管理的方方面面,而這也時常將隔開看護者同病人之間的距離,所以,適當地明確出AI“專業程度”的局限,是非常重要的。

一名人類外科醫生在上崗之前,會先上醫科大學,在經歷過層層嚴苛的考核後,他們的醫術才能獲得世人的承認,然而,我們要如何造出一個出色的AI大夫來協助,或者甚至是取代一個有“文憑”的人類名醫呢?

這樣一個AI醫療系統意味著它需要具有絕對準確的專家級權威水平,不會出現誤診或是診斷偏頗的情況。這種級別的信任代表著這些AI系統無論是在出廠的能力評估上,還是在檢測其極限能力上,都可以接受更少的審查,而這也將制造出那些,目前還未被醫學倫理框架所囊括的新型倫理問題。

除此之外,我們還需要關註類似於這樣的AI醫療系統在醫保領域內被布置於何處,使誰受益等等這樣的問題。盡管讓醫療健康惠及所有人,讓大家都能負擔得起確實是一種需求,但已有大量的證據表明,取得醫保和健康數據的權限並未被公平地分配,在多數情況下,窮人、非白人和女性群體常常處於劣勢地位。

讓AI系統融入到醫保體系,非但不會根除這些系統性的不平等問題,反而還有可能會放大這種問題的嚴重性。雖然AI系統可以實現合適的定制化醫療護理,讓各式各樣的人都獲益,但它也可以被故意培養成過濾掉那些之前就常常被忽視、被服務不周的外圍群體。

如果這些群體沒有被給予適當的考慮的話,這反過來也將影響到AI系統所構建出的預測模型。AI預測模型會被那些能用上這種AI系統的特權群體所上傳的健康數據所不斷的固化,從而只能有效反饋出富人的“健康狀況”,並最終構建出一個會完全排斥“邊緣人群”的健康與疾病的整體認知模型。

鑒於目前美國存在的醫保財政的亂象,這樣的憂患確實是值得人們投入更多關註,就像這樣的亂象在過去影響到醫療技術的整合一樣,它也必然會在未來影響到AI醫療系統的布置和效用,

基於這樣的考慮,人們在推動AI醫療系統不斷發展的同時,也在不斷努力地去降低AI醫療系統造價,而這也將促使那些利益相關者(比如政客、保險公司、健康機構、制藥企業、雇主和其他人)把他們的註碼,寄托於大規模的健康數據收集和AI系統的研制上,以此來幫助他們更好地維護他們在模型研發和醫保護理上的經濟利益。

然而,將這些信息技術和AI系統整合到醫院和其它醫療健康體系所需要的關鍵培訓、資源和那些正在進行當中的必要維護,並不總是能夠得到支持,或者說並不總是能處於“不差錢”的狀況。而這種情況其實已經導致了技術資源和技術能力的分配不均。

訓練AI所需的數據收集和病患觀察將如何影響到個人隱私?

AI系統對數據量的極度依賴和對病例觀察的需求也自然而然地催生出了對病人隱私、秘密和安全保護等等急迫的問題。

目前,對AI醫療系統高性能期許的實現依賴於通過各式各樣的設備、平臺和互聯網來源源不斷地獲取到海量的病患數據,而這一過程也不可避免地會涉及到某些人或機構會在利益的驅使下,做出出格的監視行為。、

與此同時,像同態加密(Homomorphic encryption)、差分隱私(differential privacy)和隨機隱私(stochastic privacy)這樣的技術帶給了我們應對這些亂象現象的新的希望,它們可以讓AI系統實現在不“查閱”數據的情況下,直接地去“調用”它們。雖然就目前來說,這些新技術仍處於研發的初步階段,連一個通用應用程序都還沒有被開發出來,但它展現出能令人鼓舞的應用前景。

除此之外,隨著近期美國政府對循證醫學(Evidence ¬based medicine)的推廣和《平價醫保法案》(Affordable Care Act)已由原先的按服務收費轉變至按治療行為收費的這一變化,監管行為背後所涉及到的經濟利益問題和對敏感健康數據消費的問題,都在不斷地加劇惡化當中。

至於那些保險公司,在AI系統入局的情況下,其所需面對的對驗證交叉補貼方案合理性的呼聲的壓力也在與日俱增。

舉個例子,盡管美國政府在2008年就頒布了《基因資訊平等法》(Genetic Information Nondiscrimination Act),但出於對保險分層管理的需求,保險公司對能獲取到遺傳危險率信息的興趣也在日益增長。事實上,差別定價目前已經成為了數據分析供應商的一項業內通用做法,而這反過來也進一步地鞏固和加劇了目前的不平等現象。

此外,“智能設備”和其它能讓AI系統獲取到所需數據的聯網傳感器也已讓追蹤和監視變得無處不在,而這也將目前的那些隱私保護政策的覆蓋範圍不斷地拓寬,像《醫療健康可攜性和責任法案》(Health Insurance Portability and Accountability Act)就是在這一考慮下的產物。

隨著AI系統被越來越多地融入到健康和電子消費產品上,病人因細分數據而被重新定義,或是由代理數據來預測出他們的身份、所患疾病和其它健康信息的風險,正不斷地升高。

除此之外,那些驅動這些數據收集設備的軟件也常常是為私人所持有,而不是開源的(不受外部審查審計的約束)。雖然,美國政府最近簽署的法令對《數字千禧年著作權法案》(Digital Millennium Copyright Act)中的相關條例進行了免除,讓審查外部醫療設施的代碼成為可能,但更為重要的或許是審查那些內部醫療設施,然而這種行為並未被這一豁免權所囊括到。

總的來說,相關業內專家們都已經對在物聯網設備上,布置聯網技術所潛在的重大安全隱患做過警告了,在這些警告中,有很多就是專門針對醫療設備安全問題的。

AI將如何影響患者和醫療保險供應商?

那些已被實現或是有望被實現的AI技術,對健康護理系統的構建有著深遠的意義,對需要照顧的病患,或是那些虛弱體質的人也意義非凡。

人們對於AI系統,進行了許多美好的構想,寄予它們護理工作調解員的角色,並相信它們在未來有可能完全取締了護工的工作。這一轉變前景樂觀、經濟,且高效,很可能會改善患者與醫生或其他護工之間的關系和他們的工作方式。

能展示AI系統具有代替或者協助人工護理工作的潛力的例子非常之多,包括有機器人外科醫生、虛擬管家和陪護機器人等等。這些例子逐漸引發了一些爭論,比如代理照顧和陪同護理的社會意義是否可以讓非人類的機器來代替?當機器替代人工時,它是否能不僅僅只是增強人工的專業性,而能做到真正的獨當一面呢?當我們認為一臺機器有能力“護理”病人時,它具備了哪些“護理”能力呢?我們又是如何定義“護理”這個詞呢?這些我們以為的“以為”是否是站在病人權益的角度上,去考慮的呢?

就目前來說,雖然陪護機器人在取代人工護理工作上,還未取得什麽明顯的效果, 但由AI驅動的APP和聯網設備能讓病人取回對自己健康管理的控制權的前景正在與日俱增,而這也預示著AI醫療系統同病人的直接交互,正處於早期發展階段。。

這種人與AI的直接交互其實也是一把雙刃劍。一方面,它能讓病人康複地更快、對自身病情有更多的了解。另一方面,這種變革也需要他們擔負更多的風險。這些風險包括它可能會誤導病患,影響他們可能會接收到的信息的質量和準確性,而這也是美國聯邦貿易委員會(FTC)在近些年來,所要傳達給我們的擔慮。

除此之外,這些搭載了AI的APP也可以將原先醫療從業者所需要承擔的責任轉移病人本身,但這對病人來說不見得是什麽好消息,因為並不是所有人都有時間、財力和AI技術獲取渠道,來實現對他們自身健康的護理。

那麽,什麽樣的患者能優先享受到這些仍在不斷改進當中的AI醫療技術的紅利呢?對於那些“裝備”不良卻想管理和維護自己個人數據的病患來說,他們所接受到的健康看護是否是不合格的呢?

再者,那些搭載了AI技術的應用的設計者和研發者在這一社會演變過程中,又需要扮演什麽新的角色?需要承擔哪些新的責任?

那些始終處於風口浪尖的醫學道德倫理,又將如何融入到這些與眾不同的,新式工程技術的載體上呢?

  4. 道德責任  

AI系統的部署不僅將引發新的責任,也將對職業道德、研究道德、甚至公共安全評估等現有領域造成挑戰。

近來,人們對道德和AI系統的討論傾向於優先考慮很久以後可能會出現的AI系統,例如,“奇點”的來臨,或超級智能的發展。

也就是說,這種討論往往並未關註AI系統在短期或中期內會產生的道德影響,例如,當前已投入使用的大量任務型AI系統引發了新挑戰、可能加劇不平等、或從根本上改變權利機制。

當代AI系統上能夠執行各種各樣的活動,這類技術會引發各種隱性和顯性後果,因此可能對傳統倫理框架提出新挑戰。AI系統被部署在人類社會中時或許會引發不可預測的相互作用和後果。

在資源配置以及讓權力和信息集中或重組的潛力方面,我們迫切需要處理一些關鍵問題來確保AI技術不會造成傷害,特別對於已被邊緣化的群體。

我們如何向AI授予權力或委派AI展開決策?

AI系統在社會和經濟領域內的融合需要我們把社會問題轉變為能夠被AI解決的技術問題。這種轉變無法保證AI系統產生的錯誤會少於它將取代的現有系統。瑞安•卡洛(Ryan Calo)指出,人們通常以為,AI系統(如,自主駕駛汽車)犯的錯誤將少於人類。實則不然。複雜程度不高的AI系統無法避免地會犯一些人類不會犯的新錯誤。

在許多領域中,倫理框架往往需要產生記錄,例如,病歷、律師的案卷、或研究人員向機構審查委員會提交的文件。此外,人們還面向患者、客戶或感覺自己遭遇了不公正待遇的對象設立了補救機制。

當代的AI系統往往無法提供此類記錄或補救機制,要麽因為技術上無法實現,要麽因為設計者並未考慮此類記錄或機制。

這意味著,受到影響的特定群體或個人往往無法對AI或其他預測系統的決策進行檢驗或質疑。這會惡化各種形式的權力不對等現象。而權力不對等是一個很重要的倫理議題。

當受到影響的個人無法對這類自動化決策展開檢驗、質疑或上訴時,他們就處在了權力相對缺失的位置上。

這帶來的風險是,AI系統不僅將削弱弱勢群體的質疑權力,而且將賦予設計方更多定義道德行為的權力。這種權力能夠以十分微妙的形式呈現出來。例如,各種自動化系統往往被用來從某種方向來影響或“微調”某些個體,而很大程度上扮演決定或支配角色的是設計部署此類系統並從中獲利的一方。

若要從零開始構建AI系統,以實現糾正上述不平衡現象等目標,這本身就要受到實力差距的限制。打造和維護AI系統需要大量的計算資源和大量數據。而擁有海量數據和計算資源的企業相對缺乏這類資源的企業擁有更多的戰略優勢。

我們如何在現有的各種行業中應對與AI相關的倫理問題?

隨著AI系統在不同行業環境(如,醫學、法律、金融)中的融入愈加深入,我們還將面臨跨越不同行業的新的道德困境。

例如,AI系統在保健環境中的應用將對醫療專業人員道德準則中秉持的核心價值(如,涉及保密、護理的連續性、避免利益沖突以及知情權)造成挑戰。

隨著醫療業的不同利益相關方推出了各種各樣的AI產品和服務。對這些核心價值的挑戰可能會以全新的和意想不到的方式呈現。

當一名醫生使用的AI診斷設備在受訓時使用了一家醫藥公司的藥品試驗數據,而這家公司是某種藥物處方的既得利益者,那麽這位醫生應如何遵守避免利益沖突的誓言?

雖然這是個假想的情況,但這點明了在修訂以及更新職業道德準則的過程中必須解決的棘手問題。

同樣地,負責管理AI研發及維護的專業協會也有必要考慮采取相應的措施。例如,美國人工智能協會(AAAI)應制定相關的道德準則,而美國計算機協會(ACM)以及電氣和電子工程師協會(IEEE)需認真修訂相關的道德準則。ACM和IEEE現有的道德準則已擁有20年以上的歷史,不用說,這些準則不僅無法解決與人類機構、隱私和安全相關的核心問題,而且也無法預防AI和其他自動化決策系統可能產生的危害。隨著AI技術進一步被整合到重要的社會領域中,這一點正變得越來越重要。

盡管更多的高等教育機構在技術和科學專業的教學中已開始強調職業道德的重要性,但這番努力仍處在初期,還有進一步的拓展空間。而民權、公民自由和道德實踐等領域的知識還未成為學生們畢業時必須掌握的要求範圍。此外,有一點是值得註意的,若有人違背醫藥界道德準則,他需承擔的懲罰包括失去行醫權力,這一點並不適用計算機科學或許多其他相關領域。

目前還不清楚大多數計算機科學家是否熟知ACM或IEEE準則中的核心內容。我們也不清楚,企業雇主是否會因為其他鼓勵或壓力因素而選擇不遵守這種不具約束力的法規。因此,從實用角度看,除了僅僅對倫理框架進行改寫和更新外,有必要關註範圍更廣的鼓勵機制,並確保對倫理準則的遵從並不是事後才想起的事項,而是相關專業領域需要關註的核心問題,以及AI領域學習和實踐中不可或缺的組成部分。

  闡述建議  

下面我們將進一步闡述上面簡要提到的建議背後的基本原理。

1、多元化和拓寬AI開發和部署所必需的資源——如數據集、計算資源、教育和培訓的使用,包括擴大參與這種開發的機會。特別是關註當前缺乏這種訪問的人口。

正如在AI Now Experts研討會期間很多人提到的,這些開發和培訓AI系統的方法費用高昂並只限於少數大公司。或者簡單地說,在沒有大量資源的情況下DIY AI是不可能的。培訓用AI模式要求有大量數據——越多越好。同時還要求有巨大的計算能力,而這費用不菲。這使得即使要進行基礎研究都只能限於能支付這種使用費用的公司,因此限制了民主化開發AI系統服務於不同人群目標的可能性。投資基本的基礎設施和使用合適的培訓數據,有助於公平競爭。同樣,開放現有行業和機構里開發和設計過程,以多元化內部紀律和外部評論,可幫助開發更好服務和反映多元化環境需求的AI系統。

2、升級使公平勞動行為具體化的定義和框架,以適應AI管理部署到工作地時出現的結構性變化。同時研究可替代的收入和資源分布、教育和再培訓模式,以適應未來重複性工作日益自動化和勞動及就業態勢不斷變化。

在AI Now Experts研討會上,奧巴馬總統首席經濟學家賈森·福爾曼(Jason Furman)指出,在美國每小時工資只有不到20美元的工作,83%都將面臨自動化的嚴重壓力。對於每小時工資在20-40美元的中等收入工作,這個比例也高達31%。這是勞動力市場一次巨大轉變,可能導致出現一個永久失業階層。為確保AI系統的效率在勞動力市場不會導致民眾不安,或社會重要機構如教育(有一種可能是教育不再視為就業的更好途徑)的解散,在這種巨大轉變出現,應該徹底研究替代性資源分布方法和其他應對引入自動化的模式,制定的政策應該為組織良好的各種落實測試開路,控制可能導致的災難性後果。

除了“替代工人”外,AI系統也對勞動力市場也有其他多重影響。例如,它們改變了權力關系、就業預期和工作本身的角色。這些變化已經對工人產生深遠影響,因此在引入AI系統時,在考慮如何表述公平和不公平做法上,理解這些影響很重要。例如,如果開發實際作為管理層行事的AI系統的公司,可被視為科技服務公司,與雇主不同的是,職員可能不受現有法律保護。

3、在設計和部署階段,支持研究開發衡量和評估AI系統準確性和公平度的方法。同樣地,也支持研究開發衡量及解決一旦使用出現的AI錯誤和損害的方法,包括涉及通知、矯正和減輕這些因AI系統自動決策導致的錯誤和損害的問責制。這些方法應優先通知受自動決策影響的人們,並開發對錯誤或有害判斷提出異議的方法。

AI和預測性系統日益決定了人們是否能獲得或失去機會。在很多情況下,人們沒有意識到是機器而非人類在做出改變人生的決定。即使他們意識到,也沒有對錯誤界定提出異議或拒絕有害決策的標準流程。我們需要在研究和技術原型化上投資,確保在AI系統日益用於做出重要決策的環境中,確保基本權利和責任受到尊重。

4、澄清無論是反電腦欺詐和濫用法案還是數字千年版權法案不是用於限制對AI責任的研究

為了進行對檢驗、衡量和評估AI系統對公共和私人機構決策的影響所需的研究,特別是有關如公平和歧視的關鍵社會關切,研究人員必須被清楚地允許跨大量域名並通過大量不同方法測試系統。然而,某些美國法律,如反電腦欺詐和濫用法案(CFAA)和數字千年版權法案(DMCA),規定與電腦系統甚至互聯網上公開可訪問的電腦系統“未授權”互動為非法,可能限制或禁止這種研究。這些法律應該澄清或修改,明確允許促進這種重要研究的互動。

5、支持在現實環境中AI系統對社會經濟生活影響的強大評估和評價方法的基礎性研究。與政府機構合作將這些新技術集成到他們的調查、監管和執法能力中。

我們當前缺乏對AI系統社會經濟影響評估和理解的嚴格做法。這意味著AI系統在融合到現有社會經濟領域,部署在新產品和環境中,卻不能衡量或精確計算它們的影響。這種情況類似於進行試驗卻不願記錄結果。為確保AI系統帶來的益處,必須進行協調一致的研究開發嚴格的方法,理解AI系統的影響,當使用這種方法時可幫助形成跨部門和政府內部的標準做法。這種研究及其結果可比作早期預警系統。

6、在與這些人聯合開發和部署這種系統時,與受自動決策應用和AI系統影響的社區代表及成員合作,聯合設計可問責的AI。

在很多情況下,這些受AI系統影響的人將是對AI系統環境和結果最權威性的專家。特別是鑒於當前AI領域缺乏多元化,那些受AI系統部署影響的人實際上從事提供反饋和設計方向,來自反饋機制的這些建議可直接影響AI系統的開發和更廣泛的政策框架。

7、加強行動提高AI開發者和研究者的多元化,拓寬和融合所有觀點、環境和學科背景到AI系統開發中。AI領域應該也結合計算、社會科學和人文學,支持和促進針對AI系統對多個觀點影響的跨學科AI研究。

計算機科學作為一個學科領域缺乏多樣性。特別是嚴重缺乏女性從業者,在AI里這種情況更為糟糕。例如,雖然有些AI學術實驗室由女性掌管,但在最近的神經信息處理系統大會上,與會者只有13.7%是女性,這次大會是該領域最主要的年度大會之一。缺乏多元化的圈子不大可能會考慮這些不在其中人的需求和關註。當這些需求和關註成為部署AI的社會經濟機構的中心時,理解這些需求和關註很重要,AI開發反映了這些重要的觀點。關註開發AI人群多元化是關鍵,除了性別和代表受保護人群外,包括除計算機科學外各種學科的多元化、建立依賴來自相關社會經濟領域學習的專業知識的開發實踐。

在計算機科學之外和計算機科學之內AI子領域的社會經濟領域,進行AI影響的徹底評估將需要多數這種專業知識。由於很多環境下AI被集成和使用——如醫學、勞動力市場或在線廣告——本身是學習的豐富領域。為真正制定AI影響評估的嚴格流程,我們將需要跨學科的協作,建立新的研究方向和領域。

8、與專業組織如美國人工智能進步協會(AAAI)、美國計算機協會(ACM)和電氣及電子工程師協會(IEEE)合作,更新(或制作)專業道德準則,更好地反映在社會經濟領域部署AI和自動化系統的複雜性。為任何想掌握計算機科學的人開設公民權、公民自由權和道德培訓課程,反映了教育中的這些變化。同樣,更新專業道德準則約束引入AI系統的專業人士,如適用於醫生和醫院工作者的道德準則。

在醫學和法律等職業中,專業人士的行為受控制可接受和不可接受行為的道德準則約束。專業組織如ACM和IEEE確實制定了道德準則,然而這些準則過時了,不足以解決複雜社會經濟環境中使用AI系統帶來的具體並常常是微妙的挑戰。雖然醫生確實遵守了約束他們對待病人行為的職業道德,但AI系統的發展,如幫助醫生診療和治療病人,出現了現有職業道德準則不總是能解決的道德挑戰。職業準則和計算機科學培訓必須更新,以反映AI系統建造者對因使用這些系統遭受不同程度不利影響的人所負有的責任。在AI用於增強人類決策時,職業道德準則應該包括在AI系統受到利益沖突左右的時候鑒定責任的保護措施。

人工智能 AI
贊(...)
文章評論
匿名用戶
發布
PermaLink: https://articles.zkiz.com/?id=217607

人工智能長篇報告:1.5萬字告訴你AI的應用究竟對人類社會經濟有哪些影響

來源: http://www.iheima.com/zixun/2016/1008/159076.shtml

人工智能長篇報告:1.5萬字告訴你AI的應用究竟對人類社會經濟有哪些影響
豬場智能菌 豬場智能菌

人工智能長篇報告:1.5萬字告訴你AI的應用究竟對人類社會經濟有哪些影響

目前關於人工智能的四個關鍵性問題的答案,都在這里了。

來源 / AI Now《The AI Now Report》

譯者 / 網易智能(孫文文 費寧 誌文 阿樹 止水 倪盛)

前  言  

人工智能(Artificial Intelligence,簡稱AI)是一系列技術的集合,其下包括機器學習、推理、感知和自然語言處理等。人工智能的概念和應用65年前就已開始,不過最近AI的進步和應用讓這種技術再次成為熱議。隨著AI被更廣闊地應用到人類社會和經濟生活各個方面,新的機遇和挑戰隨之而生。其巨大的潛在影響讓人類不得不謹慎思考AI技術的發展與應用。

於今年7月舉行的“AI Now”研討會是由白宮科技政策辦公室和美國國家經濟委員會聯合推動的一系列研究的最後一個環節。此前的一系列研究分別從不同的角度對AI進行了分析研究,從政策法規到AI的安全控制,再到AI公益以及如何挖掘AI的更多潛能。這次“AI Now”則主要就未來十年AI在社會和經濟領域的影響進行討論。來自全球多個領域的專家學者集聚一堂,發表自己的觀點。討論的問題包括:現階段AI的迅速發展造成了哪些問題?如何更好地理解與使用AI來創造更公平公正的未來?

社會和經濟的問題多不勝數,本次“AI Now”主要圍繞“醫療”、“勞工就業”、“AI公平”以及“AI道德”準則展開討論。

之所以選擇“醫療”和“勞工就業”作為主要話題,是因為目前這兩個領域中AI滲入廣泛,AI所能帶來的問題在這兩個領域中較為突出和明顯。而“AI公平”和“AI道德”則是未來大家都關註的問題:AI會有助於世界大同還是會加劇社會不公?以及如何確保AI的利益被全體人類享用?

該研討會的舉行旨在讓AI能夠更好地造福人類社會。通過眾多專家學者聚集一堂進行討論的方式,本次“AI Now”研討會對人工智能學界內外都具有顯著意義。

  問題和建議  

研討會對未來AI所可能造成的情況做出了預見,並分別給出相應的建議。需要聲明的是,下列建議融合了全體與會人員的智慧,並不代表個人或某組織的立場。

隨著AI愈加緊密地被應用到社會經濟生活的方方面面,以下列出的問題和對應的建議可以作為投資者和相關領域從業者在對來的參考指南。

1、問題:AI的發展和應用有賴於特定的基礎設施和人、物資源。這些基礎資源的短缺無疑會限制AI的發展,對這些基礎設施和資源的掌握在AI發展前期變的至關重要。

建議:從多個渠道改善發展AI的資源基礎。註重數據集、計算機、相關人才教育培訓等配套領域的建設。

2、問題:雖然目前AI水平還在初級,不過在多個領域AI已經作為人工輔助的角色存在,並且對勞動關系產生了影響。奧巴馬經濟顧問委員會的主席傑森·弗曼(Jason Furman)就表示,低技術的體力勞動是最有可能被AI和自動化機械取而代之的職位。如果機器人開始和人類競爭工作,人力資源的分配也將迎來變革。

建議:更新自己的思維和技能,來應對AI參與所帶來的就業結構的改變。未來AI機器將承擔絕大多數低技術水平的工作職位,人們需要調整自己的技能儲備和收支方向以應對新形勢。

3、問題:AI和自動化的過程通常都是在人們目所不及的幕後進行。缺少了人類的參與,機器可能做出有失公允或不慎恰當的決定。隨著AI應用的進一步增長,對AI判斷和勘誤將變得更加重要,也更加困難。

建議:支持AI校準和勘誤的研究,AI錯誤危害評估程序也應提上日程。這些研究應和AI的突飛猛進配套發展,就像人類系統中司法之於行政。如此能夠及時發現AI犯下的錯誤,並避免嚴重後果。

4、問題:針對AI模式下公私機構公平和問責制的研究似乎與當前美國一些法律相忤,比如計算機欺詐與濫用法案(CFAA)和數字千年版權法案(DMCA)。

建議:需要澄清的是,無論是計算機欺詐與濫用法案還是數字千年版權法案,都沒有限制相關研究。

5、問題:盡管AI正以飛快的速度被運用在醫療、勞工等諸多領域,但目前人類沒有一個公認的辦法來在評估AI所帶來的影響。

建議:支持AI影響評估系統的研究。而且該領域的研究應該和政府機構通力合作,使成果能為政府行政所用。

6、問題:那些因部署AI而權益受到損害的人,其聲音往往被忽視。

建議:在打造AI系統的時候,受影響者的意見應該被聽取。AI應由各方共同設計以免有失公允和太過激進。

7、問題:AI的研究主要集中在電子技術上,對於人性方面問題的關註常常不足。在未來,計算機科學領域的成員將益加呈現同質化和單一化對特點,這不利於AI開發者的眼界和經驗,進而影響到AI產品的打造。

建議:AI研究員和開發者應該盡量多元化,開發人員的多樣與多元也會帶來更豐富紛呈的AI產品。未來AI領域應該多多支持跨學科研究,從而使得AI系統能夠融合電子計算、社會科學以及人文氣息。

8、問題:現有的道德準則已經不能應對AI在現實中所面臨問題的複雜性。(比如在醫療、執法、犯罪判決以及勞務等等)同時,在大學里的計算機課堂上,盡管這些理工課程也逐漸開始重視道德教育,然而並未徹底貫徹到實踐中。

建議:同美國人工智能協會(AAAI)、美國計算機協會(ACM)以及電器和電子工程師協會(IEEE)這些專業機構進行合作,推動產生可以面對新形勢的道德準則。同時在學校課堂上貫徹落實這些新道德準則的教育。每個有誌於計算機科學的學生在專業課之外也應接受公民權利、自由等道德教育。相應的,那些有AI滲入的領域(比如醫療場所)的從業人員也應該對這些新道德標準有所知悉。

目前關於人工智能的四個關鍵性問題    

我們現在將對目前關於人工智能的四個關鍵問題進行深入探討,為讀者提供一個了解業內專家見解以及建議的機會。相關探討包括每個關鍵問題所面臨的挑戰、機遇以及可采用的幹預措施。

  1. 社會不公  

人工智能系統如何造成偏見以及歧視等社會不公現象?

人工智能系統在高風險決策領域的作用越來越重要——從信貸、保險再到第三方決策以及假釋問題。人工智能技術將代替人工決定誰會獲得重要機遇,而誰又將被拋棄,由此將會引發一系列關於權利、自由以及社會公正問題。

有些人認為人工智能系統的應用有助於克服人類主觀偏見帶來的一系列問題,而有些人則擔心人工智能系統將會放大這些偏見,反而會進一步擴大機會的不均等。

在這場討論中,數據將會起到至關重要的作用,引發人們的強烈關註。人工智能系統的運行往往取決於其所獲得的數據,也是這些數據的直觀反映。其中也包括這些數據的來源以及收集過程中的偏差。從這方面來講,關於人工智能的影響是與相應的大數據技術密切相關的。

從廣義上講,數據偏差有兩種形式。第一種是采集的數據客觀上不能夠準確反映現實情況(主要歸因於測量方法的不準確;數據采集不完整或過於片面;非標準化的自我評價以及數據采集過程中的其他缺陷)。第二種在數據采集的過程中主觀上存在結構性偏差(諸如在關於職業數據的采集中有目的性地通過主觀性的重男輕女來預測職場成功率)。前一種的數據偏差可以通過“凈化數據”或者改進數據采集過程來加以解決。但後一種則需要複雜的人工幹預措施。值得註意的是,雖然有很多機構都為解決這種問題做了大量的工作,但對於如何“檢測”數據偏差尚無定論。

當采集的數據存在上述偏差時,用這種數據所訓練的人工智能系統也會存在相應偏差,其產生的模型或者結果不肯避免的會複制並放大這種偏差。在這種情況下,人工智能系統所作出的決策將會產生差別效應,從而引發社會不公。而這種不公平要比人為偏見和不公隱晦的多。

在以風險控制為主導的行業中,隨著人工智能系統的廣泛應用,導致人與人之間的細微差別異化對待等現象顯著增加,在保險以及其他社會擔保行業尤為如此。人工智能系統的應用能夠使公司更加有效地通過“逆向選擇”來識別特定群體以及個人,從而有效避免風險。

諸如在醫療保險領域,人工智能系統會對投保人的特征以及表現行為進行分析,並對那些被識別為特殊疾病或者是未來發病率高的投保人收取更多保費。在這種情況下,對於那些健康狀況不佳且經濟能力差的人群尤為不利。這就是為何批評者經常會指責稱,即便人工智能系統的預測準確,保險人行為理性,但效果卻常常是帶來負面影響。

保險業的競爭或許會加劇這種發展趨勢,最終人工智能系統的應用或許會加劇這種不平等性。當然,相關反歧視法律法規中的規範性原則能夠為解決這些問題帶來幫助,雖然這種方法可能不是最有效、最公平的。此外,對人工智能系統進行設計和部署也很重要,但現有的法律框架或許會使相應研究受到阻礙。諸如如計算機欺詐和濫用法(CFAA)和數字千年版權法案(DMCA)都對這方面研究進行了限制,因此當下也需要對現行法規進行改革,確保必要的研究能夠順利進行。

人工智能將受益少數人?

人工智能系統為經濟價值的產生帶來了新的方式,也對經濟價值的分配產生了新的影響。在某種程度上,人工智能系統的價值分配會使一部分群體受益,從而延續或加劇現有的薪資、收入以及財富分配差距。

那些有能力研發人工智能技術的組織將會加劇這種不平等性。據預測,人工智能是一個每年市值達到數十億美元的龐大產業。開發人工智能技術需要大量的前期投資,其中包括海量的計算資源以及大數據,兩者的成本都非常之大。這導致人工智能的開發和應用被限制在一個特定的範圍之內。在這種情況下,那些擁有強大數據以及計算能力的企業才能夠通過人工智能系統深入了解市場動態,從而獲取更多優勢,為自己帶來“富者更富”的馬太效應,帶來更多成功。

從另一方面來說,人工智能以及自動化系統能夠降低商品和服務成本,如果這些降低的成本能夠使消費者受益,那麽人工智能就可以縮小貧富差距。在這種情況下,人工智能系統能夠提高整個社會的生活水平,甚至於引發一個漸進式的再分配效應。

此外,人工智能也會帶來全新的生活方式。在人工智能環境下,那些工作落伍的人有機會需求獲取資源的新方式,而工作受到影響的人也能夠通過人工智能創造新的就業機會。換而言之,人工智能能夠緩解勞動力危機,讓人們自由追求生活以及工作新方式,從而提高社會的整體福利。

盡管如此,一些評論家指出,人工智能系統會使得某些工人的技能多余化,那些被自動化所取代的工人不得不尋求新的就業機會。即便這部分工人能夠找到新的工作,這種工作也常常是低附加值的,且工作穩定性更低。從這個角度將,人工智能以及自動化系統反而消除了就業機會。

更進一步,如果學習新的工作技能非常昂貴,工人們或許會認為這種職業技能培訓與新工作並不成正比。在這種情況下,人工智能系統不僅會增加社會不公,更會帶來永久性的失業以及貧窮。這就是為何理解人工智能系統對勞動力的潛在影響是理解其對經濟平等性影響的重要方面。

和以往許多技術一樣,人工智能技術也往往反映了其創建者的價值觀。因此,也可以通過在人工智能開發、部署、維護階段的多元化來推動人工智能技術的平等性。

當前,在人工智能甚至於整個計算機科學家技術行業,女性以及少數民族從業人員所占比例還很少。這種現狀也在一定程度上導致整個技術缺乏包容性,導致一定的偏見,延續或限制相關從業者對其他群體的考慮。

人們也越來越清楚的認識到,人工智能領域從業者的多樣性有助於人工智能系統滿足不同人群的利益。為了解決偏見、歧視和不平等問題,人工智能團隊需要一個更廣泛的視角。

 2.  勞工關系   

目前有關就業和AI系統的討論往往都集中在對人們未來將會失業的擔憂上。最新的研究表明,還存在更加複雜、影響更加直接的問題,這些問題不僅僅影響勞工市場,還影響雇主與雇員之間的關系、權力動力學、職業責任和工作在人類生活中的角色。

許多傳統經濟研究人員正在密切追蹤美國國內勞工市場和企業機構,以此來考量AI系統的影響。這類研究可帶來非常重要的定性數據,能夠促進對宏觀經濟趨勢和勞工供需狀況的理解,比如未來將會有多少工作崗位。

與此同時,社會科學研究則評估工作屬性和工作動力的改變正在如何改變人們的日常生活體驗。這兩個研究視角對於衡量AI系統短期對勞動力的社會影響和經濟影響都必不可少。

AI會影響工作崗位需求嗎?

自動化技術在經濟中的角色遠非新議題,事實上對於AI系統影響的考慮是出現於長期以來的討論。

雖然表面來看勞工需求會隨著自動化技術的日益普及而下降,畢竟需要做的工作將會很有限,但也有經濟學家並不這麽認為,他們稱該觀點是“勞動合成”謬論。他們指出,隨著一個行業的生產力的提升(由於自動化技術或者其它因素),新行業也會誕生,因而會產生新的勞工需求。例如,1900年農業在美國勞動力中的占比為41%,到2000年該占比只有2%。兩位勞工經濟學家大衛·奧特爾(David Autor)和大衛·多恩(David Dorn)稱,即便出現這種劇變,失業率長期來看並沒有出現上升,就業人口比率實際上反而出現提升。另外兩位經濟學家詹姆斯·亨廷頓(James Huntington)和卡爾·弗雷(Carl Frey)則給出了可怕的預言:AI系統將會大大減少工作崗位。

還有人在爭論勞動市場的變化和波動是否與技術進步有關,是否只是因經濟政策而出現。這類看法聚焦於現有的法律體系和監管機制對於AI和自動化系統的發展應該擔當什麽樣的角色。例如,羅伯特·戈登(Robert Gordon)認為當前的創新浪潮其實並沒有它們表面上看起來那麽具有變革性。不少持相反意見的人則稱,勞動市場正因為技術變化而發生重要轉變。這些人包括約瑟夫·斯蒂格利茨(Joseph Stiglitz)和拉里·米歇爾(Larry Mishel),他們認為,要保護勞動力,就必須要對AI和自動化系統相關的監管和其它政策變化上保持高度的重視。

奧特爾、多恩等經濟學家發現“就業兩極分化”現象正變得非常明顯,即中等技能崗位在減少,而高等技能和低等技能的崗位則在增加。雖然未來可能會出現新的崗位,但它們往往都收入比較低,不受歡迎。

例如,許多支持AI系統的工作事實上需要由人類去完成,他們需要維護那些基礎設施,照顧系統的“健康狀況”。這種勞動力往往不大顯眼,至少從媒體的報道和人們對AI的印象來看是這樣。因此它往往受到低估。這類工作包括負責清潔辦公室和維護工作的清潔工,負責維修服務器故障的維修工,以及有位記者所說的“數據衛生工”(能夠“清理”數據,為數據分析做好準備)。

AI系統對勞動力的影響相關的問題應當不僅僅包括未來是否會創造出新崗位,還應當包括那些崗位會否是能維持生計的體面工作。

此外,有關AI系統和勞工市場未來的討論通常都專註於傳統上被認為是低收入的工人階級崗位,如制造業、卡車運輸、零售或者服務工作,但研究表明,未來各行各業都將受到影響,其中包括需要專業訓練或者高學歷的專業工作,如放射學或者法律。關於這一點,未來將需要解決職業責任和義務方面的新問題。

AI將會如何影響主雇關系?

近年來,研究人員開始研究依靠大數據的AI和自動化系統(從Uber到應用於大型零售商的自動化調度軟件,再到工作間監視)正在如何改變雇主與雇員之間的關系。

研究發現,雖然這類系統可以用來賦能員工,但該類技術也可能會引發大問題,如剝奪員工權利,加劇就業歧視問題,以及催生不當勞動行為。

例如,AI驅動的勞動力管理和調度系統正越來越多地被用來管理勞動力,助力按需經濟的增長和“朝不保夕族”(precariat)的崛起。雖然部分研究人員稱恰當的調度能夠帶來很有價值的彈性,但到目前為止,更多的研究發現受該類系統管制的員工存在情緒緊張和缺乏安全感問題。

由這類系統管理的員工的不利體驗包括長期不充分就業,財務狀況不穩定,缺少傳統全職員工能夠獲得的福利保障,無力為家庭或者自我照顧(又或者因為忍受不了該類工作往往要求的隨時待命性質而尋找別的工作)做規劃。此外,受這些問題影響的員工更多是女性和少數族裔。

另外,基於AI系統的新遠程管理模式會加大將“系統”所做的嚴重影響員工的決策歸責於雇主的難度。因此,員工更容易受到剝削。

例如,像Uber這樣的由大數據和AI驅動的平臺會遠程控制行駛路線、定價、報酬甚至人際交流方面的標準——這些決定傳統上說通常都有人工親自管理。

除了模糊化特定決策的性質和邏輯之外,這類遠程管理通常並不被認為是“雇員管理”。

由於這些新管理模式不大符合現有的監管模式,像Uber這樣的公司會將自己標榜為技術公司,而非雇員的管理者。按照這一理念,這類公司將自己視作促進連接的平臺,因此不會像傳統雇主那樣對雇員負責。依照這種模式,雇員最終要承擔權益保障(如減輕稅項負擔、醫療保健和其它的勞工保障)和潛在救濟模式的就業帶來的風險。

  3.  醫療健康  

像我們現在所看到的大多數已被應用到醫療健康領域的AI系統,它們幾乎都依賴於大型數據庫,這些AI系統會通過各種複雜的統計模型和機器學習技術,從其所收集到的海量數據中,自動提煉出各種重要信息。

那些已投入使用的醫療數據信息源(仍處在不斷增長當中)——包括電子病歷(EHRs)、臨床和醫保數據庫、從各類消費電子產品和App上傳來的健康數據——目前已經被大量地應用到AI系統的實踐,這些AI系統具有極大的能改善社會醫保水平的潛力。

無論是臨床診斷、病人護理,還是施藥;無論是藥品生產、組織管理,還是醫保信息交互,這些AI系統都為醫療從業者的工作起到了極大的助力。

AI是如何被融入到醫學研究和醫療健康的?

將AI系統融入到醫學研究,具有令人極為欣喜的應用前景,它能幫助我們更好地理解那些疾病的病理,幫助我們開發出更多的新式治療手段,實現更為精準的醫學診斷,甚至還能私人訂制地為個人生產出特制的藥品。

然而,鑒於目前仍存在的將AI應用到醫療領域的局限和偏見,它們或將阻礙這些應用前景的實現,而這就需要研究人員更為細心謹慎地去探索這一前沿的技術。

目前,這些將AI技術應用到醫療領域的局限,包括有不完整或不準確的研究數據,即未含蓋到特定的少數群體,除此之外,尤以美國醫保系統為代表的複雜醫療補貼激勵制度,也將在一定程度上阻礙到了AI醫療技術的應用。舉個簡單的例子,目前的一些醫療補貼制度會更支持個別種類的藥物研發,或是更傾向於補貼個別治療方案。

醫療研究數據時常會表現出客觀、通用的屬性,但在實際應用的過程中,這些研究結論往往會表現出片面、暫時和只針對某些團體或病癥的特性,而AI系統根據這些“片面”數據所分析和建立出的模型,可能會引出、建立或是衍生出一些錯誤的猜測。

所幸的是,這樣的錯誤情況是可以避免的。如果一個AI系統所收集的數據不存在上面我們所提到的那些瑕疵(假設這點是可以被保證的),或是該AI系統所使用的數據框架像隨機對照試驗方法(randomized control trials, RCTs)或是其它公共醫療數據庫那樣,具有自行矯正這些問題的能力,能減小其內在錯誤偏差的話,它就能有效地避免重大誤差的出現。

假設這些誤差微小到可被忽略,將AI系統融入到醫療健康研究和臨床實踐中心的一個最有可能實現的應用前景,是讓AI去協助醫生進行病癥診斷,從海量數據中發現規律性的模式,從而幫助醫生更早地揪出那些藏匿在身體深處的“狡猾”病竈。

事實上,AI系統目前已經可以完成對部分病癥的診斷了,這其中就包括了白血病。在檢查和臨床護理環節,AI系統在一些情況下,也有幾率能減少,甚至預防誤診情況的出現。須知,誤診是可以致命的,AI輔助診斷技術的價值之高,可想而知。

在這方面,AI系統在診斷和確立病癥的環節上,正扮演越來越重要的角色。然而,也正是因為如此,研究人員必須警惕,要避免出現因AI錯誤猜測,而推斷出“正常”或是“平均”等健康狀況描述的情況的發生。

類似的,我們只需要回顧一下美國在1973年前的那段歷史,就想象出當AI出現誤診時,會發生什麽樣慘劇。彼時,美國精神病學協會(American Psychiatric Association)將同性戀作為一種精神疾病列入到了它權威的精神病診斷和統計手冊當中,這樣一來,悲劇的出現就不可避免了。

同樣的,當AI系統被直接地應用到病人護理時,它們將涉足到診斷和臨床管理的方方面面,而這也時常將隔開看護者同病人之間的距離,所以,適當地明確出AI“專業程度”的局限,是非常重要的。

一名人類外科醫生在上崗之前,會先上醫科大學,在經歷過層層嚴苛的考核後,他們的醫術才能獲得世人的承認,然而,我們要如何造出一個出色的AI大夫來協助,或者甚至是取代一個有“文憑”的人類名醫呢?

這樣一個AI醫療系統意味著它需要具有絕對準確的專家級權威水平,不會出現誤診或是診斷偏頗的情況。這種級別的信任代表著這些AI系統無論是在出廠的能力評估上,還是在檢測其極限能力上,都可以接受更少的審查,而這也將制造出那些,目前還未被醫學倫理框架所囊括的新型倫理問題。

除此之外,我們還需要關註類似於這樣的AI醫療系統在醫保領域內被布置於何處,使誰受益等等這樣的問題。盡管讓醫療健康惠及所有人,讓大家都能負擔得起確實是一種需求,但已有大量的證據表明,取得醫保和健康數據的權限並未被公平地分配,在多數情況下,窮人、非白人和女性群體常常處於劣勢地位。

讓AI系統融入到醫保體系,非但不會根除這些系統性的不平等問題,反而還有可能會放大這種問題的嚴重性。雖然AI系統可以實現合適的定制化醫療護理,讓各式各樣的人都獲益,但它也可以被故意培養成過濾掉那些之前就常常被忽視、被服務不周的外圍群體。

如果這些群體沒有被給予適當的考慮的話,這反過來也將影響到AI系統所構建出的預測模型。AI預測模型會被那些能用上這種AI系統的特權群體所上傳的健康數據所不斷的固化,從而只能有效反饋出富人的“健康狀況”,並最終構建出一個會完全排斥“邊緣人群”的健康與疾病的整體認知模型。

鑒於目前美國存在的醫保財政的亂象,這樣的憂患確實是值得人們投入更多關註,就像這樣的亂象在過去影響到醫療技術的整合一樣,它也必然會在未來影響到AI醫療系統的布置和效用,

基於這樣的考慮,人們在推動AI醫療系統不斷發展的同時,也在不斷努力地去降低AI醫療系統造價,而這也將促使那些利益相關者(比如政客、保險公司、健康機構、制藥企業、雇主和其他人)把他們的註碼,寄托於大規模的健康數據收集和AI系統的研制上,以此來幫助他們更好地維護他們在模型研發和醫保護理上的經濟利益。

然而,將這些信息技術和AI系統整合到醫院和其它醫療健康體系所需要的關鍵培訓、資源和那些正在進行當中的必要維護,並不總是能夠得到支持,或者說並不總是能處於“不差錢”的狀況。而這種情況其實已經導致了技術資源和技術能力的分配不均。

訓練AI所需的數據收集和病患觀察將如何影響到個人隱私?

AI系統對數據量的極度依賴和對病例觀察的需求也自然而然地催生出了對病人隱私、秘密和安全保護等等急迫的問題。

目前,對AI醫療系統高性能期許的實現依賴於通過各式各樣的設備、平臺和互聯網來源源不斷地獲取到海量的病患數據,而這一過程也不可避免地會涉及到某些人或機構會在利益的驅使下,做出出格的監視行為。、

與此同時,像同態加密(Homomorphic encryption)、差分隱私(differential privacy)和隨機隱私(stochastic privacy)這樣的技術帶給了我們應對這些亂象現象的新的希望,它們可以讓AI系統實現在不“查閱”數據的情況下,直接地去“調用”它們。雖然就目前來說,這些新技術仍處於研發的初步階段,連一個通用應用程序都還沒有被開發出來,但它展現出能令人鼓舞的應用前景。

除此之外,隨著近期美國政府對循證醫學(Evidence ¬based medicine)的推廣和《平價醫保法案》(Affordable Care Act)已由原先的按服務收費轉變至按治療行為收費的這一變化,監管行為背後所涉及到的經濟利益問題和對敏感健康數據消費的問題,都在不斷地加劇惡化當中。

至於那些保險公司,在AI系統入局的情況下,其所需面對的對驗證交叉補貼方案合理性的呼聲的壓力也在與日俱增。

舉個例子,盡管美國政府在2008年就頒布了《基因資訊平等法》(Genetic Information Nondiscrimination Act),但出於對保險分層管理的需求,保險公司對能獲取到遺傳危險率信息的興趣也在日益增長。事實上,差別定價目前已經成為了數據分析供應商的一項業內通用做法,而這反過來也進一步地鞏固和加劇了目前的不平等現象。

此外,“智能設備”和其它能讓AI系統獲取到所需數據的聯網傳感器也已讓追蹤和監視變得無處不在,而這也將目前的那些隱私保護政策的覆蓋範圍不斷地拓寬,像《醫療健康可攜性和責任法案》(Health Insurance Portability and Accountability Act)就是在這一考慮下的產物。

隨著AI系統被越來越多地融入到健康和電子消費產品上,病人因細分數據而被重新定義,或是由代理數據來預測出他們的身份、所患疾病和其它健康信息的風險,正不斷地升高。

除此之外,那些驅動這些數據收集設備的軟件也常常是為私人所持有,而不是開源的(不受外部審查審計的約束)。雖然,美國政府最近簽署的法令對《數字千禧年著作權法案》(Digital Millennium Copyright Act)中的相關條例進行了免除,讓審查外部醫療設施的代碼成為可能,但更為重要的或許是審查那些內部醫療設施,然而這種行為並未被這一豁免權所囊括到。

總的來說,相關業內專家們都已經對在物聯網設備上,布置聯網技術所潛在的重大安全隱患做過警告了,在這些警告中,有很多就是專門針對醫療設備安全問題的。

AI將如何影響患者和醫療保險供應商?

那些已被實現或是有望被實現的AI技術,對健康護理系統的構建有著深遠的意義,對需要照顧的病患,或是那些虛弱體質的人也意義非凡。

人們對於AI系統,進行了許多美好的構想,寄予它們護理工作調解員的角色,並相信它們在未來有可能完全取締了護工的工作。這一轉變前景樂觀、經濟,且高效,很可能會改善患者與醫生或其他護工之間的關系和他們的工作方式。

能展示AI系統具有代替或者協助人工護理工作的潛力的例子非常之多,包括有機器人外科醫生、虛擬管家和陪護機器人等等。這些例子逐漸引發了一些爭論,比如代理照顧和陪同護理的社會意義是否可以讓非人類的機器來代替?當機器替代人工時,它是否能不僅僅只是增強人工的專業性,而能做到真正的獨當一面呢?當我們認為一臺機器有能力“護理”病人時,它具備了哪些“護理”能力呢?我們又是如何定義“護理”這個詞呢?這些我們以為的“以為”是否是站在病人權益的角度上,去考慮的呢?

就目前來說,雖然陪護機器人在取代人工護理工作上,還未取得什麽明顯的效果, 但由AI驅動的APP和聯網設備能讓病人取回對自己健康管理的控制權的前景正在與日俱增,而這也預示著AI醫療系統同病人的直接交互,正處於早期發展階段。。

這種人與AI的直接交互其實也是一把雙刃劍。一方面,它能讓病人康複地更快、對自身病情有更多的了解。另一方面,這種變革也需要他們擔負更多的風險。這些風險包括它可能會誤導病患,影響他們可能會接收到的信息的質量和準確性,而這也是美國聯邦貿易委員會(FTC)在近些年來,所要傳達給我們的擔慮。

除此之外,這些搭載了AI的APP也可以將原先醫療從業者所需要承擔的責任轉移病人本身,但這對病人來說不見得是什麽好消息,因為並不是所有人都有時間、財力和AI技術獲取渠道,來實現對他們自身健康的護理。

那麽,什麽樣的患者能優先享受到這些仍在不斷改進當中的AI醫療技術的紅利呢?對於那些“裝備”不良卻想管理和維護自己個人數據的病患來說,他們所接受到的健康看護是否是不合格的呢?

再者,那些搭載了AI技術的應用的設計者和研發者在這一社會演變過程中,又需要扮演什麽新的角色?需要承擔哪些新的責任?

那些始終處於風口浪尖的醫學道德倫理,又將如何融入到這些與眾不同的,新式工程技術的載體上呢?

  4. 道德責任  

AI系統的部署不僅將引發新的責任,也將對職業道德、研究道德、甚至公共安全評估等現有領域造成挑戰。

近來,人們對道德和AI系統的討論傾向於優先考慮很久以後可能會出現的AI系統,例如,“奇點”的來臨,或超級智能的發展。

也就是說,這種討論往往並未關註AI系統在短期或中期內會產生的道德影響,例如,當前已投入使用的大量任務型AI系統引發了新挑戰、可能加劇不平等、或從根本上改變權利機制。

當代AI系統上能夠執行各種各樣的活動,這類技術會引發各種隱性和顯性後果,因此可能對傳統倫理框架提出新挑戰。AI系統被部署在人類社會中時或許會引發不可預測的相互作用和後果。

在資源配置以及讓權力和信息集中或重組的潛力方面,我們迫切需要處理一些關鍵問題來確保AI技術不會造成傷害,特別對於已被邊緣化的群體。

我們如何向AI授予權力或委派AI展開決策?

AI系統在社會和經濟領域內的融合需要我們把社會問題轉變為能夠被AI解決的技術問題。這種轉變無法保證AI系統產生的錯誤會少於它將取代的現有系統。瑞安•卡洛(Ryan Calo)指出,人們通常以為,AI系統(如,自主駕駛汽車)犯的錯誤將少於人類。實則不然。複雜程度不高的AI系統無法避免地會犯一些人類不會犯的新錯誤。

在許多領域中,倫理框架往往需要產生記錄,例如,病歷、律師的案卷、或研究人員向機構審查委員會提交的文件。此外,人們還面向患者、客戶或感覺自己遭遇了不公正待遇的對象設立了補救機制。

當代的AI系統往往無法提供此類記錄或補救機制,要麽因為技術上無法實現,要麽因為設計者並未考慮此類記錄或機制。

這意味著,受到影響的特定群體或個人往往無法對AI或其他預測系統的決策進行檢驗或質疑。這會惡化各種形式的權力不對等現象。而權力不對等是一個很重要的倫理議題。

當受到影響的個人無法對這類自動化決策展開檢驗、質疑或上訴時,他們就處在了權力相對缺失的位置上。

這帶來的風險是,AI系統不僅將削弱弱勢群體的質疑權力,而且將賦予設計方更多定義道德行為的權力。這種權力能夠以十分微妙的形式呈現出來。例如,各種自動化系統往往被用來從某種方向來影響或“微調”某些個體,而很大程度上扮演決定或支配角色的是設計部署此類系統並從中獲利的一方。

若要從零開始構建AI系統,以實現糾正上述不平衡現象等目標,這本身就要受到實力差距的限制。打造和維護AI系統需要大量的計算資源和大量數據。而擁有海量數據和計算資源的企業相對缺乏這類資源的企業擁有更多的戰略優勢。

我們如何在現有的各種行業中應對與AI相關的倫理問題?

隨著AI系統在不同行業環境(如,醫學、法律、金融)中的融入愈加深入,我們還將面臨跨越不同行業的新的道德困境。

例如,AI系統在保健環境中的應用將對醫療專業人員道德準則中秉持的核心價值(如,涉及保密、護理的連續性、避免利益沖突以及知情權)造成挑戰。

隨著醫療業的不同利益相關方推出了各種各樣的AI產品和服務。對這些核心價值的挑戰可能會以全新的和意想不到的方式呈現。

當一名醫生使用的AI診斷設備在受訓時使用了一家醫藥公司的藥品試驗數據,而這家公司是某種藥物處方的既得利益者,那麽這位醫生應如何遵守避免利益沖突的誓言?

雖然這是個假想的情況,但這點明了在修訂以及更新職業道德準則的過程中必須解決的棘手問題。

同樣地,負責管理AI研發及維護的專業協會也有必要考慮采取相應的措施。例如,美國人工智能協會(AAAI)應制定相關的道德準則,而美國計算機協會(ACM)以及電氣和電子工程師協會(IEEE)需認真修訂相關的道德準則。ACM和IEEE現有的道德準則已擁有20年以上的歷史,不用說,這些準則不僅無法解決與人類機構、隱私和安全相關的核心問題,而且也無法預防AI和其他自動化決策系統可能產生的危害。隨著AI技術進一步被整合到重要的社會領域中,這一點正變得越來越重要。

盡管更多的高等教育機構在技術和科學專業的教學中已開始強調職業道德的重要性,但這番努力仍處在初期,還有進一步的拓展空間。而民權、公民自由和道德實踐等領域的知識還未成為學生們畢業時必須掌握的要求範圍。此外,有一點是值得註意的,若有人違背醫藥界道德準則,他需承擔的懲罰包括失去行醫權力,這一點並不適用計算機科學或許多其他相關領域。

目前還不清楚大多數計算機科學家是否熟知ACM或IEEE準則中的核心內容。我們也不清楚,企業雇主是否會因為其他鼓勵或壓力因素而選擇不遵守這種不具約束力的法規。因此,從實用角度看,除了僅僅對倫理框架進行改寫和更新外,有必要關註範圍更廣的鼓勵機制,並確保對倫理準則的遵從並不是事後才想起的事項,而是相關專業領域需要關註的核心問題,以及AI領域學習和實踐中不可或缺的組成部分。

  闡述建議  

下面我們將進一步闡述上面簡要提到的建議背後的基本原理。

1、多元化和拓寬AI開發和部署所必需的資源——如數據集、計算資源、教育和培訓的使用,包括擴大參與這種開發的機會。特別是關註當前缺乏這種訪問的人口。

正如在AI Now Experts研討會期間很多人提到的,這些開發和培訓AI系統的方法費用高昂並只限於少數大公司。或者簡單地說,在沒有大量資源的情況下DIY AI是不可能的。培訓用AI模式要求有大量數據——越多越好。同時還要求有巨大的計算能力,而這費用不菲。這使得即使要進行基礎研究都只能限於能支付這種使用費用的公司,因此限制了民主化開發AI系統服務於不同人群目標的可能性。投資基本的基礎設施和使用合適的培訓數據,有助於公平競爭。同樣,開放現有行業和機構里開發和設計過程,以多元化內部紀律和外部評論,可幫助開發更好服務和反映多元化環境需求的AI系統。

2、升級使公平勞動行為具體化的定義和框架,以適應AI管理部署到工作地時出現的結構性變化。同時研究可替代的收入和資源分布、教育和再培訓模式,以適應未來重複性工作日益自動化和勞動及就業態勢不斷變化。

在AI Now Experts研討會上,奧巴馬總統首席經濟學家賈森·福爾曼(Jason Furman)指出,在美國每小時工資只有不到20美元的工作,83%都將面臨自動化的嚴重壓力。對於每小時工資在20-40美元的中等收入工作,這個比例也高達31%。這是勞動力市場一次巨大轉變,可能導致出現一個永久失業階層。為確保AI系統的效率在勞動力市場不會導致民眾不安,或社會重要機構如教育(有一種可能是教育不再視為就業的更好途徑)的解散,在這種巨大轉變出現,應該徹底研究替代性資源分布方法和其他應對引入自動化的模式,制定的政策應該為組織良好的各種落實測試開路,控制可能導致的災難性後果。

除了“替代工人”外,AI系統也對勞動力市場也有其他多重影響。例如,它們改變了權力關系、就業預期和工作本身的角色。這些變化已經對工人產生深遠影響,因此在引入AI系統時,在考慮如何表述公平和不公平做法上,理解這些影響很重要。例如,如果開發實際作為管理層行事的AI系統的公司,可被視為科技服務公司,與雇主不同的是,職員可能不受現有法律保護。

3、在設計和部署階段,支持研究開發衡量和評估AI系統準確性和公平度的方法。同樣地,也支持研究開發衡量及解決一旦使用出現的AI錯誤和損害的方法,包括涉及通知、矯正和減輕這些因AI系統自動決策導致的錯誤和損害的問責制。這些方法應優先通知受自動決策影響的人們,並開發對錯誤或有害判斷提出異議的方法。

AI和預測性系統日益決定了人們是否能獲得或失去機會。在很多情況下,人們沒有意識到是機器而非人類在做出改變人生的決定。即使他們意識到,也沒有對錯誤界定提出異議或拒絕有害決策的標準流程。我們需要在研究和技術原型化上投資,確保在AI系統日益用於做出重要決策的環境中,確保基本權利和責任受到尊重。

4、澄清無論是反電腦欺詐和濫用法案還是數字千年版權法案不是用於限制對AI責任的研究

為了進行對檢驗、衡量和評估AI系統對公共和私人機構決策的影響所需的研究,特別是有關如公平和歧視的關鍵社會關切,研究人員必須被清楚地允許跨大量域名並通過大量不同方法測試系統。然而,某些美國法律,如反電腦欺詐和濫用法案(CFAA)和數字千年版權法案(DMCA),規定與電腦系統甚至互聯網上公開可訪問的電腦系統“未授權”互動為非法,可能限制或禁止這種研究。這些法律應該澄清或修改,明確允許促進這種重要研究的互動。

5、支持在現實環境中AI系統對社會經濟生活影響的強大評估和評價方法的基礎性研究。與政府機構合作將這些新技術集成到他們的調查、監管和執法能力中。

我們當前缺乏對AI系統社會經濟影響評估和理解的嚴格做法。這意味著AI系統在融合到現有社會經濟領域,部署在新產品和環境中,卻不能衡量或精確計算它們的影響。這種情況類似於進行試驗卻不願記錄結果。為確保AI系統帶來的益處,必須進行協調一致的研究開發嚴格的方法,理解AI系統的影響,當使用這種方法時可幫助形成跨部門和政府內部的標準做法。這種研究及其結果可比作早期預警系統。

6、在與這些人聯合開發和部署這種系統時,與受自動決策應用和AI系統影響的社區代表及成員合作,聯合設計可問責的AI。

在很多情況下,這些受AI系統影響的人將是對AI系統環境和結果最權威性的專家。特別是鑒於當前AI領域缺乏多元化,那些受AI系統部署影響的人實際上從事提供反饋和設計方向,來自反饋機制的這些建議可直接影響AI系統的開發和更廣泛的政策框架。

7、加強行動提高AI開發者和研究者的多元化,拓寬和融合所有觀點、環境和學科背景到AI系統開發中。AI領域應該也結合計算、社會科學和人文學,支持和促進針對AI系統對多個觀點影響的跨學科AI研究。

計算機科學作為一個學科領域缺乏多樣性。特別是嚴重缺乏女性從業者,在AI里這種情況更為糟糕。例如,雖然有些AI學術實驗室由女性掌管,但在最近的神經信息處理系統大會上,與會者只有13.7%是女性,這次大會是該領域最主要的年度大會之一。缺乏多元化的圈子不大可能會考慮這些不在其中人的需求和關註。當這些需求和關註成為部署AI的社會經濟機構的中心時,理解這些需求和關註很重要,AI開發反映了這些重要的觀點。關註開發AI人群多元化是關鍵,除了性別和代表受保護人群外,包括除計算機科學外各種學科的多元化、建立依賴來自相關社會經濟領域學習的專業知識的開發實踐。

在計算機科學之外和計算機科學之內AI子領域的社會經濟領域,進行AI影響的徹底評估將需要多數這種專業知識。由於很多環境下AI被集成和使用——如醫學、勞動力市場或在線廣告——本身是學習的豐富領域。為真正制定AI影響評估的嚴格流程,我們將需要跨學科的協作,建立新的研究方向和領域。

8、與專業組織如美國人工智能進步協會(AAAI)、美國計算機協會(ACM)和電氣及電子工程師協會(IEEE)合作,更新(或制作)專業道德準則,更好地反映在社會經濟領域部署AI和自動化系統的複雜性。為任何想掌握計算機科學的人開設公民權、公民自由權和道德培訓課程,反映了教育中的這些變化。同樣,更新專業道德準則約束引入AI系統的專業人士,如適用於醫生和醫院工作者的道德準則。

在醫學和法律等職業中,專業人士的行為受控制可接受和不可接受行為的道德準則約束。專業組織如ACM和IEEE確實制定了道德準則,然而這些準則過時了,不足以解決複雜社會經濟環境中使用AI系統帶來的具體並常常是微妙的挑戰。雖然醫生確實遵守了約束他們對待病人行為的職業道德,但AI系統的發展,如幫助醫生診療和治療病人,出現了現有職業道德準則不總是能解決的道德挑戰。職業準則和計算機科學培訓必須更新,以反映AI系統建造者對因使用這些系統遭受不同程度不利影響的人所負有的責任。在AI用於增強人類決策時,職業道德準則應該包括在AI系統受到利益沖突左右的時候鑒定責任的保護措施。

人工智能 AI
贊(...)
文章評論
匿名用戶
發布
PermaLink: https://articles.zkiz.com/?id=217608

有興趣加入嗎?人類首個太空國家建立:招募10萬公民

10月14日消息,據英國《每日郵報》報道,11日一支國際性科學家團隊宣布將成立首個太空國家,命名為阿斯伽迪亞(Asgardia),旨在保護地球免受小行星的毀滅性撞擊,該項目的第一步舉措是在明年發射一顆人造衛星。而且,從現在起,人們可以在阿斯伽迪亞項目網站上進行註冊,前10萬名註冊者將成為阿斯伽迪亞的公民。

多名科學家參與了這項計劃,這支團隊的領導者是航空國際研究中心的創立者Igor Ashurbeyli,他於11日在巴黎的一場新聞發布會上宣布了這一令人震驚的方案。項目負責人表示,通過創造新國度,阿斯伽迪亞項目為太空中的所有權和國籍制定了全新的框架。

團隊負責人Ashurbeyli博士是一名俄羅斯科學家,以及維也納國際航天研究中心的創始人。本周,他成為了聯合國教科文組織“太空科學”委員會的主席。通過創造新的太空國家,這些專家希望,未來太空技術的開發將不受到各個國家的限制。

該團隊計劃進行的前期工作將會是利用最先進科學技術創造一個保護全人類的屏障,阻擋來自太空的人為或自然的威脅,其中包括太空垃圾、太陽耀斑、行星撞擊。

業內專家估計,太空中有超過2萬件可追蹤的人造垃圾,包括老的太空飛船和火箭部件。此外,自然物體也給地球上的生命帶來了威脅。例如,2013年墜落在俄羅斯車里雅賓斯克的隕星導致1100人受傷,4000棟建築損毀。

據Ashurbeyli稱:“這一項目的理念包括3個部分,分別為哲學、法律,以及科技。阿斯伽迪亞是一個完整而獨立的國度,未來將成為聯合國的成員國之一。阿斯伽迪亞的本質是創造太空中的和平,防止地球上的沖突蔓延至太空。”首枚阿斯伽迪亞衛星計劃於2017年發射,科學家希望這將成為項目的開始。第一枚衛星將進入低地球軌道。

據悉,該項目還將舉辦競賽,協助設計國家的國旗和國徽。同時,阿斯伽迪亞這一名稱來自北歐神話中奧丁統治的天空之城。

PermaLink: https://articles.zkiz.com/?id=218775

人類首個太空國家建立:招募10萬公民

據聯合早報網援引英國《每日郵報》報道,一支國際性科學家團隊11日宣布將成立首個太空國家,命名為阿斯伽迪亞(Asgardia),旨在保護地球免受小行星的毀滅性撞擊,該項目的第一步舉措是在明年發射一顆人造衛星。

據報道,從現在起,人們可以在阿斯伽迪亞項目網站上進行註冊,前10萬名註冊者將成為阿斯伽迪亞的公民。

多名科學家參與了這項計劃,這支團隊的領導者是航空國際研究中心的創立者Igor Ashurbeyli,他於11日在巴黎的一場新聞發布會上宣布了這一令人震驚的方案。項目負責人表示,通過創造新國度,阿斯伽迪亞項目為太空中的所有權和國籍制定了全新的框架。

PermaLink: https://articles.zkiz.com/?id=218968

人類繪制細胞圖譜 應用前景遭質疑

近日,來自全世界的一群頂級科學家齊聚倫敦,討論一項雄心勃勃的全球合作計劃——創建一個人類細胞圖譜(HumanCellAtlas)。這一計劃的目的是希望破譯出人體中每個細胞的類型和特性,構建健康人體的參考圖,從而加速生物醫學進展,比如了解人類為什麽會生病。

意義堪比人類基因組計劃

這次會議由MIT和哈佛醫學院BroadInstitute以及WellcomeTrustSangerInstitute召集,由國際專家共同決定人類細胞圖譜計劃第一階段的要素。一些科學家認為,這一計劃的重要性堪比當年首個人類DNA序列的人類基因組計劃(HumanGenomeProject)編制的意義。

GSK高級副總裁、中國研發中心總經理利民對《第一財經日報》記者表示:“這是一項偉大的學術項目!而且即便使用今天的技術,它的意義仍然是深遠的。”

項目的倡導者之一、MIT計算生物學家AvivRegev博士表示:“啟動這樣一個項目主要希望對人類有清晰的自我認識。我們希望了解人類是如何構成的。最終,這個人類細胞圖譜將有助於徹底改變醫生和研究人員如何理解、診斷和治療疾病。”

通過把細胞圖譜免費開放給全世界,科學家希望將研究結果轉化為我們對身體發育和疾病進展的理解,如哮喘、阿爾茨海默病和癌癥等。將來,這個參考圖也可以指明新的診斷工具和治療方法。

Regev博士指出,對健康人體中所有細胞的準確理解將在未來幾十年影響生物學和醫學的幾乎每一個方面。我們現在有工具來了解我們人體的組成,了解我們的身體如何工作,並揭示所有這些元素在疾病中的作用。他說:“通過開放的國際合作創建這個圖譜,我們正在為整個社區建立一個新的研究工具。”

細胞是生命的基本單位,它們在胚胎中分裂、生長並獲得不同的功能,最終形成不同細胞類型(例如皮膚細胞、神經元或脂肪細胞),從而形成身體的各種組織。這些組織匯聚在一起形成器官,例如心、肺、腦、腎臟和肝臟。按照醫學教科書的說法:“人體由數萬億細胞構成,已經發現的細胞種類有200多種。”不過真實的數據毫無疑問會比這個數字要高很多。

目前人類基因圖譜的第一個試點性的研究已經開啟。單細胞基因組學領域的技術進步,讓科學家們可以從不同的組織和器官中分離單個細胞,並測量每個細胞的轉錄組或其他重要分子,在過去,測量這種複雜和廣泛的信息幾乎是不可能的。

以前科學家們通過顯微鏡下觀察和了解細胞,近些年可以通過分析數百到數千個細胞的團塊並找到它們的平均性質。然而,盡管大多數細胞所攜帶的基因密碼是相同的,但是它們的命運是被內部激活它們的基因排序所左右的。如果調整基因組中的一組基因,那麽細胞就會變成神經細胞;激活另外一組基因,細胞就變成了跳動的心臟細胞。為了認清每種細胞類型的真實面目,有必要首先分離細胞,然後找出在每個細胞中產生什麽分子。這些分子包含了轉錄組,一種將細胞與體內其他細胞類型區分開的物質。

應用前景何在

利民負責了整個GSK的全球腦神經藥物的研發。他對記者表示:“人類細胞圖譜未來的應用前景廣闊,有三點可以考慮:首先繪制這份重要組織圖無論是對於學術認知還是人體健康都具有積極意義;其次它對了解疾病細胞與健康細胞同樣重要;最後是必須盡快找到一種方法能夠把工業和社會聯系起來,讓科研領域的進步和社會進步擁有同一個目標,從而幫助改善人類的健康狀況。”

一些科學家認為,人類細胞圖譜或許對於用細胞療法來重新產生缺失或受損組織的作用是無價的,它能夠為目前一些不治之癥提供治療方案。比如帕金森,這種疾病是由於大腦持續缺失能夠產生一種叫做多巴胺的化學物質的神經元而導致的。未來的一種治療可能性是在實驗室生產新鮮的能夠產生多巴胺的細胞,然後再把它們註入人腦。

“人類細胞圖譜的意義在於能夠讓科學家做出判斷,把正確的細胞植入人腦。”斯德哥爾摩KarolinskaInstitute的神經學家StenLinnarsson表示,“人類細胞圖譜是生命科學領域很長一段時期以來最為振奮人心的提案,對於健康和疾病而言,細胞是生命最基礎的組成部分,只有對細胞有清晰的了解,才能夠了解病理機制,提供有效的治療方案。”

Regev博士和Teichmann博士所倡導的這樣一份人類細胞圖譜已經獲得了來自紮克伯格和妻子PriscillaChan的支持。而要真正建立起這樣一幅圖譜,全球的實驗室必須聯合起來。而一旦這幅圖譜被繪制出來,研究人員將不僅僅能夠發現人體細胞的全部種類,而且能確切地找到它們在哪些器官起作用。

不過,花如此大的力氣打造這樣一個世界級的項目,到底為了什麽?有科學家對此提出質疑。美國冷泉港腦神經學家AnthonyZador對記者表示:“擁有足夠的資源(主要是資金),要繪制出人體所有的細胞類型並不困難。所以我擔心的並不是這能不能實現的問題,而是在全球科研經費如此有限的背景下,這是不是最好的投資。因為和人類基因組計劃的編制帶有很強的目的性不同,人類細胞圖譜的用途並不明確。還有很多同樣重量級的科研項目等待資金註入,那些項目或許更有實際意義。”

在Zador看來,人類基因組計劃(HumanGenomeProject)的編制對於現代生物學的意義是革命性的,不僅僅是因為它所產生的數據,更是因為它撬開了現代基因組排序技術的奧秘。相比而言,全基因組關聯分析(GWAS)的項目讓人失望,這個項目主要是在人類全基因組範圍內找出存在的序列變異,從而為研究複雜疾病提供數據分析支撐。“GWAS項目花了巨大的資金,但是結果並沒有獲得同等的產出,還不如多投一些小的項目。”Zador對記者表示,“人類細胞圖譜最後會具體落到哪個領域,現在也還不清楚。”

巧合的是,Zador正在做的一項研究也是繪制一幅“雲圖”,不過是人腦圖譜。他的團隊通過一項名為MAP-seq的新技術,利用RNA“條形碼”能夠繪制出人腦約850億個神經元細胞之間多達15萬億種連接,有望實現深度神經網絡的重大突破。

PermaLink: https://articles.zkiz.com/?id=219101

Siri遭遇勁敵Cortana 微軟語音識別能力已不輸人類

微軟研究員本周宣布,微軟經過訓練的神經網絡已可以像人工一樣識別人類的語音。

據Business  Insider報道,在周一發布的報告中,微軟讓NIST 2000自動化系統與專業速記員進行了比賽。結果顯示,自動化系統的錯誤率首次低於人工。報告稱:“這是會話語音領域首次報告的(自動化系統)達到人工水平。”

而更強大的語音識別系統可以給未來的微軟產品帶來一系列影響。微軟CEO薩蒂亞·納德拉(Satya Nadella)宣布,會話技術對計算機的重要性將堪比圖形用戶界面(GUI),而這樣的會話將在不久的將來進入所有計算設備。

關於這一成就,微軟在官方博客中表示:“這一里程碑將給用戶和商業產品帶來廣泛影響,語音識別技術將帶來明顯的增強。這其中包括類似Xbox的用戶娛樂設備、實時語音文本轉換等無障礙訪問工具,以及類似Cortana的語音助手。”

在智能語音識別領域,微軟的Cortana後來居上,行業評價已經超過了蘋果的Siri,目前微軟已經把語音助理覆蓋了各種計算工具,比如手機、平板電腦、電腦操作系統等。 蘋果Siri表現糟糕,已經引發了蘋果高管的註意。就在近日,蘋果從美國卡耐基梅隆大學挖來了一個人工智能技術的教授,將負責組建人工智能研究團隊。

微軟團隊表示,接下來還要進一步提高語音識別的準確率。另外為了確保識別技術獲得更加實際的應用,微軟計劃在更加嘈雜的環境中,同樣實現高精度的識別,比如在一個熱鬧的餐館、人潮湧動的大街上,或是在狂風暴雨環境中,微軟希望在非正常環境下,語音系統也能夠準確理解人們說的話。

PermaLink: https://articles.zkiz.com/?id=219414

徐小平:時勢造就英雄,格局成就偉大,創造者要心懷對人類命運的悲憫

來源: http://www.iheima.com/zixun/2016/1020/159331.shtml

徐小平:時勢造就英雄,格局成就偉大,創造者要心懷對人類命運的悲憫
真格基金 真格基金

徐小平:時勢造就英雄,格局成就偉大,創造者要心懷對人類命運的悲憫

創業者在創業後異性緣大幅度增長,可見創業者已經到了職業鄙視鏈的最高端。

本文由微信公號真格基金(ID:zhenfund)授權i黑馬發布。

我前兩天去上海出差,深夜抵達機場。在過去我需要請朋友、找熟人開車來接機,但現在下飛機以後叫個易到專車,馬上就可以聯系到附近的司機。網約專車的創新,已經徹底改變了人們的出行方式。清晨在上海街頭,我看到六七輛黃色的 ofo 自行車,還有幾輛紅色的 MoBike 自行車。

這兩家公司都在短短一年內從無到有,進一步改變了我們的出行,而它們的估值都達到了幾億美金。在上海這一個城市就投放了無數量輛自行車。真格也參與投資了 ofo,我相信明年滿大街都能看到他們的黃色單車,成為城市獨特的一景。

如此年輕的公司已經在改變上海人的交通方式,讓人們的生活更加便利。這就是發生在我們眼前所謂“資本寒冬”中激動人心的故事。

創業創新及其催生的新經濟崛起,正在中國形成一股嶄新而豐厚的改革開放紅利,對經濟發展形成了巨大的推動力量。盡管對於新商業模式和新現象的政策監管出現過一些糾結和調整,但創業創新的實踐總體上得到了社會和政府的全力擁抱,在未來會給中國經濟帶來巨大的飛越。

創業創新對中國社會有什麽意義?我想從中美高校創業創新對比來說明問題。有學者對斯坦福、MIT、清華這三所學校的經濟影響力進行了衡量與對比。如果把大學校友所創立公司的年收入都加起來,測算顯示:斯坦福校友每年創造 2.7 萬億美金的收入,相當於全球第十大經濟體;MIT 每年創造 1.8 萬億美金的收入,相當於全球第十一大經濟體。

清華大學每年創造 500 億美金的收入,相當於全球第七十大經濟體。2016 年全球第十大經濟體是加拿大,第十一大經濟體是韓國。第七十大經濟體是哪個國家呢?危地馬拉!一聽就是很危險的地方。

清華大學是美國公認的高校排行榜里全球排名第一的工程類大學。但是學生老師創辦的企業所創造的經濟影響力,和斯坦福、MIT 比起來,竟然相差著六十個國家。這個差距是和中國的經濟體量不相匹配的,也是和中國的教育水平不相符的。

盡管這個統計結果可以爭議,但我們還是可以看到,中國的創業創新實際蘊含著巨大的爆發力。如果清華、北大這樣的高校能夠達到 MIT、斯坦福的水平,相當於中國經濟長出了一個韓國和加拿大,這里的潛力,是不可估量的。

斯坦福,MIT 是如此。普林斯頓,哈佛的畢業生也不差。哈佛的比爾蓋茨、紮克伯格創造了微軟和 Facebook,市值加起來近 8000 億美元;普林斯頓的貝索斯創造了亞馬遜,市值 4000 億,這些公司改變了全球經濟版圖。而我們反觀國內的頂尖大學,清華最有名的創業者是張朝陽,北大出了個李彥宏,當然還出了個俞敏洪,以及真格基金。複旦有郭廣昌、陳天橋,上海交大當然也有很多很好的公司。

他們都是了不起的創業者,但從企業的高科技創新力和全球影響力的角度來看,還有巨大的發展空間。有人說我們還是有騰訊、阿里這種偉世界級的大公司啊,不錯,但看看這些公司的境外用戶和收入,依然是微不足道的,這說明中國公司離征服世界還有距離。

但這就是我們的機會所在,我的信心和激情都來自於此:我相信我們跟發達經濟體有多大差異,我們就有多少潛力;中國創業者有多少激情和夢想,中國就有多大創造價值、創造財富的未來。巨大的夢想和機會,巨大的未被滿足的需求和巨大的市場空間,這是這個時代的中國年輕人特有的機會。

要充分地釋放中國創業者的激情,激發他們的想像力和能力,給他們創造更好的創業創新環境,必須要繼續拆除一些障礙,我總結為“三知障礙”。第一是認知障礙,是指對創造財富以及創業者的態度。

最近一位非常令人尊敬的科學家,發表了一篇演講,批評這是一個人人只想著掙錢的時代。其實,追求財富與追求道德並不沖突。創造財富實際就是承擔社會責任的最佳途徑之一。除了坑蒙拐騙與貪汙腐敗,金錢是社會對創造價值者的激勵和回饋。一個創業者或企業家,只有當他創造了社會價值,提供了優質的服務和產品,給人們的生活帶來便利,給社會文明帶來進步,他才有可能獲得財富。

所以,與其說人人都在想著掙錢,不如說,這是一個人人都在夢想創造價值的時代。如果一個科學家,把他的科技成果變成抗癌藥或機器人,成為億萬富翁,有什麽不好的呢?但另一種觀點可能批評這種人不務正業,不搞學術而去從商,他是一個商人而不是一個學者。商人比學者難道就低人一等嗎?新東方成功之後,我太太跟我說:去北大搞個教授頭銜吧。我說:我是新東方老師,這個頭銜足夠了!

對商業的鄙視、對金錢的誤解,對民營私企這些改革開放新事物的低看,在人們內心深處,在潛意識里面,還在阻擋我們放開想象的翅膀,這是無形的價值觀枷鎖,是阻擋中國創業創新事業的認知障礙。

第二點,我稱之為行知障礙,也就是創業者的執行能力。怎麽找合夥人、怎麽談股份、怎麽做營銷、怎麽建品牌……萬一一個合夥人不合作,你怎麽解決他,員工不努力你怎麽激勵他?這些事情聽起來難,做起來更難。真格基金投資了很多公司,見過了太多因為行知能力不足而失敗的悲壯故事。

一個想法變成一項技術再變成一個產品是個漫長的過程,有些科技人才可能掌握了技術,但是沒有對於商業、金融、營銷、公關的知識以及對於人性敏銳的觀察力,離成功的距離仍然遙遠。這就是真格基金存在的意義,我們與青年創業者分享豐富的經驗,為他們指出前進路上的陷阱,指明迷路時的方向。

最後一點是政"知",其實也就是政府政策的大環境。1996 年我回國創業時,中國剛開始進入深度的改革開放,但對創業者來說仍然有很多困難和不確定性。當時有個新聞是某地的科技工作人員業余時間做項目賺了幾萬元人民幣,被抓起來判了幾年刑,我們當時聽到之後心情低落,想不通一個人用智慧才華換來經濟和社會的發展有什麽錯?還有比如進行工商註冊:以前要求多個人一起才能註冊公司,不允許一個人註冊,而且要求有註冊資本。但是我沒錢才創業啊,有錢我不就去做投資了,對吧。如果我要去借錢,也不行,屬於虛假註資……

創業難的時代已經過去了。現在政府在創業政策上越來越開放,越來越鼓勵和便利創業者,這也是我作為投資人所觀察到的情況。我們的創業政策環境越來越好,雖然還可以更好。

最近國務院頒發了《中華人民共和國促進科技成果轉化法》,讓無數科技學者感到歡欣鼓舞。新政策鼓勵科研人員將科研成果轉化為商業應用並從中獲得相應的回報。科研成果轉化自此在法律上有了明確的依據,大多數高校高校對此的態度由過去的"不鼓勵、不支持、不反對"轉化為"明確不反對"……當然我希望看到有一天這種態度變成明確支持,明確鼓勵,明確贊同。

無論是社會觀念和還是政府政策,中國創業生態正在經歷全面的改善和升級。上個月我去北大演講,有一個學生站起來說,大學生以往的職業選擇鄙視鏈是去投行的瞧不起去咨詢公司的,去咨詢公司的瞧不起四大的,四大的瞧不起做快銷的。他問創業者在鄙視鏈的什麽位置?

在我回國加入新東方的 90 年代,創業者絕對是在鄙視鏈的最底層。但現在,情況已經大不相同。真格基金和零點調查做了一個創業者調研,84%的創業者都表示即使創業失敗也是值得的,64%的創業者認為即使創業失敗再去就業的優勢也非常明顯。最有意思的是創業者在創業後異性緣大幅度增長。可見創業者已經到了職業鄙視鏈的最高端。

職業鄙視鏈在過去這幾年發生的大逆轉,背後實際上是整個社會的觀念發生了翻天覆地的變化,而且這是一種不可逆轉的、意義極為深遠的變化。從中央到地方,從政府到民間,其實我們正在做一件事,就是中國站在新起點上,中國青年人正站在如同三十多年前改革開放那樣的重大節點上。

我們現在有一個嶄新的時代,嶄新的機會,機會永遠不會過時,過時的只有你的想法和猶豫。創業對個體來說,相當於一次偉大的解放實驗,一次偉大的個人命運的革命。創業創新使得每個人都能通過勇敢頑強的奮鬥,把命運掌握在自己手里,成為這個時代的英雄。

2006 年紐約時報的著名評論人 Thomas Friedman, 對於中國當時建立“創新國家”的新戰略表示質疑,他在一篇評論里寫道:“你知道,總是說英國掌控了 19 世紀,美國掌控了 20 世紀,而中國將要成為21世紀的霸主。我們完了。抱歉,我可沒準備好把 21 世紀交給中國。”

而十年之後,紐約時報的科技記者 Paul Mozur 發表文章指出,“中國走在移動科技的前沿,而不是矽谷”。而中國不僅僅只在移動科技這一個領域搶占了先機。美國白宮這個月發布的數據顯示,在人工智能領域的研究論文發表數量,中國已經超越了美國,而且這些是高質量、為學界所引用的論文,說明在這個未來註定會影響人類命運的領域中,中國的學者和科研人員有著遠大的抱負和突破性潛力。

最後我想講一點我最近讀書的心得體會。我讀 Elon Musk 傳記,我發現 80 年代末, 我和 Elon 前後腳來到了加拿大的 Saskatchewan。我所在的城市叫 Saskatoon,有 18 萬人,他去的外公住過的城市叫 Swift Current,才 8 千人。比起來,我所在的地方真是個大城市。Saskatchewan 是個農業省份,一般人不會去那兒,除了我和 Elon這種不一般的人。當時 Elon 才 18 歲,而我已經 32 歲。2002 年 Elon Musk 把第二個創業公司 Paypal 賣掉,賺了 1.7 億美金。緊接著他就把 1 億美金投入了 SpaceX,7000 萬投入了特斯拉,1000 萬投入了 SolarCity。

2006 年新東方上市的時候,我其實也處在一個相似的狀態,手上握著很多足以創辦 SpaceX 的錢,但我卻沒有像 Elon 那樣做出一個特斯拉,或是一個 SpaceX 。我自己會反省,這是為什麽?當時我覺得,可能是中國政策不允許吧。其實這是一種自我欺騙的借口。我覺得主要問題在於我和 Elon 不同的思想觀念和精神意識。

Elon Musk 他想要做的就是改變世界、改變人類命運的事,為人類文明的延續和人類智慧的啟蒙做出貢獻。而對我來說,談到能源短缺、氣候變暖等等這些世界性的問題,我往往會覺得離我很遠。我在做的事業的確在改變著青年人的命運,我並不妄自菲薄。但就從精神意識和價值追求的角度,我是在為困頓的學生代言,而 Elon 在替困窘的人類擔憂。

兩種追求,也許談不上誰對誰錯,或者,它們反映了中美兩國的經濟社會發展階段。但如果中國真的要走向世界前沿,中國創業者如果真的要締造世界級的公司,我們就不僅僅要有對優質產品和服務的追求,對金錢與成功的追求,我們更應該要有對人類整體命運的悲憫和擔憂,要有對人類文明在歷史長河乃至浩瀚宇宙中的位置更加深邃和超前的思考。唯有我們的精神高度上升到了這里,我們才能在創業創新的銀河系里,與世界最璀璨的明星爭輝。

中國的創新創業的事業已經取得了偉大的成就。圍繞創業創新,我們需要社會對此的認知升級、創業者對創業的行知升級和政府對創業政策的政知升級,但可能我們最需要的還不僅是這些。

在人工智能必將代替大部分人類工作,生命科學必將極大延長人類壽命的黎明時刻,我們要有對人類文明和人類命運的整體思考和關註。中國創新需要新思想的註入以及新的精神力量的激發,從而為我們的創業創新事業帶來新的原動力。

真格

真格基金 徐小平
贊(...)
文章評論
匿名用戶
發布
PermaLink: https://articles.zkiz.com/?id=219698

從特斯拉說起 會思考的機器將終結人類文明?

昨天馬斯克在幾度延期後,終於通過電話發布會宣布,從現在起所有的特斯拉新車都將裝配“具有全自動駕駛功能”的硬件系統Autopilot 2.0。

這套系統包括了8個攝像機、12個超聲波傳感器以及一個前向探測雷達。攝像機將提供360度的視角,最大識別距離250米,其中三個將觀察前方,提供冗余以確保安全;超聲波傳感器能夠探測軟性和硬性的物體;而雷達則可以確保在雨天、霧天、沙塵和霧霾天氣中正常工作。

更加令人大開眼界的是,車載電腦Tesla Neural Net(特斯拉神經網)也進行了升級,基於Nvidia的Titan GPU每秒鐘能夠進行12萬億次的計算,比上一代車載電腦快了40倍!

馬斯克承諾,新的特斯拉的超聲波聲吶系統也是360度的,而車載電腦則“堪比一臺超級電腦”。他還說,如果一切順利,在2017年底會有一個從洛杉磯到紐約的全自動駕駛展示,展示的全程中人將不會碰觸汽車。

不過也有人認為,這只是馬斯克對於未來的願景,並沒有實質性的技術飛躍。谷歌與其它的任何一家致力於無人汽車研發的公司都有必要的傳感技術,但是大家普遍面臨的問題是:所謂的車載電腦現在還沒有聰明到能夠獨立判斷周邊環境並且作出反應。這才是真正阻止自動駕駛技術發展的原因。

不過當馬斯克試圖證明“自動駕駛汽車比駕駛員開車更安全”的時候,在一些人看來,人類只不過是在“起勁地創造即將統治自己的東西”。一場關於機器深度學習和人工智能大戰人類的辯論正被推向高潮。

在這場辯論中,反對正營里最具威望的就是英國著名物理學家斯蒂芬·霍金。斯蒂芬·霍金教授一直持有“人工智能的發明可能是人類歷史上最大的災難”的觀點。他在劍橋大學 “未來智能中心”的揭幕儀式上警告稱:“如果不加以恰當管理,會思考的機器可能終結人類文明。”

霍金對近期以特斯拉為代表的自動駕駛技術以及以谷歌為代表的深度學習等領域取得的進展進行了回顧。他強調:“強大的人工智能的興起,要麽是人類最大的幸事,要麽是最糟的噩運。我們不知道是哪一種。”

霍金相信最終人腦和電腦將不會有深度的區別。從理論上來講,人工智能是完全有可能模擬人腦的。不過對於人工智能不受制約地發展,霍金表示:“技術能夠帶來巨大的好處,比如消除疾病和貧困。但是,也會帶來危險,比如強大的自動武器或是少數人壓迫多數人的新方法。它將給我們的經濟造成巨大幹擾,未來人工智能可能開發出它自己的、與我們相違背的意願。”

人工智能正在以超乎人類想象的速度取得重大的突破。谷歌的DeepMind今年初戰勝了圍棋世界冠軍;IBM的人工智能系統Watson本周已經在德國開始用於罕見病的診斷;微軟公司本周也說它實現了與人同等水平的語音識別技術。

人工智能對於社會產生的影響以及數據安全監管是否能夠跟上是目前最大的爭議。首先在醫療領域,病人的數據是否能夠向科技公司公開已經成為業內激辯的話題。GSK副總裁、中國研發部門總經理利民對第一財經記者表示:“政府盡管能夠依靠技術的力量去幫助更多的病人,但是人工智能要成為真正的解決方案,還面臨很多困難。”

不過人工智能領域的世界領軍人物Maggie Boden教授對霍金的擔憂表示認同。她說:“人工智能的普及速度之快讓人害怕,至少在日本這樣的老齡化社會中,機器人護理已經成為一種普遍現象,這是一種情感的缺失。”Boden教授表示,機器人無法代替人類富有情感和同情心的活動和工作。他還說,人工智能會讓政府很快削減在社保領域的開支,但這是以“犧牲真正需要幫助的人的利益為代價的”。

科爾尼全球總裁Johan Aurik上周在接受第一財經專訪時也對人工智能發表看法,他說:“人工智能的影響現在是最大的未知數。我們知道它一定是革命性的技術,但是最終是以何種方式呈現,現在沒有人知道。所以必須以一種謹慎的態度來對待。”根據國外調查機構Tractica的統計數據,未來10年人工智能市場規模較現在將暴增近10倍,達到超過400億美元左右的規模。

PermaLink: https://articles.zkiz.com/?id=219765

《經濟學人》:人工智能的未來及人類社會的應對

來源: http://www.iheima.com/zixun/2016/1102/159555.shtml

《經濟學人》:人工智能的未來及人類社會的應對
愉悅資本JoyCapital 愉悅資本JoyCapital

《經濟學人》:人工智能的未來及人類社會的應對

事實上每一次科技進步最終創造的就業超過所消滅的就業

盡管科技取得長足進步,但鮮有跡象表明工業時代的教育和福利制度已在現代化和變得靈活。決策者現在就得著手,因為越往後推福利國家的負擔就越大。約翰-穆勒(John Stuart Mill)在19世紀40年代的著作中寫道,關心那些生活被技術破壞的人是立法者關心的最合理目標。

由於所謂的“深度學習”通用技術,人工智能經歷大量虛幻的曙光後終於在過去幾年取得非凡進步。給定足夠數據,根據人腦建模的大型(或“深度”)神經網絡便可接受訓練做各種工作。這些神經網絡支撐著谷歌搜索引擎、Facebook照片自動標記、蘋果語音助手、亞馬遜購物推薦和特斯拉自動駕駛汽車的運行。

斯蒂芬-霍金、伊隆-馬斯克等人懷疑人工智能是否會失去控制,突然造成科幻小說中的那種人與機器的沖突。其他人擔心人工智能會通過使從前只能由人完成的認知任務自動化而造成大範圍失業。機器問題200年後卷土重來,這個問題需要得到解答。 

正如無數科幻電影所表現的,最驚人的情形是人工智能變壞。這是古老擔憂的現代表現形式,可追溯到1818年的《弗蘭肯斯坦》及更早時期。不過雖然人工智能系統令人嘆為觀止,但它們只能執行十分具體的任務:智力上能夠超過其人類創造者的通用人工智能仍然十分遙遠。

人工智能研究專家Andrew Ng表示,現在擔心人工智能就像殖民者甚至還未踏上火星就擔心火星上人口過多一樣。機器問題更加緊迫的方面在於人工智能對人類就業和生活方式有何種影響。 

對人工智能這一方面的擔憂也有悠久的歷史。20世紀60年代(公司首次開始安裝電腦和機器人)和80年代(個人電腦登陸桌面)經歷了“技術性失業”(technological unemployment)的恐慌。每一次恐慌似乎技術工人崗位的普遍自動化就近在眼前。

然而事實上每一次科技進步最終創造的就業超過所消滅的就業,因為一種瑣碎工作的自動化增加了對那些機器仍然不能完成的相關工作的需求。比如,用自動取款機(ATM)取代部分銀行櫃員使得新開分行成本降低,創造了更多的銷售和客服新工作。同樣地,電子商務增加了零售業的總就業。

即便短期喪失的就業有可能被長期創造的新就業彌補且綽綽有余,19世紀的經歷表明這一過程可造成痛苦。

經濟增長在生活水平停滯不前幾百年後起飛,但幾十年過去了經濟起飛才在工資增長中得到充分反映。越來越多的人口從農村向城市工廠迅速轉移在全歐洲造成動蕩。各國政府用了一個世紀利用新的教育和福利制度做出反應。

而這一次的轉變可能會更加迅速,因為技術的擴散比200年前更快。收入不平等現象不斷加劇,因為高技術工人在科技補充支持他們的工作時獲益大得多。這對雇主和決策者構成兩大挑戰:如何幫助現有工人學習新技術;如何讓後人做好面對充滿人工智能工作場所的準備。 

隨著科技改變每一項專業工作所需的技能,工人必須隨之調整。這意味著教育和培訓應足夠靈活,以便迅速、有效地教授新技能。終身學習和在職培訓將得到更多強調,網絡學習和視頻遊戲式仿真將得到更廣泛的應用。通過個性化電腦學習、確定員工技能差距和再陪訓機會,人工智能本身也能有所幫助。

社交和性格技能也將更加重要。當就業崗位不長久、科技不斷推陳出新和人們的工作年限延長,社交技能將是一項基礎技能。社交技能能夠給予人類一種優勢,幫助他們完成需要同情心和人際互動的工作,而同情心和人際互動是機器不具備的人類特質。 

另外福利制度也須與時俱進,以實現就業的順利過渡,並在工人學習新技能時對其提供支持。一個廣受推崇的方案叫做“基礎收入”,即無論個人境遇如何付給每一個人基本收入。不過除非有強烈證據顯示這次科技革命不同於以往的科技革命,將削弱勞動力需求,否則這樣做沒有意義。

盡管科技取得長足進步,但鮮有跡象表明工業時代的教育和福利制度已在現代化和變得靈活。決策者現在就得著手,因為越往後推福利國家的負擔就越大。約翰-穆勒(John Stuart Mill)在19世紀40年代的著作中寫道,關心那些生活被技術破壞的人是立法者關心的最合理目標。

這在蒸汽機時代說得沒錯,在人工智能時代仍然如此。

人工智能
贊(...)
文章評論
匿名用戶
發布
PermaLink: https://articles.zkiz.com/?id=221757

Next Page

ZKIZ Archives @ 2019