📖 ZKIZ Archives


廣東500億政策性基金落地:10倍杠桿撬動社會資本

廣東省政府迄今為止投資規模最大的政策性基金珠西基金正式落地。

9月29日,第一財經記者從廣東省地方投融資平臺廣東粵財投資控股有限公司(下稱“粵財控股”)了解到,粵財控股已經分別與廣東的四個地市珠海、佛山、江門及順德完成了四只區域子基金的簽約,並與廣新控股集團有限公司完成了珠西基金首批投資項目代表——廣新海工項目的簽約。

據了解,珠西基金采取“1+3”運作模式,即1只母基金+3子基金,而此次落地的正是3只子基金之一。

近年來,大批地方政府性投資基金相繼成立,其采取單獨出資或與社會資本共同出資的方式,以市場化運作,引導社會資本進入重點領域和薄弱環節,支持相關產業發展,起到了“四兩撥千斤”的作用。

粵財控股一位內部人士對第一財經記者表示,下一步將以點帶面推動珠西基金在珠江西岸“六市一區”和韶關市全面覆蓋,並依托地方政府資源和各合作機構的網絡資源,繼續挖掘優質項目。

撬動10倍杠桿

據了解,珠西基金總規模達500億元,粵財控股旗下的廣東粵財基金管理有限公司(下稱“粵財基金”)為基金管理方。該基金采用“1+3”的母子基金架構,母基金由粵財控股與粵財基金共同發起設立,規模51億元,珠西母基金將再組建與政府合作的區域子基金、與金融資本合作的金融合作子基金,及與創投機構合作的創投子基金。

此次簽約的項目隸屬於金融合作子基金,粵財控股一位內部人士介紹,通過這種層層放大的模式,珠西基金以“政府、資本、市場”為紐帶,打造起一個省、地市、市場三方聯動的投資生態圈,最大程度地撬動了社會資本,將力爭按省委省政府要求,實現10倍以上的杠桿撬動。

“通過這種模式,既實現了各方的互利共贏,也做到了風險共擔,讓資金能真正進入實體經濟。”他說。

粵財控股人士同時表示,下一步將以點帶面推動珠西基金在珠江西岸“六市一區”和韶關市全面覆蓋,並依托地方政府資源和各合作機構的網絡資源,繼續挖掘優質項目。

“我們目前已對接或盡調了廣新海工、廣青科技、明陽風電、和佳醫療、南風股份、風華高科、廣東鴻圖、王氏航空、華隧公司等15個項目,同時還在洽談與多家公司設立產業基金或並購基金。”他說。

上述粵財控股人士介紹稱,未來,珠西基金將遵循“儲備一批、盡調一批、談判一批、落地一批”的原則分批推進項目投資落地,加快與落戶企業商定融資方案,爭取年內進行投資。

讓了解的人找項目

事實上,近年來,一大批政府引導基金的設立,不僅提升了政府資金使用效率,還引導撬動了大量社會資本投資創新領域,不過,政府引導基金也存在運營管理僵化、長期無法形成有效投資、資金閑置浪費甚至虧損等問題。

對此,上述粵財控股人士表示:“500億的大基金只靠一家機構是難以保證投放的。現在珠西基金通過這種模式讓最了解產業情況的人找項目,最了解金融市場的機構進行投資,輔以省、市、區三級政府部門的政策資源,將政策性與市場性進行了充分結合。”

以“江門市先進制造產業發展基金”為例,該基金既是珠西基金成立的首只區域子基金,又是江門市政府投資設立的先進制造產業的母基金,由珠西母基金、江門市財政共同出資組建,通過設立子基金實現了40億元的總規模。

該基金采取雙GP管理模式,由江門市融盛投資有限公司和粵財基金共同運營,圍繞江門市重點產業布局,以配合政府招商引資和做大做強當地骨幹企業為主線,集中投資軌道交通裝備制造、汽車及零部件制造、船舶和特種船舶修造、海洋工程裝備、清潔能源裝備、智能制造裝備、節能環保裝備、衛星應用等戰略性新興產業和高新技術改造提升傳統產業領域。

為體現政府投資基金的政策性扶持作用,江門基金還明確了讓利機制,將歸屬江門市出資部分的收益全部讓利,歸屬珠西母基金的收益讓渡50%。江門基金模式的率先突破促進了佛山、珠海及順德三地區域基金的加快組建。

PermaLink: https://articles.zkiz.com/?id=217144

人工智能長篇報告:1.5萬字告訴你AI的應用究竟對人類社會經濟有哪些影響

來源: http://www.iheima.com/zixun/2016/1008/159076.shtml

人工智能長篇報告:1.5萬字告訴你AI的應用究竟對人類社會經濟有哪些影響
豬場智能菌 豬場智能菌

人工智能長篇報告:1.5萬字告訴你AI的應用究竟對人類社會經濟有哪些影響

目前關於人工智能的四個關鍵性問題的答案,都在這里了。

來源 / AI Now《The AI Now Report》

譯者 / 網易智能(孫文文 費寧 誌文 阿樹 止水 倪盛)

前  言  

人工智能(Artificial Intelligence,簡稱AI)是一系列技術的集合,其下包括機器學習、推理、感知和自然語言處理等。人工智能的概念和應用65年前就已開始,不過最近AI的進步和應用讓這種技術再次成為熱議。隨著AI被更廣闊地應用到人類社會和經濟生活各個方面,新的機遇和挑戰隨之而生。其巨大的潛在影響讓人類不得不謹慎思考AI技術的發展與應用。

於今年7月舉行的“AI Now”研討會是由白宮科技政策辦公室和美國國家經濟委員會聯合推動的一系列研究的最後一個環節。此前的一系列研究分別從不同的角度對AI進行了分析研究,從政策法規到AI的安全控制,再到AI公益以及如何挖掘AI的更多潛能。這次“AI Now”則主要就未來十年AI在社會和經濟領域的影響進行討論。來自全球多個領域的專家學者集聚一堂,發表自己的觀點。討論的問題包括:現階段AI的迅速發展造成了哪些問題?如何更好地理解與使用AI來創造更公平公正的未來?

社會和經濟的問題多不勝數,本次“AI Now”主要圍繞“醫療”、“勞工就業”、“AI公平”以及“AI道德”準則展開討論。

之所以選擇“醫療”和“勞工就業”作為主要話題,是因為目前這兩個領域中AI滲入廣泛,AI所能帶來的問題在這兩個領域中較為突出和明顯。而“AI公平”和“AI道德”則是未來大家都關註的問題:AI會有助於世界大同還是會加劇社會不公?以及如何確保AI的利益被全體人類享用?

該研討會的舉行旨在讓AI能夠更好地造福人類社會。通過眾多專家學者聚集一堂進行討論的方式,本次“AI Now”研討會對人工智能學界內外都具有顯著意義。

  問題和建議  

研討會對未來AI所可能造成的情況做出了預見,並分別給出相應的建議。需要聲明的是,下列建議融合了全體與會人員的智慧,並不代表個人或某組織的立場。

隨著AI愈加緊密地被應用到社會經濟生活的方方面面,以下列出的問題和對應的建議可以作為投資者和相關領域從業者在對來的參考指南。

1、問題:AI的發展和應用有賴於特定的基礎設施和人、物資源。這些基礎資源的短缺無疑會限制AI的發展,對這些基礎設施和資源的掌握在AI發展前期變的至關重要。

建議:從多個渠道改善發展AI的資源基礎。註重數據集、計算機、相關人才教育培訓等配套領域的建設。

2、問題:雖然目前AI水平還在初級,不過在多個領域AI已經作為人工輔助的角色存在,並且對勞動關系產生了影響。奧巴馬經濟顧問委員會的主席傑森·弗曼(Jason Furman)就表示,低技術的體力勞動是最有可能被AI和自動化機械取而代之的職位。如果機器人開始和人類競爭工作,人力資源的分配也將迎來變革。

建議:更新自己的思維和技能,來應對AI參與所帶來的就業結構的改變。未來AI機器將承擔絕大多數低技術水平的工作職位,人們需要調整自己的技能儲備和收支方向以應對新形勢。

3、問題:AI和自動化的過程通常都是在人們目所不及的幕後進行。缺少了人類的參與,機器可能做出有失公允或不慎恰當的決定。隨著AI應用的進一步增長,對AI判斷和勘誤將變得更加重要,也更加困難。

建議:支持AI校準和勘誤的研究,AI錯誤危害評估程序也應提上日程。這些研究應和AI的突飛猛進配套發展,就像人類系統中司法之於行政。如此能夠及時發現AI犯下的錯誤,並避免嚴重後果。

4、問題:針對AI模式下公私機構公平和問責制的研究似乎與當前美國一些法律相忤,比如計算機欺詐與濫用法案(CFAA)和數字千年版權法案(DMCA)。

建議:需要澄清的是,無論是計算機欺詐與濫用法案還是數字千年版權法案,都沒有限制相關研究。

5、問題:盡管AI正以飛快的速度被運用在醫療、勞工等諸多領域,但目前人類沒有一個公認的辦法來在評估AI所帶來的影響。

建議:支持AI影響評估系統的研究。而且該領域的研究應該和政府機構通力合作,使成果能為政府行政所用。

6、問題:那些因部署AI而權益受到損害的人,其聲音往往被忽視。

建議:在打造AI系統的時候,受影響者的意見應該被聽取。AI應由各方共同設計以免有失公允和太過激進。

7、問題:AI的研究主要集中在電子技術上,對於人性方面問題的關註常常不足。在未來,計算機科學領域的成員將益加呈現同質化和單一化對特點,這不利於AI開發者的眼界和經驗,進而影響到AI產品的打造。

建議:AI研究員和開發者應該盡量多元化,開發人員的多樣與多元也會帶來更豐富紛呈的AI產品。未來AI領域應該多多支持跨學科研究,從而使得AI系統能夠融合電子計算、社會科學以及人文氣息。

8、問題:現有的道德準則已經不能應對AI在現實中所面臨問題的複雜性。(比如在醫療、執法、犯罪判決以及勞務等等)同時,在大學里的計算機課堂上,盡管這些理工課程也逐漸開始重視道德教育,然而並未徹底貫徹到實踐中。

建議:同美國人工智能協會(AAAI)、美國計算機協會(ACM)以及電器和電子工程師協會(IEEE)這些專業機構進行合作,推動產生可以面對新形勢的道德準則。同時在學校課堂上貫徹落實這些新道德準則的教育。每個有誌於計算機科學的學生在專業課之外也應接受公民權利、自由等道德教育。相應的,那些有AI滲入的領域(比如醫療場所)的從業人員也應該對這些新道德標準有所知悉。

目前關於人工智能的四個關鍵性問題    

我們現在將對目前關於人工智能的四個關鍵問題進行深入探討,為讀者提供一個了解業內專家見解以及建議的機會。相關探討包括每個關鍵問題所面臨的挑戰、機遇以及可采用的幹預措施。

  1. 社會不公  

人工智能系統如何造成偏見以及歧視等社會不公現象?

人工智能系統在高風險決策領域的作用越來越重要——從信貸、保險再到第三方決策以及假釋問題。人工智能技術將代替人工決定誰會獲得重要機遇,而誰又將被拋棄,由此將會引發一系列關於權利、自由以及社會公正問題。

有些人認為人工智能系統的應用有助於克服人類主觀偏見帶來的一系列問題,而有些人則擔心人工智能系統將會放大這些偏見,反而會進一步擴大機會的不均等。

在這場討論中,數據將會起到至關重要的作用,引發人們的強烈關註。人工智能系統的運行往往取決於其所獲得的數據,也是這些數據的直觀反映。其中也包括這些數據的來源以及收集過程中的偏差。從這方面來講,關於人工智能的影響是與相應的大數據技術密切相關的。

從廣義上講,數據偏差有兩種形式。第一種是采集的數據客觀上不能夠準確反映現實情況(主要歸因於測量方法的不準確;數據采集不完整或過於片面;非標準化的自我評價以及數據采集過程中的其他缺陷)。第二種在數據采集的過程中主觀上存在結構性偏差(諸如在關於職業數據的采集中有目的性地通過主觀性的重男輕女來預測職場成功率)。前一種的數據偏差可以通過“凈化數據”或者改進數據采集過程來加以解決。但後一種則需要複雜的人工幹預措施。值得註意的是,雖然有很多機構都為解決這種問題做了大量的工作,但對於如何“檢測”數據偏差尚無定論。

當采集的數據存在上述偏差時,用這種數據所訓練的人工智能系統也會存在相應偏差,其產生的模型或者結果不肯避免的會複制並放大這種偏差。在這種情況下,人工智能系統所作出的決策將會產生差別效應,從而引發社會不公。而這種不公平要比人為偏見和不公隱晦的多。

在以風險控制為主導的行業中,隨著人工智能系統的廣泛應用,導致人與人之間的細微差別異化對待等現象顯著增加,在保險以及其他社會擔保行業尤為如此。人工智能系統的應用能夠使公司更加有效地通過“逆向選擇”來識別特定群體以及個人,從而有效避免風險。

諸如在醫療保險領域,人工智能系統會對投保人的特征以及表現行為進行分析,並對那些被識別為特殊疾病或者是未來發病率高的投保人收取更多保費。在這種情況下,對於那些健康狀況不佳且經濟能力差的人群尤為不利。這就是為何批評者經常會指責稱,即便人工智能系統的預測準確,保險人行為理性,但效果卻常常是帶來負面影響。

保險業的競爭或許會加劇這種發展趨勢,最終人工智能系統的應用或許會加劇這種不平等性。當然,相關反歧視法律法規中的規範性原則能夠為解決這些問題帶來幫助,雖然這種方法可能不是最有效、最公平的。此外,對人工智能系統進行設計和部署也很重要,但現有的法律框架或許會使相應研究受到阻礙。諸如如計算機欺詐和濫用法(CFAA)和數字千年版權法案(DMCA)都對這方面研究進行了限制,因此當下也需要對現行法規進行改革,確保必要的研究能夠順利進行。

人工智能將受益少數人?

人工智能系統為經濟價值的產生帶來了新的方式,也對經濟價值的分配產生了新的影響。在某種程度上,人工智能系統的價值分配會使一部分群體受益,從而延續或加劇現有的薪資、收入以及財富分配差距。

那些有能力研發人工智能技術的組織將會加劇這種不平等性。據預測,人工智能是一個每年市值達到數十億美元的龐大產業。開發人工智能技術需要大量的前期投資,其中包括海量的計算資源以及大數據,兩者的成本都非常之大。這導致人工智能的開發和應用被限制在一個特定的範圍之內。在這種情況下,那些擁有強大數據以及計算能力的企業才能夠通過人工智能系統深入了解市場動態,從而獲取更多優勢,為自己帶來“富者更富”的馬太效應,帶來更多成功。

從另一方面來說,人工智能以及自動化系統能夠降低商品和服務成本,如果這些降低的成本能夠使消費者受益,那麽人工智能就可以縮小貧富差距。在這種情況下,人工智能系統能夠提高整個社會的生活水平,甚至於引發一個漸進式的再分配效應。

此外,人工智能也會帶來全新的生活方式。在人工智能環境下,那些工作落伍的人有機會需求獲取資源的新方式,而工作受到影響的人也能夠通過人工智能創造新的就業機會。換而言之,人工智能能夠緩解勞動力危機,讓人們自由追求生活以及工作新方式,從而提高社會的整體福利。

盡管如此,一些評論家指出,人工智能系統會使得某些工人的技能多余化,那些被自動化所取代的工人不得不尋求新的就業機會。即便這部分工人能夠找到新的工作,這種工作也常常是低附加值的,且工作穩定性更低。從這個角度將,人工智能以及自動化系統反而消除了就業機會。

更進一步,如果學習新的工作技能非常昂貴,工人們或許會認為這種職業技能培訓與新工作並不成正比。在這種情況下,人工智能系統不僅會增加社會不公,更會帶來永久性的失業以及貧窮。這就是為何理解人工智能系統對勞動力的潛在影響是理解其對經濟平等性影響的重要方面。

和以往許多技術一樣,人工智能技術也往往反映了其創建者的價值觀。因此,也可以通過在人工智能開發、部署、維護階段的多元化來推動人工智能技術的平等性。

當前,在人工智能甚至於整個計算機科學家技術行業,女性以及少數民族從業人員所占比例還很少。這種現狀也在一定程度上導致整個技術缺乏包容性,導致一定的偏見,延續或限制相關從業者對其他群體的考慮。

人們也越來越清楚的認識到,人工智能領域從業者的多樣性有助於人工智能系統滿足不同人群的利益。為了解決偏見、歧視和不平等問題,人工智能團隊需要一個更廣泛的視角。

 2.  勞工關系   

目前有關就業和AI系統的討論往往都集中在對人們未來將會失業的擔憂上。最新的研究表明,還存在更加複雜、影響更加直接的問題,這些問題不僅僅影響勞工市場,還影響雇主與雇員之間的關系、權力動力學、職業責任和工作在人類生活中的角色。

許多傳統經濟研究人員正在密切追蹤美國國內勞工市場和企業機構,以此來考量AI系統的影響。這類研究可帶來非常重要的定性數據,能夠促進對宏觀經濟趨勢和勞工供需狀況的理解,比如未來將會有多少工作崗位。

與此同時,社會科學研究則評估工作屬性和工作動力的改變正在如何改變人們的日常生活體驗。這兩個研究視角對於衡量AI系統短期對勞動力的社會影響和經濟影響都必不可少。

AI會影響工作崗位需求嗎?

自動化技術在經濟中的角色遠非新議題,事實上對於AI系統影響的考慮是出現於長期以來的討論。

雖然表面來看勞工需求會隨著自動化技術的日益普及而下降,畢竟需要做的工作將會很有限,但也有經濟學家並不這麽認為,他們稱該觀點是“勞動合成”謬論。他們指出,隨著一個行業的生產力的提升(由於自動化技術或者其它因素),新行業也會誕生,因而會產生新的勞工需求。例如,1900年農業在美國勞動力中的占比為41%,到2000年該占比只有2%。兩位勞工經濟學家大衛·奧特爾(David Autor)和大衛·多恩(David Dorn)稱,即便出現這種劇變,失業率長期來看並沒有出現上升,就業人口比率實際上反而出現提升。另外兩位經濟學家詹姆斯·亨廷頓(James Huntington)和卡爾·弗雷(Carl Frey)則給出了可怕的預言:AI系統將會大大減少工作崗位。

還有人在爭論勞動市場的變化和波動是否與技術進步有關,是否只是因經濟政策而出現。這類看法聚焦於現有的法律體系和監管機制對於AI和自動化系統的發展應該擔當什麽樣的角色。例如,羅伯特·戈登(Robert Gordon)認為當前的創新浪潮其實並沒有它們表面上看起來那麽具有變革性。不少持相反意見的人則稱,勞動市場正因為技術變化而發生重要轉變。這些人包括約瑟夫·斯蒂格利茨(Joseph Stiglitz)和拉里·米歇爾(Larry Mishel),他們認為,要保護勞動力,就必須要對AI和自動化系統相關的監管和其它政策變化上保持高度的重視。

奧特爾、多恩等經濟學家發現“就業兩極分化”現象正變得非常明顯,即中等技能崗位在減少,而高等技能和低等技能的崗位則在增加。雖然未來可能會出現新的崗位,但它們往往都收入比較低,不受歡迎。

例如,許多支持AI系統的工作事實上需要由人類去完成,他們需要維護那些基礎設施,照顧系統的“健康狀況”。這種勞動力往往不大顯眼,至少從媒體的報道和人們對AI的印象來看是這樣。因此它往往受到低估。這類工作包括負責清潔辦公室和維護工作的清潔工,負責維修服務器故障的維修工,以及有位記者所說的“數據衛生工”(能夠“清理”數據,為數據分析做好準備)。

AI系統對勞動力的影響相關的問題應當不僅僅包括未來是否會創造出新崗位,還應當包括那些崗位會否是能維持生計的體面工作。

此外,有關AI系統和勞工市場未來的討論通常都專註於傳統上被認為是低收入的工人階級崗位,如制造業、卡車運輸、零售或者服務工作,但研究表明,未來各行各業都將受到影響,其中包括需要專業訓練或者高學歷的專業工作,如放射學或者法律。關於這一點,未來將需要解決職業責任和義務方面的新問題。

AI將會如何影響主雇關系?

近年來,研究人員開始研究依靠大數據的AI和自動化系統(從Uber到應用於大型零售商的自動化調度軟件,再到工作間監視)正在如何改變雇主與雇員之間的關系。

研究發現,雖然這類系統可以用來賦能員工,但該類技術也可能會引發大問題,如剝奪員工權利,加劇就業歧視問題,以及催生不當勞動行為。

例如,AI驅動的勞動力管理和調度系統正越來越多地被用來管理勞動力,助力按需經濟的增長和“朝不保夕族”(precariat)的崛起。雖然部分研究人員稱恰當的調度能夠帶來很有價值的彈性,但到目前為止,更多的研究發現受該類系統管制的員工存在情緒緊張和缺乏安全感問題。

由這類系統管理的員工的不利體驗包括長期不充分就業,財務狀況不穩定,缺少傳統全職員工能夠獲得的福利保障,無力為家庭或者自我照顧(又或者因為忍受不了該類工作往往要求的隨時待命性質而尋找別的工作)做規劃。此外,受這些問題影響的員工更多是女性和少數族裔。

另外,基於AI系統的新遠程管理模式會加大將“系統”所做的嚴重影響員工的決策歸責於雇主的難度。因此,員工更容易受到剝削。

例如,像Uber這樣的由大數據和AI驅動的平臺會遠程控制行駛路線、定價、報酬甚至人際交流方面的標準——這些決定傳統上說通常都有人工親自管理。

除了模糊化特定決策的性質和邏輯之外,這類遠程管理通常並不被認為是“雇員管理”。

由於這些新管理模式不大符合現有的監管模式,像Uber這樣的公司會將自己標榜為技術公司,而非雇員的管理者。按照這一理念,這類公司將自己視作促進連接的平臺,因此不會像傳統雇主那樣對雇員負責。依照這種模式,雇員最終要承擔權益保障(如減輕稅項負擔、醫療保健和其它的勞工保障)和潛在救濟模式的就業帶來的風險。

  3.  醫療健康  

像我們現在所看到的大多數已被應用到醫療健康領域的AI系統,它們幾乎都依賴於大型數據庫,這些AI系統會通過各種複雜的統計模型和機器學習技術,從其所收集到的海量數據中,自動提煉出各種重要信息。

那些已投入使用的醫療數據信息源(仍處在不斷增長當中)——包括電子病歷(EHRs)、臨床和醫保數據庫、從各類消費電子產品和App上傳來的健康數據——目前已經被大量地應用到AI系統的實踐,這些AI系統具有極大的能改善社會醫保水平的潛力。

無論是臨床診斷、病人護理,還是施藥;無論是藥品生產、組織管理,還是醫保信息交互,這些AI系統都為醫療從業者的工作起到了極大的助力。

AI是如何被融入到醫學研究和醫療健康的?

將AI系統融入到醫學研究,具有令人極為欣喜的應用前景,它能幫助我們更好地理解那些疾病的病理,幫助我們開發出更多的新式治療手段,實現更為精準的醫學診斷,甚至還能私人訂制地為個人生產出特制的藥品。

然而,鑒於目前仍存在的將AI應用到醫療領域的局限和偏見,它們或將阻礙這些應用前景的實現,而這就需要研究人員更為細心謹慎地去探索這一前沿的技術。

目前,這些將AI技術應用到醫療領域的局限,包括有不完整或不準確的研究數據,即未含蓋到特定的少數群體,除此之外,尤以美國醫保系統為代表的複雜醫療補貼激勵制度,也將在一定程度上阻礙到了AI醫療技術的應用。舉個簡單的例子,目前的一些醫療補貼制度會更支持個別種類的藥物研發,或是更傾向於補貼個別治療方案。

醫療研究數據時常會表現出客觀、通用的屬性,但在實際應用的過程中,這些研究結論往往會表現出片面、暫時和只針對某些團體或病癥的特性,而AI系統根據這些“片面”數據所分析和建立出的模型,可能會引出、建立或是衍生出一些錯誤的猜測。

所幸的是,這樣的錯誤情況是可以避免的。如果一個AI系統所收集的數據不存在上面我們所提到的那些瑕疵(假設這點是可以被保證的),或是該AI系統所使用的數據框架像隨機對照試驗方法(randomized control trials, RCTs)或是其它公共醫療數據庫那樣,具有自行矯正這些問題的能力,能減小其內在錯誤偏差的話,它就能有效地避免重大誤差的出現。

假設這些誤差微小到可被忽略,將AI系統融入到醫療健康研究和臨床實踐中心的一個最有可能實現的應用前景,是讓AI去協助醫生進行病癥診斷,從海量數據中發現規律性的模式,從而幫助醫生更早地揪出那些藏匿在身體深處的“狡猾”病竈。

事實上,AI系統目前已經可以完成對部分病癥的診斷了,這其中就包括了白血病。在檢查和臨床護理環節,AI系統在一些情況下,也有幾率能減少,甚至預防誤診情況的出現。須知,誤診是可以致命的,AI輔助診斷技術的價值之高,可想而知。

在這方面,AI系統在診斷和確立病癥的環節上,正扮演越來越重要的角色。然而,也正是因為如此,研究人員必須警惕,要避免出現因AI錯誤猜測,而推斷出“正常”或是“平均”等健康狀況描述的情況的發生。

類似的,我們只需要回顧一下美國在1973年前的那段歷史,就想象出當AI出現誤診時,會發生什麽樣慘劇。彼時,美國精神病學協會(American Psychiatric Association)將同性戀作為一種精神疾病列入到了它權威的精神病診斷和統計手冊當中,這樣一來,悲劇的出現就不可避免了。

同樣的,當AI系統被直接地應用到病人護理時,它們將涉足到診斷和臨床管理的方方面面,而這也時常將隔開看護者同病人之間的距離,所以,適當地明確出AI“專業程度”的局限,是非常重要的。

一名人類外科醫生在上崗之前,會先上醫科大學,在經歷過層層嚴苛的考核後,他們的醫術才能獲得世人的承認,然而,我們要如何造出一個出色的AI大夫來協助,或者甚至是取代一個有“文憑”的人類名醫呢?

這樣一個AI醫療系統意味著它需要具有絕對準確的專家級權威水平,不會出現誤診或是診斷偏頗的情況。這種級別的信任代表著這些AI系統無論是在出廠的能力評估上,還是在檢測其極限能力上,都可以接受更少的審查,而這也將制造出那些,目前還未被醫學倫理框架所囊括的新型倫理問題。

除此之外,我們還需要關註類似於這樣的AI醫療系統在醫保領域內被布置於何處,使誰受益等等這樣的問題。盡管讓醫療健康惠及所有人,讓大家都能負擔得起確實是一種需求,但已有大量的證據表明,取得醫保和健康數據的權限並未被公平地分配,在多數情況下,窮人、非白人和女性群體常常處於劣勢地位。

讓AI系統融入到醫保體系,非但不會根除這些系統性的不平等問題,反而還有可能會放大這種問題的嚴重性。雖然AI系統可以實現合適的定制化醫療護理,讓各式各樣的人都獲益,但它也可以被故意培養成過濾掉那些之前就常常被忽視、被服務不周的外圍群體。

如果這些群體沒有被給予適當的考慮的話,這反過來也將影響到AI系統所構建出的預測模型。AI預測模型會被那些能用上這種AI系統的特權群體所上傳的健康數據所不斷的固化,從而只能有效反饋出富人的“健康狀況”,並最終構建出一個會完全排斥“邊緣人群”的健康與疾病的整體認知模型。

鑒於目前美國存在的醫保財政的亂象,這樣的憂患確實是值得人們投入更多關註,就像這樣的亂象在過去影響到醫療技術的整合一樣,它也必然會在未來影響到AI醫療系統的布置和效用,

基於這樣的考慮,人們在推動AI醫療系統不斷發展的同時,也在不斷努力地去降低AI醫療系統造價,而這也將促使那些利益相關者(比如政客、保險公司、健康機構、制藥企業、雇主和其他人)把他們的註碼,寄托於大規模的健康數據收集和AI系統的研制上,以此來幫助他們更好地維護他們在模型研發和醫保護理上的經濟利益。

然而,將這些信息技術和AI系統整合到醫院和其它醫療健康體系所需要的關鍵培訓、資源和那些正在進行當中的必要維護,並不總是能夠得到支持,或者說並不總是能處於“不差錢”的狀況。而這種情況其實已經導致了技術資源和技術能力的分配不均。

訓練AI所需的數據收集和病患觀察將如何影響到個人隱私?

AI系統對數據量的極度依賴和對病例觀察的需求也自然而然地催生出了對病人隱私、秘密和安全保護等等急迫的問題。

目前,對AI醫療系統高性能期許的實現依賴於通過各式各樣的設備、平臺和互聯網來源源不斷地獲取到海量的病患數據,而這一過程也不可避免地會涉及到某些人或機構會在利益的驅使下,做出出格的監視行為。、

與此同時,像同態加密(Homomorphic encryption)、差分隱私(differential privacy)和隨機隱私(stochastic privacy)這樣的技術帶給了我們應對這些亂象現象的新的希望,它們可以讓AI系統實現在不“查閱”數據的情況下,直接地去“調用”它們。雖然就目前來說,這些新技術仍處於研發的初步階段,連一個通用應用程序都還沒有被開發出來,但它展現出能令人鼓舞的應用前景。

除此之外,隨著近期美國政府對循證醫學(Evidence ¬based medicine)的推廣和《平價醫保法案》(Affordable Care Act)已由原先的按服務收費轉變至按治療行為收費的這一變化,監管行為背後所涉及到的經濟利益問題和對敏感健康數據消費的問題,都在不斷地加劇惡化當中。

至於那些保險公司,在AI系統入局的情況下,其所需面對的對驗證交叉補貼方案合理性的呼聲的壓力也在與日俱增。

舉個例子,盡管美國政府在2008年就頒布了《基因資訊平等法》(Genetic Information Nondiscrimination Act),但出於對保險分層管理的需求,保險公司對能獲取到遺傳危險率信息的興趣也在日益增長。事實上,差別定價目前已經成為了數據分析供應商的一項業內通用做法,而這反過來也進一步地鞏固和加劇了目前的不平等現象。

此外,“智能設備”和其它能讓AI系統獲取到所需數據的聯網傳感器也已讓追蹤和監視變得無處不在,而這也將目前的那些隱私保護政策的覆蓋範圍不斷地拓寬,像《醫療健康可攜性和責任法案》(Health Insurance Portability and Accountability Act)就是在這一考慮下的產物。

隨著AI系統被越來越多地融入到健康和電子消費產品上,病人因細分數據而被重新定義,或是由代理數據來預測出他們的身份、所患疾病和其它健康信息的風險,正不斷地升高。

除此之外,那些驅動這些數據收集設備的軟件也常常是為私人所持有,而不是開源的(不受外部審查審計的約束)。雖然,美國政府最近簽署的法令對《數字千禧年著作權法案》(Digital Millennium Copyright Act)中的相關條例進行了免除,讓審查外部醫療設施的代碼成為可能,但更為重要的或許是審查那些內部醫療設施,然而這種行為並未被這一豁免權所囊括到。

總的來說,相關業內專家們都已經對在物聯網設備上,布置聯網技術所潛在的重大安全隱患做過警告了,在這些警告中,有很多就是專門針對醫療設備安全問題的。

AI將如何影響患者和醫療保險供應商?

那些已被實現或是有望被實現的AI技術,對健康護理系統的構建有著深遠的意義,對需要照顧的病患,或是那些虛弱體質的人也意義非凡。

人們對於AI系統,進行了許多美好的構想,寄予它們護理工作調解員的角色,並相信它們在未來有可能完全取締了護工的工作。這一轉變前景樂觀、經濟,且高效,很可能會改善患者與醫生或其他護工之間的關系和他們的工作方式。

能展示AI系統具有代替或者協助人工護理工作的潛力的例子非常之多,包括有機器人外科醫生、虛擬管家和陪護機器人等等。這些例子逐漸引發了一些爭論,比如代理照顧和陪同護理的社會意義是否可以讓非人類的機器來代替?當機器替代人工時,它是否能不僅僅只是增強人工的專業性,而能做到真正的獨當一面呢?當我們認為一臺機器有能力“護理”病人時,它具備了哪些“護理”能力呢?我們又是如何定義“護理”這個詞呢?這些我們以為的“以為”是否是站在病人權益的角度上,去考慮的呢?

就目前來說,雖然陪護機器人在取代人工護理工作上,還未取得什麽明顯的效果, 但由AI驅動的APP和聯網設備能讓病人取回對自己健康管理的控制權的前景正在與日俱增,而這也預示著AI醫療系統同病人的直接交互,正處於早期發展階段。。

這種人與AI的直接交互其實也是一把雙刃劍。一方面,它能讓病人康複地更快、對自身病情有更多的了解。另一方面,這種變革也需要他們擔負更多的風險。這些風險包括它可能會誤導病患,影響他們可能會接收到的信息的質量和準確性,而這也是美國聯邦貿易委員會(FTC)在近些年來,所要傳達給我們的擔慮。

除此之外,這些搭載了AI的APP也可以將原先醫療從業者所需要承擔的責任轉移病人本身,但這對病人來說不見得是什麽好消息,因為並不是所有人都有時間、財力和AI技術獲取渠道,來實現對他們自身健康的護理。

那麽,什麽樣的患者能優先享受到這些仍在不斷改進當中的AI醫療技術的紅利呢?對於那些“裝備”不良卻想管理和維護自己個人數據的病患來說,他們所接受到的健康看護是否是不合格的呢?

再者,那些搭載了AI技術的應用的設計者和研發者在這一社會演變過程中,又需要扮演什麽新的角色?需要承擔哪些新的責任?

那些始終處於風口浪尖的醫學道德倫理,又將如何融入到這些與眾不同的,新式工程技術的載體上呢?

  4. 道德責任  

AI系統的部署不僅將引發新的責任,也將對職業道德、研究道德、甚至公共安全評估等現有領域造成挑戰。

近來,人們對道德和AI系統的討論傾向於優先考慮很久以後可能會出現的AI系統,例如,“奇點”的來臨,或超級智能的發展。

也就是說,這種討論往往並未關註AI系統在短期或中期內會產生的道德影響,例如,當前已投入使用的大量任務型AI系統引發了新挑戰、可能加劇不平等、或從根本上改變權利機制。

當代AI系統上能夠執行各種各樣的活動,這類技術會引發各種隱性和顯性後果,因此可能對傳統倫理框架提出新挑戰。AI系統被部署在人類社會中時或許會引發不可預測的相互作用和後果。

在資源配置以及讓權力和信息集中或重組的潛力方面,我們迫切需要處理一些關鍵問題來確保AI技術不會造成傷害,特別對於已被邊緣化的群體。

我們如何向AI授予權力或委派AI展開決策?

AI系統在社會和經濟領域內的融合需要我們把社會問題轉變為能夠被AI解決的技術問題。這種轉變無法保證AI系統產生的錯誤會少於它將取代的現有系統。瑞安•卡洛(Ryan Calo)指出,人們通常以為,AI系統(如,自主駕駛汽車)犯的錯誤將少於人類。實則不然。複雜程度不高的AI系統無法避免地會犯一些人類不會犯的新錯誤。

在許多領域中,倫理框架往往需要產生記錄,例如,病歷、律師的案卷、或研究人員向機構審查委員會提交的文件。此外,人們還面向患者、客戶或感覺自己遭遇了不公正待遇的對象設立了補救機制。

當代的AI系統往往無法提供此類記錄或補救機制,要麽因為技術上無法實現,要麽因為設計者並未考慮此類記錄或機制。

這意味著,受到影響的特定群體或個人往往無法對AI或其他預測系統的決策進行檢驗或質疑。這會惡化各種形式的權力不對等現象。而權力不對等是一個很重要的倫理議題。

當受到影響的個人無法對這類自動化決策展開檢驗、質疑或上訴時,他們就處在了權力相對缺失的位置上。

這帶來的風險是,AI系統不僅將削弱弱勢群體的質疑權力,而且將賦予設計方更多定義道德行為的權力。這種權力能夠以十分微妙的形式呈現出來。例如,各種自動化系統往往被用來從某種方向來影響或“微調”某些個體,而很大程度上扮演決定或支配角色的是設計部署此類系統並從中獲利的一方。

若要從零開始構建AI系統,以實現糾正上述不平衡現象等目標,這本身就要受到實力差距的限制。打造和維護AI系統需要大量的計算資源和大量數據。而擁有海量數據和計算資源的企業相對缺乏這類資源的企業擁有更多的戰略優勢。

我們如何在現有的各種行業中應對與AI相關的倫理問題?

隨著AI系統在不同行業環境(如,醫學、法律、金融)中的融入愈加深入,我們還將面臨跨越不同行業的新的道德困境。

例如,AI系統在保健環境中的應用將對醫療專業人員道德準則中秉持的核心價值(如,涉及保密、護理的連續性、避免利益沖突以及知情權)造成挑戰。

隨著醫療業的不同利益相關方推出了各種各樣的AI產品和服務。對這些核心價值的挑戰可能會以全新的和意想不到的方式呈現。

當一名醫生使用的AI診斷設備在受訓時使用了一家醫藥公司的藥品試驗數據,而這家公司是某種藥物處方的既得利益者,那麽這位醫生應如何遵守避免利益沖突的誓言?

雖然這是個假想的情況,但這點明了在修訂以及更新職業道德準則的過程中必須解決的棘手問題。

同樣地,負責管理AI研發及維護的專業協會也有必要考慮采取相應的措施。例如,美國人工智能協會(AAAI)應制定相關的道德準則,而美國計算機協會(ACM)以及電氣和電子工程師協會(IEEE)需認真修訂相關的道德準則。ACM和IEEE現有的道德準則已擁有20年以上的歷史,不用說,這些準則不僅無法解決與人類機構、隱私和安全相關的核心問題,而且也無法預防AI和其他自動化決策系統可能產生的危害。隨著AI技術進一步被整合到重要的社會領域中,這一點正變得越來越重要。

盡管更多的高等教育機構在技術和科學專業的教學中已開始強調職業道德的重要性,但這番努力仍處在初期,還有進一步的拓展空間。而民權、公民自由和道德實踐等領域的知識還未成為學生們畢業時必須掌握的要求範圍。此外,有一點是值得註意的,若有人違背醫藥界道德準則,他需承擔的懲罰包括失去行醫權力,這一點並不適用計算機科學或許多其他相關領域。

目前還不清楚大多數計算機科學家是否熟知ACM或IEEE準則中的核心內容。我們也不清楚,企業雇主是否會因為其他鼓勵或壓力因素而選擇不遵守這種不具約束力的法規。因此,從實用角度看,除了僅僅對倫理框架進行改寫和更新外,有必要關註範圍更廣的鼓勵機制,並確保對倫理準則的遵從並不是事後才想起的事項,而是相關專業領域需要關註的核心問題,以及AI領域學習和實踐中不可或缺的組成部分。

  闡述建議  

下面我們將進一步闡述上面簡要提到的建議背後的基本原理。

1、多元化和拓寬AI開發和部署所必需的資源——如數據集、計算資源、教育和培訓的使用,包括擴大參與這種開發的機會。特別是關註當前缺乏這種訪問的人口。

正如在AI Now Experts研討會期間很多人提到的,這些開發和培訓AI系統的方法費用高昂並只限於少數大公司。或者簡單地說,在沒有大量資源的情況下DIY AI是不可能的。培訓用AI模式要求有大量數據——越多越好。同時還要求有巨大的計算能力,而這費用不菲。這使得即使要進行基礎研究都只能限於能支付這種使用費用的公司,因此限制了民主化開發AI系統服務於不同人群目標的可能性。投資基本的基礎設施和使用合適的培訓數據,有助於公平競爭。同樣,開放現有行業和機構里開發和設計過程,以多元化內部紀律和外部評論,可幫助開發更好服務和反映多元化環境需求的AI系統。

2、升級使公平勞動行為具體化的定義和框架,以適應AI管理部署到工作地時出現的結構性變化。同時研究可替代的收入和資源分布、教育和再培訓模式,以適應未來重複性工作日益自動化和勞動及就業態勢不斷變化。

在AI Now Experts研討會上,奧巴馬總統首席經濟學家賈森·福爾曼(Jason Furman)指出,在美國每小時工資只有不到20美元的工作,83%都將面臨自動化的嚴重壓力。對於每小時工資在20-40美元的中等收入工作,這個比例也高達31%。這是勞動力市場一次巨大轉變,可能導致出現一個永久失業階層。為確保AI系統的效率在勞動力市場不會導致民眾不安,或社會重要機構如教育(有一種可能是教育不再視為就業的更好途徑)的解散,在這種巨大轉變出現,應該徹底研究替代性資源分布方法和其他應對引入自動化的模式,制定的政策應該為組織良好的各種落實測試開路,控制可能導致的災難性後果。

除了“替代工人”外,AI系統也對勞動力市場也有其他多重影響。例如,它們改變了權力關系、就業預期和工作本身的角色。這些變化已經對工人產生深遠影響,因此在引入AI系統時,在考慮如何表述公平和不公平做法上,理解這些影響很重要。例如,如果開發實際作為管理層行事的AI系統的公司,可被視為科技服務公司,與雇主不同的是,職員可能不受現有法律保護。

3、在設計和部署階段,支持研究開發衡量和評估AI系統準確性和公平度的方法。同樣地,也支持研究開發衡量及解決一旦使用出現的AI錯誤和損害的方法,包括涉及通知、矯正和減輕這些因AI系統自動決策導致的錯誤和損害的問責制。這些方法應優先通知受自動決策影響的人們,並開發對錯誤或有害判斷提出異議的方法。

AI和預測性系統日益決定了人們是否能獲得或失去機會。在很多情況下,人們沒有意識到是機器而非人類在做出改變人生的決定。即使他們意識到,也沒有對錯誤界定提出異議或拒絕有害決策的標準流程。我們需要在研究和技術原型化上投資,確保在AI系統日益用於做出重要決策的環境中,確保基本權利和責任受到尊重。

4、澄清無論是反電腦欺詐和濫用法案還是數字千年版權法案不是用於限制對AI責任的研究

為了進行對檢驗、衡量和評估AI系統對公共和私人機構決策的影響所需的研究,特別是有關如公平和歧視的關鍵社會關切,研究人員必須被清楚地允許跨大量域名並通過大量不同方法測試系統。然而,某些美國法律,如反電腦欺詐和濫用法案(CFAA)和數字千年版權法案(DMCA),規定與電腦系統甚至互聯網上公開可訪問的電腦系統“未授權”互動為非法,可能限制或禁止這種研究。這些法律應該澄清或修改,明確允許促進這種重要研究的互動。

5、支持在現實環境中AI系統對社會經濟生活影響的強大評估和評價方法的基礎性研究。與政府機構合作將這些新技術集成到他們的調查、監管和執法能力中。

我們當前缺乏對AI系統社會經濟影響評估和理解的嚴格做法。這意味著AI系統在融合到現有社會經濟領域,部署在新產品和環境中,卻不能衡量或精確計算它們的影響。這種情況類似於進行試驗卻不願記錄結果。為確保AI系統帶來的益處,必須進行協調一致的研究開發嚴格的方法,理解AI系統的影響,當使用這種方法時可幫助形成跨部門和政府內部的標準做法。這種研究及其結果可比作早期預警系統。

6、在與這些人聯合開發和部署這種系統時,與受自動決策應用和AI系統影響的社區代表及成員合作,聯合設計可問責的AI。

在很多情況下,這些受AI系統影響的人將是對AI系統環境和結果最權威性的專家。特別是鑒於當前AI領域缺乏多元化,那些受AI系統部署影響的人實際上從事提供反饋和設計方向,來自反饋機制的這些建議可直接影響AI系統的開發和更廣泛的政策框架。

7、加強行動提高AI開發者和研究者的多元化,拓寬和融合所有觀點、環境和學科背景到AI系統開發中。AI領域應該也結合計算、社會科學和人文學,支持和促進針對AI系統對多個觀點影響的跨學科AI研究。

計算機科學作為一個學科領域缺乏多樣性。特別是嚴重缺乏女性從業者,在AI里這種情況更為糟糕。例如,雖然有些AI學術實驗室由女性掌管,但在最近的神經信息處理系統大會上,與會者只有13.7%是女性,這次大會是該領域最主要的年度大會之一。缺乏多元化的圈子不大可能會考慮這些不在其中人的需求和關註。當這些需求和關註成為部署AI的社會經濟機構的中心時,理解這些需求和關註很重要,AI開發反映了這些重要的觀點。關註開發AI人群多元化是關鍵,除了性別和代表受保護人群外,包括除計算機科學外各種學科的多元化、建立依賴來自相關社會經濟領域學習的專業知識的開發實踐。

在計算機科學之外和計算機科學之內AI子領域的社會經濟領域,進行AI影響的徹底評估將需要多數這種專業知識。由於很多環境下AI被集成和使用——如醫學、勞動力市場或在線廣告——本身是學習的豐富領域。為真正制定AI影響評估的嚴格流程,我們將需要跨學科的協作,建立新的研究方向和領域。

8、與專業組織如美國人工智能進步協會(AAAI)、美國計算機協會(ACM)和電氣及電子工程師協會(IEEE)合作,更新(或制作)專業道德準則,更好地反映在社會經濟領域部署AI和自動化系統的複雜性。為任何想掌握計算機科學的人開設公民權、公民自由權和道德培訓課程,反映了教育中的這些變化。同樣,更新專業道德準則約束引入AI系統的專業人士,如適用於醫生和醫院工作者的道德準則。

在醫學和法律等職業中,專業人士的行為受控制可接受和不可接受行為的道德準則約束。專業組織如ACM和IEEE確實制定了道德準則,然而這些準則過時了,不足以解決複雜社會經濟環境中使用AI系統帶來的具體並常常是微妙的挑戰。雖然醫生確實遵守了約束他們對待病人行為的職業道德,但AI系統的發展,如幫助醫生診療和治療病人,出現了現有職業道德準則不總是能解決的道德挑戰。職業準則和計算機科學培訓必須更新,以反映AI系統建造者對因使用這些系統遭受不同程度不利影響的人所負有的責任。在AI用於增強人類決策時,職業道德準則應該包括在AI系統受到利益沖突左右的時候鑒定責任的保護措施。

人工智能 AI
贊(...)
文章評論
匿名用戶
發布
PermaLink: https://articles.zkiz.com/?id=217607

人工智能長篇報告:1.5萬字告訴你AI的應用究竟對人類社會經濟有哪些影響

來源: http://www.iheima.com/zixun/2016/1008/159076.shtml

人工智能長篇報告:1.5萬字告訴你AI的應用究竟對人類社會經濟有哪些影響
豬場智能菌 豬場智能菌

人工智能長篇報告:1.5萬字告訴你AI的應用究竟對人類社會經濟有哪些影響

目前關於人工智能的四個關鍵性問題的答案,都在這里了。

來源 / AI Now《The AI Now Report》

譯者 / 網易智能(孫文文 費寧 誌文 阿樹 止水 倪盛)

前  言  

人工智能(Artificial Intelligence,簡稱AI)是一系列技術的集合,其下包括機器學習、推理、感知和自然語言處理等。人工智能的概念和應用65年前就已開始,不過最近AI的進步和應用讓這種技術再次成為熱議。隨著AI被更廣闊地應用到人類社會和經濟生活各個方面,新的機遇和挑戰隨之而生。其巨大的潛在影響讓人類不得不謹慎思考AI技術的發展與應用。

於今年7月舉行的“AI Now”研討會是由白宮科技政策辦公室和美國國家經濟委員會聯合推動的一系列研究的最後一個環節。此前的一系列研究分別從不同的角度對AI進行了分析研究,從政策法規到AI的安全控制,再到AI公益以及如何挖掘AI的更多潛能。這次“AI Now”則主要就未來十年AI在社會和經濟領域的影響進行討論。來自全球多個領域的專家學者集聚一堂,發表自己的觀點。討論的問題包括:現階段AI的迅速發展造成了哪些問題?如何更好地理解與使用AI來創造更公平公正的未來?

社會和經濟的問題多不勝數,本次“AI Now”主要圍繞“醫療”、“勞工就業”、“AI公平”以及“AI道德”準則展開討論。

之所以選擇“醫療”和“勞工就業”作為主要話題,是因為目前這兩個領域中AI滲入廣泛,AI所能帶來的問題在這兩個領域中較為突出和明顯。而“AI公平”和“AI道德”則是未來大家都關註的問題:AI會有助於世界大同還是會加劇社會不公?以及如何確保AI的利益被全體人類享用?

該研討會的舉行旨在讓AI能夠更好地造福人類社會。通過眾多專家學者聚集一堂進行討論的方式,本次“AI Now”研討會對人工智能學界內外都具有顯著意義。

  問題和建議  

研討會對未來AI所可能造成的情況做出了預見,並分別給出相應的建議。需要聲明的是,下列建議融合了全體與會人員的智慧,並不代表個人或某組織的立場。

隨著AI愈加緊密地被應用到社會經濟生活的方方面面,以下列出的問題和對應的建議可以作為投資者和相關領域從業者在對來的參考指南。

1、問題:AI的發展和應用有賴於特定的基礎設施和人、物資源。這些基礎資源的短缺無疑會限制AI的發展,對這些基礎設施和資源的掌握在AI發展前期變的至關重要。

建議:從多個渠道改善發展AI的資源基礎。註重數據集、計算機、相關人才教育培訓等配套領域的建設。

2、問題:雖然目前AI水平還在初級,不過在多個領域AI已經作為人工輔助的角色存在,並且對勞動關系產生了影響。奧巴馬經濟顧問委員會的主席傑森·弗曼(Jason Furman)就表示,低技術的體力勞動是最有可能被AI和自動化機械取而代之的職位。如果機器人開始和人類競爭工作,人力資源的分配也將迎來變革。

建議:更新自己的思維和技能,來應對AI參與所帶來的就業結構的改變。未來AI機器將承擔絕大多數低技術水平的工作職位,人們需要調整自己的技能儲備和收支方向以應對新形勢。

3、問題:AI和自動化的過程通常都是在人們目所不及的幕後進行。缺少了人類的參與,機器可能做出有失公允或不慎恰當的決定。隨著AI應用的進一步增長,對AI判斷和勘誤將變得更加重要,也更加困難。

建議:支持AI校準和勘誤的研究,AI錯誤危害評估程序也應提上日程。這些研究應和AI的突飛猛進配套發展,就像人類系統中司法之於行政。如此能夠及時發現AI犯下的錯誤,並避免嚴重後果。

4、問題:針對AI模式下公私機構公平和問責制的研究似乎與當前美國一些法律相忤,比如計算機欺詐與濫用法案(CFAA)和數字千年版權法案(DMCA)。

建議:需要澄清的是,無論是計算機欺詐與濫用法案還是數字千年版權法案,都沒有限制相關研究。

5、問題:盡管AI正以飛快的速度被運用在醫療、勞工等諸多領域,但目前人類沒有一個公認的辦法來在評估AI所帶來的影響。

建議:支持AI影響評估系統的研究。而且該領域的研究應該和政府機構通力合作,使成果能為政府行政所用。

6、問題:那些因部署AI而權益受到損害的人,其聲音往往被忽視。

建議:在打造AI系統的時候,受影響者的意見應該被聽取。AI應由各方共同設計以免有失公允和太過激進。

7、問題:AI的研究主要集中在電子技術上,對於人性方面問題的關註常常不足。在未來,計算機科學領域的成員將益加呈現同質化和單一化對特點,這不利於AI開發者的眼界和經驗,進而影響到AI產品的打造。

建議:AI研究員和開發者應該盡量多元化,開發人員的多樣與多元也會帶來更豐富紛呈的AI產品。未來AI領域應該多多支持跨學科研究,從而使得AI系統能夠融合電子計算、社會科學以及人文氣息。

8、問題:現有的道德準則已經不能應對AI在現實中所面臨問題的複雜性。(比如在醫療、執法、犯罪判決以及勞務等等)同時,在大學里的計算機課堂上,盡管這些理工課程也逐漸開始重視道德教育,然而並未徹底貫徹到實踐中。

建議:同美國人工智能協會(AAAI)、美國計算機協會(ACM)以及電器和電子工程師協會(IEEE)這些專業機構進行合作,推動產生可以面對新形勢的道德準則。同時在學校課堂上貫徹落實這些新道德準則的教育。每個有誌於計算機科學的學生在專業課之外也應接受公民權利、自由等道德教育。相應的,那些有AI滲入的領域(比如醫療場所)的從業人員也應該對這些新道德標準有所知悉。

目前關於人工智能的四個關鍵性問題    

我們現在將對目前關於人工智能的四個關鍵問題進行深入探討,為讀者提供一個了解業內專家見解以及建議的機會。相關探討包括每個關鍵問題所面臨的挑戰、機遇以及可采用的幹預措施。

  1. 社會不公  

人工智能系統如何造成偏見以及歧視等社會不公現象?

人工智能系統在高風險決策領域的作用越來越重要——從信貸、保險再到第三方決策以及假釋問題。人工智能技術將代替人工決定誰會獲得重要機遇,而誰又將被拋棄,由此將會引發一系列關於權利、自由以及社會公正問題。

有些人認為人工智能系統的應用有助於克服人類主觀偏見帶來的一系列問題,而有些人則擔心人工智能系統將會放大這些偏見,反而會進一步擴大機會的不均等。

在這場討論中,數據將會起到至關重要的作用,引發人們的強烈關註。人工智能系統的運行往往取決於其所獲得的數據,也是這些數據的直觀反映。其中也包括這些數據的來源以及收集過程中的偏差。從這方面來講,關於人工智能的影響是與相應的大數據技術密切相關的。

從廣義上講,數據偏差有兩種形式。第一種是采集的數據客觀上不能夠準確反映現實情況(主要歸因於測量方法的不準確;數據采集不完整或過於片面;非標準化的自我評價以及數據采集過程中的其他缺陷)。第二種在數據采集的過程中主觀上存在結構性偏差(諸如在關於職業數據的采集中有目的性地通過主觀性的重男輕女來預測職場成功率)。前一種的數據偏差可以通過“凈化數據”或者改進數據采集過程來加以解決。但後一種則需要複雜的人工幹預措施。值得註意的是,雖然有很多機構都為解決這種問題做了大量的工作,但對於如何“檢測”數據偏差尚無定論。

當采集的數據存在上述偏差時,用這種數據所訓練的人工智能系統也會存在相應偏差,其產生的模型或者結果不肯避免的會複制並放大這種偏差。在這種情況下,人工智能系統所作出的決策將會產生差別效應,從而引發社會不公。而這種不公平要比人為偏見和不公隱晦的多。

在以風險控制為主導的行業中,隨著人工智能系統的廣泛應用,導致人與人之間的細微差別異化對待等現象顯著增加,在保險以及其他社會擔保行業尤為如此。人工智能系統的應用能夠使公司更加有效地通過“逆向選擇”來識別特定群體以及個人,從而有效避免風險。

諸如在醫療保險領域,人工智能系統會對投保人的特征以及表現行為進行分析,並對那些被識別為特殊疾病或者是未來發病率高的投保人收取更多保費。在這種情況下,對於那些健康狀況不佳且經濟能力差的人群尤為不利。這就是為何批評者經常會指責稱,即便人工智能系統的預測準確,保險人行為理性,但效果卻常常是帶來負面影響。

保險業的競爭或許會加劇這種發展趨勢,最終人工智能系統的應用或許會加劇這種不平等性。當然,相關反歧視法律法規中的規範性原則能夠為解決這些問題帶來幫助,雖然這種方法可能不是最有效、最公平的。此外,對人工智能系統進行設計和部署也很重要,但現有的法律框架或許會使相應研究受到阻礙。諸如如計算機欺詐和濫用法(CFAA)和數字千年版權法案(DMCA)都對這方面研究進行了限制,因此當下也需要對現行法規進行改革,確保必要的研究能夠順利進行。

人工智能將受益少數人?

人工智能系統為經濟價值的產生帶來了新的方式,也對經濟價值的分配產生了新的影響。在某種程度上,人工智能系統的價值分配會使一部分群體受益,從而延續或加劇現有的薪資、收入以及財富分配差距。

那些有能力研發人工智能技術的組織將會加劇這種不平等性。據預測,人工智能是一個每年市值達到數十億美元的龐大產業。開發人工智能技術需要大量的前期投資,其中包括海量的計算資源以及大數據,兩者的成本都非常之大。這導致人工智能的開發和應用被限制在一個特定的範圍之內。在這種情況下,那些擁有強大數據以及計算能力的企業才能夠通過人工智能系統深入了解市場動態,從而獲取更多優勢,為自己帶來“富者更富”的馬太效應,帶來更多成功。

從另一方面來說,人工智能以及自動化系統能夠降低商品和服務成本,如果這些降低的成本能夠使消費者受益,那麽人工智能就可以縮小貧富差距。在這種情況下,人工智能系統能夠提高整個社會的生活水平,甚至於引發一個漸進式的再分配效應。

此外,人工智能也會帶來全新的生活方式。在人工智能環境下,那些工作落伍的人有機會需求獲取資源的新方式,而工作受到影響的人也能夠通過人工智能創造新的就業機會。換而言之,人工智能能夠緩解勞動力危機,讓人們自由追求生活以及工作新方式,從而提高社會的整體福利。

盡管如此,一些評論家指出,人工智能系統會使得某些工人的技能多余化,那些被自動化所取代的工人不得不尋求新的就業機會。即便這部分工人能夠找到新的工作,這種工作也常常是低附加值的,且工作穩定性更低。從這個角度將,人工智能以及自動化系統反而消除了就業機會。

更進一步,如果學習新的工作技能非常昂貴,工人們或許會認為這種職業技能培訓與新工作並不成正比。在這種情況下,人工智能系統不僅會增加社會不公,更會帶來永久性的失業以及貧窮。這就是為何理解人工智能系統對勞動力的潛在影響是理解其對經濟平等性影響的重要方面。

和以往許多技術一樣,人工智能技術也往往反映了其創建者的價值觀。因此,也可以通過在人工智能開發、部署、維護階段的多元化來推動人工智能技術的平等性。

當前,在人工智能甚至於整個計算機科學家技術行業,女性以及少數民族從業人員所占比例還很少。這種現狀也在一定程度上導致整個技術缺乏包容性,導致一定的偏見,延續或限制相關從業者對其他群體的考慮。

人們也越來越清楚的認識到,人工智能領域從業者的多樣性有助於人工智能系統滿足不同人群的利益。為了解決偏見、歧視和不平等問題,人工智能團隊需要一個更廣泛的視角。

 2.  勞工關系   

目前有關就業和AI系統的討論往往都集中在對人們未來將會失業的擔憂上。最新的研究表明,還存在更加複雜、影響更加直接的問題,這些問題不僅僅影響勞工市場,還影響雇主與雇員之間的關系、權力動力學、職業責任和工作在人類生活中的角色。

許多傳統經濟研究人員正在密切追蹤美國國內勞工市場和企業機構,以此來考量AI系統的影響。這類研究可帶來非常重要的定性數據,能夠促進對宏觀經濟趨勢和勞工供需狀況的理解,比如未來將會有多少工作崗位。

與此同時,社會科學研究則評估工作屬性和工作動力的改變正在如何改變人們的日常生活體驗。這兩個研究視角對於衡量AI系統短期對勞動力的社會影響和經濟影響都必不可少。

AI會影響工作崗位需求嗎?

自動化技術在經濟中的角色遠非新議題,事實上對於AI系統影響的考慮是出現於長期以來的討論。

雖然表面來看勞工需求會隨著自動化技術的日益普及而下降,畢竟需要做的工作將會很有限,但也有經濟學家並不這麽認為,他們稱該觀點是“勞動合成”謬論。他們指出,隨著一個行業的生產力的提升(由於自動化技術或者其它因素),新行業也會誕生,因而會產生新的勞工需求。例如,1900年農業在美國勞動力中的占比為41%,到2000年該占比只有2%。兩位勞工經濟學家大衛·奧特爾(David Autor)和大衛·多恩(David Dorn)稱,即便出現這種劇變,失業率長期來看並沒有出現上升,就業人口比率實際上反而出現提升。另外兩位經濟學家詹姆斯·亨廷頓(James Huntington)和卡爾·弗雷(Carl Frey)則給出了可怕的預言:AI系統將會大大減少工作崗位。

還有人在爭論勞動市場的變化和波動是否與技術進步有關,是否只是因經濟政策而出現。這類看法聚焦於現有的法律體系和監管機制對於AI和自動化系統的發展應該擔當什麽樣的角色。例如,羅伯特·戈登(Robert Gordon)認為當前的創新浪潮其實並沒有它們表面上看起來那麽具有變革性。不少持相反意見的人則稱,勞動市場正因為技術變化而發生重要轉變。這些人包括約瑟夫·斯蒂格利茨(Joseph Stiglitz)和拉里·米歇爾(Larry Mishel),他們認為,要保護勞動力,就必須要對AI和自動化系統相關的監管和其它政策變化上保持高度的重視。

奧特爾、多恩等經濟學家發現“就業兩極分化”現象正變得非常明顯,即中等技能崗位在減少,而高等技能和低等技能的崗位則在增加。雖然未來可能會出現新的崗位,但它們往往都收入比較低,不受歡迎。

例如,許多支持AI系統的工作事實上需要由人類去完成,他們需要維護那些基礎設施,照顧系統的“健康狀況”。這種勞動力往往不大顯眼,至少從媒體的報道和人們對AI的印象來看是這樣。因此它往往受到低估。這類工作包括負責清潔辦公室和維護工作的清潔工,負責維修服務器故障的維修工,以及有位記者所說的“數據衛生工”(能夠“清理”數據,為數據分析做好準備)。

AI系統對勞動力的影響相關的問題應當不僅僅包括未來是否會創造出新崗位,還應當包括那些崗位會否是能維持生計的體面工作。

此外,有關AI系統和勞工市場未來的討論通常都專註於傳統上被認為是低收入的工人階級崗位,如制造業、卡車運輸、零售或者服務工作,但研究表明,未來各行各業都將受到影響,其中包括需要專業訓練或者高學歷的專業工作,如放射學或者法律。關於這一點,未來將需要解決職業責任和義務方面的新問題。

AI將會如何影響主雇關系?

近年來,研究人員開始研究依靠大數據的AI和自動化系統(從Uber到應用於大型零售商的自動化調度軟件,再到工作間監視)正在如何改變雇主與雇員之間的關系。

研究發現,雖然這類系統可以用來賦能員工,但該類技術也可能會引發大問題,如剝奪員工權利,加劇就業歧視問題,以及催生不當勞動行為。

例如,AI驅動的勞動力管理和調度系統正越來越多地被用來管理勞動力,助力按需經濟的增長和“朝不保夕族”(precariat)的崛起。雖然部分研究人員稱恰當的調度能夠帶來很有價值的彈性,但到目前為止,更多的研究發現受該類系統管制的員工存在情緒緊張和缺乏安全感問題。

由這類系統管理的員工的不利體驗包括長期不充分就業,財務狀況不穩定,缺少傳統全職員工能夠獲得的福利保障,無力為家庭或者自我照顧(又或者因為忍受不了該類工作往往要求的隨時待命性質而尋找別的工作)做規劃。此外,受這些問題影響的員工更多是女性和少數族裔。

另外,基於AI系統的新遠程管理模式會加大將“系統”所做的嚴重影響員工的決策歸責於雇主的難度。因此,員工更容易受到剝削。

例如,像Uber這樣的由大數據和AI驅動的平臺會遠程控制行駛路線、定價、報酬甚至人際交流方面的標準——這些決定傳統上說通常都有人工親自管理。

除了模糊化特定決策的性質和邏輯之外,這類遠程管理通常並不被認為是“雇員管理”。

由於這些新管理模式不大符合現有的監管模式,像Uber這樣的公司會將自己標榜為技術公司,而非雇員的管理者。按照這一理念,這類公司將自己視作促進連接的平臺,因此不會像傳統雇主那樣對雇員負責。依照這種模式,雇員最終要承擔權益保障(如減輕稅項負擔、醫療保健和其它的勞工保障)和潛在救濟模式的就業帶來的風險。

  3.  醫療健康  

像我們現在所看到的大多數已被應用到醫療健康領域的AI系統,它們幾乎都依賴於大型數據庫,這些AI系統會通過各種複雜的統計模型和機器學習技術,從其所收集到的海量數據中,自動提煉出各種重要信息。

那些已投入使用的醫療數據信息源(仍處在不斷增長當中)——包括電子病歷(EHRs)、臨床和醫保數據庫、從各類消費電子產品和App上傳來的健康數據——目前已經被大量地應用到AI系統的實踐,這些AI系統具有極大的能改善社會醫保水平的潛力。

無論是臨床診斷、病人護理,還是施藥;無論是藥品生產、組織管理,還是醫保信息交互,這些AI系統都為醫療從業者的工作起到了極大的助力。

AI是如何被融入到醫學研究和醫療健康的?

將AI系統融入到醫學研究,具有令人極為欣喜的應用前景,它能幫助我們更好地理解那些疾病的病理,幫助我們開發出更多的新式治療手段,實現更為精準的醫學診斷,甚至還能私人訂制地為個人生產出特制的藥品。

然而,鑒於目前仍存在的將AI應用到醫療領域的局限和偏見,它們或將阻礙這些應用前景的實現,而這就需要研究人員更為細心謹慎地去探索這一前沿的技術。

目前,這些將AI技術應用到醫療領域的局限,包括有不完整或不準確的研究數據,即未含蓋到特定的少數群體,除此之外,尤以美國醫保系統為代表的複雜醫療補貼激勵制度,也將在一定程度上阻礙到了AI醫療技術的應用。舉個簡單的例子,目前的一些醫療補貼制度會更支持個別種類的藥物研發,或是更傾向於補貼個別治療方案。

醫療研究數據時常會表現出客觀、通用的屬性,但在實際應用的過程中,這些研究結論往往會表現出片面、暫時和只針對某些團體或病癥的特性,而AI系統根據這些“片面”數據所分析和建立出的模型,可能會引出、建立或是衍生出一些錯誤的猜測。

所幸的是,這樣的錯誤情況是可以避免的。如果一個AI系統所收集的數據不存在上面我們所提到的那些瑕疵(假設這點是可以被保證的),或是該AI系統所使用的數據框架像隨機對照試驗方法(randomized control trials, RCTs)或是其它公共醫療數據庫那樣,具有自行矯正這些問題的能力,能減小其內在錯誤偏差的話,它就能有效地避免重大誤差的出現。

假設這些誤差微小到可被忽略,將AI系統融入到醫療健康研究和臨床實踐中心的一個最有可能實現的應用前景,是讓AI去協助醫生進行病癥診斷,從海量數據中發現規律性的模式,從而幫助醫生更早地揪出那些藏匿在身體深處的“狡猾”病竈。

事實上,AI系統目前已經可以完成對部分病癥的診斷了,這其中就包括了白血病。在檢查和臨床護理環節,AI系統在一些情況下,也有幾率能減少,甚至預防誤診情況的出現。須知,誤診是可以致命的,AI輔助診斷技術的價值之高,可想而知。

在這方面,AI系統在診斷和確立病癥的環節上,正扮演越來越重要的角色。然而,也正是因為如此,研究人員必須警惕,要避免出現因AI錯誤猜測,而推斷出“正常”或是“平均”等健康狀況描述的情況的發生。

類似的,我們只需要回顧一下美國在1973年前的那段歷史,就想象出當AI出現誤診時,會發生什麽樣慘劇。彼時,美國精神病學協會(American Psychiatric Association)將同性戀作為一種精神疾病列入到了它權威的精神病診斷和統計手冊當中,這樣一來,悲劇的出現就不可避免了。

同樣的,當AI系統被直接地應用到病人護理時,它們將涉足到診斷和臨床管理的方方面面,而這也時常將隔開看護者同病人之間的距離,所以,適當地明確出AI“專業程度”的局限,是非常重要的。

一名人類外科醫生在上崗之前,會先上醫科大學,在經歷過層層嚴苛的考核後,他們的醫術才能獲得世人的承認,然而,我們要如何造出一個出色的AI大夫來協助,或者甚至是取代一個有“文憑”的人類名醫呢?

這樣一個AI醫療系統意味著它需要具有絕對準確的專家級權威水平,不會出現誤診或是診斷偏頗的情況。這種級別的信任代表著這些AI系統無論是在出廠的能力評估上,還是在檢測其極限能力上,都可以接受更少的審查,而這也將制造出那些,目前還未被醫學倫理框架所囊括的新型倫理問題。

除此之外,我們還需要關註類似於這樣的AI醫療系統在醫保領域內被布置於何處,使誰受益等等這樣的問題。盡管讓醫療健康惠及所有人,讓大家都能負擔得起確實是一種需求,但已有大量的證據表明,取得醫保和健康數據的權限並未被公平地分配,在多數情況下,窮人、非白人和女性群體常常處於劣勢地位。

讓AI系統融入到醫保體系,非但不會根除這些系統性的不平等問題,反而還有可能會放大這種問題的嚴重性。雖然AI系統可以實現合適的定制化醫療護理,讓各式各樣的人都獲益,但它也可以被故意培養成過濾掉那些之前就常常被忽視、被服務不周的外圍群體。

如果這些群體沒有被給予適當的考慮的話,這反過來也將影響到AI系統所構建出的預測模型。AI預測模型會被那些能用上這種AI系統的特權群體所上傳的健康數據所不斷的固化,從而只能有效反饋出富人的“健康狀況”,並最終構建出一個會完全排斥“邊緣人群”的健康與疾病的整體認知模型。

鑒於目前美國存在的醫保財政的亂象,這樣的憂患確實是值得人們投入更多關註,就像這樣的亂象在過去影響到醫療技術的整合一樣,它也必然會在未來影響到AI醫療系統的布置和效用,

基於這樣的考慮,人們在推動AI醫療系統不斷發展的同時,也在不斷努力地去降低AI醫療系統造價,而這也將促使那些利益相關者(比如政客、保險公司、健康機構、制藥企業、雇主和其他人)把他們的註碼,寄托於大規模的健康數據收集和AI系統的研制上,以此來幫助他們更好地維護他們在模型研發和醫保護理上的經濟利益。

然而,將這些信息技術和AI系統整合到醫院和其它醫療健康體系所需要的關鍵培訓、資源和那些正在進行當中的必要維護,並不總是能夠得到支持,或者說並不總是能處於“不差錢”的狀況。而這種情況其實已經導致了技術資源和技術能力的分配不均。

訓練AI所需的數據收集和病患觀察將如何影響到個人隱私?

AI系統對數據量的極度依賴和對病例觀察的需求也自然而然地催生出了對病人隱私、秘密和安全保護等等急迫的問題。

目前,對AI醫療系統高性能期許的實現依賴於通過各式各樣的設備、平臺和互聯網來源源不斷地獲取到海量的病患數據,而這一過程也不可避免地會涉及到某些人或機構會在利益的驅使下,做出出格的監視行為。、

與此同時,像同態加密(Homomorphic encryption)、差分隱私(differential privacy)和隨機隱私(stochastic privacy)這樣的技術帶給了我們應對這些亂象現象的新的希望,它們可以讓AI系統實現在不“查閱”數據的情況下,直接地去“調用”它們。雖然就目前來說,這些新技術仍處於研發的初步階段,連一個通用應用程序都還沒有被開發出來,但它展現出能令人鼓舞的應用前景。

除此之外,隨著近期美國政府對循證醫學(Evidence ¬based medicine)的推廣和《平價醫保法案》(Affordable Care Act)已由原先的按服務收費轉變至按治療行為收費的這一變化,監管行為背後所涉及到的經濟利益問題和對敏感健康數據消費的問題,都在不斷地加劇惡化當中。

至於那些保險公司,在AI系統入局的情況下,其所需面對的對驗證交叉補貼方案合理性的呼聲的壓力也在與日俱增。

舉個例子,盡管美國政府在2008年就頒布了《基因資訊平等法》(Genetic Information Nondiscrimination Act),但出於對保險分層管理的需求,保險公司對能獲取到遺傳危險率信息的興趣也在日益增長。事實上,差別定價目前已經成為了數據分析供應商的一項業內通用做法,而這反過來也進一步地鞏固和加劇了目前的不平等現象。

此外,“智能設備”和其它能讓AI系統獲取到所需數據的聯網傳感器也已讓追蹤和監視變得無處不在,而這也將目前的那些隱私保護政策的覆蓋範圍不斷地拓寬,像《醫療健康可攜性和責任法案》(Health Insurance Portability and Accountability Act)就是在這一考慮下的產物。

隨著AI系統被越來越多地融入到健康和電子消費產品上,病人因細分數據而被重新定義,或是由代理數據來預測出他們的身份、所患疾病和其它健康信息的風險,正不斷地升高。

除此之外,那些驅動這些數據收集設備的軟件也常常是為私人所持有,而不是開源的(不受外部審查審計的約束)。雖然,美國政府最近簽署的法令對《數字千禧年著作權法案》(Digital Millennium Copyright Act)中的相關條例進行了免除,讓審查外部醫療設施的代碼成為可能,但更為重要的或許是審查那些內部醫療設施,然而這種行為並未被這一豁免權所囊括到。

總的來說,相關業內專家們都已經對在物聯網設備上,布置聯網技術所潛在的重大安全隱患做過警告了,在這些警告中,有很多就是專門針對醫療設備安全問題的。

AI將如何影響患者和醫療保險供應商?

那些已被實現或是有望被實現的AI技術,對健康護理系統的構建有著深遠的意義,對需要照顧的病患,或是那些虛弱體質的人也意義非凡。

人們對於AI系統,進行了許多美好的構想,寄予它們護理工作調解員的角色,並相信它們在未來有可能完全取締了護工的工作。這一轉變前景樂觀、經濟,且高效,很可能會改善患者與醫生或其他護工之間的關系和他們的工作方式。

能展示AI系統具有代替或者協助人工護理工作的潛力的例子非常之多,包括有機器人外科醫生、虛擬管家和陪護機器人等等。這些例子逐漸引發了一些爭論,比如代理照顧和陪同護理的社會意義是否可以讓非人類的機器來代替?當機器替代人工時,它是否能不僅僅只是增強人工的專業性,而能做到真正的獨當一面呢?當我們認為一臺機器有能力“護理”病人時,它具備了哪些“護理”能力呢?我們又是如何定義“護理”這個詞呢?這些我們以為的“以為”是否是站在病人權益的角度上,去考慮的呢?

就目前來說,雖然陪護機器人在取代人工護理工作上,還未取得什麽明顯的效果, 但由AI驅動的APP和聯網設備能讓病人取回對自己健康管理的控制權的前景正在與日俱增,而這也預示著AI醫療系統同病人的直接交互,正處於早期發展階段。。

這種人與AI的直接交互其實也是一把雙刃劍。一方面,它能讓病人康複地更快、對自身病情有更多的了解。另一方面,這種變革也需要他們擔負更多的風險。這些風險包括它可能會誤導病患,影響他們可能會接收到的信息的質量和準確性,而這也是美國聯邦貿易委員會(FTC)在近些年來,所要傳達給我們的擔慮。

除此之外,這些搭載了AI的APP也可以將原先醫療從業者所需要承擔的責任轉移病人本身,但這對病人來說不見得是什麽好消息,因為並不是所有人都有時間、財力和AI技術獲取渠道,來實現對他們自身健康的護理。

那麽,什麽樣的患者能優先享受到這些仍在不斷改進當中的AI醫療技術的紅利呢?對於那些“裝備”不良卻想管理和維護自己個人數據的病患來說,他們所接受到的健康看護是否是不合格的呢?

再者,那些搭載了AI技術的應用的設計者和研發者在這一社會演變過程中,又需要扮演什麽新的角色?需要承擔哪些新的責任?

那些始終處於風口浪尖的醫學道德倫理,又將如何融入到這些與眾不同的,新式工程技術的載體上呢?

  4. 道德責任  

AI系統的部署不僅將引發新的責任,也將對職業道德、研究道德、甚至公共安全評估等現有領域造成挑戰。

近來,人們對道德和AI系統的討論傾向於優先考慮很久以後可能會出現的AI系統,例如,“奇點”的來臨,或超級智能的發展。

也就是說,這種討論往往並未關註AI系統在短期或中期內會產生的道德影響,例如,當前已投入使用的大量任務型AI系統引發了新挑戰、可能加劇不平等、或從根本上改變權利機制。

當代AI系統上能夠執行各種各樣的活動,這類技術會引發各種隱性和顯性後果,因此可能對傳統倫理框架提出新挑戰。AI系統被部署在人類社會中時或許會引發不可預測的相互作用和後果。

在資源配置以及讓權力和信息集中或重組的潛力方面,我們迫切需要處理一些關鍵問題來確保AI技術不會造成傷害,特別對於已被邊緣化的群體。

我們如何向AI授予權力或委派AI展開決策?

AI系統在社會和經濟領域內的融合需要我們把社會問題轉變為能夠被AI解決的技術問題。這種轉變無法保證AI系統產生的錯誤會少於它將取代的現有系統。瑞安•卡洛(Ryan Calo)指出,人們通常以為,AI系統(如,自主駕駛汽車)犯的錯誤將少於人類。實則不然。複雜程度不高的AI系統無法避免地會犯一些人類不會犯的新錯誤。

在許多領域中,倫理框架往往需要產生記錄,例如,病歷、律師的案卷、或研究人員向機構審查委員會提交的文件。此外,人們還面向患者、客戶或感覺自己遭遇了不公正待遇的對象設立了補救機制。

當代的AI系統往往無法提供此類記錄或補救機制,要麽因為技術上無法實現,要麽因為設計者並未考慮此類記錄或機制。

這意味著,受到影響的特定群體或個人往往無法對AI或其他預測系統的決策進行檢驗或質疑。這會惡化各種形式的權力不對等現象。而權力不對等是一個很重要的倫理議題。

當受到影響的個人無法對這類自動化決策展開檢驗、質疑或上訴時,他們就處在了權力相對缺失的位置上。

這帶來的風險是,AI系統不僅將削弱弱勢群體的質疑權力,而且將賦予設計方更多定義道德行為的權力。這種權力能夠以十分微妙的形式呈現出來。例如,各種自動化系統往往被用來從某種方向來影響或“微調”某些個體,而很大程度上扮演決定或支配角色的是設計部署此類系統並從中獲利的一方。

若要從零開始構建AI系統,以實現糾正上述不平衡現象等目標,這本身就要受到實力差距的限制。打造和維護AI系統需要大量的計算資源和大量數據。而擁有海量數據和計算資源的企業相對缺乏這類資源的企業擁有更多的戰略優勢。

我們如何在現有的各種行業中應對與AI相關的倫理問題?

隨著AI系統在不同行業環境(如,醫學、法律、金融)中的融入愈加深入,我們還將面臨跨越不同行業的新的道德困境。

例如,AI系統在保健環境中的應用將對醫療專業人員道德準則中秉持的核心價值(如,涉及保密、護理的連續性、避免利益沖突以及知情權)造成挑戰。

隨著醫療業的不同利益相關方推出了各種各樣的AI產品和服務。對這些核心價值的挑戰可能會以全新的和意想不到的方式呈現。

當一名醫生使用的AI診斷設備在受訓時使用了一家醫藥公司的藥品試驗數據,而這家公司是某種藥物處方的既得利益者,那麽這位醫生應如何遵守避免利益沖突的誓言?

雖然這是個假想的情況,但這點明了在修訂以及更新職業道德準則的過程中必須解決的棘手問題。

同樣地,負責管理AI研發及維護的專業協會也有必要考慮采取相應的措施。例如,美國人工智能協會(AAAI)應制定相關的道德準則,而美國計算機協會(ACM)以及電氣和電子工程師協會(IEEE)需認真修訂相關的道德準則。ACM和IEEE現有的道德準則已擁有20年以上的歷史,不用說,這些準則不僅無法解決與人類機構、隱私和安全相關的核心問題,而且也無法預防AI和其他自動化決策系統可能產生的危害。隨著AI技術進一步被整合到重要的社會領域中,這一點正變得越來越重要。

盡管更多的高等教育機構在技術和科學專業的教學中已開始強調職業道德的重要性,但這番努力仍處在初期,還有進一步的拓展空間。而民權、公民自由和道德實踐等領域的知識還未成為學生們畢業時必須掌握的要求範圍。此外,有一點是值得註意的,若有人違背醫藥界道德準則,他需承擔的懲罰包括失去行醫權力,這一點並不適用計算機科學或許多其他相關領域。

目前還不清楚大多數計算機科學家是否熟知ACM或IEEE準則中的核心內容。我們也不清楚,企業雇主是否會因為其他鼓勵或壓力因素而選擇不遵守這種不具約束力的法規。因此,從實用角度看,除了僅僅對倫理框架進行改寫和更新外,有必要關註範圍更廣的鼓勵機制,並確保對倫理準則的遵從並不是事後才想起的事項,而是相關專業領域需要關註的核心問題,以及AI領域學習和實踐中不可或缺的組成部分。

  闡述建議  

下面我們將進一步闡述上面簡要提到的建議背後的基本原理。

1、多元化和拓寬AI開發和部署所必需的資源——如數據集、計算資源、教育和培訓的使用,包括擴大參與這種開發的機會。特別是關註當前缺乏這種訪問的人口。

正如在AI Now Experts研討會期間很多人提到的,這些開發和培訓AI系統的方法費用高昂並只限於少數大公司。或者簡單地說,在沒有大量資源的情況下DIY AI是不可能的。培訓用AI模式要求有大量數據——越多越好。同時還要求有巨大的計算能力,而這費用不菲。這使得即使要進行基礎研究都只能限於能支付這種使用費用的公司,因此限制了民主化開發AI系統服務於不同人群目標的可能性。投資基本的基礎設施和使用合適的培訓數據,有助於公平競爭。同樣,開放現有行業和機構里開發和設計過程,以多元化內部紀律和外部評論,可幫助開發更好服務和反映多元化環境需求的AI系統。

2、升級使公平勞動行為具體化的定義和框架,以適應AI管理部署到工作地時出現的結構性變化。同時研究可替代的收入和資源分布、教育和再培訓模式,以適應未來重複性工作日益自動化和勞動及就業態勢不斷變化。

在AI Now Experts研討會上,奧巴馬總統首席經濟學家賈森·福爾曼(Jason Furman)指出,在美國每小時工資只有不到20美元的工作,83%都將面臨自動化的嚴重壓力。對於每小時工資在20-40美元的中等收入工作,這個比例也高達31%。這是勞動力市場一次巨大轉變,可能導致出現一個永久失業階層。為確保AI系統的效率在勞動力市場不會導致民眾不安,或社會重要機構如教育(有一種可能是教育不再視為就業的更好途徑)的解散,在這種巨大轉變出現,應該徹底研究替代性資源分布方法和其他應對引入自動化的模式,制定的政策應該為組織良好的各種落實測試開路,控制可能導致的災難性後果。

除了“替代工人”外,AI系統也對勞動力市場也有其他多重影響。例如,它們改變了權力關系、就業預期和工作本身的角色。這些變化已經對工人產生深遠影響,因此在引入AI系統時,在考慮如何表述公平和不公平做法上,理解這些影響很重要。例如,如果開發實際作為管理層行事的AI系統的公司,可被視為科技服務公司,與雇主不同的是,職員可能不受現有法律保護。

3、在設計和部署階段,支持研究開發衡量和評估AI系統準確性和公平度的方法。同樣地,也支持研究開發衡量及解決一旦使用出現的AI錯誤和損害的方法,包括涉及通知、矯正和減輕這些因AI系統自動決策導致的錯誤和損害的問責制。這些方法應優先通知受自動決策影響的人們,並開發對錯誤或有害判斷提出異議的方法。

AI和預測性系統日益決定了人們是否能獲得或失去機會。在很多情況下,人們沒有意識到是機器而非人類在做出改變人生的決定。即使他們意識到,也沒有對錯誤界定提出異議或拒絕有害決策的標準流程。我們需要在研究和技術原型化上投資,確保在AI系統日益用於做出重要決策的環境中,確保基本權利和責任受到尊重。

4、澄清無論是反電腦欺詐和濫用法案還是數字千年版權法案不是用於限制對AI責任的研究

為了進行對檢驗、衡量和評估AI系統對公共和私人機構決策的影響所需的研究,特別是有關如公平和歧視的關鍵社會關切,研究人員必須被清楚地允許跨大量域名並通過大量不同方法測試系統。然而,某些美國法律,如反電腦欺詐和濫用法案(CFAA)和數字千年版權法案(DMCA),規定與電腦系統甚至互聯網上公開可訪問的電腦系統“未授權”互動為非法,可能限制或禁止這種研究。這些法律應該澄清或修改,明確允許促進這種重要研究的互動。

5、支持在現實環境中AI系統對社會經濟生活影響的強大評估和評價方法的基礎性研究。與政府機構合作將這些新技術集成到他們的調查、監管和執法能力中。

我們當前缺乏對AI系統社會經濟影響評估和理解的嚴格做法。這意味著AI系統在融合到現有社會經濟領域,部署在新產品和環境中,卻不能衡量或精確計算它們的影響。這種情況類似於進行試驗卻不願記錄結果。為確保AI系統帶來的益處,必須進行協調一致的研究開發嚴格的方法,理解AI系統的影響,當使用這種方法時可幫助形成跨部門和政府內部的標準做法。這種研究及其結果可比作早期預警系統。

6、在與這些人聯合開發和部署這種系統時,與受自動決策應用和AI系統影響的社區代表及成員合作,聯合設計可問責的AI。

在很多情況下,這些受AI系統影響的人將是對AI系統環境和結果最權威性的專家。特別是鑒於當前AI領域缺乏多元化,那些受AI系統部署影響的人實際上從事提供反饋和設計方向,來自反饋機制的這些建議可直接影響AI系統的開發和更廣泛的政策框架。

7、加強行動提高AI開發者和研究者的多元化,拓寬和融合所有觀點、環境和學科背景到AI系統開發中。AI領域應該也結合計算、社會科學和人文學,支持和促進針對AI系統對多個觀點影響的跨學科AI研究。

計算機科學作為一個學科領域缺乏多樣性。特別是嚴重缺乏女性從業者,在AI里這種情況更為糟糕。例如,雖然有些AI學術實驗室由女性掌管,但在最近的神經信息處理系統大會上,與會者只有13.7%是女性,這次大會是該領域最主要的年度大會之一。缺乏多元化的圈子不大可能會考慮這些不在其中人的需求和關註。當這些需求和關註成為部署AI的社會經濟機構的中心時,理解這些需求和關註很重要,AI開發反映了這些重要的觀點。關註開發AI人群多元化是關鍵,除了性別和代表受保護人群外,包括除計算機科學外各種學科的多元化、建立依賴來自相關社會經濟領域學習的專業知識的開發實踐。

在計算機科學之外和計算機科學之內AI子領域的社會經濟領域,進行AI影響的徹底評估將需要多數這種專業知識。由於很多環境下AI被集成和使用——如醫學、勞動力市場或在線廣告——本身是學習的豐富領域。為真正制定AI影響評估的嚴格流程,我們將需要跨學科的協作,建立新的研究方向和領域。

8、與專業組織如美國人工智能進步協會(AAAI)、美國計算機協會(ACM)和電氣及電子工程師協會(IEEE)合作,更新(或制作)專業道德準則,更好地反映在社會經濟領域部署AI和自動化系統的複雜性。為任何想掌握計算機科學的人開設公民權、公民自由權和道德培訓課程,反映了教育中的這些變化。同樣,更新專業道德準則約束引入AI系統的專業人士,如適用於醫生和醫院工作者的道德準則。

在醫學和法律等職業中,專業人士的行為受控制可接受和不可接受行為的道德準則約束。專業組織如ACM和IEEE確實制定了道德準則,然而這些準則過時了,不足以解決複雜社會經濟環境中使用AI系統帶來的具體並常常是微妙的挑戰。雖然醫生確實遵守了約束他們對待病人行為的職業道德,但AI系統的發展,如幫助醫生診療和治療病人,出現了現有職業道德準則不總是能解決的道德挑戰。職業準則和計算機科學培訓必須更新,以反映AI系統建造者對因使用這些系統遭受不同程度不利影響的人所負有的責任。在AI用於增強人類決策時,職業道德準則應該包括在AI系統受到利益沖突左右的時候鑒定責任的保護措施。

人工智能 AI
贊(...)
文章評論
匿名用戶
發布
PermaLink: https://articles.zkiz.com/?id=217608

深改組:全面放開養老服務市場 引導社會資本進入

中共中央總書記、國家主席、中央軍委主席、中央全面深化改革領導小組組長習近平10月11日下午主持召開中央全面深化改革領導小組第二十八次會議並發表重要講話。他強調,中央和國家機關有關部門是改革的責任主體,是推進改革的重要力量。各部門要堅決貫徹落實黨中央決策部署,堅持以解放思想、解放和發展社會生產力、解放和增強社會活力為基本取向,強化責任擔當,以自我革命的精神推進改革,堅決端正思想認識,堅持從改革大局出發,堅定抓好改革落實。

中共中央政治局常委、中央全面深化改革領導小組副組長劉雲山、張高麗出席會議。

會議審議通過了《關於推進防災減災救災體制機制改革的意見》、《關於全面推行河長制的意見》、《關於深化統計管理體制改革提高統計數據真實性的意見》、《關於進一步把社會主義核心價值觀融入法治建設的指導意見》、《關於全面放開養老服務市場提升養老服務質量的若幹意見》、《關於推進安全生產領域改革發展的意見》、《關於促進移動互聯網健康有序發展的意見》、《關於深入推進經濟發達鎮行政管理體制改革的指導意見》、《關於進一步健全相關領域實名登記制度的總體方案》、《省級空間規劃試點方案》。

會議指出,推進防災減災救災體制機制改革,必須牢固樹立災害風險管理和綜合減災理念,堅持以防為主、防抗救相結合,堅持常態減災和非常態救災相統一,努力實現從註重災後救助向註重災前預防轉變,從減少災害損失向減輕災害風險轉變,從應對單一災種向綜合減災轉變。要強化災害風險防範措施,加強災害風險隱患排查和治理,健全統籌協調體制,落實責任、完善體系、整合資源、統籌力量,全面提高國家綜合防災減災救災能力。

會議強調,保護江河湖泊,事關人民群眾福祉,事關中華民族長遠發展。全面推行河長制,目的是貫徹新發展理念,以保護水資源、防治水汙染、改善水環境、修複水生態為主要任務,構建責任明確、協調有序、監管嚴格、保護有力的河湖管理保護機制,為維護河湖健康生命、實現河湖功能永續利用提供制度保障。要加強對河長的績效考核和責任追究,對造成生態環境損害的,嚴格按照有關規定追究責任。

會議指出,防範和懲治統計造假、弄虛作假,根本出路在深化統計管理體制改革。要遵循統計工作規律,完善統計法律法規,健全政績考核機制,健全統一領導、分級負責的統計管理體制,健全統計數據質量責任制,強化監督問責,依紀依法懲處弄虛作假,確保統計機構和統計人員獨立調查、獨立報告、獨立監督職權不受侵犯,確保各類重大統計數據造假案件得到及時有效查處,確保統計資料真實準確、完整及時。

會議強調,把社會主義核心價值觀融入法治建設,是堅持依法治國和以德治國相結合的必然要求。要將社會主義核心價值觀融入法治國家、法治政府、法治社會建設全過程,融入科學立法、嚴格執法、公正司法、全民守法各環節,把社會主義核心價值觀的要求體現到憲法法律、行政法規、部門規章和公共政策中,以法治體現道德理念、強化法律對道德建設的促進作用,推動社會主義核心價值觀更加深入人心。

會議指出,養老服務業既是關系億萬群眾福祉的民生事業,也是具有巨大發展潛力的朝陽產業。要緊緊圍繞老年群體多層次、多樣化的服務需求,降低準入門檻,引導社會資本進入養老服務業,推動公辦養老機構改革,提升居家社區和農村養老服務水平,推進養老服務業制度、標準、設施、人才隊伍建設,繁榮養老市場,提升服務質量,讓廣大老年人享受優質養老服務。

會議強調,推進安全生產領域改革發展,關鍵是要作出制度性安排,依靠嚴密的責任體系、嚴格的法治措施、有效的體制機制、有力的基礎保障和完善的系統治理,解決好安全生產領域的突出問題,確保人民群眾生命財產安全。各級黨委和政府特別是領導幹部要牢固樹立安全生產的觀念,正確處理安全和發展的關系,堅持發展決不能以犧牲安全為代價這條紅線。

會議指出,促進移動互聯網健康有序發展,要堅持鼓勵支持和規範發展並行、政策引導和依法管理並舉、經濟效益和社會效益並重,完善市場準入,規範競爭秩序,支持技術突破,深化國際交流合作,推動移動互聯網創新發展,為人民群眾提供用得上、用得起、用得好的移動互聯網信息服務。

會議強調,深入推進經濟發達鎮行政管理體制改革,要圍繞加強基層政權建設、鞏固黨的執政基礎,擴大經濟社會管理權限,探索建立簡約精幹的組織架構、務實高效的用編用人制度和適應經濟發達鎮實際的財政管理模式,創新基層服務管理方式,構建符合基層政權定位、適應城鎮化發展需求的新型行政管理體制,進一步激發經濟發達鎮發展內生動力。

會議指出,實名登記是督促個人履行相關義務、保護個人相關權利、準確記錄個人信用信息的前提。要依照法律法規確定實名登記制度的實施範圍,建立準確全面和動態更新的登記信息。要強化基礎設施建設和基礎信息共享,加強個人隱私保護,確保信息安全。

會議強調,開展省級空間規劃試點,要以主體功能區規劃為基礎,科學劃定城鎮、農業、生態空間及生態保護紅線、永久基本農田、城鎮開發邊界,註重開發強度管控和主要控制線落地,統籌各類空間性規劃,編制統一的省級空間規劃,為實現“多規合一”、建立健全國土空間開發保護制度積累經驗、提供示範。

會議指出,改革爭在朝夕,落實難在方寸。越是任務重、困難大,越要知難而進、迎難而上。中央和國家機關有關部門作為改革政策的制定者、推動者,要堅定改革信心,增強改革定力,以積極主動精神研究和推進改革。只要符合國家利益、民族利益、人民利益,只要有利於落實新發展理念,只要有利於增加人民群眾獲得感,就堅決地破、堅決地改。對黨中央通過的改革方案,不論有多大困難,都要堅定不移抓好落實。要引導大家正確認識和處理權力和利益問題,服從改革大局,善於算大賬、總賬、長遠賬,不能只算部門賬、地方賬、眼前賬。要綜合考慮各方面利益關系,深入調查研究,廣泛聽取意見,使提出的改革方案最大限度符合實際、符合改革要求,真正解決問題。要把改革抓在手上,一步一步往前推,一層一層往下落。既要抓具體改革舉措推進落實,又要抓牽頭改革任務統籌協調;既要抓本部門改革,又要抓對地方改革的指導。要註意評估改革推進效果,及時研究解決改革推進中的矛盾和問題,以釘釘子精神抓好改革落實。

中央全面深化改革領導小組成員出席,中央和國家機關有關部門負責同誌列席會議。

PermaLink: https://articles.zkiz.com/?id=218215

外交部:中方願積極參與菲律賓經濟社會建設

13日的外交部例行記者會上,外交部發言人耿爽就中國和菲律賓經貿合作問題表示,中方願積極參與菲律賓經濟社會建設。

有記者問,昨天外交部發布了菲律賓總統杜特爾特訪華的消息,也介紹了對此訪的有關期待。杜特爾特總統重視發展經濟,推出了“10點社會經濟議程”,對發展與中國的務實合作抱有很高的期待。中方對促進中菲經貿合作有什麽具體想法?是否願意幫助菲律賓修建新的基礎設施,特別是鐵路?

耿爽回答說,中菲兩國地緣鄰近、人文相親、經濟互補,經貿合作具備獨特優勢,增長潛力巨大。推動雙邊關系改善、開展互利合作符合兩國和兩國人民的共同利益。

耿爽表示,中方支持杜特爾特總統領導菲律賓人民建設國家、發展經濟的努力,願積極參與菲律賓經濟社會建設,同菲方在包括經貿、產能、基礎設施建設等領域開展合作。隨著中菲關系改善,相信雙方一定能在各領域拓展和深化務實合作,實現共同發展,不斷提升兩國人民福祉。

PermaLink: https://articles.zkiz.com/?id=218601

大選前夜的美國社會裂紋

隨著美國大選投票日的日益臨近,圍繞競選議題而生的爭論在美國社會也日益激烈。

在紐約時代廣場,《第一財經日報》記者看到,一個乞丐臉上戴著共和黨總統候選人特普朗的面具,手上的標語牌寫道“給我一美元,不然我就投票給特朗普”。幾乎每個路人都會註意到他顯眼的面具和標語,並且不斷有行人給他錢。這個乞丐告訴記者,他還沒決定投誰的票,但是這個標語讓他的行乞收入大大提高。據說這個好辦法已被紐約其他地方的乞丐紛紛效仿。

一位哥倫比亞大學的學生告訴《第一財經日報》記者,盡管他此前參加特朗普的競選活動,拿到了特普朗的廣告衫和印有“讓美國再次偉大”口號的帽子,他現在已經不敢再穿那件廣告衫了。因為,現在他發現只要穿著這些走在校園,到處都有非常不友善的眼神。

就連特朗普本人的競選活動如今也充斥著暴力。他在密蘇里州聖路易斯市舉行集會時曾引發抗議,造成32人被捕;在芝加哥的集會因為抗議者和支持者爆發直接沖突而被取消;在俄亥俄州、加州等地的集會上也險遭抗議者攻擊。在美國,之前的暴力選舉事件還要追溯到1968年,那是黑人民權運動領袖馬丁·路德·金被暗殺後的第一次總統選舉。

美國心理學會進行的一項調查顯示,由於候選人充滿敵意的相互攻擊,再加上媒體全方位的“轟炸”,52%的美國成年人表示,2016年大選已成他們主要的“焦慮來源”。使用社交媒體的人(54%)比不使用社交媒體的人(45%)更易對大選感到焦慮。

而對於美國民眾來說,焦慮的來源可謂多種多樣,除了特朗普令人摸不著頭腦的言論在不斷發酵外,那些在美國社會根深蒂固的矛盾依舊沒有解決的跡象,因此,在本次大選投票日來臨之際,舊有的矛盾疊加上候選人激進的言論,進一步撕裂了美國社會。

對現狀不滿

“很多民眾對兩黨都非常失望,急切地需要引入新鮮血液來改變目前腐敗且虛偽的政府。8年前奧巴馬用‘我們可以改變’的口號贏得選舉,可見這種呼聲在當時就很強烈。”一位居住在新澤西州愛迪生鎮的華裔居民告訴本報記者,“現在,我們沒有看到好的變化,所以才會更加失望和倍感挫折。”

舉行第一次總統候選人電視辯論的霍夫斯特拉大學政治和國際關系執行系主任、美國總統選舉研究中心主任米娜(Meena Bose)對本報記者表示,“今年兩黨的初選都顯示出強烈的改革呼聲。民主黨內,佛蒙特州聯邦參議員桑德斯對希拉里發出了強烈的挑戰;共和黨初選最終對決的兩個人(特朗普與得克薩斯州聯邦參議員克魯茲),都不是黨內高層青睞的人選,但是確實是初選中得票最多的兩個人。這對於兩黨,尤其是共和黨高層,是一個強烈的信息,即需要聽取基層選民的呼聲,及時調整政策,反映選民的訴求。”

《民粹主義的爆炸》的作者朱迪斯(John B. Judis)則持相反的觀點。他認為桑德斯和特朗普的崛起與在歐洲崛起的極端民粹主義有相同的原因和表現。他在書中回顧了20世紀30年代的大蕭條對政治的影響,提出對經濟現狀的不滿是要求改革的溫床。

他覺得,民粹主義不分左中右,就是對現狀或者在政治學上被稱為“建制派”的那群人不滿,從而強烈要求改革。至於怎麽改革,對於民粹主義都不重要,不滿現狀才是民粹主義滋生的根本。朱迪斯預測,即便希拉里當選也會受到黨內日益高漲的民粹主張的壓力,而這種思潮不會隨著桑德斯本人的退出而消失。

移民問題引發焦慮

在特朗普宣布參選總統的當天,他就成功地把自己置於媒體的頭條。他在演講中攻擊墨西哥來的非法移民,還大言不慚地拋出“墨西哥把毒品和犯罪輸入美國”等令人咋舌的言論。那次演講在美國政壇打破了政治人物言論符合“政治正確”的傳統,也徹底引爆了關於非法移民的爭論。

當特朗普拒絕收回種族歧視言論並道歉之後,全國廣播公司(NBC)宣布切斷一切與特朗普的生意關系;真人秀節目“學徒”和“美國小姐”、“世界小姐”選美比賽被停止播出,直到特朗普找到新的合作媒體。

來自北卡羅來納州的白人小夥盧克對本報記者抱怨道,“很多事情不是禁止討論就不存在的。‘政治正確’已經被媒體和政客頻繁濫用,甚至連憲法第一修正案中的言論自由權利都難以保障。媒體也造就了一個奇怪的語言環境,那些通過非法手段進入美國的人,居然只能被稱為‘未經登記的移民’以避免非法等字樣,這合理嗎?民主黨要用‘包容所有人’這樣正面的詞語來回應非法移民問題,那我們的國家究竟還要不要遵守法律?”

根據美國安全部的估計,目前滯留在美國的非法移民有1100萬人,其中52%來自墨西哥。大約2/3的非法移民已經在美國住了超過10年。無論去留都會造成法律與現實的沖突。

哥倫比亞大學行政法和市政管理教授、拉丁裔的加爾薩(Rodolfo de la Garza)對媒體表示,“特普朗的反墨西哥、反移民言論肯定對他沒好處。即使特普朗選贏了,拉丁裔民眾也不會幫助他。只有佛羅里達州的拉丁裔會投他的票,因為那些古巴來的老人都是共和黨的鐵桿粉絲。特普朗太不友善了。”

相反,民主黨就對拉丁裔群體很友善。民主黨副總統候選人、弗吉尼亞州聯邦參議員蒂姆·凱恩還在接受提名的代表大會上大講西班牙語,同特普朗形成鮮明的對比。

雖然美國的福利比不上歐洲,但對很多人有吸引力。是否接受非法移民,以及如何安置這一群體,毫無疑問都會影響到美國的福利制度。

康涅狄格州的白人奶奶克里斯蒂娜就很擔心特朗普一旦當選,會撕裂美國社會、助長社會暴力。“但是民主黨籍的州長馬羅伊(Dannel Malloy)這麽聽從奧巴馬,大力引進敘利亞來的難民也很讓人擔心。德國等歐洲國家的教訓已經很可怕了。更何況州里的財政已經很緊張了,很多機構都在削減服務,哪里來這麽多錢去養活別人?不應該先保障州里的民眾嗎?”克里斯蒂娜對此很疑惑。

種族平等挑動社會神經

圍繞美國大選爆發的各種爭論和矛盾其實並不是候選人辯論帶來的,而是深深紮根在美國的歷史和現實中,卻又一直沒有得到解決的問題。種族問題就是其中最為悠久也是影響最大的問題。當2008年身為非洲裔的奧巴馬被選為美國總統時,民眾曾希望這會是種族平等的開始。

目前,希拉里秉承民主黨的主張,要扶助少數族裔,幫助拉丁裔和非洲裔群體得到更好的教育和工作,免於受到系統性的歧視。但是,特朗普卻認為非洲裔的生活沒有改善,民主黨只是在欺騙取這一群體的選票。比如,非洲裔社區的治安依舊非常惡劣,基礎設施極其糟糕。

哥倫比亞大學政治學教授、美國黑人政治和社區研究中心主任哈里斯(Fred Harris)對媒體表示,“只有2%~3%的非洲裔美國人表示會投票支持特普朗,一旦成真,將創造歷史新低點。雖然非洲裔大多支持希拉里,但是投票率是否有當年支持奧巴馬時那麽高,就值得觀望了。如果在投票率方面能與上屆選舉保持差不多,那一定是非洲裔民眾害怕特朗普上臺而不是因為他們熱情支持希拉里。”

至於目前美國的種族狀況,哈里斯認為,種族間矛盾在過去幾年有上升的趨勢,但這不是奧巴馬的錯,而是歷史遺留問題。經濟上的焦慮引發了白人藍領階層對種族主義的接受。奧巴馬下臺後,就是哈里斯認為的“後退兩大步”時刻。

一位在華爾街工作的華人告訴《第一財經日報》記者,“如何理解平等這個詞還存在分歧。民主黨顯然是認為要分配平等而不是機會平等。如果要給非洲裔和拉丁裔的機會更多,那其他族群就分得少。華人選票少,顯然就會成為犧牲品。”

2年前,民主黨籍紐約市長白思豪抨擊亞裔家長送孩子去補習班,而貧窮的非洲裔和西語裔孩子卻因為資金有限被擋在重點高中之外。在市長支持的修改入學標準法案在州議會闖關失敗後,妥協的方案便是保證亞裔孩子現有的入學標準,但是政府必須為非洲裔和西語裔學生提供免費補習等。

在就業方面,英特爾等30家科技公司在今年6月寫信給奧巴馬,公開承諾設立“多元化”雇工的目標,最終讓雇員組成和社會人口比例一致。目前,非洲裔和拉丁裔占高科技公司雇員的9%,遠低於整體人口的33%。亞裔占高科技公司雇員的比例是27%,可只占總人口的7%。

經濟政策大同小異

如今,特普朗和希拉里各自都已發表了經濟政策,在三場辯論會上也爭得不可開交。不過來自加州的斯科特卻對這些爭論興趣不大,“經濟政策方面,今年的爭論與往常沒有什麽不同,直接回歸政黨的一貫立場。所有的總統候選人都會表示他將帶來更多的就業機會,收更少的稅,同時減少美國的債務。但我至今都沒看到落實。”

在斯科特看來,今年唯一的區別是,共和黨在提倡減稅的時候要鼓勵商業、鼓勵投資,也就是說明確要給富人減稅,顯然與中產階級關系不大。而反觀民主黨這邊,提倡給中產階級減稅,但處於中產階級的斯科特並沒有感到交的稅少了,反而有增加的感覺。

美國最近一次大規模加稅是為了給“奧巴馬醫改”籌措資金。“選舉的魅力就是能讓一個人徹底忘記自己之前的主張和說法,以各種方式來取悅自己的選民。”斯科特列舉道,比如特朗普以前都是反對槍支泛濫,贊同婦女擁有墮胎權利,其實和希拉里在這兩點上沒有分歧,但是這次選舉時就高舉共和黨的旗幟,變成擁槍和反墮胎的了。

所以,斯科特認為,對於今年的選舉不能太認真,新政府只要不做瘋狂的舉動,經濟自然會自然規律發展的。

PermaLink: https://articles.zkiz.com/?id=220581

民航局鼓勵社會資本投建民用機場 與政府項目享同等政策待遇

30日從民航局獲悉,民航局日前印發《關於鼓勵社會資本投資建設運營民用機場的意見》,全面放開民用機場建設和運營市場,創新民用機場建設和運營投融資方式,加大對政府和社會資本合作的政策支持,以提升機場服務質量和效率,促進民航行業安全、高效發展。

根據《意見》,民航局將把符合全國民用運輸機場布局規劃、國家批準的專項規劃和區域規劃以及行業發展規劃的運輸機場項目全部向社會資本開放;減少國有或國有控股的運輸機場數量;進一步放開運輸機場對公共航空運輸企業和服務保障企業的投資限制;全面放開通用機場建設,對投資主體不作限制,並全面放開通用機場和其他市場主體之間的投資限制;放開民航中介服務市場,符合相應資質要求的國有、民營、外商投資、混合所有制企業以及其他投資經營主體,可單獨或組成項目聯合體全面參與民用機場咨詢、設計、建設、運營、維護等業務。

社會資本可通過特許經營、經營權轉讓、股權出讓、委托運營、整合改制等資本運作方式,參與民用機場及其服務配套設施項目的建設和運營;社會資本可通過專項信托計劃、認購股權投資基金等方式參與民用機場投資活動,或通過綜合開發民用機場周邊用地或臨空經濟區範圍內土地、物業、商業、廣告等資源的方式建設運營機場服務配套設施。

為加大對政府和社會資本合作的政策支持,民航局將進一步簡化社會資本投資除軍民合用機場外的民用機場及其服務配套設施項目的審批程序,取消民間資本投資航站樓、貨運倉儲、地面服務、航空配餐、旅客過夜用房、停車場、能源保障、航空運輸銷售代理、航空燃油儲運加註等經營性項目的投資核準;積極有序放開民用機場競爭性領域或環節的價格,創新價格管理方式;社會資本參與的新建、改擴建機場項目與政府投資機場項目享受同等政策待遇,可按相關政策享受民航發展基金補助和運營補貼。

民航局將向社會公開發布民用機場發展規劃、行業政策、技術標準、建設項目等信息,依法加強對社會資本投資建設運營民用機場及相關活動的監督管理,維護公平競爭秩序,建立健全守法信用體系,依法開展檢查、驗收和責任追究。

為此,記者專門采訪了有關專家、學者,請他們就《意見》出臺的背景、意義和作用等相關問題為公眾進行專業解答。

問:《意見》有哪些積極意義?

答:民用機場是航空運輸和城市發展的重要基礎設施,對促進地方經濟社會發展、轉變經濟增長方式、擴大對外開放等方面具有重要作用,特別是在解決邊遠地區和地形複雜地區人民群眾出行、醫療救護和應對突發事件、搶險救災等方面民航的比較優勢突出。目前,民用機場建設資金主要通過政府出資和銀行貸款解決,資金來源渠道單一,財政和企業資金壓力較大。放開民航機場建設和運營市場準入,可吸引社會資本參與民用機場建設和運營,拓寬資金來源渠道,探索民航運輸與物流業、臨空產業等深度融合發展,對推進民航行業供給側結構性改革、加快民用機場建設、構建國家綜合機場體系、推動公共運輸航空和通用航空“兩翼齊飛”,以及更好地服務國家和地方經濟社會發展等都具有積極意義。

問:《意見》的最大亮點是什麽?

答:《意見》明確將符合全國民用運輸機場布局規劃、國家批準的專項規劃和區域規劃以及行業發展規劃的運輸機場投資建設運營全部向社會資本開放。另外進一步放開了運輸機場對公共航空運輸企業和包括航空油料供應在內的服務保障企業的投資限制,全面放開通用機場和其他市場主體之間的投資限制,放開民航中介服務市場,積極有序放開民用機場競爭性領域或環節的價格等都是亮點所在。特別值得一提的是取消了民用機場經營性項目的核準,民間資本投資民用機場(軍民合用機場除外)的航站樓、貨運倉儲、地面服務、航空配餐、旅客過夜用房、停車場、能源保障、航空運輸銷售代理、航空燃油儲運加註等經營性項目,均無需核準,這將極大地激發社會資本積極參與民用機場經營性項目建設的積極性。

問:我國民用機場建設的現狀如何?未來的發展空間在哪里?

答:“十二五”期間,中央和地方各級政府加大投資力度,我國機場綜合保障能力顯著提升,服務範圍和業務規模持續擴大。“十二五”期間,共實施新建機場50個,遷建機場10個,改擴建機場94個,直接投資累計完成達2600億元,機場密度由“十一五”末的每十萬平方公里1.8個增加到2.2個。按100公里服務半徑計算,已覆蓋了全國84.4%的人口、90.6%的經濟總量和87.2%的地級市。其中旅客吞吐量超過3000萬人次的機場達到9個,超過1000萬人次的機場達到26個。

盡管我國運輸機場建設取得了顯著成就,但航空運輸市場需求旺盛、供給不足的矛盾依然突出,比如樞紐機場基礎設施保障能力依然不足,機場建設滯後於業務發展,容量飽和問題未得到緩解;綜合機場體系尚未形成,民用機場特別是通用機場數量偏少,未形成有效的分工和協作等等。

“十三五”時期是全面建成小康社會的決定性階段,“一帶一路”、京津冀協同發展、長江經濟帶等國家戰略的實施,穩增長、促改革、調結構、惠民生的決策部署,國際互聯互通、區域協調發展和城鎮化進程不斷加快,居民收入占比上升,消費結構升級,民航大眾化時代的到來,都要求加大機場投入建設,提升保障能力和服務水平。

預計“十三五”期間航空業務量仍將保持較快速度增長,民用機場建設和運營將有很大的發展空間。

問:全面放開機場建設運營,降低了市場準入的門檻,在民用機場建設的審批權限和審批程序上是否有相應的變化?

答:黨中央、國務院推動“放、管、服”改革以來,民用機場建設項目在審批權限下放和審批程序簡化方面已經做出重大調整。民用機場建設項目原來全部由中央審批,目前已調整為政府各級投資主管部門按照投資主體、機場性質、建設規模、建設內容和審批權限等實施分級分類管理。按照國務院印發的《政府核準的投資項目目錄(2014本)》,企業投資的民用機場項目,除“新建運輸機場由國務院核準,新建通用機場項目、擴建軍民合用機場項目由省級政府核準”外,其余項目均實行備案管理,大大縮減了核準事項。

PermaLink: https://articles.zkiz.com/?id=221202

騰訊張誌東內部演講:大力強化微信“社會化”思維

在騰訊,有兩個重要人物。一個是馬化騰,另外一個是張誌東。作為騰訊第二號人物張誌東,騰訊產品的架構者,除了馬化騰之外最有話語權的人物,卻極少暴露在聚光燈下。

10月31日消息,騰訊微信事業群近日召開了年度管理團隊領導力大會,微信創始人張小龍邀請張誌東做了演講。張誌東表示,微信的活躍用戶過了8億,這是很重大的里程碑。微信過了6億用戶,感覺就已進入了一個對社會影響的深水區。這和1億的時代已存在巨大的差異。希望年輕的同事們,除了產品思維之外,還要大力強化 “社會化” 思維。將社會各人群和階層的複雜性,作為主要的研究課題。對這種變化還要更加敏感。

以下為演講全文:

感謝小龍的邀請,今天過來參加WXG(註:微信事業群)的會議,談一下我對公司的產品對社會影響上的一些思考。

我兩年前離任公司管理層, 不再參與公司的業務,除了學院(註:騰訊學院,騰訊公司內部分享平臺)的事務之外,我主要有兩個關註點,其一是公司的公益產品,其二就是公司產品對社會所造成的影響。微信是關註最多的產品, 因為它對社會深層次的影響最大。

向 WXG 的同事們致敬

8月份看到了公司發布的2季度財報,公布了微信的活躍用戶過了8億。這是很重大的里程碑,我這里想向WXG的同事們表示敬意。

向微信團隊的產品精神致敬。

微信團隊把握住了移動時代的開啟,在5年多的時間里,團隊一直在堅持克制和優雅;在商業化上,團隊也在堅持優雅自然之道,在大型組織里,在商業化過程中同時堅持理想,尤其不易,大家做的很棒,為小夥伴們的5年如一日的堅持而自豪。

向微信團隊的技術精神致敬。

在優雅的產品背後,必然有著無數技術團隊的智慧和汗水。比如每年的除夕夜,全國人民一起歡度春節,高峰時間,用戶一分鐘就可以在微信里收發10億條消息,拆開2000萬個紅包,用戶給技術團隊開年第一天就送份見面禮----先來一次海量技術考試。因為技術團隊的無數努力,微信才可以給8億的用戶提供值得信賴的服務。

社會化的巨大挑戰

致敬之後,我想談談挑戰。這個挑戰,還不是產品、技術、或者商業化的挑戰,而是社會化的挑戰。微信過了6億用戶,我感覺就已進入了一個對社會影響的深水區。這和1億的時代已存在巨大的差異。

1.挑戰一:“老鳥時代” VS “菜鳥時代”

1億用戶的時候,那些是在互聯網上久經考驗的人群,網絡用語可以稱之為“老鳥”, 他們從PC時代就開始使用互聯網,他們的特點是眼明手快,經歷過網絡上形形色色的洗禮,具有很強的信息辨別能力和自我保護能力。 對於“老鳥”來說,優秀的互聯網產品,就能很好的滿足他們的需要,讓他們的生活如魚得水。

但微信發展到6億用戶之後,用戶群開始接近中國總人口的社會的複雜度了,三四線城市、中老年用戶、縣城用戶、農村用戶,移動網絡對於他們是驟然打開的新世界,他們基本上是互聯網上的“小白兔”或“菜鳥”, 缺乏PC時代的互聯網的洗禮,自我保護能力也比較弱。

在PC互聯網時代,“老鳥”們已經習慣了網絡的虛擬性,QQ卡通頭像,nickname等等,虛擬和現實之間,有著天然區分感的鍛煉過程。而微信從誕生第一天起,就是一個基於手機通信錄的“真實世界”,“菜鳥用戶” 和“小白兔用戶”嚴重缺乏對互聯網的辨別和自我保護意識。

相信微信團隊的同事們,已經對這樣的變化,有了很多實戰的經驗。我這里提一個希望,希望年輕的同事們,除了產品思維之外,還要大力強化“社會化”思維。將社會各人群和階層的複雜性,作為主要的研究課題。 對這種變化還要更加敏感。

這里舉幾個社會化的思考視角。

◾思考1:對“人際過載” 的思考

在PC時代,有一個理論說 sns社交的人際寬度是150人。也就是說,人們的精力可以處理150人左右的人際關系,會讓人感覺愉快而不至於過載。微信在4年前,朋友圈做出了一個很精妙的產品設計,讓朋友圈很巧妙的融合在手機IM之中,拓寬了150 這個數字限制,朋友圈也獲得了高速的成長。

然而,隨著用戶基數擴大,人際關系的複雜度也在急劇擴大。原有的巧妙設計,也已面臨很大“人際過載”的社會問題。

很多人際關系廣泛的商務人士,已經遇到 “過載”的尷尬。見過一些過千人朋友的重度用戶,幾乎每隔幾分鐘,朋友圈就有新Push下來;也見過一些朋友,因為朋友圈的人數過多過雜,變得小心謹慎,不敢說真話甚至不敢發朋友圈。

微信雖然已有一些自定義的分組及權限管理的措施,但還是不夠優雅,並未能很好解決這個問題。人際過載會帶來很大的壓迫力,需要微信團隊,更多從社會角度層面的思考和創新。

◾思考2: 對“內容過載” 的思考

公眾號是微信一個重大的創新,給用戶帶來了前所未有的內容獲取和服務獲取的體驗,也給內容供應者和服務供應者帶來了一個全新的生態。微信認證、原創標識、閱讀打賞,等重要的配套創新,體現了團隊對內容生態的思考和探索步伐。

我在訂閱十來個訂閱號的時候,每日一條推送的體驗是很愉快的。但是,當我有大幾十個,上百個訂閱號的時候,我就陷入了 “內容過載”。

過載讓人產生不愉快的感受,紅點密集讓人產生焦慮和失控感。 貪多是人性的弱點,雖然微信早就有右劃退訂的功能, 但依然不足以體驗平衡,用戶還是很容易被人性的弱點帶入坑里。 微信這里還需要更多友善的創新, 幫助用戶擺脫這種不愉快處境。

◾思考3: 小白兔的免疫思考

因為微信的公眾平臺, 內容的傳播速度和傳播的形態, 有了很巨大的改變。 優質誠信的公眾號,獲得了很不錯的發展,這對內容業界是很好的基礎設施。

公眾平臺的火爆, 也有許多的公眾號運營者, 本身並無足夠內涵,只是利用人性的弱點來運營。 如何幫助小白用戶在過程中提升鑒別能力, 這是一個很重要的課題。

舉個例子,我有文化水平不低的長輩,但他們依然還是網絡“小白兔”。在親人的微信群里,長輩們經常轉發一些明顯誇張的養生文章。他們還會說,“這是微信上說的。”

這句話是什麽意思? 這些“小白兔”在辨識一個公眾號的信用上,遇到困難。公眾號名字可能叫做“ XX健康之寶”或者“ YY養生之道”。

在用戶1億的時候,問題不尖銳,老鳥具有很強的辨識能力;但到了8億用戶的時候,即使有了企業認證,有了舉報和處罰,但依然遠遠的不夠。這個公眾號背後,信用有多少,信用能否可視化? 能否讓“小白兔”在他的文章里一眼就能識別?

在洶湧的數字化社會的大潮中, 如何能幫助“菜鳥”和“小白兔”們,不會被劣幣誤導,如何讓他們正向的增強數字化時代的常識,提升免疫能力,如何能避免劣幣驅逐良幣 ? 這是特別需要我們關註的問題。我們的公眾號增長的很快,在增長速度的背後,我的解讀是:這里的責任重大。

◾思考4,故障和社會恐慌

作為社會基礎設施,最近兩年來,微信的幾次技術故障,造成了用戶“恐慌”,好幾次都還是PR團隊在微博、微信公眾號上發公告的傳統形態。我們還沒有做到,在產品UI上對用戶進行1分鐘的安撫。

打個比方,我們去銀行櫃員機取錢, 遇到銀行系統故障,若櫃員機能提示, 已知系統故障,正在修複, 稍後將恢複服務。用戶會很淡定。若櫃員機上,啥也不說,就顯示登錄錯誤,那將會讓用戶造成恐慌,會害怕存款被盜。

微信作為一個早上起床第一個點擊的國民應用,有幾個場景如,登錄故障、群故障、朋友圈故障、支付故障,用戶容易受到驚嚇。會比銀行卡失效更恐慌,更容易 “懷疑人生”。會焦慮而恐慌,不斷關機重啟,甚至刪掉App重裝。

雖然我們有很優秀的技術團隊,也已經實現了系統的各層面的多級健壯性,但故障總是難免的,需要我們把故障的透明告知,作為特別重要的產品體驗來設計和演練。目前還不夠自動化,還有不少環節依賴運營來反應。很多時候,技術團隊和運營團隊,估計故障人數是1%,總想看看能否很快修複,而耽誤及時告知。這種思維,也反映了我們對社會化視角的敏感度還不夠到位。

2.挑戰二:人性的弱點 VS 數字化時代

數字化時代會放大很多倍人性的弱點。(這里推薦兩個有趣的小視頻,大家可以在youtube 上搜素一下Guiding hands 以及 social media guard)一家人在一起吃飯,卻各自低頭看手機,這已是移動時代很常見的情況。

刷存在感, 也許可以算是一種人性的弱點, 尤其在數字化的時代。 而我們的產品,可以如何更溫暖一些? 比如提示一下 “您今天手指已經劃了1000下,建議放下手機去關心下家人”?

人性有很多與生俱來的弱點,社會也存在很多既有的矛盾和問題, 這些不是我們的產品帶來的; 但人性的弱點, 會在數字化時代信息過載時, 產生急劇共振, 從而放大對社會的影響。我們必須要仔細地去觀察社會,不斷的反思和自我批判。我們需要用智慧和創新, 去幫助社會降低這些陣痛和代價。

3.挑戰三:社會化視角的遲鈍Bug

外界媒體人對微信比較有好感,批評會較為客氣,這容易讓團隊產生錯覺,容易讓我們自我感覺過於良好,而事實上,我們還有不少蠻遲鈍的Bug。

例如, Mac 微信2.0版本發布距離1.0版本隔了整整一年。足足一年的時間,一些很容易修改、但給人很不便的東東,團隊是視而不見。比如在27寸屏幕上,字體小而勞神累眼;比如,每次網絡斷一下,重現掃碼登錄後,空空如也的沒有了上下文。這些東東本是幾天功夫,就可以解決的疾苦,團隊卻忙得顧不上,為了憋大招,白白讓用戶眼巴巴的等待一年。

例如,微信消息的導入導出能力, 還不如20年前小龍做的Foxmail Client。 對16G以下的手機用戶,經常遇到存儲緊張,微信遲遲沒有提供一個PC工具,讓用戶很方便從手機 dump 出某個時段的老數據。 微信的大群很熱鬧,每天產生大量的看過就可以丟棄的東東, 大群共用一個循環存儲空間, 和其他消息隔離空間, 16G的用戶出現存儲滿的郁悶也許就可以減少。 但估計我們的產品團隊, 人人都是64G/128G的手機, 感受的不夠強烈。

這樣的特性,產品團隊告訴我,“他們早有計劃,只是沒有放在高優先級,在版本排期容易被其他更急的功能所延誤,上面這些特性需要若幹時間會完成 ”,公眾號平臺也有不少同類的遲鈍例子。

一方面,我們年輕的團隊都很敬業,每天很忙碌,忙的不可開交。另一方面,好些幾天功夫就可以緩解的民間疾苦,我們卻又是顯得很不夠敏感。

我個人的感覺, 團隊這里存在一些對 “社會化”的重要性缺乏敏感的Bug。我們年輕的總監們,更喜歡長時間的憋大招,渴望打造出令業界驚嘆的特性,而對於這些短周期、技術含量不高的民間的痛點,總監們會被各種任務、各種原因而延誤很久很久。

小龍早上的關於敏捷精神的分享非常好,我很贊同。在團隊成長變大,分工變細了之後,同事們容易沈浸在自己忙碌的工作中,即使看到其他部門的產品毛病,也容易因為跨部門跨團隊,而表達的太溫柔,太一團和氣,這會讓我們失去敏捷的力量。

微信團隊從5年前十來人的小分隊,迅速發展為過千人的大型團隊,如何保持小團隊的敏感,保持敏捷,需要在座對骨幹同事有更多跳出來的精神。

期待:產品精神+社會化視角+批判精神

微信團隊,在我看來,一直是一個充滿銳氣,很善於獨立思考的團隊。在用戶達到8億的時候, 期待微信團隊的年輕同事們,提升對社會性的敏感度, 希望微信內部,也有更強的內部批判精神。

電影《蜘蛛俠》 里有句臺詞提到,“能力越大,責任越大(With great power comes great responsibility)”,借這個臺詞比喻一下,微信將會發展為數字社會的基礎設施, 做一個很好的產品,做一個很酷的產品, 這個理念對於微信團隊來說,已經不足夠。

8億用戶之後,其社會複雜度已是無前人經驗可借鑒的深水區, 除了上面說的場景之外,還必然會有更多更深遠的數字化社會難題接連浮現,微信團隊面對社會化的挑戰,會比5年前從零開始創業的挑戰更大,責任也更大。

期待微信團隊除了產品精神之外,融入更多的社會景深視角,放下團隊已經取得的成就感,心態歸零,在創建產品天地和業界生態的同時,還需要我們更多的智慧和更多的創造力,去緩解社會數字化大潮中的陣痛,成為真正靠譜和溫暖的基礎設施。

PermaLink: https://articles.zkiz.com/?id=221386

上海今起實施“好人法” 社會急救造成患者損害不擔責

近些年,公共場所突發急病無人“敢”救的問題屢屢發生。11月1日,《上海市急救醫療服務條例》正式實施。被稱為“好人法”的這部法律明確規定,緊急現場救護行為受法律保護,對患者造成損害的,不承擔法律責任。

讓好心人“敢救”

據中新社11月1日報道,上海市醫療急救中心主任朱勤忠表示,此舉表明,上海率先提出對社會急救免責,消除了施救人的後顧之憂。

《條例》規定,民眾發現需要急救的患者,應當立即撥打“120”專線電話進行急救呼叫,可以在“120”調度人員的指導下開展緊急救助,也可以根據現場情況開展緊急救助;鼓勵具備急救技能者,對急危重患者實施緊急現場救護;此外,在配置有自動體外除顫儀等急救器械的場所,經過培訓的人員可以使用自動體外除顫儀等急救器械進行緊急現場救護。《條例》還將院前急救、院內急救以及社會急救均納入適用範圍,這在中國各省市急救醫療立法中尚屬首次。

朱勤忠說,突發身體不適的幾分鐘內搶救最為有效和必要。他以心臟驟停為例告訴記者,心臟驟停發生後的4分鐘為搶救的最佳時機,也被稱為“黃金4分鐘”。在這4分鐘內如果實施心肺複蘇,病人的生命很有可能被挽回,然而大多數120急救車無法在這麽短的時間內趕到。如果在場目擊者能夠實施搶救,悲劇將很有可能被避免。為消除施救人的後顧之憂,《條例》強調:緊急現場救護行為受法律保護,對患者造成損害的,依法不承擔法律責任。

專家:市民還要“會救”

據勞動報消息,朱勤忠表示,“解決‘不會救’的問題,一是加大培訓力度,二是普及AED在公共場所的覆蓋面。”據介紹,AED是一種類似“傻瓜相機”的自動除顫儀,沒有急救知識的普通人只需經過30分鐘培訓即可學會使用,簡單的操作就能使複蘇成功率提高2-3倍,生存率提高49%。

上海楊浦區一樓宇內放置的AED(圖:新聞晨報)

據美國心臟協會數據,對AED進行相關立法後,每年至少可以挽救20000心臟驟停的生命。在配備了充足數量AED的美國大城市,成功率從5%提高到40%。目前,在美國和日本,公共場所的AED放置率已經超過每10萬人230臺,“就像消防栓一樣普及”,朱勤忠告訴記者。

報道稱,《上海市急救醫療服務條例》正是從這一點出發,明確規定,今後在軌交站點和機場等交通樞紐、學校、體育場館、文化娛樂場所、旅館、商場、景區等人員密集場所,都必須配備急救器械。

“要讓公眾敢於使用AED。”朱勤忠說。

此前,AED屬於第三類醫療器械,現行法律只允許醫務人員使用。這意味著,沒有醫療執業證的普通公眾一旦使用AED救人,在出現人身損傷的情況,將面臨法律責任。

“我們立法的目的,就是要鼓勵和倡導普通市民參與緊急現場救護活動,在更大範圍內發揚人道主義救助精神,為挽救更多患者的生命和健康創造條件。”市人大常委會法工委主任丁偉表示,為消除施救人的後顧之憂,新的《條例》強調緊急現場救護行為受法律保護,對患者造成損害的,依法不承擔法律責任。

PermaLink: https://articles.zkiz.com/?id=221639

《經濟學人》:人工智能的未來及人類社會的應對

來源: http://www.iheima.com/zixun/2016/1102/159555.shtml

《經濟學人》:人工智能的未來及人類社會的應對
愉悅資本JoyCapital 愉悅資本JoyCapital

《經濟學人》:人工智能的未來及人類社會的應對

事實上每一次科技進步最終創造的就業超過所消滅的就業

盡管科技取得長足進步,但鮮有跡象表明工業時代的教育和福利制度已在現代化和變得靈活。決策者現在就得著手,因為越往後推福利國家的負擔就越大。約翰-穆勒(John Stuart Mill)在19世紀40年代的著作中寫道,關心那些生活被技術破壞的人是立法者關心的最合理目標。

由於所謂的“深度學習”通用技術,人工智能經歷大量虛幻的曙光後終於在過去幾年取得非凡進步。給定足夠數據,根據人腦建模的大型(或“深度”)神經網絡便可接受訓練做各種工作。這些神經網絡支撐著谷歌搜索引擎、Facebook照片自動標記、蘋果語音助手、亞馬遜購物推薦和特斯拉自動駕駛汽車的運行。

斯蒂芬-霍金、伊隆-馬斯克等人懷疑人工智能是否會失去控制,突然造成科幻小說中的那種人與機器的沖突。其他人擔心人工智能會通過使從前只能由人完成的認知任務自動化而造成大範圍失業。機器問題200年後卷土重來,這個問題需要得到解答。 

正如無數科幻電影所表現的,最驚人的情形是人工智能變壞。這是古老擔憂的現代表現形式,可追溯到1818年的《弗蘭肯斯坦》及更早時期。不過雖然人工智能系統令人嘆為觀止,但它們只能執行十分具體的任務:智力上能夠超過其人類創造者的通用人工智能仍然十分遙遠。

人工智能研究專家Andrew Ng表示,現在擔心人工智能就像殖民者甚至還未踏上火星就擔心火星上人口過多一樣。機器問題更加緊迫的方面在於人工智能對人類就業和生活方式有何種影響。 

對人工智能這一方面的擔憂也有悠久的歷史。20世紀60年代(公司首次開始安裝電腦和機器人)和80年代(個人電腦登陸桌面)經歷了“技術性失業”(technological unemployment)的恐慌。每一次恐慌似乎技術工人崗位的普遍自動化就近在眼前。

然而事實上每一次科技進步最終創造的就業超過所消滅的就業,因為一種瑣碎工作的自動化增加了對那些機器仍然不能完成的相關工作的需求。比如,用自動取款機(ATM)取代部分銀行櫃員使得新開分行成本降低,創造了更多的銷售和客服新工作。同樣地,電子商務增加了零售業的總就業。

即便短期喪失的就業有可能被長期創造的新就業彌補且綽綽有余,19世紀的經歷表明這一過程可造成痛苦。

經濟增長在生活水平停滯不前幾百年後起飛,但幾十年過去了經濟起飛才在工資增長中得到充分反映。越來越多的人口從農村向城市工廠迅速轉移在全歐洲造成動蕩。各國政府用了一個世紀利用新的教育和福利制度做出反應。

而這一次的轉變可能會更加迅速,因為技術的擴散比200年前更快。收入不平等現象不斷加劇,因為高技術工人在科技補充支持他們的工作時獲益大得多。這對雇主和決策者構成兩大挑戰:如何幫助現有工人學習新技術;如何讓後人做好面對充滿人工智能工作場所的準備。 

隨著科技改變每一項專業工作所需的技能,工人必須隨之調整。這意味著教育和培訓應足夠靈活,以便迅速、有效地教授新技能。終身學習和在職培訓將得到更多強調,網絡學習和視頻遊戲式仿真將得到更廣泛的應用。通過個性化電腦學習、確定員工技能差距和再陪訓機會,人工智能本身也能有所幫助。

社交和性格技能也將更加重要。當就業崗位不長久、科技不斷推陳出新和人們的工作年限延長,社交技能將是一項基礎技能。社交技能能夠給予人類一種優勢,幫助他們完成需要同情心和人際互動的工作,而同情心和人際互動是機器不具備的人類特質。 

另外福利制度也須與時俱進,以實現就業的順利過渡,並在工人學習新技能時對其提供支持。一個廣受推崇的方案叫做“基礎收入”,即無論個人境遇如何付給每一個人基本收入。不過除非有強烈證據顯示這次科技革命不同於以往的科技革命,將削弱勞動力需求,否則這樣做沒有意義。

盡管科技取得長足進步,但鮮有跡象表明工業時代的教育和福利制度已在現代化和變得靈活。決策者現在就得著手,因為越往後推福利國家的負擔就越大。約翰-穆勒(John Stuart Mill)在19世紀40年代的著作中寫道,關心那些生活被技術破壞的人是立法者關心的最合理目標。

這在蒸汽機時代說得沒錯,在人工智能時代仍然如此。

人工智能
贊(...)
文章評論
匿名用戶
發布
PermaLink: https://articles.zkiz.com/?id=221757

Next Page

ZKIZ Archives @ 2019