📖 ZKIZ Archives


矽谷安全教父加盟滴滴:AI將成未來信息安全關鍵

滴滴出行29日宣布,矽谷知名信息安全科學家、AssureSec聯合創始人弓峰敏和蔔崢加入滴滴。弓峰敏將擔任滴滴信息安全戰略副總裁和滴滴研究院副院長,蔔崢將擔任滴滴信息安全副總裁,全面負責滴滴信息安全的運營。

這是滴滴在信息安全領域相關內容的首次重大披露。目前,全球信息安全市場正面臨新挑戰,同時也充滿機遇。在兩位重量級安全大佬加盟之後,滴滴很可能將嘗試用人工智能和機器學習技術去發展信息安全技術。

安全威脅日益嚴峻

作為Palo Alto Networks聯合創始人及多家知名信息安全公司高管,弓峰敏指出,過去幾年,信息安全威脅的發展很快。相對於安全防禦者,黑客似乎總是可以更快地利用網絡和移動技術去發動攻擊,找到繞開防禦的種種規避手段。另一方面,黑客工具的制造者、僵屍網絡的運營者之間已形成了“高效”的信息分享產業鏈。

一系列事件證明了信息安全形勢的嚴峻。例如,在9月19日的國家網絡安全宣傳周上,百度安全發布了《百度安全打擊網絡黑產白皮書》。白皮書顯示,2016年上半年,涉嫌泄露或竊取用戶信息的事件超過10.6億次,其中用戶信息泄露超過5.4億條,用戶隱私竊取超過6.3億次。與此同時,網絡黑產的規模不斷“壯大”。上半年,網絡黑產從業者已達56萬人,市場規模超過1482億元,從業者人均收入26.5萬元。

在這樣的情況下,企業IT團隊應對信息安全威脅的能力依然有限。以往,企業信息安全防護著眼於孤立的網絡連接、數據存儲和計算資源,通常只在安全威脅出現後才會被動地去響應。隨著雲計算和移動設備的普及,企業IT環境正變得日趨複雜。而物聯網的發展,家電、汽車和工業設備紛紛接入網絡則進一步導致了可能被黑客突破的“攻擊面”不斷擴大。換句話說,傳統信息安全策略在新環境中很可能顧此失彼,難以實現整體式防禦。

策略:以業務為中心

弓峰敏指出,信息安全行業以往強調入侵防禦,對攻擊的應對策略是“拒敵於國門之外”。但實際上,近期出現了越來越多傳統方法難以檢測的高級安全威脅。同時,日趨多樣化的安全威脅往往有著不同意圖:一部分會對企業業務產生重大威脅,而另一部分則是黑客或業余愛好者的惡作劇。

以往,大多信息安全產品只關註安全問題的某個階段或某個側面,例如軟件是否存在漏洞。然而,這些漏洞並不一定會給業務造成不利後果,例如數據丟失,交易信息泄露。企業並不需要去處理所有安全漏洞。如果繼續沿用傳統的信息安全策略,那麽效果通常不佳,安全防禦只能被動地跟隨黑客的步伐。

對於這樣的局面,弓峰敏認為,安全防禦重點應當轉向以業務為中心,以不間斷、大規模的監測為基礎,並利用大數據和人工智能技術去判斷是否有威脅和異常的出現。簡而言之,這就是分布式的安全檢測配合中心化的威脅數據分析。

安全的未來:人工智能

傳統上,企業信息安全團隊需要在沙箱中運行惡意軟件,人工分析,進而得出潛在威脅的屬性,並在此基礎上制定防禦規則,將規則應用於安全網關或其他網管設備。這樣的流程耗時耗力,且分析能力有限。在這種架構下,安全網關等設備對企業的信息安全能力至關重要。一旦安全網關被攻破,企業內部網絡將門戶洞開。

與此不同,弓峰敏和蔔崢團隊的技術擺脫了中心化的安全網關。這一技術基於軟件和虛擬配置,在終端設備中部署分布式“探針”,從而充分利用終端設備去收集潛在威脅信號,在威脅剛剛出現時捕捉其中的蛛絲馬跡。與此同時,系統利用機器學習和人工智能技術,通過雲計算平臺沙箱對終端設備收集到的海量數據進行自動化分析和學習,不斷尋找惡意軟件和非惡意軟件所表現出的不同模式。

用機器學習算法去取代傳統的“if-else”邏輯帶來了很強的通用性,能將數千輸入信號考慮在內。與此同時,利用持續輸入的數據,機器學習算法能以流程化方法不斷建立新模型,並隨惡意軟件的變化而主動調整,增強檢測能力。

這樣做帶來了兩方面優勢。一方面,系統對信息安全風險的監測將不再是孤立的,而是有能力全面了解各方面環境因素。因此,無論是底層硬件還是業務邏輯,各種異常都可以被檢出。另一方面,這將成為基於雲計算的一體化產品,並具備極強的自主運行能力。企業IT團隊將無需去維護碎片化工具,減少所投入的人力。

滴滴助力信息安全研究

實際上,弓峰敏和蔔崢團隊加入滴滴正是由於,滴滴提供了團隊迫切需要的大數據集。弓峰敏指出,其團隊的技術要求與業務數據密切交互,而利用滴滴的框架和資源,團隊能更方便地去展開技術研究。

另一方面,滴滴也帶來了豐富的安全場景。這既包括基本的安全攻防問題,也包括如何應對網絡欺詐和犯罪,預防用戶信息泄露,交易出現風險。通過滴滴的業務實踐,以及滴滴自身對雲計算、大數據和人工智能等前沿技術的開發,研發團隊將獲得第一手研究素材,使持續發展的新技術在第一時間得到嘗試和應用。

信息安全市場仍在快速發展。根據市場研究公司Gartner的數據,2016年全球信息安全產品和服務支出將達到816億美元,同比增長7.9%。這一市場正受到傳統企業IT巨頭的密切關註。例如,甲骨文上月宣布收購雲計算信息安全公司Palerra,而思科和賽門鐵克近期也均在這一領域進行過收購。

在國內,移動互聯網的發展也給信息安全帶來了挑戰和機遇。弓峰敏認為,作為具有代表性的移動互聯網公司,滴滴在這筆收購後有望實現突破性的成功應用案例,進而給整個中國互聯網安全市場產生積極影響。

PermaLink: https://articles.zkiz.com/?id=217112

人工智能長篇報告:1.5萬字告訴你AI的應用究竟對人類社會經濟有哪些影響

來源: http://www.iheima.com/zixun/2016/1008/159076.shtml

人工智能長篇報告:1.5萬字告訴你AI的應用究竟對人類社會經濟有哪些影響
豬場智能菌 豬場智能菌

人工智能長篇報告:1.5萬字告訴你AI的應用究竟對人類社會經濟有哪些影響

目前關於人工智能的四個關鍵性問題的答案,都在這里了。

來源 / AI Now《The AI Now Report》

譯者 / 網易智能(孫文文 費寧 誌文 阿樹 止水 倪盛)

前  言  

人工智能(Artificial Intelligence,簡稱AI)是一系列技術的集合,其下包括機器學習、推理、感知和自然語言處理等。人工智能的概念和應用65年前就已開始,不過最近AI的進步和應用讓這種技術再次成為熱議。隨著AI被更廣闊地應用到人類社會和經濟生活各個方面,新的機遇和挑戰隨之而生。其巨大的潛在影響讓人類不得不謹慎思考AI技術的發展與應用。

於今年7月舉行的“AI Now”研討會是由白宮科技政策辦公室和美國國家經濟委員會聯合推動的一系列研究的最後一個環節。此前的一系列研究分別從不同的角度對AI進行了分析研究,從政策法規到AI的安全控制,再到AI公益以及如何挖掘AI的更多潛能。這次“AI Now”則主要就未來十年AI在社會和經濟領域的影響進行討論。來自全球多個領域的專家學者集聚一堂,發表自己的觀點。討論的問題包括:現階段AI的迅速發展造成了哪些問題?如何更好地理解與使用AI來創造更公平公正的未來?

社會和經濟的問題多不勝數,本次“AI Now”主要圍繞“醫療”、“勞工就業”、“AI公平”以及“AI道德”準則展開討論。

之所以選擇“醫療”和“勞工就業”作為主要話題,是因為目前這兩個領域中AI滲入廣泛,AI所能帶來的問題在這兩個領域中較為突出和明顯。而“AI公平”和“AI道德”則是未來大家都關註的問題:AI會有助於世界大同還是會加劇社會不公?以及如何確保AI的利益被全體人類享用?

該研討會的舉行旨在讓AI能夠更好地造福人類社會。通過眾多專家學者聚集一堂進行討論的方式,本次“AI Now”研討會對人工智能學界內外都具有顯著意義。

  問題和建議  

研討會對未來AI所可能造成的情況做出了預見,並分別給出相應的建議。需要聲明的是,下列建議融合了全體與會人員的智慧,並不代表個人或某組織的立場。

隨著AI愈加緊密地被應用到社會經濟生活的方方面面,以下列出的問題和對應的建議可以作為投資者和相關領域從業者在對來的參考指南。

1、問題:AI的發展和應用有賴於特定的基礎設施和人、物資源。這些基礎資源的短缺無疑會限制AI的發展,對這些基礎設施和資源的掌握在AI發展前期變的至關重要。

建議:從多個渠道改善發展AI的資源基礎。註重數據集、計算機、相關人才教育培訓等配套領域的建設。

2、問題:雖然目前AI水平還在初級,不過在多個領域AI已經作為人工輔助的角色存在,並且對勞動關系產生了影響。奧巴馬經濟顧問委員會的主席傑森·弗曼(Jason Furman)就表示,低技術的體力勞動是最有可能被AI和自動化機械取而代之的職位。如果機器人開始和人類競爭工作,人力資源的分配也將迎來變革。

建議:更新自己的思維和技能,來應對AI參與所帶來的就業結構的改變。未來AI機器將承擔絕大多數低技術水平的工作職位,人們需要調整自己的技能儲備和收支方向以應對新形勢。

3、問題:AI和自動化的過程通常都是在人們目所不及的幕後進行。缺少了人類的參與,機器可能做出有失公允或不慎恰當的決定。隨著AI應用的進一步增長,對AI判斷和勘誤將變得更加重要,也更加困難。

建議:支持AI校準和勘誤的研究,AI錯誤危害評估程序也應提上日程。這些研究應和AI的突飛猛進配套發展,就像人類系統中司法之於行政。如此能夠及時發現AI犯下的錯誤,並避免嚴重後果。

4、問題:針對AI模式下公私機構公平和問責制的研究似乎與當前美國一些法律相忤,比如計算機欺詐與濫用法案(CFAA)和數字千年版權法案(DMCA)。

建議:需要澄清的是,無論是計算機欺詐與濫用法案還是數字千年版權法案,都沒有限制相關研究。

5、問題:盡管AI正以飛快的速度被運用在醫療、勞工等諸多領域,但目前人類沒有一個公認的辦法來在評估AI所帶來的影響。

建議:支持AI影響評估系統的研究。而且該領域的研究應該和政府機構通力合作,使成果能為政府行政所用。

6、問題:那些因部署AI而權益受到損害的人,其聲音往往被忽視。

建議:在打造AI系統的時候,受影響者的意見應該被聽取。AI應由各方共同設計以免有失公允和太過激進。

7、問題:AI的研究主要集中在電子技術上,對於人性方面問題的關註常常不足。在未來,計算機科學領域的成員將益加呈現同質化和單一化對特點,這不利於AI開發者的眼界和經驗,進而影響到AI產品的打造。

建議:AI研究員和開發者應該盡量多元化,開發人員的多樣與多元也會帶來更豐富紛呈的AI產品。未來AI領域應該多多支持跨學科研究,從而使得AI系統能夠融合電子計算、社會科學以及人文氣息。

8、問題:現有的道德準則已經不能應對AI在現實中所面臨問題的複雜性。(比如在醫療、執法、犯罪判決以及勞務等等)同時,在大學里的計算機課堂上,盡管這些理工課程也逐漸開始重視道德教育,然而並未徹底貫徹到實踐中。

建議:同美國人工智能協會(AAAI)、美國計算機協會(ACM)以及電器和電子工程師協會(IEEE)這些專業機構進行合作,推動產生可以面對新形勢的道德準則。同時在學校課堂上貫徹落實這些新道德準則的教育。每個有誌於計算機科學的學生在專業課之外也應接受公民權利、自由等道德教育。相應的,那些有AI滲入的領域(比如醫療場所)的從業人員也應該對這些新道德標準有所知悉。

目前關於人工智能的四個關鍵性問題    

我們現在將對目前關於人工智能的四個關鍵問題進行深入探討,為讀者提供一個了解業內專家見解以及建議的機會。相關探討包括每個關鍵問題所面臨的挑戰、機遇以及可采用的幹預措施。

  1. 社會不公  

人工智能系統如何造成偏見以及歧視等社會不公現象?

人工智能系統在高風險決策領域的作用越來越重要——從信貸、保險再到第三方決策以及假釋問題。人工智能技術將代替人工決定誰會獲得重要機遇,而誰又將被拋棄,由此將會引發一系列關於權利、自由以及社會公正問題。

有些人認為人工智能系統的應用有助於克服人類主觀偏見帶來的一系列問題,而有些人則擔心人工智能系統將會放大這些偏見,反而會進一步擴大機會的不均等。

在這場討論中,數據將會起到至關重要的作用,引發人們的強烈關註。人工智能系統的運行往往取決於其所獲得的數據,也是這些數據的直觀反映。其中也包括這些數據的來源以及收集過程中的偏差。從這方面來講,關於人工智能的影響是與相應的大數據技術密切相關的。

從廣義上講,數據偏差有兩種形式。第一種是采集的數據客觀上不能夠準確反映現實情況(主要歸因於測量方法的不準確;數據采集不完整或過於片面;非標準化的自我評價以及數據采集過程中的其他缺陷)。第二種在數據采集的過程中主觀上存在結構性偏差(諸如在關於職業數據的采集中有目的性地通過主觀性的重男輕女來預測職場成功率)。前一種的數據偏差可以通過“凈化數據”或者改進數據采集過程來加以解決。但後一種則需要複雜的人工幹預措施。值得註意的是,雖然有很多機構都為解決這種問題做了大量的工作,但對於如何“檢測”數據偏差尚無定論。

當采集的數據存在上述偏差時,用這種數據所訓練的人工智能系統也會存在相應偏差,其產生的模型或者結果不肯避免的會複制並放大這種偏差。在這種情況下,人工智能系統所作出的決策將會產生差別效應,從而引發社會不公。而這種不公平要比人為偏見和不公隱晦的多。

在以風險控制為主導的行業中,隨著人工智能系統的廣泛應用,導致人與人之間的細微差別異化對待等現象顯著增加,在保險以及其他社會擔保行業尤為如此。人工智能系統的應用能夠使公司更加有效地通過“逆向選擇”來識別特定群體以及個人,從而有效避免風險。

諸如在醫療保險領域,人工智能系統會對投保人的特征以及表現行為進行分析,並對那些被識別為特殊疾病或者是未來發病率高的投保人收取更多保費。在這種情況下,對於那些健康狀況不佳且經濟能力差的人群尤為不利。這就是為何批評者經常會指責稱,即便人工智能系統的預測準確,保險人行為理性,但效果卻常常是帶來負面影響。

保險業的競爭或許會加劇這種發展趨勢,最終人工智能系統的應用或許會加劇這種不平等性。當然,相關反歧視法律法規中的規範性原則能夠為解決這些問題帶來幫助,雖然這種方法可能不是最有效、最公平的。此外,對人工智能系統進行設計和部署也很重要,但現有的法律框架或許會使相應研究受到阻礙。諸如如計算機欺詐和濫用法(CFAA)和數字千年版權法案(DMCA)都對這方面研究進行了限制,因此當下也需要對現行法規進行改革,確保必要的研究能夠順利進行。

人工智能將受益少數人?

人工智能系統為經濟價值的產生帶來了新的方式,也對經濟價值的分配產生了新的影響。在某種程度上,人工智能系統的價值分配會使一部分群體受益,從而延續或加劇現有的薪資、收入以及財富分配差距。

那些有能力研發人工智能技術的組織將會加劇這種不平等性。據預測,人工智能是一個每年市值達到數十億美元的龐大產業。開發人工智能技術需要大量的前期投資,其中包括海量的計算資源以及大數據,兩者的成本都非常之大。這導致人工智能的開發和應用被限制在一個特定的範圍之內。在這種情況下,那些擁有強大數據以及計算能力的企業才能夠通過人工智能系統深入了解市場動態,從而獲取更多優勢,為自己帶來“富者更富”的馬太效應,帶來更多成功。

從另一方面來說,人工智能以及自動化系統能夠降低商品和服務成本,如果這些降低的成本能夠使消費者受益,那麽人工智能就可以縮小貧富差距。在這種情況下,人工智能系統能夠提高整個社會的生活水平,甚至於引發一個漸進式的再分配效應。

此外,人工智能也會帶來全新的生活方式。在人工智能環境下,那些工作落伍的人有機會需求獲取資源的新方式,而工作受到影響的人也能夠通過人工智能創造新的就業機會。換而言之,人工智能能夠緩解勞動力危機,讓人們自由追求生活以及工作新方式,從而提高社會的整體福利。

盡管如此,一些評論家指出,人工智能系統會使得某些工人的技能多余化,那些被自動化所取代的工人不得不尋求新的就業機會。即便這部分工人能夠找到新的工作,這種工作也常常是低附加值的,且工作穩定性更低。從這個角度將,人工智能以及自動化系統反而消除了就業機會。

更進一步,如果學習新的工作技能非常昂貴,工人們或許會認為這種職業技能培訓與新工作並不成正比。在這種情況下,人工智能系統不僅會增加社會不公,更會帶來永久性的失業以及貧窮。這就是為何理解人工智能系統對勞動力的潛在影響是理解其對經濟平等性影響的重要方面。

和以往許多技術一樣,人工智能技術也往往反映了其創建者的價值觀。因此,也可以通過在人工智能開發、部署、維護階段的多元化來推動人工智能技術的平等性。

當前,在人工智能甚至於整個計算機科學家技術行業,女性以及少數民族從業人員所占比例還很少。這種現狀也在一定程度上導致整個技術缺乏包容性,導致一定的偏見,延續或限制相關從業者對其他群體的考慮。

人們也越來越清楚的認識到,人工智能領域從業者的多樣性有助於人工智能系統滿足不同人群的利益。為了解決偏見、歧視和不平等問題,人工智能團隊需要一個更廣泛的視角。

 2.  勞工關系   

目前有關就業和AI系統的討論往往都集中在對人們未來將會失業的擔憂上。最新的研究表明,還存在更加複雜、影響更加直接的問題,這些問題不僅僅影響勞工市場,還影響雇主與雇員之間的關系、權力動力學、職業責任和工作在人類生活中的角色。

許多傳統經濟研究人員正在密切追蹤美國國內勞工市場和企業機構,以此來考量AI系統的影響。這類研究可帶來非常重要的定性數據,能夠促進對宏觀經濟趨勢和勞工供需狀況的理解,比如未來將會有多少工作崗位。

與此同時,社會科學研究則評估工作屬性和工作動力的改變正在如何改變人們的日常生活體驗。這兩個研究視角對於衡量AI系統短期對勞動力的社會影響和經濟影響都必不可少。

AI會影響工作崗位需求嗎?

自動化技術在經濟中的角色遠非新議題,事實上對於AI系統影響的考慮是出現於長期以來的討論。

雖然表面來看勞工需求會隨著自動化技術的日益普及而下降,畢竟需要做的工作將會很有限,但也有經濟學家並不這麽認為,他們稱該觀點是“勞動合成”謬論。他們指出,隨著一個行業的生產力的提升(由於自動化技術或者其它因素),新行業也會誕生,因而會產生新的勞工需求。例如,1900年農業在美國勞動力中的占比為41%,到2000年該占比只有2%。兩位勞工經濟學家大衛·奧特爾(David Autor)和大衛·多恩(David Dorn)稱,即便出現這種劇變,失業率長期來看並沒有出現上升,就業人口比率實際上反而出現提升。另外兩位經濟學家詹姆斯·亨廷頓(James Huntington)和卡爾·弗雷(Carl Frey)則給出了可怕的預言:AI系統將會大大減少工作崗位。

還有人在爭論勞動市場的變化和波動是否與技術進步有關,是否只是因經濟政策而出現。這類看法聚焦於現有的法律體系和監管機制對於AI和自動化系統的發展應該擔當什麽樣的角色。例如,羅伯特·戈登(Robert Gordon)認為當前的創新浪潮其實並沒有它們表面上看起來那麽具有變革性。不少持相反意見的人則稱,勞動市場正因為技術變化而發生重要轉變。這些人包括約瑟夫·斯蒂格利茨(Joseph Stiglitz)和拉里·米歇爾(Larry Mishel),他們認為,要保護勞動力,就必須要對AI和自動化系統相關的監管和其它政策變化上保持高度的重視。

奧特爾、多恩等經濟學家發現“就業兩極分化”現象正變得非常明顯,即中等技能崗位在減少,而高等技能和低等技能的崗位則在增加。雖然未來可能會出現新的崗位,但它們往往都收入比較低,不受歡迎。

例如,許多支持AI系統的工作事實上需要由人類去完成,他們需要維護那些基礎設施,照顧系統的“健康狀況”。這種勞動力往往不大顯眼,至少從媒體的報道和人們對AI的印象來看是這樣。因此它往往受到低估。這類工作包括負責清潔辦公室和維護工作的清潔工,負責維修服務器故障的維修工,以及有位記者所說的“數據衛生工”(能夠“清理”數據,為數據分析做好準備)。

AI系統對勞動力的影響相關的問題應當不僅僅包括未來是否會創造出新崗位,還應當包括那些崗位會否是能維持生計的體面工作。

此外,有關AI系統和勞工市場未來的討論通常都專註於傳統上被認為是低收入的工人階級崗位,如制造業、卡車運輸、零售或者服務工作,但研究表明,未來各行各業都將受到影響,其中包括需要專業訓練或者高學歷的專業工作,如放射學或者法律。關於這一點,未來將需要解決職業責任和義務方面的新問題。

AI將會如何影響主雇關系?

近年來,研究人員開始研究依靠大數據的AI和自動化系統(從Uber到應用於大型零售商的自動化調度軟件,再到工作間監視)正在如何改變雇主與雇員之間的關系。

研究發現,雖然這類系統可以用來賦能員工,但該類技術也可能會引發大問題,如剝奪員工權利,加劇就業歧視問題,以及催生不當勞動行為。

例如,AI驅動的勞動力管理和調度系統正越來越多地被用來管理勞動力,助力按需經濟的增長和“朝不保夕族”(precariat)的崛起。雖然部分研究人員稱恰當的調度能夠帶來很有價值的彈性,但到目前為止,更多的研究發現受該類系統管制的員工存在情緒緊張和缺乏安全感問題。

由這類系統管理的員工的不利體驗包括長期不充分就業,財務狀況不穩定,缺少傳統全職員工能夠獲得的福利保障,無力為家庭或者自我照顧(又或者因為忍受不了該類工作往往要求的隨時待命性質而尋找別的工作)做規劃。此外,受這些問題影響的員工更多是女性和少數族裔。

另外,基於AI系統的新遠程管理模式會加大將“系統”所做的嚴重影響員工的決策歸責於雇主的難度。因此,員工更容易受到剝削。

例如,像Uber這樣的由大數據和AI驅動的平臺會遠程控制行駛路線、定價、報酬甚至人際交流方面的標準——這些決定傳統上說通常都有人工親自管理。

除了模糊化特定決策的性質和邏輯之外,這類遠程管理通常並不被認為是“雇員管理”。

由於這些新管理模式不大符合現有的監管模式,像Uber這樣的公司會將自己標榜為技術公司,而非雇員的管理者。按照這一理念,這類公司將自己視作促進連接的平臺,因此不會像傳統雇主那樣對雇員負責。依照這種模式,雇員最終要承擔權益保障(如減輕稅項負擔、醫療保健和其它的勞工保障)和潛在救濟模式的就業帶來的風險。

  3.  醫療健康  

像我們現在所看到的大多數已被應用到醫療健康領域的AI系統,它們幾乎都依賴於大型數據庫,這些AI系統會通過各種複雜的統計模型和機器學習技術,從其所收集到的海量數據中,自動提煉出各種重要信息。

那些已投入使用的醫療數據信息源(仍處在不斷增長當中)——包括電子病歷(EHRs)、臨床和醫保數據庫、從各類消費電子產品和App上傳來的健康數據——目前已經被大量地應用到AI系統的實踐,這些AI系統具有極大的能改善社會醫保水平的潛力。

無論是臨床診斷、病人護理,還是施藥;無論是藥品生產、組織管理,還是醫保信息交互,這些AI系統都為醫療從業者的工作起到了極大的助力。

AI是如何被融入到醫學研究和醫療健康的?

將AI系統融入到醫學研究,具有令人極為欣喜的應用前景,它能幫助我們更好地理解那些疾病的病理,幫助我們開發出更多的新式治療手段,實現更為精準的醫學診斷,甚至還能私人訂制地為個人生產出特制的藥品。

然而,鑒於目前仍存在的將AI應用到醫療領域的局限和偏見,它們或將阻礙這些應用前景的實現,而這就需要研究人員更為細心謹慎地去探索這一前沿的技術。

目前,這些將AI技術應用到醫療領域的局限,包括有不完整或不準確的研究數據,即未含蓋到特定的少數群體,除此之外,尤以美國醫保系統為代表的複雜醫療補貼激勵制度,也將在一定程度上阻礙到了AI醫療技術的應用。舉個簡單的例子,目前的一些醫療補貼制度會更支持個別種類的藥物研發,或是更傾向於補貼個別治療方案。

醫療研究數據時常會表現出客觀、通用的屬性,但在實際應用的過程中,這些研究結論往往會表現出片面、暫時和只針對某些團體或病癥的特性,而AI系統根據這些“片面”數據所分析和建立出的模型,可能會引出、建立或是衍生出一些錯誤的猜測。

所幸的是,這樣的錯誤情況是可以避免的。如果一個AI系統所收集的數據不存在上面我們所提到的那些瑕疵(假設這點是可以被保證的),或是該AI系統所使用的數據框架像隨機對照試驗方法(randomized control trials, RCTs)或是其它公共醫療數據庫那樣,具有自行矯正這些問題的能力,能減小其內在錯誤偏差的話,它就能有效地避免重大誤差的出現。

假設這些誤差微小到可被忽略,將AI系統融入到醫療健康研究和臨床實踐中心的一個最有可能實現的應用前景,是讓AI去協助醫生進行病癥診斷,從海量數據中發現規律性的模式,從而幫助醫生更早地揪出那些藏匿在身體深處的“狡猾”病竈。

事實上,AI系統目前已經可以完成對部分病癥的診斷了,這其中就包括了白血病。在檢查和臨床護理環節,AI系統在一些情況下,也有幾率能減少,甚至預防誤診情況的出現。須知,誤診是可以致命的,AI輔助診斷技術的價值之高,可想而知。

在這方面,AI系統在診斷和確立病癥的環節上,正扮演越來越重要的角色。然而,也正是因為如此,研究人員必須警惕,要避免出現因AI錯誤猜測,而推斷出“正常”或是“平均”等健康狀況描述的情況的發生。

類似的,我們只需要回顧一下美國在1973年前的那段歷史,就想象出當AI出現誤診時,會發生什麽樣慘劇。彼時,美國精神病學協會(American Psychiatric Association)將同性戀作為一種精神疾病列入到了它權威的精神病診斷和統計手冊當中,這樣一來,悲劇的出現就不可避免了。

同樣的,當AI系統被直接地應用到病人護理時,它們將涉足到診斷和臨床管理的方方面面,而這也時常將隔開看護者同病人之間的距離,所以,適當地明確出AI“專業程度”的局限,是非常重要的。

一名人類外科醫生在上崗之前,會先上醫科大學,在經歷過層層嚴苛的考核後,他們的醫術才能獲得世人的承認,然而,我們要如何造出一個出色的AI大夫來協助,或者甚至是取代一個有“文憑”的人類名醫呢?

這樣一個AI醫療系統意味著它需要具有絕對準確的專家級權威水平,不會出現誤診或是診斷偏頗的情況。這種級別的信任代表著這些AI系統無論是在出廠的能力評估上,還是在檢測其極限能力上,都可以接受更少的審查,而這也將制造出那些,目前還未被醫學倫理框架所囊括的新型倫理問題。

除此之外,我們還需要關註類似於這樣的AI醫療系統在醫保領域內被布置於何處,使誰受益等等這樣的問題。盡管讓醫療健康惠及所有人,讓大家都能負擔得起確實是一種需求,但已有大量的證據表明,取得醫保和健康數據的權限並未被公平地分配,在多數情況下,窮人、非白人和女性群體常常處於劣勢地位。

讓AI系統融入到醫保體系,非但不會根除這些系統性的不平等問題,反而還有可能會放大這種問題的嚴重性。雖然AI系統可以實現合適的定制化醫療護理,讓各式各樣的人都獲益,但它也可以被故意培養成過濾掉那些之前就常常被忽視、被服務不周的外圍群體。

如果這些群體沒有被給予適當的考慮的話,這反過來也將影響到AI系統所構建出的預測模型。AI預測模型會被那些能用上這種AI系統的特權群體所上傳的健康數據所不斷的固化,從而只能有效反饋出富人的“健康狀況”,並最終構建出一個會完全排斥“邊緣人群”的健康與疾病的整體認知模型。

鑒於目前美國存在的醫保財政的亂象,這樣的憂患確實是值得人們投入更多關註,就像這樣的亂象在過去影響到醫療技術的整合一樣,它也必然會在未來影響到AI醫療系統的布置和效用,

基於這樣的考慮,人們在推動AI醫療系統不斷發展的同時,也在不斷努力地去降低AI醫療系統造價,而這也將促使那些利益相關者(比如政客、保險公司、健康機構、制藥企業、雇主和其他人)把他們的註碼,寄托於大規模的健康數據收集和AI系統的研制上,以此來幫助他們更好地維護他們在模型研發和醫保護理上的經濟利益。

然而,將這些信息技術和AI系統整合到醫院和其它醫療健康體系所需要的關鍵培訓、資源和那些正在進行當中的必要維護,並不總是能夠得到支持,或者說並不總是能處於“不差錢”的狀況。而這種情況其實已經導致了技術資源和技術能力的分配不均。

訓練AI所需的數據收集和病患觀察將如何影響到個人隱私?

AI系統對數據量的極度依賴和對病例觀察的需求也自然而然地催生出了對病人隱私、秘密和安全保護等等急迫的問題。

目前,對AI醫療系統高性能期許的實現依賴於通過各式各樣的設備、平臺和互聯網來源源不斷地獲取到海量的病患數據,而這一過程也不可避免地會涉及到某些人或機構會在利益的驅使下,做出出格的監視行為。、

與此同時,像同態加密(Homomorphic encryption)、差分隱私(differential privacy)和隨機隱私(stochastic privacy)這樣的技術帶給了我們應對這些亂象現象的新的希望,它們可以讓AI系統實現在不“查閱”數據的情況下,直接地去“調用”它們。雖然就目前來說,這些新技術仍處於研發的初步階段,連一個通用應用程序都還沒有被開發出來,但它展現出能令人鼓舞的應用前景。

除此之外,隨著近期美國政府對循證醫學(Evidence ¬based medicine)的推廣和《平價醫保法案》(Affordable Care Act)已由原先的按服務收費轉變至按治療行為收費的這一變化,監管行為背後所涉及到的經濟利益問題和對敏感健康數據消費的問題,都在不斷地加劇惡化當中。

至於那些保險公司,在AI系統入局的情況下,其所需面對的對驗證交叉補貼方案合理性的呼聲的壓力也在與日俱增。

舉個例子,盡管美國政府在2008年就頒布了《基因資訊平等法》(Genetic Information Nondiscrimination Act),但出於對保險分層管理的需求,保險公司對能獲取到遺傳危險率信息的興趣也在日益增長。事實上,差別定價目前已經成為了數據分析供應商的一項業內通用做法,而這反過來也進一步地鞏固和加劇了目前的不平等現象。

此外,“智能設備”和其它能讓AI系統獲取到所需數據的聯網傳感器也已讓追蹤和監視變得無處不在,而這也將目前的那些隱私保護政策的覆蓋範圍不斷地拓寬,像《醫療健康可攜性和責任法案》(Health Insurance Portability and Accountability Act)就是在這一考慮下的產物。

隨著AI系統被越來越多地融入到健康和電子消費產品上,病人因細分數據而被重新定義,或是由代理數據來預測出他們的身份、所患疾病和其它健康信息的風險,正不斷地升高。

除此之外,那些驅動這些數據收集設備的軟件也常常是為私人所持有,而不是開源的(不受外部審查審計的約束)。雖然,美國政府最近簽署的法令對《數字千禧年著作權法案》(Digital Millennium Copyright Act)中的相關條例進行了免除,讓審查外部醫療設施的代碼成為可能,但更為重要的或許是審查那些內部醫療設施,然而這種行為並未被這一豁免權所囊括到。

總的來說,相關業內專家們都已經對在物聯網設備上,布置聯網技術所潛在的重大安全隱患做過警告了,在這些警告中,有很多就是專門針對醫療設備安全問題的。

AI將如何影響患者和醫療保險供應商?

那些已被實現或是有望被實現的AI技術,對健康護理系統的構建有著深遠的意義,對需要照顧的病患,或是那些虛弱體質的人也意義非凡。

人們對於AI系統,進行了許多美好的構想,寄予它們護理工作調解員的角色,並相信它們在未來有可能完全取締了護工的工作。這一轉變前景樂觀、經濟,且高效,很可能會改善患者與醫生或其他護工之間的關系和他們的工作方式。

能展示AI系統具有代替或者協助人工護理工作的潛力的例子非常之多,包括有機器人外科醫生、虛擬管家和陪護機器人等等。這些例子逐漸引發了一些爭論,比如代理照顧和陪同護理的社會意義是否可以讓非人類的機器來代替?當機器替代人工時,它是否能不僅僅只是增強人工的專業性,而能做到真正的獨當一面呢?當我們認為一臺機器有能力“護理”病人時,它具備了哪些“護理”能力呢?我們又是如何定義“護理”這個詞呢?這些我們以為的“以為”是否是站在病人權益的角度上,去考慮的呢?

就目前來說,雖然陪護機器人在取代人工護理工作上,還未取得什麽明顯的效果, 但由AI驅動的APP和聯網設備能讓病人取回對自己健康管理的控制權的前景正在與日俱增,而這也預示著AI醫療系統同病人的直接交互,正處於早期發展階段。。

這種人與AI的直接交互其實也是一把雙刃劍。一方面,它能讓病人康複地更快、對自身病情有更多的了解。另一方面,這種變革也需要他們擔負更多的風險。這些風險包括它可能會誤導病患,影響他們可能會接收到的信息的質量和準確性,而這也是美國聯邦貿易委員會(FTC)在近些年來,所要傳達給我們的擔慮。

除此之外,這些搭載了AI的APP也可以將原先醫療從業者所需要承擔的責任轉移病人本身,但這對病人來說不見得是什麽好消息,因為並不是所有人都有時間、財力和AI技術獲取渠道,來實現對他們自身健康的護理。

那麽,什麽樣的患者能優先享受到這些仍在不斷改進當中的AI醫療技術的紅利呢?對於那些“裝備”不良卻想管理和維護自己個人數據的病患來說,他們所接受到的健康看護是否是不合格的呢?

再者,那些搭載了AI技術的應用的設計者和研發者在這一社會演變過程中,又需要扮演什麽新的角色?需要承擔哪些新的責任?

那些始終處於風口浪尖的醫學道德倫理,又將如何融入到這些與眾不同的,新式工程技術的載體上呢?

  4. 道德責任  

AI系統的部署不僅將引發新的責任,也將對職業道德、研究道德、甚至公共安全評估等現有領域造成挑戰。

近來,人們對道德和AI系統的討論傾向於優先考慮很久以後可能會出現的AI系統,例如,“奇點”的來臨,或超級智能的發展。

也就是說,這種討論往往並未關註AI系統在短期或中期內會產生的道德影響,例如,當前已投入使用的大量任務型AI系統引發了新挑戰、可能加劇不平等、或從根本上改變權利機制。

當代AI系統上能夠執行各種各樣的活動,這類技術會引發各種隱性和顯性後果,因此可能對傳統倫理框架提出新挑戰。AI系統被部署在人類社會中時或許會引發不可預測的相互作用和後果。

在資源配置以及讓權力和信息集中或重組的潛力方面,我們迫切需要處理一些關鍵問題來確保AI技術不會造成傷害,特別對於已被邊緣化的群體。

我們如何向AI授予權力或委派AI展開決策?

AI系統在社會和經濟領域內的融合需要我們把社會問題轉變為能夠被AI解決的技術問題。這種轉變無法保證AI系統產生的錯誤會少於它將取代的現有系統。瑞安•卡洛(Ryan Calo)指出,人們通常以為,AI系統(如,自主駕駛汽車)犯的錯誤將少於人類。實則不然。複雜程度不高的AI系統無法避免地會犯一些人類不會犯的新錯誤。

在許多領域中,倫理框架往往需要產生記錄,例如,病歷、律師的案卷、或研究人員向機構審查委員會提交的文件。此外,人們還面向患者、客戶或感覺自己遭遇了不公正待遇的對象設立了補救機制。

當代的AI系統往往無法提供此類記錄或補救機制,要麽因為技術上無法實現,要麽因為設計者並未考慮此類記錄或機制。

這意味著,受到影響的特定群體或個人往往無法對AI或其他預測系統的決策進行檢驗或質疑。這會惡化各種形式的權力不對等現象。而權力不對等是一個很重要的倫理議題。

當受到影響的個人無法對這類自動化決策展開檢驗、質疑或上訴時,他們就處在了權力相對缺失的位置上。

這帶來的風險是,AI系統不僅將削弱弱勢群體的質疑權力,而且將賦予設計方更多定義道德行為的權力。這種權力能夠以十分微妙的形式呈現出來。例如,各種自動化系統往往被用來從某種方向來影響或“微調”某些個體,而很大程度上扮演決定或支配角色的是設計部署此類系統並從中獲利的一方。

若要從零開始構建AI系統,以實現糾正上述不平衡現象等目標,這本身就要受到實力差距的限制。打造和維護AI系統需要大量的計算資源和大量數據。而擁有海量數據和計算資源的企業相對缺乏這類資源的企業擁有更多的戰略優勢。

我們如何在現有的各種行業中應對與AI相關的倫理問題?

隨著AI系統在不同行業環境(如,醫學、法律、金融)中的融入愈加深入,我們還將面臨跨越不同行業的新的道德困境。

例如,AI系統在保健環境中的應用將對醫療專業人員道德準則中秉持的核心價值(如,涉及保密、護理的連續性、避免利益沖突以及知情權)造成挑戰。

隨著醫療業的不同利益相關方推出了各種各樣的AI產品和服務。對這些核心價值的挑戰可能會以全新的和意想不到的方式呈現。

當一名醫生使用的AI診斷設備在受訓時使用了一家醫藥公司的藥品試驗數據,而這家公司是某種藥物處方的既得利益者,那麽這位醫生應如何遵守避免利益沖突的誓言?

雖然這是個假想的情況,但這點明了在修訂以及更新職業道德準則的過程中必須解決的棘手問題。

同樣地,負責管理AI研發及維護的專業協會也有必要考慮采取相應的措施。例如,美國人工智能協會(AAAI)應制定相關的道德準則,而美國計算機協會(ACM)以及電氣和電子工程師協會(IEEE)需認真修訂相關的道德準則。ACM和IEEE現有的道德準則已擁有20年以上的歷史,不用說,這些準則不僅無法解決與人類機構、隱私和安全相關的核心問題,而且也無法預防AI和其他自動化決策系統可能產生的危害。隨著AI技術進一步被整合到重要的社會領域中,這一點正變得越來越重要。

盡管更多的高等教育機構在技術和科學專業的教學中已開始強調職業道德的重要性,但這番努力仍處在初期,還有進一步的拓展空間。而民權、公民自由和道德實踐等領域的知識還未成為學生們畢業時必須掌握的要求範圍。此外,有一點是值得註意的,若有人違背醫藥界道德準則,他需承擔的懲罰包括失去行醫權力,這一點並不適用計算機科學或許多其他相關領域。

目前還不清楚大多數計算機科學家是否熟知ACM或IEEE準則中的核心內容。我們也不清楚,企業雇主是否會因為其他鼓勵或壓力因素而選擇不遵守這種不具約束力的法規。因此,從實用角度看,除了僅僅對倫理框架進行改寫和更新外,有必要關註範圍更廣的鼓勵機制,並確保對倫理準則的遵從並不是事後才想起的事項,而是相關專業領域需要關註的核心問題,以及AI領域學習和實踐中不可或缺的組成部分。

  闡述建議  

下面我們將進一步闡述上面簡要提到的建議背後的基本原理。

1、多元化和拓寬AI開發和部署所必需的資源——如數據集、計算資源、教育和培訓的使用,包括擴大參與這種開發的機會。特別是關註當前缺乏這種訪問的人口。

正如在AI Now Experts研討會期間很多人提到的,這些開發和培訓AI系統的方法費用高昂並只限於少數大公司。或者簡單地說,在沒有大量資源的情況下DIY AI是不可能的。培訓用AI模式要求有大量數據——越多越好。同時還要求有巨大的計算能力,而這費用不菲。這使得即使要進行基礎研究都只能限於能支付這種使用費用的公司,因此限制了民主化開發AI系統服務於不同人群目標的可能性。投資基本的基礎設施和使用合適的培訓數據,有助於公平競爭。同樣,開放現有行業和機構里開發和設計過程,以多元化內部紀律和外部評論,可幫助開發更好服務和反映多元化環境需求的AI系統。

2、升級使公平勞動行為具體化的定義和框架,以適應AI管理部署到工作地時出現的結構性變化。同時研究可替代的收入和資源分布、教育和再培訓模式,以適應未來重複性工作日益自動化和勞動及就業態勢不斷變化。

在AI Now Experts研討會上,奧巴馬總統首席經濟學家賈森·福爾曼(Jason Furman)指出,在美國每小時工資只有不到20美元的工作,83%都將面臨自動化的嚴重壓力。對於每小時工資在20-40美元的中等收入工作,這個比例也高達31%。這是勞動力市場一次巨大轉變,可能導致出現一個永久失業階層。為確保AI系統的效率在勞動力市場不會導致民眾不安,或社會重要機構如教育(有一種可能是教育不再視為就業的更好途徑)的解散,在這種巨大轉變出現,應該徹底研究替代性資源分布方法和其他應對引入自動化的模式,制定的政策應該為組織良好的各種落實測試開路,控制可能導致的災難性後果。

除了“替代工人”外,AI系統也對勞動力市場也有其他多重影響。例如,它們改變了權力關系、就業預期和工作本身的角色。這些變化已經對工人產生深遠影響,因此在引入AI系統時,在考慮如何表述公平和不公平做法上,理解這些影響很重要。例如,如果開發實際作為管理層行事的AI系統的公司,可被視為科技服務公司,與雇主不同的是,職員可能不受現有法律保護。

3、在設計和部署階段,支持研究開發衡量和評估AI系統準確性和公平度的方法。同樣地,也支持研究開發衡量及解決一旦使用出現的AI錯誤和損害的方法,包括涉及通知、矯正和減輕這些因AI系統自動決策導致的錯誤和損害的問責制。這些方法應優先通知受自動決策影響的人們,並開發對錯誤或有害判斷提出異議的方法。

AI和預測性系統日益決定了人們是否能獲得或失去機會。在很多情況下,人們沒有意識到是機器而非人類在做出改變人生的決定。即使他們意識到,也沒有對錯誤界定提出異議或拒絕有害決策的標準流程。我們需要在研究和技術原型化上投資,確保在AI系統日益用於做出重要決策的環境中,確保基本權利和責任受到尊重。

4、澄清無論是反電腦欺詐和濫用法案還是數字千年版權法案不是用於限制對AI責任的研究

為了進行對檢驗、衡量和評估AI系統對公共和私人機構決策的影響所需的研究,特別是有關如公平和歧視的關鍵社會關切,研究人員必須被清楚地允許跨大量域名並通過大量不同方法測試系統。然而,某些美國法律,如反電腦欺詐和濫用法案(CFAA)和數字千年版權法案(DMCA),規定與電腦系統甚至互聯網上公開可訪問的電腦系統“未授權”互動為非法,可能限制或禁止這種研究。這些法律應該澄清或修改,明確允許促進這種重要研究的互動。

5、支持在現實環境中AI系統對社會經濟生活影響的強大評估和評價方法的基礎性研究。與政府機構合作將這些新技術集成到他們的調查、監管和執法能力中。

我們當前缺乏對AI系統社會經濟影響評估和理解的嚴格做法。這意味著AI系統在融合到現有社會經濟領域,部署在新產品和環境中,卻不能衡量或精確計算它們的影響。這種情況類似於進行試驗卻不願記錄結果。為確保AI系統帶來的益處,必須進行協調一致的研究開發嚴格的方法,理解AI系統的影響,當使用這種方法時可幫助形成跨部門和政府內部的標準做法。這種研究及其結果可比作早期預警系統。

6、在與這些人聯合開發和部署這種系統時,與受自動決策應用和AI系統影響的社區代表及成員合作,聯合設計可問責的AI。

在很多情況下,這些受AI系統影響的人將是對AI系統環境和結果最權威性的專家。特別是鑒於當前AI領域缺乏多元化,那些受AI系統部署影響的人實際上從事提供反饋和設計方向,來自反饋機制的這些建議可直接影響AI系統的開發和更廣泛的政策框架。

7、加強行動提高AI開發者和研究者的多元化,拓寬和融合所有觀點、環境和學科背景到AI系統開發中。AI領域應該也結合計算、社會科學和人文學,支持和促進針對AI系統對多個觀點影響的跨學科AI研究。

計算機科學作為一個學科領域缺乏多樣性。特別是嚴重缺乏女性從業者,在AI里這種情況更為糟糕。例如,雖然有些AI學術實驗室由女性掌管,但在最近的神經信息處理系統大會上,與會者只有13.7%是女性,這次大會是該領域最主要的年度大會之一。缺乏多元化的圈子不大可能會考慮這些不在其中人的需求和關註。當這些需求和關註成為部署AI的社會經濟機構的中心時,理解這些需求和關註很重要,AI開發反映了這些重要的觀點。關註開發AI人群多元化是關鍵,除了性別和代表受保護人群外,包括除計算機科學外各種學科的多元化、建立依賴來自相關社會經濟領域學習的專業知識的開發實踐。

在計算機科學之外和計算機科學之內AI子領域的社會經濟領域,進行AI影響的徹底評估將需要多數這種專業知識。由於很多環境下AI被集成和使用——如醫學、勞動力市場或在線廣告——本身是學習的豐富領域。為真正制定AI影響評估的嚴格流程,我們將需要跨學科的協作,建立新的研究方向和領域。

8、與專業組織如美國人工智能進步協會(AAAI)、美國計算機協會(ACM)和電氣及電子工程師協會(IEEE)合作,更新(或制作)專業道德準則,更好地反映在社會經濟領域部署AI和自動化系統的複雜性。為任何想掌握計算機科學的人開設公民權、公民自由權和道德培訓課程,反映了教育中的這些變化。同樣,更新專業道德準則約束引入AI系統的專業人士,如適用於醫生和醫院工作者的道德準則。

在醫學和法律等職業中,專業人士的行為受控制可接受和不可接受行為的道德準則約束。專業組織如ACM和IEEE確實制定了道德準則,然而這些準則過時了,不足以解決複雜社會經濟環境中使用AI系統帶來的具體並常常是微妙的挑戰。雖然醫生確實遵守了約束他們對待病人行為的職業道德,但AI系統的發展,如幫助醫生診療和治療病人,出現了現有職業道德準則不總是能解決的道德挑戰。職業準則和計算機科學培訓必須更新,以反映AI系統建造者對因使用這些系統遭受不同程度不利影響的人所負有的責任。在AI用於增強人類決策時,職業道德準則應該包括在AI系統受到利益沖突左右的時候鑒定責任的保護措施。

人工智能 AI
贊(...)
文章評論
匿名用戶
發布
PermaLink: https://articles.zkiz.com/?id=217607

人工智能長篇報告:1.5萬字告訴你AI的應用究竟對人類社會經濟有哪些影響

來源: http://www.iheima.com/zixun/2016/1008/159076.shtml

人工智能長篇報告:1.5萬字告訴你AI的應用究竟對人類社會經濟有哪些影響
豬場智能菌 豬場智能菌

人工智能長篇報告:1.5萬字告訴你AI的應用究竟對人類社會經濟有哪些影響

目前關於人工智能的四個關鍵性問題的答案,都在這里了。

來源 / AI Now《The AI Now Report》

譯者 / 網易智能(孫文文 費寧 誌文 阿樹 止水 倪盛)

前  言  

人工智能(Artificial Intelligence,簡稱AI)是一系列技術的集合,其下包括機器學習、推理、感知和自然語言處理等。人工智能的概念和應用65年前就已開始,不過最近AI的進步和應用讓這種技術再次成為熱議。隨著AI被更廣闊地應用到人類社會和經濟生活各個方面,新的機遇和挑戰隨之而生。其巨大的潛在影響讓人類不得不謹慎思考AI技術的發展與應用。

於今年7月舉行的“AI Now”研討會是由白宮科技政策辦公室和美國國家經濟委員會聯合推動的一系列研究的最後一個環節。此前的一系列研究分別從不同的角度對AI進行了分析研究,從政策法規到AI的安全控制,再到AI公益以及如何挖掘AI的更多潛能。這次“AI Now”則主要就未來十年AI在社會和經濟領域的影響進行討論。來自全球多個領域的專家學者集聚一堂,發表自己的觀點。討論的問題包括:現階段AI的迅速發展造成了哪些問題?如何更好地理解與使用AI來創造更公平公正的未來?

社會和經濟的問題多不勝數,本次“AI Now”主要圍繞“醫療”、“勞工就業”、“AI公平”以及“AI道德”準則展開討論。

之所以選擇“醫療”和“勞工就業”作為主要話題,是因為目前這兩個領域中AI滲入廣泛,AI所能帶來的問題在這兩個領域中較為突出和明顯。而“AI公平”和“AI道德”則是未來大家都關註的問題:AI會有助於世界大同還是會加劇社會不公?以及如何確保AI的利益被全體人類享用?

該研討會的舉行旨在讓AI能夠更好地造福人類社會。通過眾多專家學者聚集一堂進行討論的方式,本次“AI Now”研討會對人工智能學界內外都具有顯著意義。

  問題和建議  

研討會對未來AI所可能造成的情況做出了預見,並分別給出相應的建議。需要聲明的是,下列建議融合了全體與會人員的智慧,並不代表個人或某組織的立場。

隨著AI愈加緊密地被應用到社會經濟生活的方方面面,以下列出的問題和對應的建議可以作為投資者和相關領域從業者在對來的參考指南。

1、問題:AI的發展和應用有賴於特定的基礎設施和人、物資源。這些基礎資源的短缺無疑會限制AI的發展,對這些基礎設施和資源的掌握在AI發展前期變的至關重要。

建議:從多個渠道改善發展AI的資源基礎。註重數據集、計算機、相關人才教育培訓等配套領域的建設。

2、問題:雖然目前AI水平還在初級,不過在多個領域AI已經作為人工輔助的角色存在,並且對勞動關系產生了影響。奧巴馬經濟顧問委員會的主席傑森·弗曼(Jason Furman)就表示,低技術的體力勞動是最有可能被AI和自動化機械取而代之的職位。如果機器人開始和人類競爭工作,人力資源的分配也將迎來變革。

建議:更新自己的思維和技能,來應對AI參與所帶來的就業結構的改變。未來AI機器將承擔絕大多數低技術水平的工作職位,人們需要調整自己的技能儲備和收支方向以應對新形勢。

3、問題:AI和自動化的過程通常都是在人們目所不及的幕後進行。缺少了人類的參與,機器可能做出有失公允或不慎恰當的決定。隨著AI應用的進一步增長,對AI判斷和勘誤將變得更加重要,也更加困難。

建議:支持AI校準和勘誤的研究,AI錯誤危害評估程序也應提上日程。這些研究應和AI的突飛猛進配套發展,就像人類系統中司法之於行政。如此能夠及時發現AI犯下的錯誤,並避免嚴重後果。

4、問題:針對AI模式下公私機構公平和問責制的研究似乎與當前美國一些法律相忤,比如計算機欺詐與濫用法案(CFAA)和數字千年版權法案(DMCA)。

建議:需要澄清的是,無論是計算機欺詐與濫用法案還是數字千年版權法案,都沒有限制相關研究。

5、問題:盡管AI正以飛快的速度被運用在醫療、勞工等諸多領域,但目前人類沒有一個公認的辦法來在評估AI所帶來的影響。

建議:支持AI影響評估系統的研究。而且該領域的研究應該和政府機構通力合作,使成果能為政府行政所用。

6、問題:那些因部署AI而權益受到損害的人,其聲音往往被忽視。

建議:在打造AI系統的時候,受影響者的意見應該被聽取。AI應由各方共同設計以免有失公允和太過激進。

7、問題:AI的研究主要集中在電子技術上,對於人性方面問題的關註常常不足。在未來,計算機科學領域的成員將益加呈現同質化和單一化對特點,這不利於AI開發者的眼界和經驗,進而影響到AI產品的打造。

建議:AI研究員和開發者應該盡量多元化,開發人員的多樣與多元也會帶來更豐富紛呈的AI產品。未來AI領域應該多多支持跨學科研究,從而使得AI系統能夠融合電子計算、社會科學以及人文氣息。

8、問題:現有的道德準則已經不能應對AI在現實中所面臨問題的複雜性。(比如在醫療、執法、犯罪判決以及勞務等等)同時,在大學里的計算機課堂上,盡管這些理工課程也逐漸開始重視道德教育,然而並未徹底貫徹到實踐中。

建議:同美國人工智能協會(AAAI)、美國計算機協會(ACM)以及電器和電子工程師協會(IEEE)這些專業機構進行合作,推動產生可以面對新形勢的道德準則。同時在學校課堂上貫徹落實這些新道德準則的教育。每個有誌於計算機科學的學生在專業課之外也應接受公民權利、自由等道德教育。相應的,那些有AI滲入的領域(比如醫療場所)的從業人員也應該對這些新道德標準有所知悉。

目前關於人工智能的四個關鍵性問題    

我們現在將對目前關於人工智能的四個關鍵問題進行深入探討,為讀者提供一個了解業內專家見解以及建議的機會。相關探討包括每個關鍵問題所面臨的挑戰、機遇以及可采用的幹預措施。

  1. 社會不公  

人工智能系統如何造成偏見以及歧視等社會不公現象?

人工智能系統在高風險決策領域的作用越來越重要——從信貸、保險再到第三方決策以及假釋問題。人工智能技術將代替人工決定誰會獲得重要機遇,而誰又將被拋棄,由此將會引發一系列關於權利、自由以及社會公正問題。

有些人認為人工智能系統的應用有助於克服人類主觀偏見帶來的一系列問題,而有些人則擔心人工智能系統將會放大這些偏見,反而會進一步擴大機會的不均等。

在這場討論中,數據將會起到至關重要的作用,引發人們的強烈關註。人工智能系統的運行往往取決於其所獲得的數據,也是這些數據的直觀反映。其中也包括這些數據的來源以及收集過程中的偏差。從這方面來講,關於人工智能的影響是與相應的大數據技術密切相關的。

從廣義上講,數據偏差有兩種形式。第一種是采集的數據客觀上不能夠準確反映現實情況(主要歸因於測量方法的不準確;數據采集不完整或過於片面;非標準化的自我評價以及數據采集過程中的其他缺陷)。第二種在數據采集的過程中主觀上存在結構性偏差(諸如在關於職業數據的采集中有目的性地通過主觀性的重男輕女來預測職場成功率)。前一種的數據偏差可以通過“凈化數據”或者改進數據采集過程來加以解決。但後一種則需要複雜的人工幹預措施。值得註意的是,雖然有很多機構都為解決這種問題做了大量的工作,但對於如何“檢測”數據偏差尚無定論。

當采集的數據存在上述偏差時,用這種數據所訓練的人工智能系統也會存在相應偏差,其產生的模型或者結果不肯避免的會複制並放大這種偏差。在這種情況下,人工智能系統所作出的決策將會產生差別效應,從而引發社會不公。而這種不公平要比人為偏見和不公隱晦的多。

在以風險控制為主導的行業中,隨著人工智能系統的廣泛應用,導致人與人之間的細微差別異化對待等現象顯著增加,在保險以及其他社會擔保行業尤為如此。人工智能系統的應用能夠使公司更加有效地通過“逆向選擇”來識別特定群體以及個人,從而有效避免風險。

諸如在醫療保險領域,人工智能系統會對投保人的特征以及表現行為進行分析,並對那些被識別為特殊疾病或者是未來發病率高的投保人收取更多保費。在這種情況下,對於那些健康狀況不佳且經濟能力差的人群尤為不利。這就是為何批評者經常會指責稱,即便人工智能系統的預測準確,保險人行為理性,但效果卻常常是帶來負面影響。

保險業的競爭或許會加劇這種發展趨勢,最終人工智能系統的應用或許會加劇這種不平等性。當然,相關反歧視法律法規中的規範性原則能夠為解決這些問題帶來幫助,雖然這種方法可能不是最有效、最公平的。此外,對人工智能系統進行設計和部署也很重要,但現有的法律框架或許會使相應研究受到阻礙。諸如如計算機欺詐和濫用法(CFAA)和數字千年版權法案(DMCA)都對這方面研究進行了限制,因此當下也需要對現行法規進行改革,確保必要的研究能夠順利進行。

人工智能將受益少數人?

人工智能系統為經濟價值的產生帶來了新的方式,也對經濟價值的分配產生了新的影響。在某種程度上,人工智能系統的價值分配會使一部分群體受益,從而延續或加劇現有的薪資、收入以及財富分配差距。

那些有能力研發人工智能技術的組織將會加劇這種不平等性。據預測,人工智能是一個每年市值達到數十億美元的龐大產業。開發人工智能技術需要大量的前期投資,其中包括海量的計算資源以及大數據,兩者的成本都非常之大。這導致人工智能的開發和應用被限制在一個特定的範圍之內。在這種情況下,那些擁有強大數據以及計算能力的企業才能夠通過人工智能系統深入了解市場動態,從而獲取更多優勢,為自己帶來“富者更富”的馬太效應,帶來更多成功。

從另一方面來說,人工智能以及自動化系統能夠降低商品和服務成本,如果這些降低的成本能夠使消費者受益,那麽人工智能就可以縮小貧富差距。在這種情況下,人工智能系統能夠提高整個社會的生活水平,甚至於引發一個漸進式的再分配效應。

此外,人工智能也會帶來全新的生活方式。在人工智能環境下,那些工作落伍的人有機會需求獲取資源的新方式,而工作受到影響的人也能夠通過人工智能創造新的就業機會。換而言之,人工智能能夠緩解勞動力危機,讓人們自由追求生活以及工作新方式,從而提高社會的整體福利。

盡管如此,一些評論家指出,人工智能系統會使得某些工人的技能多余化,那些被自動化所取代的工人不得不尋求新的就業機會。即便這部分工人能夠找到新的工作,這種工作也常常是低附加值的,且工作穩定性更低。從這個角度將,人工智能以及自動化系統反而消除了就業機會。

更進一步,如果學習新的工作技能非常昂貴,工人們或許會認為這種職業技能培訓與新工作並不成正比。在這種情況下,人工智能系統不僅會增加社會不公,更會帶來永久性的失業以及貧窮。這就是為何理解人工智能系統對勞動力的潛在影響是理解其對經濟平等性影響的重要方面。

和以往許多技術一樣,人工智能技術也往往反映了其創建者的價值觀。因此,也可以通過在人工智能開發、部署、維護階段的多元化來推動人工智能技術的平等性。

當前,在人工智能甚至於整個計算機科學家技術行業,女性以及少數民族從業人員所占比例還很少。這種現狀也在一定程度上導致整個技術缺乏包容性,導致一定的偏見,延續或限制相關從業者對其他群體的考慮。

人們也越來越清楚的認識到,人工智能領域從業者的多樣性有助於人工智能系統滿足不同人群的利益。為了解決偏見、歧視和不平等問題,人工智能團隊需要一個更廣泛的視角。

 2.  勞工關系   

目前有關就業和AI系統的討論往往都集中在對人們未來將會失業的擔憂上。最新的研究表明,還存在更加複雜、影響更加直接的問題,這些問題不僅僅影響勞工市場,還影響雇主與雇員之間的關系、權力動力學、職業責任和工作在人類生活中的角色。

許多傳統經濟研究人員正在密切追蹤美國國內勞工市場和企業機構,以此來考量AI系統的影響。這類研究可帶來非常重要的定性數據,能夠促進對宏觀經濟趨勢和勞工供需狀況的理解,比如未來將會有多少工作崗位。

與此同時,社會科學研究則評估工作屬性和工作動力的改變正在如何改變人們的日常生活體驗。這兩個研究視角對於衡量AI系統短期對勞動力的社會影響和經濟影響都必不可少。

AI會影響工作崗位需求嗎?

自動化技術在經濟中的角色遠非新議題,事實上對於AI系統影響的考慮是出現於長期以來的討論。

雖然表面來看勞工需求會隨著自動化技術的日益普及而下降,畢竟需要做的工作將會很有限,但也有經濟學家並不這麽認為,他們稱該觀點是“勞動合成”謬論。他們指出,隨著一個行業的生產力的提升(由於自動化技術或者其它因素),新行業也會誕生,因而會產生新的勞工需求。例如,1900年農業在美國勞動力中的占比為41%,到2000年該占比只有2%。兩位勞工經濟學家大衛·奧特爾(David Autor)和大衛·多恩(David Dorn)稱,即便出現這種劇變,失業率長期來看並沒有出現上升,就業人口比率實際上反而出現提升。另外兩位經濟學家詹姆斯·亨廷頓(James Huntington)和卡爾·弗雷(Carl Frey)則給出了可怕的預言:AI系統將會大大減少工作崗位。

還有人在爭論勞動市場的變化和波動是否與技術進步有關,是否只是因經濟政策而出現。這類看法聚焦於現有的法律體系和監管機制對於AI和自動化系統的發展應該擔當什麽樣的角色。例如,羅伯特·戈登(Robert Gordon)認為當前的創新浪潮其實並沒有它們表面上看起來那麽具有變革性。不少持相反意見的人則稱,勞動市場正因為技術變化而發生重要轉變。這些人包括約瑟夫·斯蒂格利茨(Joseph Stiglitz)和拉里·米歇爾(Larry Mishel),他們認為,要保護勞動力,就必須要對AI和自動化系統相關的監管和其它政策變化上保持高度的重視。

奧特爾、多恩等經濟學家發現“就業兩極分化”現象正變得非常明顯,即中等技能崗位在減少,而高等技能和低等技能的崗位則在增加。雖然未來可能會出現新的崗位,但它們往往都收入比較低,不受歡迎。

例如,許多支持AI系統的工作事實上需要由人類去完成,他們需要維護那些基礎設施,照顧系統的“健康狀況”。這種勞動力往往不大顯眼,至少從媒體的報道和人們對AI的印象來看是這樣。因此它往往受到低估。這類工作包括負責清潔辦公室和維護工作的清潔工,負責維修服務器故障的維修工,以及有位記者所說的“數據衛生工”(能夠“清理”數據,為數據分析做好準備)。

AI系統對勞動力的影響相關的問題應當不僅僅包括未來是否會創造出新崗位,還應當包括那些崗位會否是能維持生計的體面工作。

此外,有關AI系統和勞工市場未來的討論通常都專註於傳統上被認為是低收入的工人階級崗位,如制造業、卡車運輸、零售或者服務工作,但研究表明,未來各行各業都將受到影響,其中包括需要專業訓練或者高學歷的專業工作,如放射學或者法律。關於這一點,未來將需要解決職業責任和義務方面的新問題。

AI將會如何影響主雇關系?

近年來,研究人員開始研究依靠大數據的AI和自動化系統(從Uber到應用於大型零售商的自動化調度軟件,再到工作間監視)正在如何改變雇主與雇員之間的關系。

研究發現,雖然這類系統可以用來賦能員工,但該類技術也可能會引發大問題,如剝奪員工權利,加劇就業歧視問題,以及催生不當勞動行為。

例如,AI驅動的勞動力管理和調度系統正越來越多地被用來管理勞動力,助力按需經濟的增長和“朝不保夕族”(precariat)的崛起。雖然部分研究人員稱恰當的調度能夠帶來很有價值的彈性,但到目前為止,更多的研究發現受該類系統管制的員工存在情緒緊張和缺乏安全感問題。

由這類系統管理的員工的不利體驗包括長期不充分就業,財務狀況不穩定,缺少傳統全職員工能夠獲得的福利保障,無力為家庭或者自我照顧(又或者因為忍受不了該類工作往往要求的隨時待命性質而尋找別的工作)做規劃。此外,受這些問題影響的員工更多是女性和少數族裔。

另外,基於AI系統的新遠程管理模式會加大將“系統”所做的嚴重影響員工的決策歸責於雇主的難度。因此,員工更容易受到剝削。

例如,像Uber這樣的由大數據和AI驅動的平臺會遠程控制行駛路線、定價、報酬甚至人際交流方面的標準——這些決定傳統上說通常都有人工親自管理。

除了模糊化特定決策的性質和邏輯之外,這類遠程管理通常並不被認為是“雇員管理”。

由於這些新管理模式不大符合現有的監管模式,像Uber這樣的公司會將自己標榜為技術公司,而非雇員的管理者。按照這一理念,這類公司將自己視作促進連接的平臺,因此不會像傳統雇主那樣對雇員負責。依照這種模式,雇員最終要承擔權益保障(如減輕稅項負擔、醫療保健和其它的勞工保障)和潛在救濟模式的就業帶來的風險。

  3.  醫療健康  

像我們現在所看到的大多數已被應用到醫療健康領域的AI系統,它們幾乎都依賴於大型數據庫,這些AI系統會通過各種複雜的統計模型和機器學習技術,從其所收集到的海量數據中,自動提煉出各種重要信息。

那些已投入使用的醫療數據信息源(仍處在不斷增長當中)——包括電子病歷(EHRs)、臨床和醫保數據庫、從各類消費電子產品和App上傳來的健康數據——目前已經被大量地應用到AI系統的實踐,這些AI系統具有極大的能改善社會醫保水平的潛力。

無論是臨床診斷、病人護理,還是施藥;無論是藥品生產、組織管理,還是醫保信息交互,這些AI系統都為醫療從業者的工作起到了極大的助力。

AI是如何被融入到醫學研究和醫療健康的?

將AI系統融入到醫學研究,具有令人極為欣喜的應用前景,它能幫助我們更好地理解那些疾病的病理,幫助我們開發出更多的新式治療手段,實現更為精準的醫學診斷,甚至還能私人訂制地為個人生產出特制的藥品。

然而,鑒於目前仍存在的將AI應用到醫療領域的局限和偏見,它們或將阻礙這些應用前景的實現,而這就需要研究人員更為細心謹慎地去探索這一前沿的技術。

目前,這些將AI技術應用到醫療領域的局限,包括有不完整或不準確的研究數據,即未含蓋到特定的少數群體,除此之外,尤以美國醫保系統為代表的複雜醫療補貼激勵制度,也將在一定程度上阻礙到了AI醫療技術的應用。舉個簡單的例子,目前的一些醫療補貼制度會更支持個別種類的藥物研發,或是更傾向於補貼個別治療方案。

醫療研究數據時常會表現出客觀、通用的屬性,但在實際應用的過程中,這些研究結論往往會表現出片面、暫時和只針對某些團體或病癥的特性,而AI系統根據這些“片面”數據所分析和建立出的模型,可能會引出、建立或是衍生出一些錯誤的猜測。

所幸的是,這樣的錯誤情況是可以避免的。如果一個AI系統所收集的數據不存在上面我們所提到的那些瑕疵(假設這點是可以被保證的),或是該AI系統所使用的數據框架像隨機對照試驗方法(randomized control trials, RCTs)或是其它公共醫療數據庫那樣,具有自行矯正這些問題的能力,能減小其內在錯誤偏差的話,它就能有效地避免重大誤差的出現。

假設這些誤差微小到可被忽略,將AI系統融入到醫療健康研究和臨床實踐中心的一個最有可能實現的應用前景,是讓AI去協助醫生進行病癥診斷,從海量數據中發現規律性的模式,從而幫助醫生更早地揪出那些藏匿在身體深處的“狡猾”病竈。

事實上,AI系統目前已經可以完成對部分病癥的診斷了,這其中就包括了白血病。在檢查和臨床護理環節,AI系統在一些情況下,也有幾率能減少,甚至預防誤診情況的出現。須知,誤診是可以致命的,AI輔助診斷技術的價值之高,可想而知。

在這方面,AI系統在診斷和確立病癥的環節上,正扮演越來越重要的角色。然而,也正是因為如此,研究人員必須警惕,要避免出現因AI錯誤猜測,而推斷出“正常”或是“平均”等健康狀況描述的情況的發生。

類似的,我們只需要回顧一下美國在1973年前的那段歷史,就想象出當AI出現誤診時,會發生什麽樣慘劇。彼時,美國精神病學協會(American Psychiatric Association)將同性戀作為一種精神疾病列入到了它權威的精神病診斷和統計手冊當中,這樣一來,悲劇的出現就不可避免了。

同樣的,當AI系統被直接地應用到病人護理時,它們將涉足到診斷和臨床管理的方方面面,而這也時常將隔開看護者同病人之間的距離,所以,適當地明確出AI“專業程度”的局限,是非常重要的。

一名人類外科醫生在上崗之前,會先上醫科大學,在經歷過層層嚴苛的考核後,他們的醫術才能獲得世人的承認,然而,我們要如何造出一個出色的AI大夫來協助,或者甚至是取代一個有“文憑”的人類名醫呢?

這樣一個AI醫療系統意味著它需要具有絕對準確的專家級權威水平,不會出現誤診或是診斷偏頗的情況。這種級別的信任代表著這些AI系統無論是在出廠的能力評估上,還是在檢測其極限能力上,都可以接受更少的審查,而這也將制造出那些,目前還未被醫學倫理框架所囊括的新型倫理問題。

除此之外,我們還需要關註類似於這樣的AI醫療系統在醫保領域內被布置於何處,使誰受益等等這樣的問題。盡管讓醫療健康惠及所有人,讓大家都能負擔得起確實是一種需求,但已有大量的證據表明,取得醫保和健康數據的權限並未被公平地分配,在多數情況下,窮人、非白人和女性群體常常處於劣勢地位。

讓AI系統融入到醫保體系,非但不會根除這些系統性的不平等問題,反而還有可能會放大這種問題的嚴重性。雖然AI系統可以實現合適的定制化醫療護理,讓各式各樣的人都獲益,但它也可以被故意培養成過濾掉那些之前就常常被忽視、被服務不周的外圍群體。

如果這些群體沒有被給予適當的考慮的話,這反過來也將影響到AI系統所構建出的預測模型。AI預測模型會被那些能用上這種AI系統的特權群體所上傳的健康數據所不斷的固化,從而只能有效反饋出富人的“健康狀況”,並最終構建出一個會完全排斥“邊緣人群”的健康與疾病的整體認知模型。

鑒於目前美國存在的醫保財政的亂象,這樣的憂患確實是值得人們投入更多關註,就像這樣的亂象在過去影響到醫療技術的整合一樣,它也必然會在未來影響到AI醫療系統的布置和效用,

基於這樣的考慮,人們在推動AI醫療系統不斷發展的同時,也在不斷努力地去降低AI醫療系統造價,而這也將促使那些利益相關者(比如政客、保險公司、健康機構、制藥企業、雇主和其他人)把他們的註碼,寄托於大規模的健康數據收集和AI系統的研制上,以此來幫助他們更好地維護他們在模型研發和醫保護理上的經濟利益。

然而,將這些信息技術和AI系統整合到醫院和其它醫療健康體系所需要的關鍵培訓、資源和那些正在進行當中的必要維護,並不總是能夠得到支持,或者說並不總是能處於“不差錢”的狀況。而這種情況其實已經導致了技術資源和技術能力的分配不均。

訓練AI所需的數據收集和病患觀察將如何影響到個人隱私?

AI系統對數據量的極度依賴和對病例觀察的需求也自然而然地催生出了對病人隱私、秘密和安全保護等等急迫的問題。

目前,對AI醫療系統高性能期許的實現依賴於通過各式各樣的設備、平臺和互聯網來源源不斷地獲取到海量的病患數據,而這一過程也不可避免地會涉及到某些人或機構會在利益的驅使下,做出出格的監視行為。、

與此同時,像同態加密(Homomorphic encryption)、差分隱私(differential privacy)和隨機隱私(stochastic privacy)這樣的技術帶給了我們應對這些亂象現象的新的希望,它們可以讓AI系統實現在不“查閱”數據的情況下,直接地去“調用”它們。雖然就目前來說,這些新技術仍處於研發的初步階段,連一個通用應用程序都還沒有被開發出來,但它展現出能令人鼓舞的應用前景。

除此之外,隨著近期美國政府對循證醫學(Evidence ¬based medicine)的推廣和《平價醫保法案》(Affordable Care Act)已由原先的按服務收費轉變至按治療行為收費的這一變化,監管行為背後所涉及到的經濟利益問題和對敏感健康數據消費的問題,都在不斷地加劇惡化當中。

至於那些保險公司,在AI系統入局的情況下,其所需面對的對驗證交叉補貼方案合理性的呼聲的壓力也在與日俱增。

舉個例子,盡管美國政府在2008年就頒布了《基因資訊平等法》(Genetic Information Nondiscrimination Act),但出於對保險分層管理的需求,保險公司對能獲取到遺傳危險率信息的興趣也在日益增長。事實上,差別定價目前已經成為了數據分析供應商的一項業內通用做法,而這反過來也進一步地鞏固和加劇了目前的不平等現象。

此外,“智能設備”和其它能讓AI系統獲取到所需數據的聯網傳感器也已讓追蹤和監視變得無處不在,而這也將目前的那些隱私保護政策的覆蓋範圍不斷地拓寬,像《醫療健康可攜性和責任法案》(Health Insurance Portability and Accountability Act)就是在這一考慮下的產物。

隨著AI系統被越來越多地融入到健康和電子消費產品上,病人因細分數據而被重新定義,或是由代理數據來預測出他們的身份、所患疾病和其它健康信息的風險,正不斷地升高。

除此之外,那些驅動這些數據收集設備的軟件也常常是為私人所持有,而不是開源的(不受外部審查審計的約束)。雖然,美國政府最近簽署的法令對《數字千禧年著作權法案》(Digital Millennium Copyright Act)中的相關條例進行了免除,讓審查外部醫療設施的代碼成為可能,但更為重要的或許是審查那些內部醫療設施,然而這種行為並未被這一豁免權所囊括到。

總的來說,相關業內專家們都已經對在物聯網設備上,布置聯網技術所潛在的重大安全隱患做過警告了,在這些警告中,有很多就是專門針對醫療設備安全問題的。

AI將如何影響患者和醫療保險供應商?

那些已被實現或是有望被實現的AI技術,對健康護理系統的構建有著深遠的意義,對需要照顧的病患,或是那些虛弱體質的人也意義非凡。

人們對於AI系統,進行了許多美好的構想,寄予它們護理工作調解員的角色,並相信它們在未來有可能完全取締了護工的工作。這一轉變前景樂觀、經濟,且高效,很可能會改善患者與醫生或其他護工之間的關系和他們的工作方式。

能展示AI系統具有代替或者協助人工護理工作的潛力的例子非常之多,包括有機器人外科醫生、虛擬管家和陪護機器人等等。這些例子逐漸引發了一些爭論,比如代理照顧和陪同護理的社會意義是否可以讓非人類的機器來代替?當機器替代人工時,它是否能不僅僅只是增強人工的專業性,而能做到真正的獨當一面呢?當我們認為一臺機器有能力“護理”病人時,它具備了哪些“護理”能力呢?我們又是如何定義“護理”這個詞呢?這些我們以為的“以為”是否是站在病人權益的角度上,去考慮的呢?

就目前來說,雖然陪護機器人在取代人工護理工作上,還未取得什麽明顯的效果, 但由AI驅動的APP和聯網設備能讓病人取回對自己健康管理的控制權的前景正在與日俱增,而這也預示著AI醫療系統同病人的直接交互,正處於早期發展階段。。

這種人與AI的直接交互其實也是一把雙刃劍。一方面,它能讓病人康複地更快、對自身病情有更多的了解。另一方面,這種變革也需要他們擔負更多的風險。這些風險包括它可能會誤導病患,影響他們可能會接收到的信息的質量和準確性,而這也是美國聯邦貿易委員會(FTC)在近些年來,所要傳達給我們的擔慮。

除此之外,這些搭載了AI的APP也可以將原先醫療從業者所需要承擔的責任轉移病人本身,但這對病人來說不見得是什麽好消息,因為並不是所有人都有時間、財力和AI技術獲取渠道,來實現對他們自身健康的護理。

那麽,什麽樣的患者能優先享受到這些仍在不斷改進當中的AI醫療技術的紅利呢?對於那些“裝備”不良卻想管理和維護自己個人數據的病患來說,他們所接受到的健康看護是否是不合格的呢?

再者,那些搭載了AI技術的應用的設計者和研發者在這一社會演變過程中,又需要扮演什麽新的角色?需要承擔哪些新的責任?

那些始終處於風口浪尖的醫學道德倫理,又將如何融入到這些與眾不同的,新式工程技術的載體上呢?

  4. 道德責任  

AI系統的部署不僅將引發新的責任,也將對職業道德、研究道德、甚至公共安全評估等現有領域造成挑戰。

近來,人們對道德和AI系統的討論傾向於優先考慮很久以後可能會出現的AI系統,例如,“奇點”的來臨,或超級智能的發展。

也就是說,這種討論往往並未關註AI系統在短期或中期內會產生的道德影響,例如,當前已投入使用的大量任務型AI系統引發了新挑戰、可能加劇不平等、或從根本上改變權利機制。

當代AI系統上能夠執行各種各樣的活動,這類技術會引發各種隱性和顯性後果,因此可能對傳統倫理框架提出新挑戰。AI系統被部署在人類社會中時或許會引發不可預測的相互作用和後果。

在資源配置以及讓權力和信息集中或重組的潛力方面,我們迫切需要處理一些關鍵問題來確保AI技術不會造成傷害,特別對於已被邊緣化的群體。

我們如何向AI授予權力或委派AI展開決策?

AI系統在社會和經濟領域內的融合需要我們把社會問題轉變為能夠被AI解決的技術問題。這種轉變無法保證AI系統產生的錯誤會少於它將取代的現有系統。瑞安•卡洛(Ryan Calo)指出,人們通常以為,AI系統(如,自主駕駛汽車)犯的錯誤將少於人類。實則不然。複雜程度不高的AI系統無法避免地會犯一些人類不會犯的新錯誤。

在許多領域中,倫理框架往往需要產生記錄,例如,病歷、律師的案卷、或研究人員向機構審查委員會提交的文件。此外,人們還面向患者、客戶或感覺自己遭遇了不公正待遇的對象設立了補救機制。

當代的AI系統往往無法提供此類記錄或補救機制,要麽因為技術上無法實現,要麽因為設計者並未考慮此類記錄或機制。

這意味著,受到影響的特定群體或個人往往無法對AI或其他預測系統的決策進行檢驗或質疑。這會惡化各種形式的權力不對等現象。而權力不對等是一個很重要的倫理議題。

當受到影響的個人無法對這類自動化決策展開檢驗、質疑或上訴時,他們就處在了權力相對缺失的位置上。

這帶來的風險是,AI系統不僅將削弱弱勢群體的質疑權力,而且將賦予設計方更多定義道德行為的權力。這種權力能夠以十分微妙的形式呈現出來。例如,各種自動化系統往往被用來從某種方向來影響或“微調”某些個體,而很大程度上扮演決定或支配角色的是設計部署此類系統並從中獲利的一方。

若要從零開始構建AI系統,以實現糾正上述不平衡現象等目標,這本身就要受到實力差距的限制。打造和維護AI系統需要大量的計算資源和大量數據。而擁有海量數據和計算資源的企業相對缺乏這類資源的企業擁有更多的戰略優勢。

我們如何在現有的各種行業中應對與AI相關的倫理問題?

隨著AI系統在不同行業環境(如,醫學、法律、金融)中的融入愈加深入,我們還將面臨跨越不同行業的新的道德困境。

例如,AI系統在保健環境中的應用將對醫療專業人員道德準則中秉持的核心價值(如,涉及保密、護理的連續性、避免利益沖突以及知情權)造成挑戰。

隨著醫療業的不同利益相關方推出了各種各樣的AI產品和服務。對這些核心價值的挑戰可能會以全新的和意想不到的方式呈現。

當一名醫生使用的AI診斷設備在受訓時使用了一家醫藥公司的藥品試驗數據,而這家公司是某種藥物處方的既得利益者,那麽這位醫生應如何遵守避免利益沖突的誓言?

雖然這是個假想的情況,但這點明了在修訂以及更新職業道德準則的過程中必須解決的棘手問題。

同樣地,負責管理AI研發及維護的專業協會也有必要考慮采取相應的措施。例如,美國人工智能協會(AAAI)應制定相關的道德準則,而美國計算機協會(ACM)以及電氣和電子工程師協會(IEEE)需認真修訂相關的道德準則。ACM和IEEE現有的道德準則已擁有20年以上的歷史,不用說,這些準則不僅無法解決與人類機構、隱私和安全相關的核心問題,而且也無法預防AI和其他自動化決策系統可能產生的危害。隨著AI技術進一步被整合到重要的社會領域中,這一點正變得越來越重要。

盡管更多的高等教育機構在技術和科學專業的教學中已開始強調職業道德的重要性,但這番努力仍處在初期,還有進一步的拓展空間。而民權、公民自由和道德實踐等領域的知識還未成為學生們畢業時必須掌握的要求範圍。此外,有一點是值得註意的,若有人違背醫藥界道德準則,他需承擔的懲罰包括失去行醫權力,這一點並不適用計算機科學或許多其他相關領域。

目前還不清楚大多數計算機科學家是否熟知ACM或IEEE準則中的核心內容。我們也不清楚,企業雇主是否會因為其他鼓勵或壓力因素而選擇不遵守這種不具約束力的法規。因此,從實用角度看,除了僅僅對倫理框架進行改寫和更新外,有必要關註範圍更廣的鼓勵機制,並確保對倫理準則的遵從並不是事後才想起的事項,而是相關專業領域需要關註的核心問題,以及AI領域學習和實踐中不可或缺的組成部分。

  闡述建議  

下面我們將進一步闡述上面簡要提到的建議背後的基本原理。

1、多元化和拓寬AI開發和部署所必需的資源——如數據集、計算資源、教育和培訓的使用,包括擴大參與這種開發的機會。特別是關註當前缺乏這種訪問的人口。

正如在AI Now Experts研討會期間很多人提到的,這些開發和培訓AI系統的方法費用高昂並只限於少數大公司。或者簡單地說,在沒有大量資源的情況下DIY AI是不可能的。培訓用AI模式要求有大量數據——越多越好。同時還要求有巨大的計算能力,而這費用不菲。這使得即使要進行基礎研究都只能限於能支付這種使用費用的公司,因此限制了民主化開發AI系統服務於不同人群目標的可能性。投資基本的基礎設施和使用合適的培訓數據,有助於公平競爭。同樣,開放現有行業和機構里開發和設計過程,以多元化內部紀律和外部評論,可幫助開發更好服務和反映多元化環境需求的AI系統。

2、升級使公平勞動行為具體化的定義和框架,以適應AI管理部署到工作地時出現的結構性變化。同時研究可替代的收入和資源分布、教育和再培訓模式,以適應未來重複性工作日益自動化和勞動及就業態勢不斷變化。

在AI Now Experts研討會上,奧巴馬總統首席經濟學家賈森·福爾曼(Jason Furman)指出,在美國每小時工資只有不到20美元的工作,83%都將面臨自動化的嚴重壓力。對於每小時工資在20-40美元的中等收入工作,這個比例也高達31%。這是勞動力市場一次巨大轉變,可能導致出現一個永久失業階層。為確保AI系統的效率在勞動力市場不會導致民眾不安,或社會重要機構如教育(有一種可能是教育不再視為就業的更好途徑)的解散,在這種巨大轉變出現,應該徹底研究替代性資源分布方法和其他應對引入自動化的模式,制定的政策應該為組織良好的各種落實測試開路,控制可能導致的災難性後果。

除了“替代工人”外,AI系統也對勞動力市場也有其他多重影響。例如,它們改變了權力關系、就業預期和工作本身的角色。這些變化已經對工人產生深遠影響,因此在引入AI系統時,在考慮如何表述公平和不公平做法上,理解這些影響很重要。例如,如果開發實際作為管理層行事的AI系統的公司,可被視為科技服務公司,與雇主不同的是,職員可能不受現有法律保護。

3、在設計和部署階段,支持研究開發衡量和評估AI系統準確性和公平度的方法。同樣地,也支持研究開發衡量及解決一旦使用出現的AI錯誤和損害的方法,包括涉及通知、矯正和減輕這些因AI系統自動決策導致的錯誤和損害的問責制。這些方法應優先通知受自動決策影響的人們,並開發對錯誤或有害判斷提出異議的方法。

AI和預測性系統日益決定了人們是否能獲得或失去機會。在很多情況下,人們沒有意識到是機器而非人類在做出改變人生的決定。即使他們意識到,也沒有對錯誤界定提出異議或拒絕有害決策的標準流程。我們需要在研究和技術原型化上投資,確保在AI系統日益用於做出重要決策的環境中,確保基本權利和責任受到尊重。

4、澄清無論是反電腦欺詐和濫用法案還是數字千年版權法案不是用於限制對AI責任的研究

為了進行對檢驗、衡量和評估AI系統對公共和私人機構決策的影響所需的研究,特別是有關如公平和歧視的關鍵社會關切,研究人員必須被清楚地允許跨大量域名並通過大量不同方法測試系統。然而,某些美國法律,如反電腦欺詐和濫用法案(CFAA)和數字千年版權法案(DMCA),規定與電腦系統甚至互聯網上公開可訪問的電腦系統“未授權”互動為非法,可能限制或禁止這種研究。這些法律應該澄清或修改,明確允許促進這種重要研究的互動。

5、支持在現實環境中AI系統對社會經濟生活影響的強大評估和評價方法的基礎性研究。與政府機構合作將這些新技術集成到他們的調查、監管和執法能力中。

我們當前缺乏對AI系統社會經濟影響評估和理解的嚴格做法。這意味著AI系統在融合到現有社會經濟領域,部署在新產品和環境中,卻不能衡量或精確計算它們的影響。這種情況類似於進行試驗卻不願記錄結果。為確保AI系統帶來的益處,必須進行協調一致的研究開發嚴格的方法,理解AI系統的影響,當使用這種方法時可幫助形成跨部門和政府內部的標準做法。這種研究及其結果可比作早期預警系統。

6、在與這些人聯合開發和部署這種系統時,與受自動決策應用和AI系統影響的社區代表及成員合作,聯合設計可問責的AI。

在很多情況下,這些受AI系統影響的人將是對AI系統環境和結果最權威性的專家。特別是鑒於當前AI領域缺乏多元化,那些受AI系統部署影響的人實際上從事提供反饋和設計方向,來自反饋機制的這些建議可直接影響AI系統的開發和更廣泛的政策框架。

7、加強行動提高AI開發者和研究者的多元化,拓寬和融合所有觀點、環境和學科背景到AI系統開發中。AI領域應該也結合計算、社會科學和人文學,支持和促進針對AI系統對多個觀點影響的跨學科AI研究。

計算機科學作為一個學科領域缺乏多樣性。特別是嚴重缺乏女性從業者,在AI里這種情況更為糟糕。例如,雖然有些AI學術實驗室由女性掌管,但在最近的神經信息處理系統大會上,與會者只有13.7%是女性,這次大會是該領域最主要的年度大會之一。缺乏多元化的圈子不大可能會考慮這些不在其中人的需求和關註。當這些需求和關註成為部署AI的社會經濟機構的中心時,理解這些需求和關註很重要,AI開發反映了這些重要的觀點。關註開發AI人群多元化是關鍵,除了性別和代表受保護人群外,包括除計算機科學外各種學科的多元化、建立依賴來自相關社會經濟領域學習的專業知識的開發實踐。

在計算機科學之外和計算機科學之內AI子領域的社會經濟領域,進行AI影響的徹底評估將需要多數這種專業知識。由於很多環境下AI被集成和使用——如醫學、勞動力市場或在線廣告——本身是學習的豐富領域。為真正制定AI影響評估的嚴格流程,我們將需要跨學科的協作,建立新的研究方向和領域。

8、與專業組織如美國人工智能進步協會(AAAI)、美國計算機協會(ACM)和電氣及電子工程師協會(IEEE)合作,更新(或制作)專業道德準則,更好地反映在社會經濟領域部署AI和自動化系統的複雜性。為任何想掌握計算機科學的人開設公民權、公民自由權和道德培訓課程,反映了教育中的這些變化。同樣,更新專業道德準則約束引入AI系統的專業人士,如適用於醫生和醫院工作者的道德準則。

在醫學和法律等職業中,專業人士的行為受控制可接受和不可接受行為的道德準則約束。專業組織如ACM和IEEE確實制定了道德準則,然而這些準則過時了,不足以解決複雜社會經濟環境中使用AI系統帶來的具體並常常是微妙的挑戰。雖然醫生確實遵守了約束他們對待病人行為的職業道德,但AI系統的發展,如幫助醫生診療和治療病人,出現了現有職業道德準則不總是能解決的道德挑戰。職業準則和計算機科學培訓必須更新,以反映AI系統建造者對因使用這些系統遭受不同程度不利影響的人所負有的責任。在AI用於增強人類決策時,職業道德準則應該包括在AI系統受到利益沖突左右的時候鑒定責任的保護措施。

人工智能 AI
贊(...)
文章評論
匿名用戶
發布
PermaLink: https://articles.zkiz.com/?id=217608

一文讀懂人工智能第一股——科大訊飛的AI商業版圖 | 公司調研

來源: http://www.iheima.com/zixun/2016/1020/159318.shtml

一文讀懂人工智能第一股——科大訊飛的AI商業版圖 | 公司調研
愛分析 愛分析

一文讀懂人工智能第一股——科大訊飛的AI商業版圖 | 公司調研

科大訊飛擅長的,不僅僅是語音,還有人工智能的商業應用。

老羅的錘子手機發布會,火了科大訊飛的會議語音轉寫系統,幾乎一字不差的識別效果贏得了全場經久不息的掌聲。有人為訊飛叫好,也有人看著它剛剛發布的第三季度財報憂心忡忡。不過,要看一家企業如何,不能單純看產品,也不能揪著暫時的盈利收窄不放,尤其對於科技企業來說,最重要的是看它過去、現在、以及未來的技術實力和商業布局。

而訊飛擅長的,不僅僅是語音,還有人工智能的商業應用。

作為國內人工智能第一股,科大訊飛不僅擁有行業領先的人工智能核心技術,還在教育、政府、電信、金融、汽車等領域實現了AI技術的成熟落地和持續發展。

了解科大訊飛,對於我們探索人工智能技術的應用方向以及商業模式具有重要借鑒意義。本文將對科大訊飛的發展歷程、財務表現、技術水平,以及以教育、政府、汽車三大領域為代表的行業應用情況進行詳細介紹和分析。

科大訊飛:營收增長強勁,人工智能技術行業領先

科大訊飛成立於1999年12月,由畢業於中國科技大學語音方向的一群碩博研究生創建。2000年以前,中國大陸語音技術發展很遲緩,在中國大陸設立語音研究基地的多是微軟、IBM、摩托羅拉等跨國企業,訊飛的成立填補了國內語音技術研究和應用的空白。

9年時間,訊飛從0做到了2億營收、5000多萬利潤,中文語音合成技術市場占有率一直保持70%左右,語音技術在電信、金融、政府、教育等領域都得到了廣泛應用。

2008年5月,科大訊飛在深交所掛牌上市,如今市值已達379億。2016年上半年,訊飛實現營收14.62億,較上年同期增長47.7%。從2012年至今,訊飛的營收一直保持40%以上的高速穩定增長。

數據來源:科大訊飛年報

強勁增長背後,一方面靠的是訊飛多年研發和積累的智能語音和人工智能核心技術,另一方面得益於訊飛不斷拓展技術的商業應用領域。

技術方面,訊飛在感知智能和認知智能多項技術上全球領先。感知智能方面,訊飛從最早的中文語音合成做到了如今的27種語言,多項指標全球第一;高噪音下的語音識別準確度保持業界領先,超過美國語音龍頭企業Nuance。認知智能方面,支持遠場識別、全雙工、多輪交互等特性的AIUI是智能車載、智能家居、智能機器人領域的關鍵核心技術。另外,訊飛已經實現了中英文作文自動評測,由訊飛牽頭的類人答題機器人項目正在努力讓機器人在未來三到五年內考上一本。訊飛每年研發投入20%以上,技術人員占比67%,堅持底層核心技術研發是訊飛多年來持續高速發展的力量源泉。

表1 科大訊飛在人工智能各項技術領域研究成果, 數據來源:科大訊飛年報

應用方面,訊飛目前已經將語音和人工智能技術應用到了教育、政府、電信、金融、汽車、移動互聯網、智能家居、大數據等多個領域,並逐漸由2B、2G向2C拓展,積極構建各個產業的生態體系。

本文將著重對教育、政府、汽車三大占比較高、增長潛力較大的領域進行分析,並簡要介紹其他幾項業務的應用及財務表現。

教育:2B、2C雙輪驅動,內生外延構建教育生態體系

教育是訊飛最早涉足的市場之一,也是訊飛的重要戰略方向。十幾年來,訊飛的教育投入從建校舍、修運動場等硬件設施,到“三通兩平臺”、班班通、校校通的信息化基礎設施建設,再到現在主抓應用,通過數字化校園、智慧課堂、教育語音平臺、口語考試與練習等,構建動態、可持續的教育教學生態體系。

在教育領域,訊飛采取2B、2C雙輪驅動的策略。

2B領域主要包括面向教育部門和學校的教育平臺、教學軟件以及考試系統等。目前,訊飛的智慧教育整體解決方案已經覆蓋15省、20地、8000萬師生;2016年收購的訊飛皆成和樂知行等智慧課堂軟件,也已經與39家出版社合作,超過7000萬師生、18個省份得到應用。

2C領域,訊飛2015年推出了面向學生的個性化教與學平臺智學網,通過從學校端大力推廣,截止2016年6月,智學網已經累計獲得千萬用戶,月活60%以上,覆蓋30個省份7000所學校。訊飛希望用2B驅動2C,將資源平臺從學校和老師轉向家長和學生,全面實現教學、考試、測驗、練習和作業等教與學過程性動態大數據的常態化采集和分析,以及個性化學習推薦。

在整個教育信息化生態體系的搭建上,訊飛選擇內生外延相結合。訊飛主要從兩大塊發力,一塊是底層平臺,例如用戶賬號體系管理、內容自動審核和檢測等。另一塊是入口端,主要獲取學生過程化學習的數據,並對數據進行自動分析和比較。而對於內容,訊飛選擇和有優勢的內容廠商合作,比如與外研社、北師大出版社等,一方面通過成立合資公司,把優質的內容在訊飛平臺上讓用戶使用,另一方面也開放給其他的沒有資本紐帶關系但有戰略合作的夥伴,搭建教育生態。

從財務數據來看,2014 年、 2015 年、 2016 年上半年,訊飛教育行業業務收入分別為 6.62 億元、 7.61億元、 4.15 億元,同比增長 49.44%、 14.95%、 28.05%,占總營收37.26%、30.41%、28.40%。

訊飛的教育業務包括兩大塊,一塊是教育產品和服務,另一塊是教育教學。教育教學收入來自科大訊飛2012年在蕪湖創辦的安徽信息工程學院,收入包括學費和住宿費等,這塊業務在總營收中占比4%左右,本文主要分析訊飛的教育產品和服務業務。

下表是訊飛2012年到2016年上半年,教育產品和服務業務在總營收中的占比、增長率以及毛利率情況。

表2 科大訊飛2012年到2016年上半年教育產品和服務收入各項指標, 數據來源:科大訊飛年報

可以看出,訊飛的教育產品和服務業務占年度總營收的比重基本維持在25%以上,毛利率超過40%,近三年平均增長率也有30%。不過近兩年,由於訊飛開始在教育領域廣泛布局2C市場,將原本可以銷售的產品和服務以免費形式進行了大規模推廣,因此三項指標相較往年都有一定程度的下降。

目前,訊飛關於2C產品的盈利模式尚不明朗。以智學網為例,訊飛投入大量人力、財力免費進行軟硬件推廣,並提供上門培訓服務,就是希望老師用掃描儀將作業數據傳到雲端,通過機器進行診斷分析,把握學生學習、練習、考試的過程化數據,進而挖掘其中的商業價值。

盡管目前這些數據的變現方式還不明確,但數據是未來的新能源,訊飛抓住了學生學習數據的運營權,也就抓住了教育市場的重要燃料。

未來,教育信息化市場空間廣闊,加上“十三五”期間政府政策大力支持,以及訊飛在教育領域多年積累的技術、產品應用以及資源整合優勢,隨著C端產品不斷推廣,用戶數據逐漸積累,訊飛在教育領域的優先布局優勢將會逐步顯現出來,教育產品和服務業務營收有望保持高速增長。

政府:用人工智能助力智慧城市和公共安全

訊飛在政府領域主要有兩條業務線,一個是公共安全,一個是智慧城市。

公共安全主要是對海量音視頻進行處理,該業務屬於涉密領域。作為國內上市公司,訊飛全資子公司訊飛智元已經優先獲得了國家涉密信息甲級資質,因此能夠獲得諸如公安、人口等涉密數據。

智慧城市主要通過人工智能提升政府服務效率,目前主要產品是社管雲平臺,該平臺旨在打通不同政府部門之間的數據,用智能語音和人工智能技術,一方面將大量非結構化數據變為結構化數據,另一方面將個人照片和文字進行清晰比對,節省人工審核時間,提高政府工作效率。目前,訊飛社管雲平臺已經在蕪湖試點,並在全國幾十個城市推動。未來,訊飛要讓社管雲平臺真正實現數據打通,成為圍繞數據的智慧城市關鍵應用。

從財務數據來看,2014 年、 2015 年、 2016 年上半年,訊飛政府行業業務收入分別為 1.52 億元、 2.48億元、 1.57億元,同比增長 101.93%、 63.04%、 64.41%,占總營收8.56%、9.91%、10.71%。

表3 科大訊飛2012年到2016年上半年政府業務收入各項指標, 數據來源:科大訊飛年報

可以看出,政府業務比重逐年上升,已經在2016年上半年突破10%,增長率近四年也維持在60%的高速增長。另外,和教育行業相比,政府業務毛利率水平明顯更高,整體超過80%。2016年上半年有所下降,主要是由於智慧城市項目從純軟件向軟件+硬件的方式轉變,硬件產品毛利較低拉低了整體毛利水平。

當然,智慧城市的搭建並不是一朝一夕之事。由於每個城市具體情況不同,特別是數據打通還涉及到原來很多管理流程的優化,所以盡管訊飛與全國多個省市有戰略合作關系,但是要真正將智慧城市項目推廣到全國,還需要很長一個過程。不過,一旦基礎設施搭建完成,這將是一個持續運營和服務的商業模式,並在未來給訊飛帶來更高的業績增長。

汽車:瞄準前裝市場,用人機交互奠定車載語音領先地位

車載領域將會成為智能語音和人工智能重要的應用市場。無論是無人駕駛汽車,還是智能輔助駕駛系統,汽車都會成為移動辦公和移動娛樂的平臺,車內語音應用由於其方便性和場景適應性,將會成為汽車市場的剛需。

但是,由於車內環境相對嘈雜,人機交互存在一定距離,因此除了語音合成、識別以及語義理解外,對遠場識別、噪聲消除等語音技術要求很高。另外,由於車內使用場景偏服務,因此智能語音也需要具備成熟的對多輪對話技術。

訊飛在這方面具有明顯技術優勢。在2015年3月的寶馬中文評測以及2015年6月的奔馳中文語音雲效果測評中,訊飛無論是在語音合成、語音識別、語義理解,還是使用體驗等方面都以顯著優勢奪得第一。

訊飛在車載領域選擇了和傳統車廠合作的前裝跑道,已經與奔馳、寶馬、大眾、豐田、雷克薩斯、上汽、一汽、長城、吉利等國內外汽車品牌開展合作,搭載訊飛語音技術的轎車前裝出貨車型達到31款,前裝出貨和在研車型近百款,行業市場占有率第一。

商業模式方面,以技術開發和軟件授權為主,同時提供軟硬一體化的車載語音交互解決方案,並積極探討增值服務收入。另外,車載應用作為車聯網的主要入口,未來積累的用戶數據將會蘊含巨大的商業價值,這也是訊飛在汽車市場的一個重要戰略方向。

當前,我國汽車產業已經進入穩步發展期,全球車載信息系統市場也正處於成長期,發展潛力巨大。根據德勤報告,預計到2020 年,全球車載信息系統的市場規模將超過800 億美元,並且具有較高利潤率,兼具成長性和盈利性。我國作為全球最大的汽車產銷市場,未來車載信息系統市場將有廣闊的發展空間。

2016年上半年, 訊飛人機交雲產品和解決方案實現收入 8498.83 萬元,同比增91.28%,其中超過90%來自車載語音市場。這塊業務雖然目前占比只有5.81%,但是毛利率高達77.09%。未來,得益於廣闊的市場空間以及先進的人機交互技術,車載語音業務無疑會成為訊飛新的業績增長點。

其他:高毛利傳統業務穩步增長,新興領域加速布局

除了教育、政府和汽車市場,訊飛的技術應用還涵蓋客服、信息工程、互聯網、電信、金融、安防、大數據、智能硬件等眾多領域。訊飛在2016年半年報中,各項業務進行了重新梳理和分類,愛分析對各項業務的金額和指標進行了整理、統計,如下表所示:

表4 2016年上半年科大訊飛主營業務收入構成及各項指標, 數據來源:科大訊飛年報

客服業務主要面向電信運營商和銀行、保險等金融機構,提供智能客服系統和呼叫中心產品和解決方案,實現了高達30%的人工分流率。目前,訊飛全面占據三大電信運營商市場,金融領域市場占有率80%以上,其他企業級領域由於對語義理解、售後服務以及定制要求較大,訊飛會有選擇地進入。

2016年以前,訊飛在年報中將涵蓋客服、車載、智能家居、智能玩具等語音支撐軟件的業務都算在一起,整體營收占比15%左右,整體毛利率在85%以上。分開計算後的客服業務毛利率甚至高達97%,並且實現了47%的高速增長。未來,客服業務會在已有行業優勢基礎上繼續穩步增長,企業級領域的應用也有望創造更大的營收增長空間。

與客服業務一樣具有高毛利的,還有電信增值業務。同樣依靠三大電信運營商,訊飛可以長期獲得穩定的收益分成。另外,訊飛的酷音鈴聲APP也在報告期內獲得了快速發展,成為業界口碑最好、用戶增長是最快的手機鈴聲產品,成為電信增值業務新的營收增長點。

互聯網產品和增值運營業務中的其他兩類營收占比較低,一塊是訊飛輸入法收入,毛利率高達100%,另一塊是智能硬件收入,主要來自訊飛的“叮咚”智能音箱。相比軟件產品,硬件毛利率較低,只有21.63%。

與教育業務比重相當的還有系統集成業務,其中的信息工程是訊飛相對傳統的一塊業務,這塊業務主要是一些工程運維項目,毛利率只有16.95%。從近幾年的增長率來看,這塊業務的增速在逐漸放緩。

除了營收中涉及的業務,訊飛還積極探索在生物識別、醫療等領域的應用。生物識別方面,訊飛推出人臉識別和聲紋識別相結合的綜合生物識別解決方案,主要應用於公安、金融等領域。醫療方面,訊飛已經和衛生部展開合作,並開始在安徽試點,使用語音技術解決醫院電子病歷問題。

結語

今年是人工智能的爆發年,除了谷歌、百度等提早研發和布局人工智能的科技巨頭,眾多AI領域的新興公司也紛紛進入大眾視野,應用行業涉及教育、金融、醫療、汽車、家居、新聞、法律、廣告、物流等各個領域。不過,大多公司的產品和服務都還處在探索和試驗階段,商業模式尚不明朗。

對於訊飛來說,教育、電信、政府行業優勢明顯,背靠中科大和安徽省,與多個省市政府以及遍及全國的眾多學校合作,中國電信、中國聯通以及最大股東和客戶的中國移動也持續不斷地為訊飛貢獻著營收,如此高的資源壁壘高,競爭對手很難打破。在相對欠缺的領域,訊飛也可以憑借雄厚的資金實力投資、收購一些公司來完善行業生態體系。

但是,訊飛在2C領域經驗相對缺乏,無論是市場推廣、用戶基礎,還是產品設計,都與大型互聯網公司存在差距。如何通過市場推廣贏得客戶,如何從產品功能和體驗上留住客戶,如何找到C端產品可持續的盈利模式,都是訊飛接下來要著重攻克的難題。

科大訊飛 人工智能
贊(...)
文章評論
匿名用戶
發布
PermaLink: https://articles.zkiz.com/?id=219706

特朗普將入主白宮?AI界的“章魚保羅”這麽預測

在美國總統大選日即將來臨之際,由印度企業開發的一套人工智能(AI)系統預測共和黨候選人特朗普將在今年總統大選中擊敗民主黨候選人希拉里,最終入主白宮。而此前這套人工智能系統曾準確預測美國最近三屆總統大選結果。

據CNBC報道,這個代號為“MogIA”的人工智能系統是由印度初創型企業Genic.ai的創始人桑傑夫·雷(Sanjiv Rai)於2004年研發出來的。該系統已經準確地預測出美國最近三次民主黨與共和黨的總統大選之爭,堪稱AI界的“章魚保羅”。 保羅雖然只是一只章魚,但是其因為在南非世界杯期間預測的比賽結果全部正確而一戰成名,享譽世界。 它曾在2008歐洲杯和2010南非世界杯兩屆大賽中,預測14次猜對13次、成功率為92%。

而系統本次預測的結果是,特朗普的勝率已經比2008年時的首次當選美國總統的奧巴馬高出了25%。

這套人工智能系統從谷歌、Facebook、Twitter等網站上收集了2000萬個數據點,進而對這些數據進行分析,形成了新一屆總統大選的預測結果。諸如用戶參與Twitter消息或Facebook直播視頻之類的數據都會融入到該系統的最新預測之中。

而由於美國共和黨總統候選人唐納德·特朗普侮辱女性言論視頻事件持續發酵, 目前, 據RealClearPolitics發起的一項民調顯示,希拉里仍領先特朗普5.2個百分點。希拉里和民主黨在此次大選中的勝率仍遙遙領先。

PermaLink: https://articles.zkiz.com/?id=221170

傅盛:從互聯網+到AI+

來源: http://www.iheima.com/zixun/2016/1107/159640.shtml

傅盛:從互聯網+到AI+
傅盛 傅盛

傅盛:從互聯網+到AI+

所有重複腦力勞動都將被AI取代,未來一定是人和機器人共存的時代。

本文由微信公號盛盛GO(ID:fstalk)授權i黑馬發布,作者傅盛。

11月4日,我受邀參加了2016全球創新者大會(GIC),在機器與人性的主題論壇上,與美國通用人工智能會議主席Ben Goertzel做了一個關於AI的對話。這里,先把我現場講的一些關於AI的想法分享給大家:)

我們一直都在困惑,整個世界前進到底靠什麽在驅動?為什麽今天會是這個樣子?我們以後會是什麽樣子?

這是一個很長的故事。

認知是人類前進的唯一武器

簡而言之,我自己慢慢認識到一個問題——人類所有前進都是以認知為武器。你懂不懂、知不知道、相不相信,這個概念大概從成立獵豹的第三年開始,我就慢慢去思考的一個問題。

我自認為,工作勤奮,戰鬥力極強,曾經也帶著三四個人做了一款產品,不是獵豹清理大師,是360安全衛士,從零下載做到每天100萬下載,等我重新殺回安全界,必然搞得腥風血雨,天地變色。但,後來這一切都沒有發生。我發現,打不過360。盡管前面很多文字都是我寫出來的,很多邏輯都是我設計的。

那時候,我就在想——到底什麽左右我們往前走?真的是能力很強嗎?真的是所謂的時運貴人嗎?如果最終歸結到一點,或者一個最核心的大道理,它應該是什麽?物理學里面追求理論之源,我也在想,整個人類前進的大道理到底是什麽?

一直到我讀了一本書叫《人類簡史》。為了這本書,我專門飛去以色列,見了這個作者,把他請到北京來。從這本書里面,我總結了一句話——認知是人類前進的唯一武器。

追溯人類祖先,以前我們總認為自己是北京人,或山頂洞人的後裔。事實上,他們都被非洲來的祖先幹掉了。因為有一種叫智人的一族,產生了一種能力,這種能力就是相信虛擬的事情。相信一些不存在的事情。相信金錢、相信帝國、相信宗教。當他們相信這些不存在的事情時,使得整個智人可以組織比以前大幾倍、幾十倍、幾百倍甚至幾千倍的族群,於是產生帝國,產生朝代,讓很多人可以朝一個方向共同努力。

這才真正有了整個世界被人統治。

一直到15世紀,人類開始相信科技。相信以前孔子、釋迦牟尼、耶穌認為不能解決的貧困、疾病和戰爭,都可以通過科技去完成。

整個人類又向前邁進了一大步。

獵豹的成功來自於一個微小的認知

我大概2012年的時候,想清楚這個道理。我把這個道理結合到了獵豹這家公司。我在想,怎樣能相信一件我從沒體驗或者經歷過的事情?我當時的認知是——全球化是一個巨大的機會,移動互聯網讓全球變得更平。即便是一家中國公司,也可以把它變成一家全球化的公司。

此後,我決定放棄國內市場,全力以赴做獵豹國際化。

當時,我跟我的合夥人說,你有沒有決心把自己變成一個美國人?你有沒有決心真的在矽谷招到100個人?當然,今天獵豹在矽谷已經有超過100人的辦公室。有研發、有產品、有商務。在英語不過關的情況下,我帶領一個小公司,做了一件小事情,就是全球化。

如今,獵豹在全球手機端有6.5億的月度活躍,79.5%的用戶來自於海外,20%的用戶來自歐美。還有一個數字,獵豹超過70%的收入來自於海外,而且海外30%的收入來自於美國。

短短四年,獵豹基於一個微小的認知完成了這一切。這並不代表,當年我對美國市場有多了解,或當年真的懂怎麽做一個海外軟件。但我驚奇的發現,中國軟件制造跟中國制造一樣在全球市場上擁有獨一無二的優勢,就好像日本的汽車、韓國的手機,我們已經是全世界做得最好的了。

這個時候,我們在中國打不贏,可以去海外打。江西打不贏,我們可以走到陜北打。先去構建自己根據地。這就是獵豹用自己的小故事找到了發展的機會,並在創辦四年後登陸紐交所上市。

盡管上市對獵豹不一定是件好事情,但至少是一個里程碑,標誌著我們完成了一次創業的初級過程。

互聯網的偉大是全人類的頭腦風暴

我下一個想法是,獵豹未來的五到十年會是什麽?或者,什麽是我自己能看得到,且是這個世界有機會發展的五到十年?當然,五到十年,會發生很多事情。有些事情再火熱,也和自己無關。

我在做這個判斷的時候,還有一個前提判斷——那就是互聯網實際上是全人類的頭腦風暴。

每當我想起互聯網的時候,我腦海里就有一個生物,叫珊瑚蟲。每個珊瑚很小很小,但是它用一條腔共享所有食物,小小的珊瑚可以長成巨大的珊瑚礁。互聯網正是把人類所有腦子結合了起來,使得知識快速傳遞,認知迅速統一,極大縮短了最大的成本——就是認知。

想象一下,以前一個牛頓三大定律傳播到中國,變成中國一個向前的科技動力,我認為至少花了300年。鴉片戰爭時期,英國軍隊之強大,無非也就是中學物理理論武裝起來的英國艦隊,但能打敗以遊牧政權為核心的清朝。其實就是科技的傳播速度,太慢。

所以,整個世界如果照這樣的節奏發展,極其不均勻。但今天,互聯網的偉大使得全球人民的認知迅速統一。正是因為有了互聯網的機會,使得互聯網迅速變成所有行業發展的基礎行業。這就是互聯網蓬勃發展的秘密。

AI+時代到來

下一個和互聯網一樣能成為基礎的行業是什麽呢?

通過AlphaGo圍棋大戰李世石的勝利,我認為是人工智能。過去兩年,我東奔西走,去印度,去以色列,每兩個月去一次矽谷,認認真真看了很多創業公司和新興科技。

我當時突然發現了一個問題——以前我自己關註技術的時候,那些看上去極難的技術,居然都被很多小團隊突破了。比如說,輔助駕駛、人臉識別、動作識別,在我的想象當中是非常困難的技術。在以前粗淺的編程能力下,我想不出來這些問題怎麽能解決。要寫多麽複雜的算法,才能把一個人臉上的毛孔、睫毛都認出來,才能知道這個人是這個人,而不是那個人。

用這種邏輯,是很難想象出來。

怎麽去找到這樣的機會?這背後,隱含的就是深度學習的崛起,是大規模數據被利用。計算機用對數據的廣度去解決了人類的認知深度。用一個簡單暴力的網絡模型,去解決了以前我們認為極其複雜的思維體系。

所以,獵豹在過去的一年當中,重新思考自己的定位,重新開始了很多嘗試。我們把深度學習運用在收購的一家公司News Republic。每個用戶拿起手機看到的新聞就是獨特的。無論你喜歡克林頓,還是喜歡川普,或者兩個人都不喜歡,都可以看到不同的新聞,這也是海外內容化的一大步。而且,這一步不是靠編輯團隊,是靠算法,靠深度學習網絡和我們六億用戶形成的大數據,從而實現了內容的自動化分發。

不僅如此,我們在美國推出了一款直播產品叫Live me。和中國做得都不太一樣,全是美國漂亮的年輕人和帥哥。過去三個月里面增長速度非常快,已排在美國社交榜的Top10。為了讓直播社區有它的精神,我們會禁止色情,禁止太小的小孩上去。但這里面,我們每天都有30萬的直播開啟量,如果逐條審核,就需要非常大的工作量。於是,我們用深度學習和圖像識別實現了對色情、對小孩的識別,大幅度降低了審核難度,實現了對內容的自動化分類。

下一步,我們想做一個人類的表情庫,用機器來模擬人類表情。我們更希望能把人類的表情本身就認出來。你喜歡哪一類的直播,自動的就可以看到這類的直播。也許你就喜歡鄰家小妹的,或者你就喜歡非常健壯的男生,或者你就喜歡看旅遊的資訊,我們希望能夠讓機器了解,直接分配給你。

所有重複腦力勞動都將被AI取代

我認為,所有重複勞動,不管是體力勞動,還是腦力勞動,只要數據足夠,都可以被替代。這就如同,我們以前總認為圍棋不可能被機器下贏一樣。不管是361個格子,還是36100個格子,甚至路上的很多輛車,只要是一個有限的集合,只要有足夠多的數據,理論上就會被替代。

這是一個巨大的方向。也是以前從不敢想象的方向。

人與機器人共存的時代

今年年初,我說過要做一個機器人。我希望,做一款真正能夠對人類有貢獻的機器人,能夠幫助你解決問題的機器人。它一定是軟件、硬件、AI、服務的集大成者。

深度學習並不是什麽獨特的黑科技,它本身就是一個基礎性的科技。和軟件系統或制造業一樣,深度學習會成為所有行業的基礎。

深度學習會和每個行業結合。如果大家僅僅覺得,深度學習還是一個遙遠的事情,或者說無非就是一個新的算法。我認為不是的。

深度學習的本質,是用數據重構你對世界的理解,是用重複的計算,去完成機器對數據的理解。

所以,以前很多技術的路徑,全部要被重新思考。深度學習的方式,將使得很多公司,很多行業的技術積累,全部要被顛覆掉。

有點像當年互聯網剛出現的時候。

有人說,互聯網只是一個網頁。但,互聯網不是一個網頁。互聯網是一種信息傳播的方式,是一種思考模式,是一個行業重構的整體路徑。

深度學習的理解,也一樣。

因此,我相信——未來一定是人和機器人共存的時代。機器人可能會完成更多重複性的,每天的工作,我們可能真的可以實現所謂的詩和遠方。

機器人 人工智能
贊(...)
文章評論
匿名用戶
發布
PermaLink: https://articles.zkiz.com/?id=222614

為防止AI毀滅人類 谷歌DeepMind招聘了一系列AI專家

據Business Insider報道,根據職業社交網站LinkedIn的信息,以及其他消息來源,谷歌旗下人工智能(AI)部門DeepMind近期招聘了一系列人工智能專家,如維克托里亞·克拉克弗納(Viktoriya Krakovna)、簡·雷克(Jan Leike)和佩德羅·奧爾特加(Pedro Ortega)等,旨在降低人工智能將來可能給人類帶來災難的風險。

這些人將組建成一個新的部門:人工智能安全部門,但目前還不清楚該部門確切的組建日期。

克拉克弗納以研究科學家的身份加盟DeepMind,她擁有哈佛大學科學博士學位,並與他人聯合創建了“生命未來研究所”(FLI)。加盟DeepMind後,克拉克弗納將負責人工智能安全方面的技術研究。

雷克也是以研究科學家的身份加盟DeepMind,他還是牛津大學“人類未來研究所”(FHI)的研究助理。雷克在其個人網站上稱:“我的研究任務就是要讓機器學習更高效,讓人類從中受益。”

奧爾特加也是DeepMind的研究科學家,他擁有劍橋大學機器學習方面的博士學位。奧爾特加在其個人網站上稱:“我的工作內容包括信息理論和統計機械學在序貫決策中的應用。”

當前,著名物理學家斯蒂芬·霍金(Stephen Hawking)和特斯拉創始人埃隆·馬斯克(Elon Musk)等人均認為,將來人工智能可能成為人類的最大威脅之一,甚至是毀滅人類。

DeepMind是谷歌2014年以4億英鎊(約合4.97億美元)收購的人工智能部門,目前正在打造一系列能夠自主學習和思考的智能計算機系統。到目前為止,DeepMind的算法在某些方面已經能夠超越人類,如複雜的圍棋比賽。

PermaLink: https://articles.zkiz.com/?id=224944

亞馬遜“搶劫式”實體超市顛覆剁手體驗丨AI還能突破哪些想象?

來源: http://www.iheima.com/zixun/2016/1208/160247.shtml

亞馬遜“搶劫式”實體超市顛覆剁手體驗丨AI還能突破哪些想象?
逐鹿X 逐鹿X

亞馬遜“搶劫式”實體超市顛覆剁手體驗丨AI還能突破哪些想象?

不知不覺中,人工智能又一次顛覆了我們的認知。

本文由逐鹿X(微信ID:zhulux)授權i黑馬發布。

昨天,Amazon Go刷爆了國內外的社交媒體。亞馬遜在西雅圖開設了第一家無人值守全自動智能線下便利店:Amazon Go,雖然目前只對員工開放,但據外媒消息,Amazon Go計劃在2017年初面向公眾開放。

其令人驚艷之處在於:你可以徑直走進超市,選好貨品之後立馬離開,不用在收銀臺前排長長的隊伍,等待結賬,甚至還可以莫名體驗一種“搶劫”商店的快感。亞馬遜將這種智能購物體驗稱為:“Just Walk Out Shopping”(拿了就走)。

如果說移動支付顛覆了既有商品交易方式,那麽“搶劫式”的Amazon Go甚至連“交易感”都消滅了。然而,這些是怎麽實現的?就其官方發布的視頻來看,技術亮點有三:

Computer Vision 計算機視覺

Deep Learning 深度學習

Sensor Fusion 傳感器融合

1ba3659

根據視頻里說到的三大人工智能的技術,專家們猜測:

Amazon Go采用計算機視覺技術,通過攝像頭捕捉購物者在商店的行為,然後從圖像識別中獲取購物者拿起的商品,再用人工智能中的深度學習去判斷和識別購物者是否需要這件商品,從而決定是否加入購物車。最後加入傳感器,提高最終結果的準確性。

在這樣的購物流程中,你可能覺得自己什麽都沒做,但其實你的一切都已經被新技術所洞悉,再配合移動金融支付技術,輕松完成了一次線下的購物。不知不覺中,人工智能又一次顛覆了我們的認知。

人工智能為何會在這兩年突然“爆發”?又將優先應用於哪些領域,對於創業者來說,有哪些“坑”和機遇?人工智能是否真的是“逆天”一樣的存在?逐鹿思想派X投資人說優質內容持續輸出,今天我們繼續為您梳理關於人工智能的那些事。

驅動人工智能發展的三大因素  

在第一臺計算機埃尼阿克問世後十年,就有科學家預言,人工智能時代將要來臨。1997年,當智能國際象棋機器人“深藍”贏了世界冠軍卡斯帕羅夫之後,這種美好的情景似乎指日可待。但在接下來的近20年中,人工智能研究卻因為數次技術革新嘗試的失敗而停滯,神經網絡的研究遭遇瓶頸使得人工智能的發展陷入寒冬。

隨著深度神經網絡技術取得核心突破,科技界和商界的所有人,都能明顯的感覺到,近兩年內,人工智能的理論研究和可感知產品呈現“噴發”之勢:各種可穿戴設備紮堆出現,智能機器人頻頻亮相,機器的人臉識別準確率超過肉眼,Google、蘋果和寶馬等公司齊發力無人駕駛汽車,美國、歐洲先後設立人類大腦攻關項目……驅動本階段人工智能發展的三大因素在於:

數據積累:移動互聯時代產生大量線下數據,通過線上轉化,供人工智能領域的機構或企業去進行高強度訓練,無論是在語音識別還是圖像識別方面,都產生大量的聲音與圖像樣本,線下數據不斷線上化,大數據成為了驅動人工智能發展的基礎。

算法叠代:深度學習與增強學習發展相輔相成。深度學習用於感知與處理信號,增強學習則用於進行決策。

計算能力提升:底層芯片、服務器等硬件設施不斷完備與升級以及雲計算應用為人工智能發展提供的必要條件。

七大領域優先應用     

人工智能本輪爆發以2015年為起點,以下生活場景正陸續變成現實:

開車時,你說出地點,自動駕駛系統將你帶到目的地;

在醫院,你看到來自美國的拖車機器人Tuggy McFresh在運送醫療器械和來自日本的“大白”機器人Robear在照顧病人;

在酒店,2015年新上市的日本Henn-na服務生機器人包攬了從值守前臺、運送行李到客房清掃等一眾服務;

下班後,你按下了“回家模式”,推開家門發現,窗簾已經拉上,溫度適宜,燈光柔和,熱水燒好,還有日本軟銀公司的家居機器人Pepper跟你問好賣萌;

在家里,你用iWatch打電話,使用的是可監控和改善睡眠品質的App;

電視中、手機上,谷歌超分辨率技術Raisr能使模糊照片瞬間變高清,速度提升十倍以上,我們正在移動設備中體驗著前所未有的逼真世界;

朋友圈里,因人工智能發展而不斷升級的圖像識別技術能夠讓我們的照片達到“整容式美顏”,滿屏鮮肉美女,賞心悅目……

2f82e0dd06853db0bcf28e621d901fc5

根據《全球人工智能發展報告(2016)》顯示,人工智能率先應用於安防、金融、電商零售、個人助理、自動駕駛、醫療健康、教育七大領域。促成這一現象主要有以下兩種原因:

應用場景剛需:人工智能領域的一大特點學術關聯性較高,但是如果沒有潛在的應用場景,技術再先進也只是停留在研究階段。從技術出發,尋找到合適的應用場景,把技術變成產品,才有可能把產品變成商品。以上七大領域與生活息息相關,通過人工智能化改造,其產品需求度相對較高。

可選擇領域不多:從以往案例來看,當下人工智能領域其實可選擇的應用領域實在不多。同時,目前以語音識別、圖像識別為代表的AI技術與這七大領域關聯較深,許多擁有行業領先技術的公司最終也選擇了在幾個“毫無驚喜”的應用領域中實現技術落地。比如科大訊飛選擇了個人助理、教育等領域,Google選擇在自駕領域以及個人助理等,亞馬遜選擇個人助理、自駕以及電商等領域。

AI創業路上的“坑”與機遇   

對於AI領域創業,有一句很形象的描述:人工智能就像一列火車,你苦苦期盼,終於來了,然後它呼嘯而過,把你拋在身後。

作為創業者來說,首先得清楚要解決什麽?存在以下兩個維度三種布局:

解決技術優先:

專註於底層芯片、服務器等硬件設施的提供;

通過對底層資源的長期投入和積累,建立通用技術平臺;

解決應用場景的適用度:

多為特定領域從業者,通過內部研發或外部收購、投資的方式實現特定技術應用突破,以形成智能化升級。

創業者,應該選擇To B還是To C?

結合目前人工智能的發展來看,在To B領域稍微增加一些算法和計算能力,就能解決大量的問題,效率提升比較顯著,而在To C領域,要考慮產品應用到C端的場景,怎樣才能以最便利的方式去吸引用戶使用,無疑需要極致的設備。

To B

優勢:初期就能看到價值;更專註、無需全棧式團隊;實現應用更豐富。

劣勢:難以擴大規模。

To C

優勢:打造自主品牌;逐漸形成規模與商業模式。

劣勢:需要長時間積累、需要全棧式團隊。

創業者在關註人工智能領域時,除了看到其前景與未來發展,其實還是要關註能否通過有效模式在短時期內盡快實現盈利化。技術永遠在進步,無論是互聯網、還是移動互聯網、再到人工智能時代,都有很多技術領先的企業最終沒有存活下來,誰能更快地把自己的產品產業化,能夠形成正向的循環效應,受到更多的資本市場追捧和客戶的認同,誰才能夠生存下去。

對於AI的商業化之路,大公司一般在已有的產品中實現AI first的戰略,Google采用的便是這種布局,而更多規模較小的公司,則選擇將AI作為技術API提供給第三方。

無論哪一種模式,創業團隊都需要把自身的發展、技術的發展以及自身業務的發展三者有效結合,真正做到落地,而不是僅僅講一個關於未來科技的故事,畢竟創業者所面臨的是一個商業化的社會,這一點尤其重要。

AI,真的是“逆天”一樣的存在嗎?

在回答這樣一個問題之前,我們有必要了解什麽是弱人工智能、強人工智能、超人工智能。

首先是弱人工智能 Artificial Narrow Intelligence(ANI),這是一種只能夠在某個特定領域處理問題的人工智能,我們也必須明確,深度學習帶來了的只是弱人工智能的爆發式發展,最好的深度神經網絡可以在無監督的情況下從大量例證中學習,具備了保持語義連貫的組織知識的能力。例如,深度學習系統‘學習’了大量文本信息之後,比如說整個維基百科,能夠通過一些類比問題進行學習。但是,不管這些系統的表現有多麽令人印象深刻,這與人類憑借直覺來理解世界的方式還是存在天壤之別。

其次是強人工智能 Artificial General Intelligence(AGI),這是一種可以與人類大腦處理能力相對等的人工智能。換句話說,人類大腦能做的事情它都能做,比如思考、計劃、抽象思維以及經驗學習等。

從深度學習本身來說,深度神經網絡只受到了人類大腦中生物神經網絡的一點點啟發。盡管深度學習使用的許多術語(例如神經元和激活)都借鑒自腦科學,但這兩個系統的工作原理完全不一樣。

要理解這一不同可以用深度學習的“大腦”與人類兒童的大腦做比較,二者最大的不同點在於,人類兒童能夠探索周圍世界,並能在無外部監督的情況下獨自形成知識。有了這種無監督學習得來的知識,孩子們能夠將所有任務分解成一個個子任務,並各個擊破,從而完成任務。

到目前為止,深度學習還不具備這種能力:人們需要把所有東西教給它們,包括這是什麽東西、學習完成後應該做什麽。研究者們正在探索如何改進這種模型,但現在離目標還很遠。

第三層面的“人工智能”就是所謂超人工智能 Artificial Super Intelligence (ASI)。按照牛津大學哲學教授尼克·波斯特洛姆的定義:在幾乎所有領域都比最聰明的人類大腦都聰明很多,包括科學創新、通識和社交技能。

毋庸置疑的是,目前人工智能的發展還停留在弱人工智能階段,別說超越人類認知能力,甚至也達不到與人類匹配的認知能力。因此像科幻大片中機器人形成自我意識而反攻人類的情景也並不會在短期內實現,正如網友所說:“AI並沒有那麽神,和其他機器一樣,它目前還在被人類控制,我們仍可輕松服下這顆‘定心丸’,繼續突破。”

Amazon Go AI
贊(...)
文章評論
匿名用戶
發布
PermaLink: https://articles.zkiz.com/?id=226798

小紮的AI研發心得:需要人類引導 手機是完美載體

Facebook的首席執行官馬克·紮克伯格今年一直在開發他的虛擬管家Jarvis,據《財富》雜誌報道,近日紮克伯格發布了一篇長博文,詳細講述了Jarvis可以實現的工作類別。他也提到了開發人工智能軟件時遭遇的最大挑戰,預測了人工智能的發展方向。他最重要的發現之一是:盡管人工智能正在飛速發展,卻仍然需要人類給出足夠的引導。

紮克伯格表示:“我們知道怎樣讓計算機學習關於某事物的大量案例,從而讓它準確地做出識別。但是我們還不知道怎樣獲取某個領域的意圖,再把它應用到另一個完全不同的領域去。”

紮克伯格還寫道:“找到這個問題的解決方案並將其應用到全世界”會很有趣,但目前Jarvis的代碼與他的住宅和個人信息捆綁得過於緊密,無法開源。不過,他並未排除以後為公眾開發人工智能助手的想法。他表示:“這可能會為打造新產品奠定很好的基礎。”

對於人工智能的現狀、虛擬助手以及它們在未來的潛力的其他看法,紮克伯格談到了三個要點:

家庭人工智能助手需要把一切設備連接起來

紮克伯格指出,開發Jarvis時遭遇的一個難題是如何搭造系統,把家里所有類型電器和設備——如Sonos揚聲器、三星(Samsung)電視和Nest相機——連接起來。

他寫道:“想要讓Jarvis這類助手幫助更多人控制家里的一切事情,我們就得讓更多設備連接起來。整個行業需要建立通用的應用程序接口和標準,讓設備能夠互相通信。”

一些科技公司已經開始打造自己的智能家居平臺,希望借此解決上述問題,例如蘋果的HomeKit和谷歌的“Works With Nest”項目和Weave語言。但距離讓家里的每個電器都能與任意其他電器通信,還有很長的路要走。例如,HomeKit目前只能兼容鬧鐘、供熱和制冷設備、恒溫控制器、燈管和開關,無法控制洗衣機或烹飪設備。而在眾多智能家居平臺中,消費者往往只能選用一個,這也限制了它們的功能。

手機是人工智能助手的完美載體

類似蘋果Siri和亞馬遜Alexa這樣的數字助手已經出現在筆記本電腦、智能手機、家庭揚聲器等各種產品里。然而,紮克伯格認為移動設備才是人工智能助手的合適載體,因為它的使用範圍不局限於家里。

他寫道:“我希望自己不在家的時候也能聯系到Jarvis,所以要讓手機成為主要接口,而不是家庭設備,這點很關鍵。”

文本輸入和語音輸入同樣重要

亞馬遜的Echo取得成功後,科技界的許多人都翹首期盼以語音為主的接口的發展,但紮克伯格認為,文本輸入仍將在我們與人工智能的互動中扮演重要角色。成功的助手需要同時支持文本和語音輸入,類似於微軟的Cortana。

他寫道:“與Jarvis的交流中,有一點讓我驚訝:在我既可以語音又可以打字的時候,我選擇文本交流的次數超出了我的預料。”

PermaLink: https://articles.zkiz.com/?id=229488

在AI革命的前夜,電子遊戲玩家Nvidia如何變成了大贏家

來源: http://www.iheima.com/zixun/2016/1228/160571.shtml

在AI革命的前夜,電子遊戲玩家Nvidia如何變成了大贏家
華創資本 華創資本

在AI革命的前夜,電子遊戲玩家Nvidia如何變成了大贏家

遊戲宅男的AI逆襲

本文系華創資本(微信ID:ChinaGrowthCapital)授權i黑馬發布

盡管PC遊戲還有不小的市場空間,但運用顯卡上的技術,Nvidia在人工智能領域展現出了巨大的優勢。

時至今日,Nvidia聯合創始人Chris Malachowsky還經常會在加州聖何塞一家Denny's餐館里吃香腸煎蛋卷、喝焦糖咖啡。有趣的是,23年前的1993年4月,就是在這個臟亂不堪的餐館里,三個年輕的電氣工程師Chris Malachowsky,Curtis Priem和Jen-Hsun Huang(黃仁勛)創辦了一家公司,他們致力於制造專門的芯片,能夠為視頻生成更快、更逼真的圖表及圖形。

聖何塞的東部是周邊城鎮中治安最差的區域,在Denny餐廳的前面甚至布滿了子彈的彈孔,這是一些人和巡警車對射留下的。但是沒有人能夠想到,三個人這次的咖啡之約為一家偉大公司的未來種下了基礎,它將在21世紀初以與英特爾在20世紀90年代相同的方式來對“計算”做出定義。

A16Z:“我們會把所有的錢都投入Nvidia”

“1993年是沒有市場的一年,但是我們從中看到了一股浪潮。”Malachowsky說,“加州每年有一個著名的沖浪比賽,在五個月的時間里,當組織者看到某種類型的波浪現象時,他們會告知所有的沖浪者迅速在加州集合,因為兩天內會有一個大的波浪出現。那就是我們所說的市場。我們可以開始著手準備了。”

Nvidia三位聯合創始人所看到的是所謂的圖形處理器單元或GPU的新興市場,這些芯片通常作為插入PC主板的顯卡出售,它們可以提供速度超快的3D圖形。Nvidia有很多款著名的顯卡,如“Titan X”或“GeForce GTX 1080”等等,這些顯卡的售價高達1,200美元,它們在當時為Nvidia貢獻了近一半收入來源。

8

Nvidia CEO Jen-Hsun Huang(黃仁勛)

盡管PC遊戲有著巨大的市場空間,但運用顯卡上的技術,Nvidia在人工智能領域展現出了巨大的優勢。以深度學習為例,Nvidia可以使計算機獨立發揮自己的能力,程序員再也不必手動編寫所有的代碼,並且計算機在圖像和語音識別等領域表現出了無與倫比的準確性。

像谷歌、微軟、Facebook和亞馬遜這樣的技術巨頭正在為它們的數據中心購買更多的Nvidia的芯片。同樣地,美國一些大的醫院也正在使用Nvidia的芯片來查找醫學圖像中異常的部分,如CT掃描。特斯拉最近宣布將在其所有的汽車中安裝Nvidia的 GPU,以實現無人駕駛。這些事實都確切表明了Nvidia在市場上的地位不容小覷。

“在Nvidia的歷史上,我們從來沒有處在如此重要的地位。這可以歸功於我們做了一件非常成功的事情,即所謂的GPU計算。”黃仁勛在加利福尼亞州的聖克拉拉的Nvidia總部說道,當時他穿著他具有標誌性的全黑色系服裝:黑色皮鞋、黑色牛仔褲、黑色polo衫和黑色皮夾克。

全世界目前總共大約有超過3000家AI創業公司,其中絕大多數是在Nvidia的平臺上發展起來的, 它們使用Nvidia的GPU將AI應用於股票交易、在線購物以及無人機導航。

矽谷著名VC機構A16Z合夥人Marc Andreessen說:“我們一直在投資將深度學習應用到各個領域的創業公司,這些創業公司幾乎都在利用Nvidia的平臺。這就像很多公司上世紀90年代依賴Windows那樣,或是在2000年代末依賴iPhone那樣。”

9

A16Z合夥人Marc Andreessen

Andreessen說:“A16Z有一個內部路演:如果我們是對沖基金,看看我們自己將投資哪些上市公司,結論是我們會把所有的錢都投入Nvidia。”

Nvidia在GPU領域具有絕對的主導地位,它占有超過70%的市場份額,並且在新興市場上的擴張已經使其自己的股票飆升。Nvidia的股票在過去12個月中增長了近200%,在過去五年中增長了500%,這個表現為黃仁勛帶來了近24億美元的財富。

將深度學習的關鍵難題一舉擊破

其實在多年前,黃仁勛就認為Nvidia的芯片具備更大的潛力,而不僅僅只是應用在電子遊戲上,但他當時並沒有將公司戰略方向轉到“深度學習”上去。自20世紀60年代以來,深度學習一直被應用於學術領域,而在80年代和90年代取得了重大進展。 但有兩個因素妨礙深度學習取得更大的突破:如何獲取數據、怎樣提高計算所需數據量的能力。

互聯網解決了第一個問題:幾乎所有的數據只需要每個人動動手指頭即可獲得,但計算能力的達成仍然遙不可及。

從2006年開始,Nvidia發布了一個名為CUDA的編程工具包,這個工具包允許編碼器可以自由地對屏幕上每個像素進行編程。在CUDA發布之前, GPU的編程對於編碼人員來說是一個令人難以置信的痛苦的過程,他們必須編寫大量低端的代碼來完成對像素進行陰影、反射、照明以及透明度的渲染。

而Nvidia花費了多年時間開發出來的CUDA,它具備了一種高級編程語言,就像Java或C ++那樣。使用CUDA這種工具,研究人員可以更快捷以及成本更低地開發他們的深度學習模型。

2012年,一位多倫多大學的學生對深度學習的鼻祖Alex Krizhevsky提出了一些有參考性的建議:深度學習團隊應當由來自世界各地的人員構成,這樣才能深刻地了解他們的軟件如何準確地識別圖像中的對象和場景。在Krizhevsky的臥室里,他構建了一個深度學習的神經網絡,由兩個Nvidia GeForce遊戲卡提供動力。這個模型實現了以前從未有過的準確性,計算錯誤率只有15%,這與上一年的25%左右的數字相比有了巨大的飛躍。

隨著這些可喜的結果出現,深度學習開始如野火一般蔓延。除了谷歌以外,前瞻性的深度學習研究項目開始在微軟,Facebook和亞馬遜等公司深度開展。Nvidia決定使用CUDA大力投資於底層軟件生態系統,這是深度學習轉變的關鍵性推動因素。

Nvidia目前已經對“深度學習”的硬件進行了越來越完備的優化。它采用了最新的服務器芯片Tesla P100,並將其中的8個放入DGX-1,一個3英尺長,5英寸薄的矩形容器,Nvidia稱其為“世界上第一個放在盒子里的AI超級計算機。”這臺價值130,000美元的機器具備170 teraflops的性能,這可以與250臺傳統服務器相匹敵。今年8月,黃仁勛親自將第一臺機器交給了Elon Musk以及他的舊金山AI非營利組織OpenAI。

10

黃仁勛將全球首臺 AI 超級電腦系統NVIDIA DGX-1送交到OpenAI

乒乓球運動員黃先生如何擊敗追趕者

黃仁勛身上具備的競爭精神自他童年時期就已經顯現出來。1963年他出生於臺灣,10歲的時候他來到美國肯塔基州東部農村一個貧困的寄宿學校,最終在這里度過了他極為艱苦的青少年時期。黃仁勛將主要精力放在了乒乓球上,1978年,他在美國乒乓球公開錦標賽中取得了青少年雙打第三名的成績,當時年僅15歲。

11

黃仁勛和馬斯克

黃仁勛在高中時期,對電腦產生了濃厚的興趣,最後他來到俄勒岡州立大學學習計算機科學和芯片設計,在那里,他遇到了他未來的妻子。畢業後,他們搬到了矽谷,在那里黃仁勛開始他的第一份工作,為英特爾的競爭對手AMD設計芯片。之後他繼續進行深造,1992年在斯坦福大學獲得電氣工程碩士學位。後來他遇到了Malachowsky和Priem,他們倆當時都在Sun公司工作。

那年30歲的黃仁勛開始創立一家芯片公司,他看到了一個巨大的機會,首先在基本的計算機程序中的圖形處理器上取得一些進展,然後在PC上提供可供人們利用的一些東西。

最終,Nvidia設計的第一個芯片NV1於1995年發布,這款芯片在開發過程中花費了1000萬美元,不幸的是,NV1沒有贏得太多客戶的青睞。Nvidia當時僅僅成立兩年,由於這件事幾乎破產,被迫裁員一半。但Nvidia的第三款芯片——在1997年發布的RIVA 128,被證明是突破性的成功,它比其他任何的圖形處理器的速度都要更快。由於這款產品的出現,Nvidia得以繼續生存下去。

Nvidia的成功產生了重大影響,也“培養”了幾大重量級競爭對手,例如Nvidia最重要的客戶谷歌。

在2016年5月的年度開發者大會上,谷歌宣布已經構建了一個名為Tensor處理器單元的定制芯片,該芯片是為TensorFlow及其深度學習框架量身定制的。谷歌表示,它已經為其數據中心配備了這些芯片,以改進谷歌地圖的功能以及其他的一些設備。

類似地,另一個Nvidia的大客戶微軟正在為其數據中心制造自己的產品:被稱為“現場可編程門陣列(或FPGA)”的定制芯片,它可以自己進行再編程,並已被證明對AI應用非常有幫助。

除此之外,Nvidia最大的競爭對手自然是英特爾。在智能手機上失利之後,英特爾想盡一切辦法不願錯過深度學習這片藍海。由於缺乏自身先進的人工智能研究,英特爾已經開始一股收購狂潮,最近英特爾購買了兩家AI芯片創業公司:Nervana和Movidius。

Nvidia目前的芯片還不能完全取代Intel處理器,他們只能產生一種加速作用。但英特爾顯然更願意它的客戶使用他們自己開發的硬件。2017年,英特爾計劃推出針對深度學習優化的服務器芯片,即新的Xeon Phi處理器。通過在Nervana團隊中獲得的技術,英特爾聲稱,它可以在2020年之前加速深度學習網絡100次。

Nvidia的優勢在於已經有了一個良好的開端,但它不能完全松懈下來。多年來,Nvidia一直處於市場的最前沿,而現在各大競爭對手正蜂擁而至。

黃仁勛說:“ AI計算是計算領域的未來,只要我們繼續讓Nvidia平臺成為AI計算的最佳平臺,我們就能夠在競爭中贏得大量的業務,而GPU幫助我們超越其他所有的公司。”

遊戲 Al
贊(...)
文章評論
匿名用戶
發布
PermaLink: https://articles.zkiz.com/?id=229860

Next Page

ZKIZ Archives @ 2019