📖 ZKIZ Archives


紅杉資本周逵:人工智能上半場已結束,下半場會發生什麽?

來源: http://www.iheima.com/zixun/2016/0913/158732.shtml

紅杉資本周逵:人工智能上半場已結束,下半場會發生什麽?
周逵 周逵

紅杉資本周逵:人工智能上半場已結束,下半場會發生什麽?

未來的機器可能在兩個方面快速發展,一個是雲,一個是端。

i黑馬訊 9月13日消息 今日,2016新浪C+峰會在京舉辦,紅杉資本中國基金合夥人周逵分享了AI(人工智能)的觀點。

以下為紅杉資本周逵分享內容:

人工智能不算新話題,作為普通老百姓,能感受到它給我們生活的各個環節帶來如此大的驚喜,要感謝過去做了那麽多準備工作的人。

我也是一個投資者。我們來看AI(人工智能)的上半場和下半場,或者把時間再拉長,看看我們生活發生了怎樣的變化,尤其是視頻技術給我們帶來的影響。

在過去的10年、20年,PC進入我們的生活,先從企業再到個人,報紙從出版變成了新浪、搜狐這樣的公司。10年前,電商進入了我們的生活,娛樂從玩遊戲到今天的直播,發生了重大的變化。過去五六年,我們看到以CCTV為代表,出現了很多企業大戰,比如3Q大戰,還有小米手機大戰。

我們看到最近兩年,有近10個影響我們生活的公司,近10個這種合並,在互聯網推動下,產業在迅速發生變化,企業家心態也在迅速發生變化,企業家在逐漸成熟。

這是我們在上半場看到的事情。

下半場,也就是未來10年,會發生什麽?或者說今天正在發生一些什麽變化?在這兩年,我們關註到,產業里最優秀的一批公司,最早說自己是互聯網企業,後來說是大數據企業,現在很多公司會說自己是一個智能企業。企業越來越把自己置身在一個產業時代中。從PC互聯網到移動互聯網,再到大數據、人工智能。這是產業變遷的痕跡。

人工智能實際上還處在初級階段。雖然阿爾法狗可以下贏一盤圍棋,但可能再過10年、15年,我們會覺得機器逐漸跟人逼近了,很多情況下,我們期待機器能替人做更多事情。過25年或者是30年以後,我們肯定有很多困惑或者驚喜,發現機器在很多地方比我們聰明。

未來我們面對的機器是什麽樣的結構呢?可能我們面對的是兩個方面的快速發展,一個是雲,一個是端。現在我們看到,有谷歌大腦、百度大腦這樣的例子,機器的智慧、數據和算法等多項能力會積聚在一個雲端、一個大腦上。

端會發生什麽變化呢?現在每個人都有端,手機就是一個傳感器。每天每小時有接近100萬聯網的端的設備在增加,這個速度很快,除了人在連接,很多設備都在連接,無處不在。我想這是雲和端的發展。

當然在端和雲上有很多技術在發展,當谷歌大腦和百度大腦近乎變成了人的大腦時,會有什麽變化呢?我想會帶來很多新問題。比如百度大腦可以是一種連接,也可以是一種回饋,形成一個閉環。但人的大腦是不是可以形成閉環?形成閉環可能會有更多事情。當你控制機器的時候,是不是機器也能控制你呢?雖然會有很多問題,但是會很精彩。

在端這一塊,當我提到人變成端的時候,其實觸覺就是人的五官。人的五官遠遠沒有被充分表達。過去我們和PC互聯網接觸靠手指敲打和鍵盤,你還有視覺、聽覺、味覺、觸覺,這些大家都可以期待。帶寬最寬的是視覺,今天可以看到,視覺成了創業者和技術發展最活躍的領域。

推動這些發展的背後動力是什麽?一個當然是需求,人希望提高效率,多快好省。另外就是人更多的需求是享受更長的快樂時間。在技術上發生了什麽變化呢?今天的手機比原來的大電腦更加強有力。今天的芯片、CPU、GPU、ARM芯片比以前更快更省電。今天的帶寬速度更快了,五年前很難想像能用手機看直播。這是需求和技術帶來的變化。    

從人工智能階段來看,我們現在更多的還是在建立基礎設施。剛才所謂的硬件、設備、通訊、算法都是基礎設施。現在百分之七八十的投資也是在投基礎設施,但開始轉向人工智能的應用了。

我預測一下,未來五到十年,每一個在產業里成功的公司都是一個AI公司,而不是一個專家學者,或者說少數IT人員的一個符號。還可以再展望一下AI跟其他我們現在看到的東西的關系,比如AR,虛擬現實改變了現實和虛擬的時空體會。如果這兩個結合起來,是非常有意思的。

我們再來關註一下我們身邊會發生什麽事。我把它分成三塊:Save Time、Kill Time、Buy Time。Save Time就是多快好省,Kill Time就是打發時間,Buy Time我主要說的是健康,人希望在世界上待的時間長一點。

我們看看這三個方向會發生什麽事情。從Save Time來講,現在我們已經可以感覺到當很多東西跟你的交互是由機器完成的。Amazon的小音箱很短時間賣了400萬臺。

在生活中的另外一塊,比如購物,人工智能已經在連接你了。給你完成交易,給你推薦、揣摩你的興趣,現在大部分都由一臺機器完成。在信息服務上,過去雜誌、報紙還在我們身邊,新浪還是我們獲取內容的重要渠道。今日頭條只是有一點點內核變化,就讓你感受到是一個機器在服務你,這叫大規模、個性化服務。像你在淘寶選購衣服,以前是看看,現在它可以讓你穿一穿,未來甚至有可能讓你摸一下,感受它的質地,我想這都是一些苗頭。    

在金融行業,很多交易已經自動化了,炒股高手可能不如一臺量化分析的機器。在風險分析和風險識別、欺詐分析和模型建立上,這種機器已經取得了很多人難以想像的精確度。在政府公共安全方面,比如大選,一臺機器可能可以提前知道誰會當選,這是很有意思的。我們曾經覺得八爪魚預測世界杯誰能取勝是很神奇的事情,但是未來真的會被預測到。

對教育行業的影響也非常大。比如現在市值非常好的一家公司主業是一對一,一個學生要一個優秀的老師去服務他。那未來機器能不能變成一個優秀的老師?未來學生能不能不再學習他已經學會的東西呢?機器可以識別學生會什麽、不會什麽,怎麽組織最有效率。所以學生可能面對的是一個機器老師,也可以面對一個個性化的老。這個想法目前已經走進了教育的現實。

Facebook現在就在做猜你喜歡,它能猜得更準。它的歌曲搜索能更快,甚至可以來寫一首歌,可以做一幅油畫,水平都不低,而且你的感受都很好。當然你還可以更快的人肉搜索到一個人,這個我們已經感受到了。

對於Buy Time,投資健康這一方面,我們投資的公司,比如華大,它可以把個人信息快速數據化。在疾病診斷、治療上,比如達芬奇機器人,它替代最優秀的外科大夫做事,效果非常好。    

我們面臨著很多問題,比如安全問題,可能未來你在開車時,可以有另一個人影響你駕駛,可能不用登機就可以劫持飛機了。這麽多問題超出你的常識,超出你的親眼所見,所以信任問題也會產生。

還有一點就是就業,機器這麽強,是不是會替代很多人?當然。我們現在看到的非常優秀的公司,有一些公司只有很少的人。當很多人的工作被替代時,可以看到我剛才說的,多快好省,這個產業可能會變得非常繁榮了,它的繁榮也帶來了更多就業機會,人會從制造業這種程序化的東西到創意的東西,服務的環節。

另外是觀念和態度,所有的問題可能都是機會。對於企業來講,大企業註重自己的資產,“資產”這個概念有了一些變化,包括數據、算法、核心工程師、智能變成了你最重要的能力,而不是過去的房產、機器。小企業可能會發現,你對應用、數據的接近,你在花時間建立一個應用模型,可能會變成你特別好的資產和機會。對個人來說,我想更加開放,不斷學習,學得更快,另外冒一點風險,容忍更多的錯誤。

紅杉資本 周逵
贊(...)
文章評論
匿名用戶
發布
PermaLink: https://articles.zkiz.com/?id=214877

科技晨練 | 又是為了人工智能!百度2億美元成立獨立風投

【Tech|業界大事件】

百度風投成立 李彥宏親自帶隊

9月13日,百度宣布成立獨立風險投資公司(Baidu Venture),百度創始人、董事長兼CEO李彥宏將親自出任該公司董事長,並參與重要項目的評估判斷。百度方面表示,百度風投將專註於人工智能,以及AR、VR等下一代科技創新項目,集中投資於早期項目,第一期基金規模將達2億美金。據悉,百度風投將獨立於百度公司現有投資並購團隊,通過創新評估機制,加快決策流程,實現更加高效的投資運作。此外,百度風投還將邀請包括百度在人工智能領域的一批重量級科學家擔任顧問,為投資決策和投後管理提供支持。

FB Messenger內測APP內支付功能

9月12日,負責Facebook Messenger產品的Facebook副總裁David Marcus在參加Techcrunch 2016 Disrupt活動時表示,Messenger將向開發者提供工具以幫助他們實現讓用戶直接在聊天機器人(Chatbot)對話界面進行支付活動的功能。Marucs稱,目前這一功能已經進入Beta內測階段,隨後將向超過3萬名Facebook Messenger的Chatbot開發者開放。未來Facebook Messenger的用戶將能夠直接使用保存在其中的個人信用卡或借記卡信息,在相應的Chatbot內進行支付。

iPhone 7發布後蘋果股價終於回升

據外媒報道,蘋果股價周一上漲逾2%,創6周多以來最大單日漲幅,同時也結束了iPhone 7發布後的兩連跌。截至周一收盤,蘋果股價上漲2.34%,收報105.54美元。在蘋果的推動下,納斯達克100指數周一上漲近1.8%。9月7日,蘋果舉行新品發布會,推出iPhone 7、Apple Watch 2和無線耳機等產品。該發布會受到大多數華爾街分析師歡迎,據財經信息提供商FactSet的數據,有12位分析師提高了蘋果股票9月份的目標價。不過,也有6位分析師降低了目標價。同時,由於Galaxy Note 7爆炸問題,三星近日股價單日下跌近7%,創兩個月以來新低。

三星21億元投資TCL OLED工廠

近日,三星出資21億元投資G11項目,在G11項目中持股9.7674%。此前,TCL集團宣布計劃投資465億元人民幣,在深圳市光明新區投資建設第11代TFT-LCD及AMOLED新型顯示器件生產線項目(即G11項目),11代線是截至目前全球液晶面板最高世代線。由於TCL現要追加210億人民幣的投資,所以三星借此機會註資成為合作夥伴之一。該工廠是由TCL 集團、華星光電以及深圳市經貿信息委三方共同投資。數據顯示,工廠每月預計將生產萬張玻璃基板(3370×2940 mm),主要生產43英寸、65英寸、70英寸以及75英寸的液晶顯示屏。

還不上市 谷歌無人駕駛正失去先發優勢

據彭博社報道,在汽車行業專家John Krafcik成為谷歌無人駕駛汽車項目CEO不到1年後,該項目主管Chris Urmson留下大量工作離開,至今,谷歌依然未推出任何形式的自動駕駛服務。據項目前員工和其他知情人士透露,許多頂級技術人才已離開谷歌,導致其汽車項目進展更加緩慢。谷歌曾被視為無人駕駛汽車領域領導者,但是隨著其他公司正追求更實際、目標更容易實現的無人駕駛汽車服務,谷歌正在失去先發優勢。市場研究機構Strategy Analytics全球汽車市場副總監Roger Lanctot表示:“谷歌需要合作夥伴、銷售團隊以及戰略。”

瓜子二手車A輪融資2.5億美元

9月13日,瓜子二手車CEO楊浩湧在一周年新聞發布會上宣布,A輪融資總額超2.5億美元。這是二手車電商領域單筆融資金額最高紀錄,也是該領域A輪融資規模之最。楊浩湧認為,直賣是模式上的創新,真正的創新需要通過商業數據洞悉消費者行為,以驅動二手車行業業務創新及升級。中國汽車流通協會副秘書長沈榮表示,新車屬於買方市場,二手車由於車源供給約束處於賣方市場,這種不對稱性導致消費者選擇上的困難。從一定意義上講,二手車市場的活躍度,能夠折射出市場的成熟度。

高層變動 金山軟件CEO張宏江將任滿退休

9月13日,金山軟件公告稱,公司CEO張宏江因任期即將屆滿退休,將自2016年12月1日起不再擔任金山軟件執行董事及CEO,公司CEO由原金山高級副總裁鄒濤接任。鄒濤加入金山軟件近二十年,自2009年8月起擔任金山軟件執行董事,熟悉金山軟件業務和發展戰略,有著豐富的經營管理經驗。同時,金山軟件還任命多位高管,由王育林擔任金山軟件高級副總裁及金山雲首席執行官,任命郭煒煒擔任金山軟件副總裁及西山居首席運營官。

網易擬分拆新聞業務 融資3億美元

彭博社消息,知情人士透露,網易對出售新聞業務持開放態度,將尋求通過分拆新聞業務融資3億美元,從而專註於核心的在線遊戲業務。該知情人士稱,融資形式可能通過在美國IPO進行,但也可能直接出售新聞業務。目前該分拆還處於計劃階段,網易正在尋求與潛在買家談判。與騰訊一樣,網易目前也在針對智能手機用戶的崛起而調整業務運營,針對用戶喜好提供內容,從而獲取更多廣告營收。但與其他競爭對手一樣,網易也面臨諸多挑戰,如內容監管等。

日本瑞薩電子收購美國半導體公司

日本瑞薩電子13日宣布,已與美國半導體制造商英特矽爾公司達成一致,以32.19億美元的價格全資收購後者。瑞薩計劃於2017年上半年完成收購。目前,雙方公司的董事會已分別全票通過收購案,但還需得到英特矽爾股東大會通過和相關政府機構的許可。瑞薩是全球首屈一指的微控制器和高級半導體解決方案供應商,英特矽爾是模擬和混合信號半導體行業的領軍企業。瑞薩在日本和歐洲市場占據優勢,英特矽爾的主要市場是美國和中國,兩家公司恰好互為補充。

【Tech|奇點】

荷蘭警方聘老鷹 抓非法無人機

據外媒13日報道,在各國都對空中激增亂飛的無人機束手無策時,荷蘭警方在成功嘗試後,決定正式“聘用”老鷹來抓捕空中的非法無人機。荷蘭警方發言人延納斯說:“這是一個用低技術含量的辦法,對付一個高技術含量的問題。”負責抓無人機的老鷹將在包括無人機給公眾造成威脅的地方、有無人機出沒的機場和敏感地區執行任務。盡管這一做法讓一些動物保護組織感到擔憂,但警方稱,他們從一月份起就多次嘗試利用老鷹抓捕無人機,老鷹在執行任務期間沒有危險。目前看來,荷蘭警方培訓了大約100名警察與老鷹一同工作,對此胸有成竹。

歡迎掃碼下載第一財經App參與互動!

PermaLink: https://articles.zkiz.com/?id=214961

這樣的雨天 騰訊遇上了人工智能

9月14日,陰雨籠罩下的上海,騰訊網絡媒體事業群總裁、集團高級執行副總裁劉勝義,谷歌大中華區總裁Scott Beaumont,營銷行業意見領袖The Tapscott集團創始人CEO Don Tapscott等很少在國內公開場合亮相的行業大腕都進行了主題演講,特別討論了人工智能的興起,將如何對未來人們的行為進行預測。

NBA是一家數據公司

騰訊高級副總裁劉勝義以騰訊戰略合作夥伴NBA為例,展示了NBA如何把握數據的力量,從最初以轉播權售賣的體育管理公司,通過一個又一個創意、賽事及球星運作來重塑品牌,成功轉型為體育營銷公司;再到近年來深度應用數據,利用最新的運動捕捉技術和數據來制定戰術及推動球隊風格改變;從看準球星,到協助球星釋放最大的潛能。他表示:“說NBA是一家數據技術公司也不為過。”

從NBA的發展歷程中,劉勝義總結道:“NBA不再等待或尋找球星,他們自己創造天才。成功把握大數據的力量,無疑是NBA這些年來,業務騰飛的最核心競爭能力之一。“

劉勝義引用馬化騰的話稱:“在人們想象未來的時候,最難也是最有挑戰和趣味性的地方就在於,創新是很難發生在現有的行業的,只有在跨界的時候才最容易誕生新機會。人工智能所所帶來的,正是這種發現尚未爆發的創新機會的能力。”

他還表示,在人工智能的時代,數據孤島毫無價值,只有與合作夥伴實現連接共享,共同聚合於海量數據的算法平臺,才能夠釋放人工智能的真正潛力,讓數據資產開始真正發揮價值。

隨著人工智能的爆發,人們將會進入一個對機器營銷的時代,一個用數據和算法,來實現商業目標的時代。不過讓人工智能來幫助消費者做決策目前來看還有待時日。

德塔投資管理中心合夥人、前騰訊廣告平臺副總周朝劍對第一財經記者表示:“人工智能目前只能分析到人類表面的行為數據,但是人的消費決策大多是依靠心里活動,包括表情和情緒。現在的技術還遠遠沒有做到這一點。雖然有人臉識別功能,但大多數技術還是非常初期的,也有一些公司已經開始嘗試解讀人類面部表情的技術,這些將成為投資的熱點。“

深度學習種植黃瓜

谷歌大中華區總裁Scott Beaumont則分享了深度學習的眾多用途。他特別提到了最近日本農民Makoto Koike利用深度學習的技術種植出可以食用的黃瓜,並研發出帶有深度學習技術的黃瓜分選機。

Makoto試用機器學習來分選黃瓜的創意最初來自一個完全不同的應用實例:谷歌阿爾法狗與世界頂尖職業圍棋手對弈。Beaumont表示:“當Makoto看到谷歌的阿爾法狗,他意識到這里確實在發生一些很嚴肅的事情,這觸發了他開始開發帶有深度學習技術的黃瓜分選機。”

深度學習用於圖像識別,允許電腦從訓練數據集中學習到什麽是圖像的重要“特征”。使用大量的人工神經元分層,深度學習可以高精度地自動分類圖像。因此神經網絡可以從圖像中識別出不同種類的貓,或是不同型號的汽車和飛機。神經網絡有時會在特定應用中超過人眼的表現。

Beaumont表示,Makoto發明的計算機能學會黃瓜分選技藝,受益於谷歌的開源機器學習庫TensorFlow。谷歌剛剛開源TensorFlow不久,Makoto就把它試用於黃瓜圖像識別。由於TensorFlow不需要用戶知道深度神經網絡所需的高階數學模型和優化算法,只要下載示例代碼並閱讀教程就能使用,因此這顯著降低了機器學習的門檻。自從谷歌於去年11月開源了這個程序庫,許多“非機器學習”的工程師已經開始通過他們自有的數據和應用來擺弄這項技術。

然而,深度學習目前面臨的挑戰之一是需要大量的訓練數據。為了訓練模型,Makoto花了大約三個月時間,拍攝了7000張他母親所分選的黃瓜的照片,但這恐怕還是不夠。

根據Makoto的實驗經驗,當他用測試圖像進行驗證時,識別準確度超過95%。但如果在實際操作中運用這個系統,準確度就會下降到70%左右。“這是由於神經網絡模型由於訓練圖像的數量不夠,存在‘過度擬合’的問題。這是神經網絡中的一種現象,也就是模型只適用於少量的訓練數據。”Makoto自己曾經這樣總結。

基於雲的生態圈

為了改進深度學習,谷歌推出了雲機器學習(CloudML)這個用於訓練和預測的低成本雲平臺,它可以投入數以百計的雲服務器來使用TensorFlow訓練神經網絡。Beaumont表示:“在Could ML平臺上,谷歌會來搭建用於分布式訓練的大規模集群,而你只需購買你要用到的,這讓開發者們可以更容易地試用深度學習而無需大量資本投資。“Beaumont還說,未來四大因素將決定人工智能應用的未來——健康有質量的流量,深入的用戶洞察,高效的數據整合分析以及深入的挖掘洞察。

The Tapscott集團創始人CEO Don Tapscott表示:“移動化、大數據、物聯網、雲服務、社交網絡和機器學習都是改變人類的下一個大事件。未來基於大數據的生態圈要求的是開放、合作、分享、互相依賴和整合的態度,沒有絕對的領導者。”Tapscott用“壯麗的鳥群“來形容這種全新的生態圈。他說:”就好像椋鳥聚集在一起飛翔,它們沒有一個領導者,但這種群體效應卻保護了它們。過去領導者是至上的,而現在領導者可能誕生在每一個人的中間。我們每一個人都是未來的一部分。”

PermaLink: https://articles.zkiz.com/?id=214964

人工智能會讓誰下崗?

9月13日,美國麻省獨立研究機構Forrester發布研究報告稱,未來五年,人類有6%的工作職位將被人工智能取代,其中包括客服、租車服務行業等職位。

報告指出,在2021年,機器人將能更好地理解人類語言,改善學習能力,並能應對更複雜的情況,因此替代人類的能力大大提高。

英國雜誌《經濟學人》之前的報道也顯示,在一項覆蓋702個工種的調查中,美國有47%的工作在未來都有被自動化的可能,包括電話營銷員、會計審計、零售人員等職位很有可能由人工智能來代替。

而我想說的是,人工智能取代人工,可能用不了五年。人工智能在企業的應用,已經開始了!

案例一:智能出行——被取代員工:駕駛員、助理、內審、財務出納等

最近在一次互聯網+會議上,一家創新出行公司針對企業用車提出了一個耳目一新的方案。簡單地說,這個提案就是一款類似滴滴打車的軟件,但只針對企業員工使用。該公司號稱擁有註冊車輛及專業司機百萬,可以保證客戶呼叫後平均30秒內就有車輛應答,並在5分鐘之內供車給客戶使用。也就是說,理想的話,你的企業一輛車也不用養了。

車輛使用,在每家企業都是很大的支出,公司高層以及銷售業務員的用車每個月成本都很高。高管在公司的用車都是專車專用,但是高管們業務繁忙,頻繁出差,實際上一輛車的公務使用率很低,養車養司機,基本都是給高管太太們在接送孩子和買菜。而針對員工用車,現在企業通行的做法有兩種:要麽給銷售直接發放用車補貼,要麽是根據使用情況實報實銷,可是這兩者都有很大弊病。前者補貼金額一般都遠大於實際支出,對一線員工來說,這筆錢被當成一種福利收入;而後者的真實性一直令企業頭疼,雖然企業現在都要求員工在報銷的時候寫清楚使用目的,乃至具體路線,可是這要靠員工自覺,等同於沒有約束。一張小小的發票,根本無法反映實際車輛使用情況,員工是不是去拜訪客戶企業根本不知道,對成本也無法控制。

那麽使用這個軟件後呢?公司人員的每次用車就都有後臺的人工智能在管理了,當然,說得不好聽就是監控。比如,通過車輛定位這個功能,基本就可以杜絕公車私用的情況了。甚至,通過行車路線的數據分析,可以看出重點客戶在區域內的分布,以及員工對客戶的拜訪頻率,供業務總結和改善流程使用。

再看使用智能出行對員工崗位的影響。首先,司機不用養了,實際上現在很多企業的司機,已經去開專車了。等到自動駕駛再成熟,駕駛員就徹底成為一個字典上的名詞解釋了。

而助理們,不必再去訂車了,耗時耗力貼車費發票報銷這個環節也不存在了,因為公司對公司的結算可以按月或者按照季度來。

緊接著,查核單據、檢驗發票、報銷付款這些流程也都沒有了。

想想看,是不是公司很多人都可以走人了?

案例二:智能比價——被取代員工:采購

在企業中,采購的重要性不言而喻。大小公司,一分錢都恨不得掰開花,所以公司采購員的KPI(核心考核指標)都是看能為公司省多少錢。

有了人工智能,我們還需要采購嗎?

現在,在一些歐美公司,供應商參與競標,已經被要求使用智能比價系統。以前一輪輪比價,一封封郵件,不斷地填寫Rate Card(比價平衡記分卡),甚至雙方當面鑼對面鼓,或者在飯桌前後談價格的時代,即將過去了。

這種比價系統,可以根據每個項目的需要,要求參與競標的供應商在一定的時間內,在網絡上或者其他終端填寫服務的內容,並且給出最後報價。而比價過程,為半開放狀態。報價方雖然看不到自己的對手的價格,可是可以看到其他公司什麽時候出的價,和出價後的綜合排名。這個時候,為了拿到業務,供應商就不得不考慮在限期內,是不是要出最後的底價了。

人工智能可能有很多缺點,但是勝於人類的一點,就是它沒有情感,因為畢竟是機器。

出於對供應商公平起見,系統設定不給任何人第二次機會,限時比價,計算機不會給誰多一個小時,也不會像人一樣加班等報價。任何人給出了底價,過了期限,就沒有再次更改的空間。

盡管很多供應商有底氣說,我們從不用低價格作為項目投標策略(實際上公司大多時候也不願意用價格最低的供應商),可是當看到自己的位置在綜合排名靠後的時候,一不耐心就對人工智能妥協了,給出最低底價。這種競標過程,就不是供應商對客戶熟悉不熟悉,或者對采購負責人熟悉不熟悉能左右的了。

一邊,是公司的使用部門填寫采購需求,另一邊,是供應商報價。遊戲的規則是人定的,但是裁判是人工智能,省時省力。中間的公司采購員,就可以卷鋪蓋回家了。

案例三:智能項目管理——被取代員工:項目經理、數據分析員

今年9月9日,《經濟參考報》報道,國家食品藥品監督局啟動藥物臨床試驗數據自查一年來,發現超八成新藥臨床數據涉假。報道說:“監管環節層層失守,藥企、醫生等相關主體違規問題突出。”

藥物臨床數據造假,直接後果就是可能無效藥物甚至假藥獲批。

應對這種情況,國際公司是怎麽做的呢?答案還是人工智能!

早在2013年,一家跨國制藥公司研究團隊就發現,部分參與臨床的中國患者提供的數據有問題。該試驗使用數據卡,讓患者自己填寫記錄每天的服藥後數據。正常來說,同一監測指標每天數據應有波動,甚至早晚也應有變化。但是,在部分患者提交的記錄中,超過五天都是同樣的數值。

雖然這些受到質疑的數據只占所有記錄的很小一部分,並不會影響到整體的數據質量。但後來,該公司還是決定將數據記錄升級為電子系統,全程智能監控數據,取代以往的紙質記錄方式。

使用電子數據系統取代患者手填數值,首先,數據精確度將得到提升;再者,研究團隊可以實時獲取數據,根據數據質量情況立即生成報告並采取相應的行動,這樣就會基本杜絕患者在一段時間後憑記憶補填數據的違規現象。總而言之,采用智能電子系統能顯著提升數據質量和準確性。

當然,這麽做無疑成本大大提高了。可是,中間很多項目管理人員,數據錄入分析員,他們的工作就不需要了,養一個人也不便宜,這麽算,成本也沒高多少。

更為重要的是,這種涉及藥品的管理項目,成本往往不是衡量項目成功與否的唯一標準。用高成本的人工智能確保了數據的真實和藥物的可靠,確保了每個數據可追溯,大大避免了人工管理失誤而造成貽誤病情、乃至危害生命,這無疑是值得的,因此這種智能管理模式在行業內在近年得到了很大推廣。

當然,上面三個例子只是眾多人工智能取代人力的一部分案例,人工智能替代人的例子也不是在每個行業、每個公司都會實現。飛機自動駕駛早就有了,但是應對複雜天氣、地形、起降過程控制還是需要飛行員的經驗。根據醫學檢測化驗結果可以給出診斷的機器醫生Watson,IBM早就開發了,但離達到“常常去幫助,總是去安慰”的醫學倫理還有很大距離。足球場上雖然錯誤判罰很多,可是人還是裁判,因為大多數人覺得錯判本來就是足球的一部分。

但毫無疑問,智能代替人工的時代,已經開啟了。這不是狼來了,這是比Alpha狗戰勝世界圍棋冠軍還需要讓我們認真對待的事情。

作為企業,我們要擁抱未來,抱著開放的心態看人工智能並且考慮如何加以利用,分析未來的崗位需求,更合理設置分工。而員工自己,要不斷學習,從事更有戰略性以及創造性地工作,否則哪天我們就真被替代了。

(作者為五百強公司管理人士,文章不代表本報觀點,歡迎來信[email protected]與作者交流)

PermaLink: https://articles.zkiz.com/?id=215662

斯坦福“人工智能百年研究”首份報告:2030年的人工智能與生活

來源: http://www.iheima.com/zixun/2016/0922/158880.shtml

斯坦福“人工智能百年研究”首份報告:2030年的人工智能與生活
雲啟資本YUNQI 雲啟資本YUNQI

斯坦福“人工智能百年研究”首份報告:2030年的人工智能與生活

人工智能就是致力於讓機器變得智能的活動,而智能就是使實體在其環境中有遠見地、適當地實現功能性的能力。

推薦人:黑馬哥

推薦星級:☆☆☆☆

閱讀時間:全文14220字,閱讀時間預計15分鐘

推薦理由:重要的人工智能相關的進展已經在過去十五年內給北美的城市造成了影響,而未來十五年還將有更大幅度的發展發生。本文節選自斯坦福大學「人工智能百年研究」的首份報告:《2030 年的人工智能與生活》,描述了目前人工智能相關技術、法律以及道德上的挑戰,並對產業界、學界、政界三方人士提供了人工智能技術、應用、政策上的指導與建議。本文由雲啟資本YUNQI(ID:yunqipartners)授權i黑馬發布。

節選自Stanford   編譯 | 機器之心

全文目錄:

序言

概述

第一部分:人工智能是什麽?

定義人工智能

人工智能研究趨勢

第二部分:人工智能應用領域

交通

家庭/服務機器人

醫療

教育

低資源社區

公共安全與防護

就業與勞資

娛樂

第三部分:人工智能公共政策的預期與建議

如今與未來的人工智能政策

附錄:人工智能歷史簡述

序言

2014 年秋季,人工智能百年研究(OneHundred Year Study)項目啟動,這是一項對人工智能領域及其對人類、社區、社會影響的長期學術研究。這項研究包含使用人工智能計算系統的科學、工程和應用實現。監督該「百年研究」的常務委員會(Standing Committee)組建了一個研究小組(Study Panel)來每五年評估一次人工智能所處的狀態——這是本項目的核心活動。

本研究小組要回顧從上次報告到現在這段時間人工智能的進展,展望未來潛在的進展並且描述這些進展對於技術、社會的挑戰與機遇,涉及的領域包括:道德倫理、經濟以及與人類認知兼容的系統設計等等。

「百年研究」定期進行專家回顧的首要目標是:提供一個隨著人工智能領域發展的關於人工智能及其影響的收集性的和連通的集合。這些研究希望能在人工智能領域的研究、發展以及系統設計方面、以及在幫助確保那些系統能廣泛地有益於個人和社會的項目與政策上提供專業推斷上的方向指南及綜合評估。

這篇報告是計劃持續至少 100 年的研究系列中的第一篇。常務委員會在 2015 年的暑期成立了一個研究小組來負責組建現在這個初始的研究小組,並任命了得克薩斯大學奧斯汀分校的教授 Peter Stone 擔任該小組的主席。這個包含了 17 名成員的研究小組由人工智能學術界、公司實驗室以及產業界的專家與了解人工智能的法律、政治科學、政治以及經濟方面的學者組成,並於 2015 年秋季中期啟動。

參與者代表著不同的專業、地區、性別以及職業階段。常務委員會廣泛討論了 Study Panel 相應的責任,包括人工智能最近的發展與在工作、環境、運輸、公共安全、醫療、社區參與以及政府的潛在社會影響。委員會考慮多種聚焦研究的方式,包括調查子領域及其狀態、研究特定的技術(例如機器學習與自然語言處理)以及研究特定的應用領域(例如醫療與運輸運輸)。

委員會最終選擇了「2030 年的人工智能與生活(AI and Life in 2030)」為主題以強調人工智能的各種用途與影響的發生不是獨立於彼此,也不獨立於其他許多社會和技術上的發展。意識到了城市在大多數人類生活中的核心作用之後,我們將專註重點縮小到大多數人居住的大都市。

第一部分:什麽是人工智能?

本節介紹了研究人員和從業者如何定義「人工智能」以及目前正在蓬勃發展的人工智能研究和應用領域。它提出了人工智能是什麽和不是什麽的定義,並介紹了一些當前人工智能研究的「熱點」領域。

本節為第二部分的內容奠定了基礎,第二部分闡述了人工智能在八個領域和在第三部分中的影響與未來,第三部分介紹了涉及人工智能設計和公共政策的問題,並提出在保護民主價值的同時如何鼓勵人工智能創新的建議。

1.定義人工智能

奇怪的是,人工智能缺乏一個精確的、被普遍接受的定義,這或許有助於該領域的加速成長、繁榮以及前進。雖然人工智能的從業者、研究人員和開發人員由一種粗略的方向感和一個「與它相處」的命令所引導,人工智能的定義仍然很重要,而 Nils J. Nilsson 就提供了一個有用的定義:「人工智能就是致力於讓機器變得智能的活動,而智能就是使實體在其環境中有遠見地、適當地實現功能性的能力。」

從這個角度來看,對人工智能的表征取決於個人願意「適當地」並「有遠見地」為功能性提供合成軟件和硬件的信用。一個簡單的電子計算器比人類大腦進行的計算要快得多,而且幾乎從來不出錯。

電子計算器智能嗎?像 Nilsson 一樣,研究小組以一種寬泛的視角來看待此問題,認為智力取決於一個多維頻譜。根據這一觀點,算術計算器和人腦之間的區別不是某一類,而是規模、速度、自主性和通用性的區別。

同樣的因素可以用來評估智能的其他各例——智能語音識別軟件、動物大腦、汽車巡航控制系統、圍棋程序、自動調溫器——並將它們放置在頻譜中的適當位置。雖然我們的寬泛解釋把計算器列在了智能頻譜中,但是如此簡單的設備與今天的人工智能相比幾乎沒有相似之處。

從這個角度看,對人工智能的表征取決於個人願意「適當地」並「有遠見地」為功能提供合成軟件和硬件的信用。一個簡單的電子計算器比人腦計算快得多而且幾乎從不出錯。

人工智能的邊界已經遠遠走在前面,而計算器可以實現的功能只是當下的智能手機的百萬分之一。目前人工智能開發人員正在改進、推廣和擴大從當下的智能手機中所建立起來的智能。事實上人工智能領域是一個不斷努力推動機器智能向前發展的過程。

具有諷刺意味的是,人工智能正在遭受失去話語權的長期災難,最終不可避免地會被拉到邊界內,即一個被稱為「人工智能效應(AI effect)」或「奇怪悖論(odd paradox)」的重複模式——人工智能將一種新技術帶到了普通大眾中去,人們習慣了這種技術,它便不再被認為是人工智能,然後更新的技術出現了。

同樣的模式將在未來繼續下去。人工智能並沒有「交付」一個驚雷般改變生活的產品。相反人工智能技術以一個連續的、進步的方式正在繼續更好的發展。

2.人工智能研究趨勢

直到本世紀初,人工智能的吸引點主要在於它所傳遞的承諾,但在過去的十五年里,大多這樣的承諾已經得到兌現。人工智能技術已經充斥了我們的生活。當它們成為了社會的一股中心力量時,該領域正在從僅僅建立智能系統,轉向了建立有人類意識的、值得信賴的智能系統。

幾個因素加速了人工智能革命。其中最重要的是機器學習的成熟,部分由雲計算資源和廣泛普及的、基於 Web 的數據收集所支持。機器學習已經被「深度學習(deep learning)」急劇地向前推進了,後者是一種利用被稱作反向傳播的方法所訓練的適應性人工神經網絡的一種形式。

信息處理算法的這種性能飛躍一直伴隨著用於基本操作的硬件技術的顯著進步,比如感覺、感知和目標識別。數據驅動型產品的新平臺和新市場,以及發現新產品和新市場的經濟激勵機制,也都促進了人工智能驅動型技術的問世。

所有這些趨勢都推動著下文中所描述的「熱門」研究領域。這種編輯只是想要通過某個或另一個度量標準來反映目前比其他領域得到更大關註的領域。它們不一定比其他領域更重要或更有價值。事實上目前的一些「熱門」領域在過去幾年中並不怎麽流行,而其他領域可能在未來會以類似的方式重新出現。

大規模機器學習

許多機器學習的基本問題(如監督和非監督學習)是很好理解的。目前努力的一個重點是將現有算法擴展到更龐大的數據集上。例如鑒於傳統方法能夠負擔得起若幹遍數據集的處理,現代方法是為單次處理所設計;某些情況只認同非線性方法(那些只關註一部分數據的方法)。

深度學習

成功訓練卷積神經網絡的能力非常有益於計算機視覺領域,比如目標識別、視頻標簽、行為識別和幾個相關變體的應用。深度學習也在大舉進軍感知方面的其他領域,如音頻、語音和自然語言處理。

強化學習

鑒於傳統機器學習主要關註於模式挖掘,強化學習將重點轉移到決策中,這種技術將有助於促進人工智能在現實世界中更深入地進入相關研究和實踐領域。作為一種經驗驅動型的序貫決策框架,強化學習已經存在了幾十年,但是這個方法在實踐中沒有取得很大成功,主要是由於表征和縮放的問題。然而深度學習的出現為強化學習提供了「一貼強心劑」。

由谷歌 DeepMind 開發的計算機程序 AlphaGo 在五次對抗比賽中擊敗了人類圍棋冠軍,它最近所取得的成功在很大程度上要歸功於強化學習。AlphaGo 是通過使用一個人類專家數據庫來初始化一個自動代理的方法被訓練的,但隨後提煉的方法是通過大量地自我對抗遊戲以及應用強化學習。

機器人

至少在靜態環境中,機器人導航在很大程度上被解決了。目前的努力是在考慮如何訓練機器人以泛型的、預測性的方式與周圍世界進行交互。互動環境中產生的一個自然要求是操縱,這是當下所感興趣的另一個話題。

深度學習革命只是剛開始影響機器人,這在很大程度上是因為要獲得大的標記數據集還很困難,這些數據集已推動了其他基於學習的人工智能領域。

免去了標記數據需求的強化學習可能會有助於彌合這一差距,但是它要求系統在沒有錯誤地傷害自己或其他系統的情況下能夠安全地探索出一個政策空間。在可信賴的機器感知方面的進步,包括計算機視覺、力和觸覺感知,其中大部分將由機器學習驅動,它們將繼續成為推進機器人能力的關鍵。

計算機視覺

計算機視覺是目前最突出的機器感知形式。它是受深度學習的興起影響最大的人工智能子領域。直到幾年前,支持向量機還是大多視覺分類任務所選擇的方法。但是特別是在 GPU 中的大規模計算的匯合,使得更大數據集的可獲得性(尤其是通過互聯網)以及神經網絡算法的改進導致了基準任務中能的顯著提高(比如 ImageNet 中的分類器)。計算機首次能夠比人類更好地執行一些(狹義定義的)視覺分類任務。目前的研究多是關註於為圖像和視頻自動添加字幕。

自然語言處理

自然語言處理是另一個通常與自動語音識別一同被當做非常活躍的機器感知領域。它很快成為一種擁有大數據集的主流語言商品。谷歌宣布目前其 20% 的手機查詢都是通過語音進行的,並且最近的演示已經證明了實時翻譯的可能性。現在研究正在轉向發展精致而能幹的系統,這些系統能夠通過對話而不只是響應程式化的要求來與人互動。

協同系統

協同系統方面進行的是對模型和算法的研究,用以幫助開發能夠與其他系統和人類協同工作的自主系統。該研究依賴於開發正式的協作模型,並學習讓系統成為有效合作夥伴所需的能力。能夠利用人類和機器的互補優勢的應用正吸引到越來越多的興趣——對人類來說可以幫助人工智能系統克服其局限性,對代理來說可以擴大人類的能力和活動。

眾包和人類計算

在完成許多任務方面由於人類的能力是優於自動化方法的,因而在眾包和人類計算方面,通過利用人類智力來解決那些計算機無法單獨解決好的問題,該領域研究調查了增強計算機系統的方法,這項研究的提出僅僅是在大約 15 年前,現在它已經在人工智能領域確立了自己的存在。最有名的眾包例子是維基百科,它是一個由網絡公民維護和更新的知識庫,並且在規模上和深度上遠遠超越了傳統編譯的信息源,比如百科全書和詞典。

眾包專註於設計出創新的方式來利用人類智力。Citizen 科學平臺激發誌願者去解決科學問題,而諸如亞馬遜的 Mechanical Turk 等有償眾包平臺,則提供對所需要的人類智力的自動訪問。通過短時間內收集大量標記訓練數據和/或人機交互數據,該領域的工作促進了人工智能的其它分支學科的進步,包括計算機視覺和自然語言處理。基於人類和機器的不同能力和成本,目前的研究成果探索出了它們之間理想的任務分離。

算法博弈理論與 (基於) 計算機 (統計技術的) 社會選擇

包括激勵結構、人工智能的經濟和社會計算維度吸引到了新的關註。自 20 世紀 80 年代初以來,分布式人工智能和多代理(multi-agent)系統就已經被研究了,於 20 世紀 90 年代末開始有顯著起色,並由互聯網所加速。一個自然的要求是系統能夠處理潛在的不恰當激勵,包括自己所感興趣的人類參加者或公司,以及自動化的、基於人工智能的、代表它們的代理。

備受關註的主題包括計算機制設計(computational mechanism design)(一種激勵設計的經濟理論,它尋求激勵兼容的系統,其中輸入會被如實報告)、(基於) 計算機 (統計技術的) 社會選擇(computational social choice)(一種有關如何為替代品排列順序的理論)、激勵對齊信息獲取(incentive aligned information elicitation)(預測市場、評分規則、同行預測)和算法博弈理論(algorithmic game theory)(市場、網絡遊戲和室內遊戲的平衡,比如poker——它在近幾年通過抽象技術和無遺憾學習(no-regret learning)已經取得了顯著的進步)。

物聯網(IoT)

越來越多的研究機構致力於這樣一個想法:一系列設備可以相互連接以收集和分享它們的感官信息。這些設備可以包括家電、汽車、建築、相機和其他東西。雖然這就是一個技術和無線網絡連接設備的問題,人工智能可以為了智能的、有用的目的去處理和使用所產生的大量數據。目前這些設備使用的是令人眼花繚亂的各種不兼容的通信協議。人工智能可以幫助克服這個「巴別塔」。

神經形態計算

傳統計算機執行計算的馮諾依曼模型,它分離了輸入/輸出、指令處理和存儲器模塊。隨著深度神經網絡在一系列任務中的成功,制造商正在積極追求計算的替代模型——特別是那些受到生物神經網絡所啟發的——為了提高硬件的效率和計算系統的穩定性的模型。

目前這種「神經形態的(neuromorphic)」計算機尚未清楚地顯示出巨大成功,而是剛開始有望實現商業化。但可能它們在不久的將來會變成尋常事物(即使僅作為馮諾依曼所增加的兄弟姐妹們)。深度神經網絡在應用景觀中已經激起了異常波動。當這些網絡可以在專門的神經形態硬件上被訓練和被執行,而不是像今天這樣在標準的馮諾依曼結構中被模擬時,一個更大的波動可能會到來。

總體趨勢以及人工智能研究的未來

數據驅動型範式的巨大成功取代了傳統的人工智能範式。諸如定理證明、基於邏輯的知識表征與推理,這些程序獲得的關註度在降低,部分原因是與現實世界基礎相連接的持續挑戰。規劃(Planning)在七十和八十年代是人工智能研究的一根支柱,也受到了後期較少的關註,部分原因是它強烈依賴於建模假設,難以在實際的應用中得到滿足。

基於模型的方法——比如視覺方面基於物理的方法和機器人技術中的傳統控制與制圖——已經有很大一部分讓位於通過檢測手邊任務的動作結果來實現閉環的數據驅動型方法。即使最近非常受歡迎的貝葉斯推理和圖形模式似乎也正在失寵,被數據和深度學習顯著成果的洪流所淹沒。

研究小組預計在接下來的十五年中,會有更多關註集中在針對人類意識系統的開發上,這意味著它們是明確按照要與之互動的人類特點來進行建模與設計的。很多人的興趣點在於試圖找到新的、創造性的方法來開發互動和可擴展的方式來教機器人。

此外在考慮社會和經濟維度的人工智能時,物聯網型的系統——設備和雲——正變得越來越受歡迎。在未來的幾年中,對人類安全的、新的感知/目標識別能力和機器人平臺將會增加,以及數據驅動型產品數量與其市場規模將會變大。

研究小組還預計當從業者意識到純粹的端到端深度學習方法的不可避免的局限性時,會重新出現一些人工智能的傳統形式。我們不鼓勵年輕的研究人員重新發明理論,而是在人工智能領域以及相關領域(比如控制理論、認知科學和心理學)的第一個五十年期間,保持對於該領域多方面顯著進展的覺察。

第二部分:人工智能在各領域的應用

雖然人工智能的很多研究和應用會基於一些通用技術,比如說機器學習,但在不同的經濟和社會部門還是會有所區別。我們稱之為不同的領域(domain),接下來的這部分將介紹人工智能研究和應用的不同類型,以及影響和挑戰,主要有八個方面:交通、家庭服務機器人、醫療健康、教育、低資源社區、公共安全、工作和就業、娛樂。

基於這些分析,我們還預測了一個有代表性的北美城市在未來 15 年的趨勢。與人工智能的流行文化中的典型敘述不同,我們尋求提供一個平衡的觀點來分析,人工智能是如何開始影響我們日常生活的,以及從現在到 2030 年,這些影響將如何發展。

1.交通

交通可能會成為首批幾個特定應用領域之一,在這些領域,大眾需要對人工智能系統在執行危險任務中的可靠性和安全性加以信任。自動化交通會很快司空見慣,大多數人在嵌入人工智能系統的實體交通工作的首次體驗將強有力的影響公眾對人工智能的感知。

智能汽車

交通規劃

即時交通

人機交互

2.家庭服務機器人

過去十五年中,機器人已經進入了人們的家庭。但應用種類的增長慢得讓人失望,與此同時,日益複雜的人工智能也被部署到了已有的應用之中。人工智能的進步常常從機械的革新中獲取靈感,而這反過來又帶來了新的人工智能技術。

未來十五年,在典型的北美城市里,機械和人工智能技術的共同進步將有望增加家用機器人的使用和應用的安全性和可靠性。特定用途的機器人將被用於快遞、清潔辦公室和強化安全,但在可預見的未來內,技術限制和可靠機械設備的高成本將繼續限制狹窄領域內應用的商業機會。至於自動駕駛汽車和其它新型的交通機器,創造可靠的、成熟的硬件的難度不應該被低估。

真空吸塵器

家庭機器人 2030

 3.醫療

對人工智能而言,醫療領域一直被視為一個很有前景的應用領域。基於人工智能的應用在接下來的幾年能夠為千百萬人改進健康結果和生活質量,但這是在它們被醫生、護士、病人所信任,政策、條例和商業障礙被移除的情況下。主要的應用包括臨床決策支持、病人監控、輔導、在外科手術或者病人看護中的自動化設備、醫療系統的管理。

近期的成功,比如挖掘社交媒體數據推斷潛在的健康風險、機器學習預測風險中的病人、機器人支持外科手術,已經為人工智能在醫療領域的應用擴展出了極大的應用可能。與醫學專家和病人的交互方法的改進將會是一大挑戰。

至於其他領域,數據是一個關鍵點。在從個人監護設備和手機 App 上、臨床電子數據記錄上收集有用的數據方面,我們已經取得了巨大的進展,從協助醫療流程和醫院運行的機器人那里收集的數據可能較少一些。但使用這些數據幫助個體病人和群體病人進行更精細的針對和治療已經被證明極其的困難。

研究和部署人工智能應用已經被過時的條例和激勵機制拉扯後腿。在這樣大型的、複雜的系統中,貧乏的人機交互方法和固有的難題以及部署技術的風險也阻礙了人工智能在醫療的實現。減少或者移除這些障礙,結合目前的創新,有潛力在接下來幾年為千百萬人極大的改進健康結果和生活質量。

臨床應用

醫療分析

醫療機器人

移動健康

老年看護

4.教育

在過去的十五年間,教育界見證了為數眾多的人工智能科技的進步。諸如 K-12 線上教育以及大學配套設備等等應用已經被教育家和學習者們廣泛利用。盡管素質教育還是需要人類教師的活躍參與,但人工智能在所有層面上都帶來了強化教育的希望,尤其是大規模定制化教育。如何找到通過人工智能技術來最優化整合人類互動與面對面學習將是一個關鍵性的挑戰,這一點醫療行業也是如此。

機器人早已經成為了廣為歡迎的教育設備,最早可以追溯到 1980 年 MIT Media Lab 所研制出的 Lego Mindstorms。智能輔導系統(ITS)也成為了針對科學、數學、語言學以及其他學科相匹配的學生互動導師。

自然語言處理,尤其是在與機器學習和眾包結合以後,有力推進了線上學習,並讓教師可以在擴大教室規模的同時還能做到解決個體學生的學習需求與風格。大型線上學習的系統所得的數據已經為學習分析產生了迅速增長的動力。

但是,學院與大學采用人工智能技術的步伐依然很緩慢,主要是由於資金的缺乏,以及其可以幫助學生達成學習目標的有力證據。一個典型美國北部城市的未來五十年,智能導師與其他人工智能技術幫助教師在課堂或家中工作的規模很有可能會顯著擴大,因為意願學習是基於虛擬現實的應用。但是計算機為基礎的學習系統將無法完全替代學校里的教師們。

教育機器人

智能輔導系統(ITS)與線上學習

學習分析

挑戰和機遇

更廣大的社會成果

自廣大人民難以獲得教育的國家,如果這些群體有可以獲取在線教育的工具,那麽在線資源將會產生重要的積極影響。在線教育資源的發展應該能讓支持國際教育項目的基金會可以通過提供工具和相對簡單的使用培訓來更輕松地提供素質教育。比如說,針對 iPad 開發出了大量的、且大部分免費的教育應用。

在消極的一面,現在學生已有把自己的社會接觸限制在電子設備上的趨勢了,他們在網絡程序的互動上花費了大量時間,卻沒有進行社會接觸。如果教育也越來越多地通過網絡進行,那麽在學生的社會發展階段缺乏與同齡人有規律的面對面接觸會帶來怎樣的影響呢?特定的技術已經表明這會產生在神經方面的影響。另一方面,自閉癥兒童已經開始從與人工智能系統的互動中受益了。

5.低資源社區

人工智能存在許多機會去改善生活於一個典型北美城市的低資源社區中的人民生活狀況——事實上在某些情況下已經有所改變。了解這些人工智能的直接貢獻也可能會激發對於發展中國家最為貧窮的地區的潛在貢獻。在人工智能的數據收集過程中並沒有對這個人群的顯著關註,而且傳統上人工智能資助者在缺乏商業應用的研究中表現得投資乏力。

有了有針對性的激勵和資金優先次序,人工智能技術可以幫助解決低資源社區的需求。萌芽中的努力是有希望的。人工智能可能會有有助於對抗失業和其他社會問題帶來的恐懼,它或許會提供緩解措施和解決方案,特別是通過受影響的社區以與其建立信任的方式來實現。

6.公共安全與防護

城市已經為公共安全和防護部署人工智能技術了。到 2030 年, 典型的北美城市將在很大程度上依賴它們。這些措施包括可以檢測到指向一個潛在犯罪的異常現象的監控攝像機、無人機和預測警務應用。與大多數問題一樣,好處與風險並存。

獲得公眾信任是至關重要的。雖然會存在一些合理的擔心,即與人工智能合作的警務可能會在某些情況下變得霸道或是無處不在,而相反的情況也是可能的。人工智能可能使警務變得更有針對性並只在需要時被使用。而且假設經過仔細的部署,人工智能也可能有助於消除一些人類決策中固有的偏見。

對於人工智能分析學更成功的一個應用是檢測白領犯罪,比如信用卡詐騙罪。網絡安全(包括垃圾郵件)是一個被廣泛關註的問題,而機器學習也對其有所影響。

人工智能工具也可能被證明有助於警察管理犯罪現場或是搜索和救援活動,它可以幫助指揮官排列任務的優先次序以及分配資源,盡管這些工具還沒有為這些活動的自動化做好準備。在一般的機器學習尤其是在轉換學習中的改進——在新情境中基於與過去情況的相似性而加快學習——可能有利於這樣的系統。

7.就業與勞資

盡管人工智能很有可能會對典型北美城市的就業和工作場所產生深遠的影響,但對當前的影響我們目前還難以作出評估——是積極的還是消極的。在過去十五年,由於經濟衰退和日益的全球化,尤其是中國參與到了世界經濟中,就業狀況已經發生了改變,非人工智能的數字技術也發生了很大的變化。自 1990 年代以來,美國經歷了生產率和 GDP 的連續增長,但平均收入卻停滯不前,就業人口比率也已經下降。

有一些數字技術有重大影響(好的影響或壞的影響)的行業的顯著案例,而在一些其它的行業,自動化將很有可能能在不久的將來發生重大的改變。許多這些改變已經得到了「例行的」數字技術的推動,其中包括企業資源規劃、網絡化、信息處理和搜索。理解這些改變應該能為人工智能影響未來勞動力需求的方式(包括技能需求的改變)提供見解。

到目前為止,數字技術已經給中等技能的工作(比如旅行代理)帶來了更大的影響,而不是非常低技能或非常高技能的工作。另一方面,數字系統所能完成的任務的範圍正隨著人工智能的演進而提升,這很可能會逐漸增大所謂的「例行任務」的範圍。人工智能也正向高端的領域蔓延,包括一些機器之前無法執行的專業服務。

為了獲得成功,人工智能創新將需要克服可以理解的人們對被邊緣化的恐懼。在短期內,人工智能很有可能會取代任務,而非工作,同時還將會創造新類型的工作。但新類型的工作比將可能失去的已有工作更難以想象。就業領域的變化通常是漸進的,不會出現劇烈的過渡。

隨著人工智能進入工作場所,這很有可能是一個持續的趨勢。影響的範圍也將擴大,從少量的替代或增強到完全的替代。比如說,盡管大部分律師的工作還沒被自動化,但人工智能在法律信息提取和主題建模方面的應用已經自動化了一部分第一年工作的律師新人的工作。在不遠的將來,包括放射科醫生到卡車司機到園丁等許多類型的工作都可能會受到影響。

人工智能也可能會影響工作場所的大小和位置。許多組織和機構很龐大的原因是他們所執行的功能只能通過增加人力來擴大規模,要麽是「橫向」擴展地理區域,要麽是「縱向」增多管理層級。隨著人工智能對許多功能的接管,擴展不再意味著會帶來大型的組織。

許多人已經指出一些知名的互聯網公司只有很少數量的員工,但其它公司並不是這樣。人類企業可能存在一個自然的規模大小,在這樣的企業中,CEO 能夠認識公司里的每一個人。通過將創造有效地外包給人工智能驅動的勞動力市場,企業會傾向於自然的大小。

人工智能也將創造工作,特別是在某些行業中,通過使某些特定任務更重要,以及通過產生新的交互模型創造新類型的工作。複雜的信息系統可被用於創造新的市場,這往往會帶來降低門檻和增加參與的影響——從應用商店到 AirBnB 再到 taskrabbit。人工智能界有一個活躍的研究社區在研究創造新市場和使已有市場更高效地運作的進一步的方式。

盡管工作本身有內在的價值,但大部分人工作是為了購買他們看重的商品和服務。因為人工智能系統可以執行之前需要人力的工作,因此它們可以導致許多商品和服務的成本下降,實實在在地讓每個人都更富有。當正如當前的政治辯論中所給出的例子一樣,失業對人們的影響比對散布的經濟效益的影響更顯著——尤其是那些直接受其影響的人;而不幸的是,人工智能常常被視作是工作的威脅,而不是生活水平的提升。

人們甚至在某些方面存在恐懼——害怕人工智能會在短短一代人的時間內迅速取代所有的人類工作,包括那些需要認知和涉及到判斷的工作。這種突變是不太可能發生的,但人工智能會逐漸侵入幾乎所有就業領域,這需要在計算機可以接管的工作上替換掉人力。

人工智能對認知型人類工作的經濟影響將類似於自動化和機器人在制造業工作上對人類的影響。許多中年工人失去了工廠里的高薪工作以及伴隨這個工作的家庭和社會中的社會經濟地位。長期來看,一個對勞動力的更大影響是失去高薪的「認知型」工作。

隨著勞動力在生產部門的重要性的下降(與擁有知識資本相比),大多數市民可能會發現他們的工作的價值不足以為一種社會可以接受的生活標準買單。這些變化將需要政治上的,而非單純經濟上的響應——需要考慮應該配置怎樣的社會安全網來保護人們免受經濟的大規模結構性轉變的影響。如果缺少了緩解政策,這些轉變的一小群受益者將成為社會的上層。

短期來看,教育、再訓練和發明新的商品和服務可以減輕這些影響。更長期來看,目前的社會安全網可能需要進化成更好的服務於每個人的社會服務,例如醫療和教育或有保障的基本收入。事實上,瑞士和芬蘭等國家已經在積極地考慮這些措施了。

人工智能可能會被認為是一種財富創造的完全不同的機制,每個人都應該從全世界人工智能所生產的財富中分得一部分。對於人工智能技術所創造的經濟成果的分配方式,相信不久之後就會開始出現社會爭議了。因為傳統社會中由孩子支持他們年老的父母,也許我們的人工智能「孩子」也應該支持我們——它們的智能的「父母」。

8.娛樂

隨著過去十五年互聯網的爆發式增長,很少有人能想象沒有它的生活。在人工智能的驅動下,互聯網已經將用戶生成的內容作為了信息和娛樂的一個可行的來源。Facebook 這樣的社交網絡現在幾乎已經無處不在,而且它們也成為了社會互動和娛樂的個性化渠道——有時候會損害人際交往。WhatsApp 和 Snapchat 等應用可以讓智能手機用戶與同伴保持「接觸」和分享娛樂和信息源。

在《第二人生》這樣的在線社區和《魔獸世界》這樣的角色扮演遊戲中,人們想象在虛擬世界中有一個虛擬的存在。亞馬遜 Kindle 這樣的專用設備已經重新定義了打發時間的要領。現在只需手指點點劃劃幾下,就可以瀏覽和獲取書籍了;一個口袋大小的設備就可以存儲成千上萬本書,而閱讀體驗基本上可手持的紙質書差不多。

現在我們有了共享和瀏覽博客、視頻、照片和專題討論的可信平臺,此外還有各種各樣用戶生成的內容。為了在互聯網的規模上運行,這些平臺必須依賴現在正被積極開發的技術,其中包括自然語言處理、信息檢索、圖像處理、眾包和機器學習。比如,現在已經開發出了協同過濾(collaborative filtering)這樣的算法,它可以基於用戶的人口統計學細節和瀏覽歷史推薦相關的電影、歌曲或文章。

為了跟上時代的步伐,傳統的娛樂資源也已經開始擁抱人工智能。正如書和電影《點球成金》中給出的例子,職業運動現在已經轉向了密集的量化分析。除了總體表現統計,賽場上的信號也可以使用先進的傳感器和相機進行監控。用於譜曲和識別音軌的軟件已經面世。

來自計算機視覺和 NLP 的技術已被用於創建舞臺表演。即使非專業用戶也可以在 WordsEye 等平臺上練習自己的創造力,這個應用可以根據自然語言文本自動生成 3D 場景。人工智能也已經被用於協助藝術品的歷史搜索,並在文體學(stylometry)得到了廣泛的應用,最近還被用在了繪畫分析上。

人類對人工智能所驅動的娛樂的熱情是很令人驚訝的,但也有人擔心這會導致人與人之間的人際交互減少。少數人預言說人們會因為在屏幕上花費了太多時間而不再與人互動。孩子們常常更願意在家里快樂地玩他們的設備,而不願意出去和他們的朋友玩耍。人工智能會使娛樂更加交互式,更加個性化和更有參與感。應該引導一些研究來理解如何利用這些性質為個人和社會利益服務。

第三部分:人工智能公共政策的前景與建議

人工智能應用的目標必須是對社會有價值。我們的政策建議也會遵循這個目標,而且即便這個報告主要關註的是 2030 年的北美城市,建議依然廣泛適用於其他城市,同時不受時間限制。一些提升解讀和人工智能系統能力並參與其使用的策略可以幫助建立信任,同時防止重大失敗。

在增強和提升人類能力和互動時需要小心,還有避免對不同社會階層的歧視。要強調多做鼓勵這個方向以及溝通公共政策探討的研究。鑒於美國目前的產業監管,需要新的或重組的法律和政策來應對人工智能可能帶來的廣泛影響。

政策不需要更多也不要更嚴,而是應該鼓勵有用的創新,生成並轉化專業知識,並廣泛促進企業與公民對解決這些技術帶來的關鍵社會問題的責任感。長期來看,人工智能將會帶來新財富,整個社會也要探討如何分配人工智能技術帶來的經濟成果的分配問題。

如今以及未來的人工智能政策

為了幫助解決個人和社會對快速發展的人工智能技術產生的憂慮,該研究小組提供了三個一般性政策建議。

1. 在所有層級的政府內,制定一個積累人工智能技術專業知識的程序。有效的監管需要更多的能理解並能分析人工智能技術、程序目標以及整體社會價值之間互動的專家。

缺少足夠的安全或其他指標方面的專業技術知識,國家或地方政府官員或許或拒絕批準一個非常有前途的應用。或者缺少足夠訓練的政府官員可能只會簡單采納行業技術專家的說法,批準一個未經充分審查的敏感的應用進入市場。不理解人工智能系統如何與人工行為和社會價值互動,官員們會從錯誤的角度來評估人工智能對項目目標的影響。

2. 為研究人工智能的平等、安全、隱私和對社會的影響掃清感知到的和實際的障礙。

在一些相關的聯邦法律中,如計算機欺詐和濫用法案(Computer Fraud and Abuse Act)和數字千年版權法的反規避條款(theanti-circumvention provision of the Digital Millennium Copyright Act),涉及專有的人工智能系統可能被如何逆向向工程以及被學者、記者和其他研究人員評價的內容還很模糊。當人工智能系統帶來了一些實質性後果需要被審查和追究責任時,這些法律的研究就非常重要了。

3. 為人工智能社會影響的跨學科研究提供公共和私人資金支持。

從整個社會來看,我們對人工智能技術的社會影響的研究投入不足。資金要投給那些能夠從多角度分析人工智能的跨學科團隊,研究範圍從智能的基礎研究到評估安全、隱私和其他人工智能影響的方法。一下是具體問題:

當一輛自動駕駛汽車或智能醫療設備出現失誤時,應該由誰來負責?如何防止人工智能應用產生非法歧視?誰來享有人工智能技術帶來的效率提升的成果,以及對於那些技能被淘汰的人應該采取什麽樣的保護?

隨著人工智能被越來越廣泛和深入地整合到工業和消費產品中,一些領域中需要調整現有的建立監管制度以適應人工智能創新,或者在某些情況下,根據廣泛接受的目標和原則,從根本上重新配置監管制度。

在美國,已經通過各種機構將監管具體到各個行業。在設備中使用人工智能實現醫療診斷和治療由食品藥品監督管理局(FDA)監管,包括定義產品類型和指定產生方法,還有軟件工程的標準。無人機在管制空域中的使用由美國聯邦航空局(FAA)監管。面向消費者的人工智能系統將由聯邦貿易委員會(FTC)監管。金融市場使用的人工智能技術,如高頻交易,由證券交易委員會(SEC)監管。

除了針對具體行業制定監管的方法外,「重要基礎設施」中定義模糊和廣泛的監管類別可能適用於人工智能應用。

鑒於目前美國行政法結構,短期內制定出全面的人工智能政策法規似乎不太可能。但是,可以根據人工智能在各種情境中可能出現的法律和政策問題,廣泛列出多個類別。

隱私

創新政策

責任(民事)

責任(刑事)

代理

認證

勞動力

稅務

政治

未來的指導原則

面對人工智能技術將帶來的深刻變化,要求「更多」和「更強硬」的監管的壓力是不可避免的。對人工智能是什麽和不是什麽的誤解(尤其在這個恐慌易於散布的背景下)可能引發對有益於所有人的技術的反對。那將會是一個悲劇性的錯誤。扼殺創新或將創新轉移到它處的監管方法同樣也只會適得其反。

幸運的是,引導當前數字技術的成功監管原則可以給我們帶來指導。比如,一項最近公布的多年研究對比了歐洲四個國家和美國的隱私監管,其結果卻很反直覺。西班牙和法國這樣的有嚴格的詳細法規的國家在企業內部孕育出了一種「合規心態(compliance mentality)」,其影響是抑制創新和強大的隱私保護。

這些公司並不將隱私保護看作是內部責任,也不會拿出專門的員工來促進其業務或制造流程中的隱私保護,也不會參與必需範圍之外的隱私倡議或學術研究;這些公司只是將隱私看作是一項要滿足規範的行為。他們關註的重點是避免罰款或懲罰,而非主動設計技術和采納實際技術來保護隱私。

相對地,美國和德國的監管環境是模糊的目標和強硬的透明度要求和有意義的執法的結合,從而在促進公司將隱私看作是他們的責任上做得更加成功。廣泛的法律授權鼓勵企業發展執行隱私控制的專業人員和流程、參與到外部的利益相關者中並采用他們的做法以實現技術進步。對更大的透明度的要求使民間社會團隊和媒體可以變成法庭上和法庭外的公共輿論中的可靠執法者,從而使得隱私問題在公司董事會上更加突出,這又能讓他們進一步投資隱私保護。

在人工智能領域也是一樣,監管者可以強化涉及內部和外部責任、透明度和專業化的良性循環,而不是定義狹窄的法規。隨著人工智能與城市的整合,它將繼續挑戰對隱私和責任等價值的已有保護。和其它技術一樣,人工智能也可以被用於好的或惡意的目的。

這份報告試圖同時強調這兩方面的可能性。我們急切地需要一場重要的辯論:如何最好地引導人工智能以使之豐富我們的生活和社會,同時還能鼓勵這一領域的創新。應該對政策進行評估,看其是否能促進人工智能所帶來的益處的發展和平等共享,還是說會將力量和財富集中到少數權貴的手里。而因為我們並不能完美清晰地預測未來的人工智能技術及其所將帶來的影響,所以相關政策一定要根據出現的社會難題和線索不斷地重新評估。

截至本報告發布時,重要的人工智能相關的進展已經在過去十五年內給北美的城市造成了影響,而未來十五年還將有更大幅度的發展發生。最近的進展很大程度是由於互聯網所帶來的大型數據集的增長和分析、傳感技術的進步和最近的「深度學習」的應用。

未來幾年,隨著公眾在交通和醫療等領域內與人工智能應用的遭遇,它們必須以一種能構建信任和理解的方式引入,同時還要尊重人權和公民權利。在鼓勵創新的同時,政策和流程也應該解決得到、隱私和安全方面的影響,而且應該確保人工智能所帶來的好處能得到廣泛而公正的分配。如果人工智能研究及其應用將會給 2030 年及以後的北美城市生活帶來積極的影響,那麽這樣做就是非常關鍵的。

人工智能
贊(...)
文章評論
匿名用戶
發布
PermaLink: https://articles.zkiz.com/?id=215979

客服機器人上線!人工智能首次運用到旅遊服務

經過一段時間的測試之後,攜程9月22日宣布,新版客服機器人於近日正式上線運營。這也是在線旅遊行業中首家大規模使用客服機器人系統的公司。

據悉,用戶可以通過攜程旅行APP和攜程網站等方式,通過使用“在線客服”,就可以“勾搭”客服機器人了。

業界認為,在保持原先架構的基礎上,客服機器人的上線,不僅將降低用戶費力度,還將提升攜程整體的運營效率。事實上,在海外旅遊市場,已經有不少運用機器人進行旅遊服務的做法。未來,類似的服務也會在中國旅遊市場越來越多。

智能問答

第一財經記者采訪了解到,今年3月,攜程在微信服務號“攜程旅行網”上推出了一個有趣的活動——“尋找梁建章”。

梁建章是攜程董事局主席兼CEO。在服務號設置了兩個問題:“我想聊聊生娃”、“我要吐槽攜程”。如果回複“1”,就會自動彈出與“想生幾個娃”相關的問題,回複1、2、3,立刻就會跳出來三個不同的回答。

“這是屬於自動回複,只是大家理解中的‘客服機器人’系統的一小部分。”攜程客戶服務部高級總監裴曉麗介紹,“但你口中真正的‘客服機器人’,是更高級的一個程式,能非常迅速地解決消費者的需求,降低預訂產品的費力度。”

舉個例子。通過PC版頁面或攜程旅行APP預訂相關產品時,找到“攜程在線咨詢”(PC版)或“客服”(APP版)時,就能體驗到攜程的“客服機器人”服務。

如果深入體驗,消費者會發現:與電話接聽的客服人員不同,機器人能在平均一秒到兩秒時間內,回複消費者所提出來的酒店預訂、機票預定、退改簽及一些旅遊的“入門問題”等。

“通過過去多年的積累,公司在客服機器人項目的進步明顯。”裴曉麗表示,“公司有專人小組,會時時收集消費者各式各樣的提問。對於常規類問題的詢問,我們會在‘客服機器人’的引導頁面上貼出。據我們的預計,這其實解決了多數客人對訂單處理的咨詢需求,也能在第一時間跟進消費者的相關可回答問題。”

根據一般經驗,後臺系統中,機器人運作程序會對消費者的問題進行相對比較準確的判斷:如果能,會給出回複;如果不能,就會轉到人工服務。攜程的客服機器人同樣如此。

助力人均效益

在分析人士看來,OTA(在線旅遊服務商)如今發展到由機器人去解決重複的事項,也是一件必然之事。

數據顯示,2015年,攜程全年盈利25億元人民幣,以3萬名員工計算,那麽,攜程人均產生的效益(利潤)達83333元。

“技術革新幫助攜程提升了運營的自動化率,進而促進運營效率的提升。”梁建章介紹,“目前,客服機器人處理的業務已占機票預訂客服總量的近40%,減少了公司招募額外客服人員的需求。”

“現在我們都在研討智能服務,比如智慧酒店、智慧景區、智慧旅行等,所以我們會在未來看到更多智能服務,類似酒店二維碼開門、機器人服務等。在日本,有酒店使用機器人進行前臺入住服務。而攜程這類企業推出的在線機器人服務也是未來的一個旅遊服務趨勢,一旦可以達到規模化效應則可以節省人力資源和成本。要知道呼叫中心這類服務要耗費大量人力成本,而采用機器人服務後則會更加標準化、規範化和低成本化進行旅遊服務。”華美首席知識專家趙煥焱分析。

在剛剛舉行的“2016中國景區創新力高峰論壇”上,景秀創新工場COO曾慧雯表示,未來是一個萬物互聯的時代,要在這個時代更好地發展旅遊業,就需要創新力,今後融合了人工智能的旅遊服務將成為趨勢,當然,各類機器人服務也是各大旅遊企業應該嘗試和發展的創新點。但業者也需要註意研發機器人的成本和投入平衡,以免影響盈利。

PermaLink: https://articles.zkiz.com/?id=216048

李開複:人工智能是下一個革命,需要思考5秒以下的人類工作將被取代

來源: http://www.iheima.com/zixun/2016/0924/158921.shtml

李開複:人工智能是下一個革命,需要思考5秒以下的人類工作將被取代
李開複 李開複

李開複:人工智能是下一個革命,需要思考5秒以下的人類工作將被取代

9月22日,創新工場2016年度峰會在中國的創新之城深圳舉行,在會上,李開複就中國互聯網的創新與趨勢進行了分享。

以下為演講全文:

各位大家上午好,今天我想跟大家分享的主要有以下幾點:

一,我們眼中今天中國互聯網的現狀以及我們從中看到的重大投資機會;

二,創新工場現在對重大投資領域的部署;

三,我們過去一年的表現。

在創新工場創立之初,我們主要關註的是互聯網,後來我們在遊戲、社交、應用APP領域都做了很好投資。但是我們從來沒有把自己定位成一個僅僅投資互聯網的公司,我們實際上要做的是成為一家追隨科技趨勢的投資公司:如果一個公司能夠最了解科技的趨勢和方向,找到這個風口,而且在別的投資人和創業者沒有看到的時候就把錢帶進去,這樣會給投資者帶來很大的回報。

創新工場具有兩大特色,第一,我們是最懂投資者的VC,第二,我們會給我們的創業者帶來最大的價值。今天我將主要圍繞這兩點解釋我們所看到的未來趨勢,同時投資之後會給創業者什麽價值。

5019043

一. 互聯網的新趨勢與新機會

現狀與趨勢

首先,講一下國內互聯網的重大趨勢改變。這些趨勢和改變意味著我們的投資和方向也需要不斷調整,我們每一年都在調整方向。

下面這張圖所告訴我們的是近年幾個重大趨勢的改變。

c15482b

左上角的數據告訴我們,雖然中國是世界上最大的互聯網國家,但是其用戶成長率在下降,這就意味著,過去那種依靠人口紅利的創業模式,僅僅靠燒錢、燒用戶,之後再琢磨怎麽賺錢的模式已經不是最好的模式,因為中國互聯網人口已經接近飽和。

當然,接近飽滿的時候這些人越來越有錢,越來越能夠移動支付,他可能帶來新的投資機會,但以前所謂幾個小朋友做一個APP炒火炒紅的創業模式已然很難行得通了。

左下角的數據顯示,雖然APP總量在快速成長,但實際非活躍的APP,也就是僵屍APP卻是越來越多。這也再一次告訴我們,現在要再一次尋找新的風口,新的標的,新的投資方向。

過去一段時間,我們也看到一些人口紅利創業模式在做向下一步的自然延伸。從七年前五年前看過來,我們會發現,一個企業往往先是依靠人口紅利做起來,然後慢慢找到賺錢的方法,而它所在的行業也會從剛開始的藍海變成紅海,從很多競爭者變成少數的,直到趨於壟斷,所以看到美團也好,58也好,現在都是通過合並來尋找下一步最大成長的機會。

93b93ff

最近大家都在說的互聯網寒冬,實際上與目前市場的估值過高不無關系。從上面左邊兩個圖我們可以看到,確實在VC眼中,現在的項目太貴,在創業者看來,又找不到投資。賣者不願意降價,買者不願意付費,所以市場就會變得冷清。

從投資案例數看,2015年是非常好的一年,但是從今年前半年的數據看,如果後半年跟前半年一樣的話,今年整體的投資案例數大概只能達到2015年的水平。

從這個角度看起來,大家可能會有一些擔心,但是實際上不是這樣。雖然數據告訴我們整個大環境可能有點問題,像P2P、O2O可能開始有點讓人擔心,但是在有不少的領域還是非常火。例如人工智能、AR、VR、教育市場等這幾個市場都非常火,都發展得非常好。這些重點成長的領域或者所謂的風口,其實投資量是在增加的。

創新工場投資的幾個案子,包括馭勢科技吳甘沙,包括第四範式,這幾個公司都是在所謂的泡沫,所謂寒冬的時候用非常好的估值融到下一輪。雖然他們沒有足夠大的收入,但當這些公司有很棒的創始人,找到了一個好的風口時,他們其實是不需要擔心投資的,而相應的,VC也不需要再去看過去的什麽紅海了,而是在把時間放在看這些新的崛起的領域有什麽機會。

創新工場的投資策略

下面這張圖內容非常豐富:

c15482b

上圖中,藍色的柱形是我們創新工場在各個行業投資數量的真實數據,橘色的曲線則是市場對該領域的追逐熱度。曲線向上代表熱度高,大家都在往里鉆,曲線位置低則代表著大家都不想投。

第一張是P2P金融行業。所謂P2P金融就是利用一個賣家的機會在網上形成一個市場,他有可能打破金融市場的壟斷,可以產生非常好的機會,但是也可能帶來很多欺詐,產生很多道德風險以及監管難題,鑒於這些顧慮,我們創新工場從來沒有進入P2P金融。

我記得我生病回來,記者一直問我為什麽不進入P2P,我的回答是擔心這個行業會發生問題,結果後來真的發生了。所以現在也沒有人再問我們這個問題了。

這其實說明我們一向非常謹慎。做風投當然有可能錯過一兩個機會,但是更重要的是我們抓在手里的那些機會都是對的,其他的,即便錯過一兩個也沒關系,事實上不投也OK的。

在對於金融的改革和金融創新方面,我們看的還是它里面核心的技術,無論是人工智能的技術,還是區塊鏈的技術,這些技術對金融的改革是真實的、可持續的、長期的。

對金融創新和AI的投資證明了我剛才所講的投資原則。我們可以看到,在我們2012年做AI投資的時候,業界還沒有聽過AI,2013年也是一樣,2015年開始有意識了,2016年到AlphaGo的時候,我們已經投資了幾十個案子,這就是我們作為創新工場識別趨勢的優勢。

從上面我們可以看到,O2O的來臨,還有消費升級,這兩個有點相關的領域實際上已經慢慢被識別為重要的機會領域。O2O我們從來不認為是不成立的,O2O今天即便燒了很多錢,很多挑戰和公司倒閉,但是滴滴這一個公司說不定能賺回所有出行公司輸掉的錢。問題只是在於有些公司燒錢太快,這樣的方法一定會失敗的,這實際上不是O2O的問題,而是VC的風格和選擇問題。從上圖可以看到,在O2O方面我們整體來說基本是跟市場走得差不多,但是實際投資的量又是非常少的,我們的投資非常謹慎,我們所投的公司量並不多,錢也不多,絕大多數的情況都挺好。

消費升級待會再詳細解釋,這里只是想強調的是,當人口紅利消失的時候,這些已經成為移動互聯網用戶的群體,他們實際上在想的是怎麽樣生活得更好,這是我們特別重視的領域,在消費升級這個詞還沒有造出來我們就投了很多案子。

在2014年我們停止了對移動遊戲的投資,因為我們認為遊戲已經達到一個頂峰。但因為在投資遊戲的時候,我們對虛擬和變現有了非常深刻的理解,因此把我們怎麽在虛擬社會里賺錢這個認知投射到了新的領域:文化娛樂。

文娛這個領域可能看起來很廣,但是簡單來說就是電影、電視劇、綜藝節目,無論在網上還是傳統渠道上這些內容都很賺錢,但是他們未來會更多的進入網絡時代,他們需要學習怎麽用遊戲的那套方法來運營、獲利、變現,所以我們非常奇怪的變成了很多電影、電視的最好的投資夥伴,這是我們當初沒有料到的事情,從中也賺到錢——雖然這可能不是最高的回報。

從以上這些行業投資例子可以看到,創新工場最希望做的,就是成為最懂科技趨勢的投資人,而到底我們是不是懂,看一下我們的投資領域就很清楚:我們選擇投或不投,我們選擇在哪些領域投,我們選擇在哪些領域轉移方向,數據最有說服力。

雙幣基金為什麽是必須的

a0318a9

在今天的中國融資領域里面,一個雙貨幣資金是必須的。為什麽這麽看?我來講一下理由。

回顧過去的10年,國內最頂尖的VC肯定是美金投資人,但最近幾年人民幣也越來越受創業者青睞。但這兩種基金都各自特點,因此對於創業者,他就需要根據自己的需求來決定是需要美元投資還是人民幣投資。關於兩者的區別,大家可以從上圖中清晰的看到。

另外需要強調的是,美金的周期是10+2,我們人民幣的周期是5+2,美國標準的項目可能是最大的成功概率只有10%,但是可以得到100倍回報,最典型的人民幣項目能夠成功退出的概率是40%,但是可能是8倍到10倍回報。

作為一個管理雙幣基金的VC,我們很高興為兩者服務,我們希望對所有的創業者都有吸引力,我們必須要有兩種貨幣,並不是所有的VC都清晰的看到這一點,但我們認為看到這一點並作合適調整是最好的。這也驗證了創新工場有獨特的眼光和風格和魄力,在正確的時候作一些正確的改變。

二. 創新工場的重大投資部署

人工智能

既然人口紅利已經到頂了,移動互聯網也基本風口已過,那麽下一個革命是什麽?下一個革命是人工智能。

我們認為在未來10年,大部分人類需要思考5秒鐘以下的工作都會被取代,比如我們巴曙松教授寫的文章,或者《紐約時報》的文章這些不會被簡單的替代,但是簡單的、交易型的,所有中介的公司,所有助理的公司、職位都會消失。人工智能沒有我們腦子那麽奧妙的結構,但是當它掌握了比人這一輩子能看到數據還多的數據量的時候,輔以特殊的學習方式,它就可以超越人了。

在這里可以看到創新工場對人工智能的藍圖,這里可以劃分成五部分,第一是大數據,第二個感知,我們認為語音和人臉、物體的識別會越做越好,對自然語言的理解在一個領域可以做得很好,但是跨領域還需要更長的時間,還有在傳感器方面,現在都比較貴,但是隨著大量的生產就會變便宜。機器人更多是商業的應用,而不是家庭的應用,因為機器人實際上離人的期望值還挺遠,但是我們並不是不看好所有家庭機器人,也有一個例外的,比如可以播放音樂增加家庭娛樂性的機器人等等。

d080f8c

中間棕色的是最重要的,就是平臺的形成,我們認為平臺的形成還有幾年。當有平臺時,人工智能就可以普及,應用就可以井噴了,這個還要4到5年。這4到5年非常關鍵,因為在人工智能平臺未形成之前的這段時間,人工智能專家還會有非常獨特的優勢,如果我們找到這些專家就有創業的機會。任何一個好的技術變成一個平臺都需要若幹年時間的演化,移動互聯網如此,人工智能如此。

我們在人工智能方面投了很多公司,我們獨特的優勢是我們在中國、美國都有投資。美國的投資非常著重AI的領域,同時中國畢業的學生對AI興趣非常大,國內外有很多頂尖媒體都報道了我們所投資的公司,例如《紐約時代》、《福布斯》雜誌等都已經報道了我們的項目。

文化娛樂

我們第二大投資領域應該是文化娛樂領域。文娛我們看兩個方向。第一是IP,而且是可持續性的,呈高成長性的那種IP。第二要看用戶的平臺,當然平臺是可遇不可求的,不是在創業第一天就做出一個平臺,這是兩個我們主要看到的方向。

94a5655

7a15df8

那麽在內容方面我們一個專長,過去跟大家介紹的,就是了解95後,我們有一批經理,每天去找新的現象和投資機會,比如當年投美圖秀秀、SNH48,比如說我們投了動漫,是日本最頂尖的,還有我們投了古風,年輕人很喜歡這個,這些可能不見得在座的人都了解,因為95後這一批人真正出生在成長在虛擬世界里面的,他們的思維方式跟我們都不一樣。

我很幸運的是,雖然當我的90後孩子在用他們喜歡的產品時,我沒有辦法再追上他們的腳步,但是由於我的孩子允許我在Facebook上成為他的朋友,所以我還是有機會了解這些新東西的趨勢。終有一天,我們會發現我們老了,孩子們玩的東西玩不慣了,最後就OUT,我相信在國內看到直播、網紅,他們還會越走越快,終有一天他們也會OUT,我的悲傷你們有一天也會感同身受到。

因為我們做的SNH48,因為我們做了馬東的《奇葩說》,因為我們是懂互聯網的VC,因為我們懂對接,我們就成為了傳統娛樂界的好朋友,如果他們中誰想創業,想走互聯網的路線,我們就成為他們第一的選擇。

在線教育

下一個領域是在線教育。

119c7d9

我們看到的幾個趨勢,一個是教育可以靠互聯網來傳播、獲客,因為音頻視頻質量的問題慢慢得到解決,所以空間、距離不是問題,你遠程也可以學習,而且一樣清楚、精彩。第二是,在線教育要關註現實問題:家長希望孩子升學,老師希望學生分數越高,所以出現了越來越多交互性強的、趣味性強的,能夠真正讓孩子們多學到知識的創業創新。另外我們看到,AI是可以運用到教育上的,該做什麽方向,給家長什麽暗示,讓孩子該走什麽路線,這都是人工智能的優勢。

在教育上我們投了三個比較大的代表性公司,第一個是VIPKID,第二個是在老師在課堂上用,非常能夠幫助學生成長的工具盒子魚,它已經進入一萬個學校,而且基本上所有頂尖城市的頂尖高中都在用它,做英語教學。第三是The ONE智能鋼琴,這個以前介紹過了,現在他一個月的銷售接近6000臺。

B2B

再下面是B2B的領域,B2C的時代已經達到峰值,下面我們更想看的是產品怎麽樣和產業鏈對接,怎麽樣能夠賣東西給企業用戶而不是終極用戶。我們認為B2B也能夠進入3.0的時代,不是關心怎麽買得最快、最便宜,而是關心怎麽買到最適合他的,怎麽才能最快的獲得服務。另外,我們跟釘釘是唯一合作夥伴。

消費升級

再下面我想講的是消費升級,大家都想過好的生活,那麽好的生活蘊涵有什麽機會?第一個機會是可以經過渠道做過去沒有的產品和品牌,比如說要出發告訴大家出行不一定要去旅行社,要出發是適合中國的。

dda62b9

第二,左邊是互聯網傳播的方式,比如經過微博、微信公眾號可以傳播很多新的品牌和產品,過去是沒有的,比如我們投資的新風尚等。設計是過去很難打造的一個產品,但是現在有互聯網、網紅的力量,這些是不是可以改變?

右下角我們可以看到重組的供應鏈,比如說我們在飲食方面,因為互聯網和送餐改變了中國的飲食習慣,也感謝百度外賣和餓了嗎,所以這方面我們投的都是這一類的公司。原麥山丘因為有自己的平臺很快獲得幾千萬的利潤。

三. 創新工場過去一年的成績

最後,我想介紹一下,左邊看到的是我們3億美元資金,感謝大家對我們的信任,右邊是第二期人民幣基金,25億,也感謝大家對我們的信任。

06ca5d7

在我們繼續幫助創業者培訓方面,我們繼續在做我們的兄弟會,也在做我們的群英會,新銳營、同學會等等,讓我們有更多的資源。感謝我們基金規模大了,這些創業者如果到了A輪或者B輪我們都可以投資它。

db49df2

去年我們帶中國創業者去參觀了矽谷,拜訪了比如說谷歌、蘋果、Facebook等等大公司,見到了矽谷的頂級的創業者,在這過程中我們的創業者都獲得了很大的啟發。這幾年一些中國創業者成功速度很快,但是在實現一個偉大夢想和做一個百億甚至千億美元公司的過程中,中國創業者還有很多要跟美國學習,這也是很特殊的、也只有創新工場能做到的培訓項目。

另外我們在北京上海,今天在深圳成立了公司,我們還有眾多合夥夥伴能夠大力幫助我們的創業者,當我們產品需要代言的時候,也找到明星在各個地方幫他們推廣。

最後一點,昨天我們創新工場宣布成立了人工智能工程院,我們想做的是把特別早期的科學家拉進來幫他們創業,科學家創業跟過去APP創業是不一樣的,因為科學家特別有技術能力,但並不是特別好的CEO,所以要幫他們找CEO,但是這些人創造的價值非常大,我過幾天就要去美國,把美國頂級的華人拉回來,讓他們參與我們的工程院,只要他們要創業,我們就投資他們,謝謝大家!

創新工場 李開複
贊(...)
文章評論
匿名用戶
發布
PermaLink: https://articles.zkiz.com/?id=216691

兒童玩具進入人工智能時代:外資與本土狼布局正酣

二胎政策放開與科技消費習慣的養成,正在讓越來越多的外資企業擠進中國,與“本土狼”初創企業一起分食智能玩具這個前景廣闊的市場。

上周末,葡萄科技向市場推出了一款兒童機器人電腦PaiBot,它在語音交互、笑臉識別拍攝等功能上的突破,將傳統電子玩具概念升級到人工智能階段。聯合創始人、CEO朱偉松在臺上感慨,這是一年多前創建公司第一天就夢想推出的產品,“為孩子做一臺專屬的機器人電腦”。此前,這家上海初創企業的產品思路大多是在圍繞iPad進行一些科技玩具的研發,這次相當於從iPad硬件中解放出來,轉向機器人電腦方向。

另一邊,風靡西方市場的智能玩具品牌WowWee本月中旬高調進入中國,這家上世紀80年代以生產電子狗出名的玩具品牌商這次選擇了中國70後、80後父母作為目標消費群,並一上來就將天貓、京東等電商網站作為主要渠道進行鋪設。而美國兒童平板電腦品牌NABI早在3年前就已經進入中國,但目前並未在實際銷售中成為家喻戶曉的明星品牌。

除了葡萄科技、小魚在家等兒童智能玩具初創公司,像騰訊、360等大公司也在試水布局這個領域。

而在資本層面上,李開複的創新工場至少在一年前就在篩選智能教育與兒童娛樂領域的投資標的,並在今年8月份領投了位於美國矽谷的一家K12編程玩具機器人初創企業Wonder Workshop,助其落地中國。該公司推出的Dash & Dot機器人是一款以互動遊戲方式指導5-12歲小朋友學習邏輯和編程知識的玩具,美國的STEM(即科學、技術、工程以及數學)教育理念正在慢慢得到中國市場的認可。

但無論資方背景如何,眼下進入中國兒童智能玩具市場的廠商正在呈現出同質化競爭的趨勢。拿目標用戶來說,各家瞄準的基本上都是中產家庭,像葡萄科技、WowWee各自的旗艦產品售價均在大概在兩、三千元,已經超出傳統玩具的價格區間。各家普遍采用的智能芯片、操作系統、語音語義分析、人臉識別、VR、Wi-Fi模塊等技術和硬件產品使得這類智能玩具的成本不可能太低。畢竟靠規模化的硬件去賺錢目前仍是各家可以想象的可行盈利手段。

渠道上也表現出趨同性。像WowWee除了天貓和京東旗艦店外,也在鋪設線下體驗店、Shopping mall、玩具連鎖店等,甚至包括電視購物。這個全渠道的布局策略看起來更像是這位“外來和尚”在對國內渠道進行測試。而葡萄科技也是全渠道鋪設,線上的天貓、京東以及官網,與線下的主題樂園、品牌店、代理商等,線上線下渠道比例在4:6左右。

同質化競爭下,硬件產品背後所聚集的“打包配套”資源將成為廠商競爭突圍的核心因素之一。

“葡萄科技未來走的將是一條生態路線。”葡萄科技COO(首席運營官)林泰君向第一財經記者確認了這個方向。在葡萄科技的業務矩陣布局中,除了硬件產品,還包括圍繞自有IP生產的動畫節目、電影、微信表情包等內容產品、甚至周邊衍生品,以及線上分發商店,線下用於科技展示和教育的門店(下個月將在上海大悅城開第一家店,明年下半年計劃開設20家)、K12教育培訓等。

林泰君的前東家是盛大集團,葡萄科技的這個生態型布局思路依稀能看到當年陳天橋“娛樂帝國”構想的身影;而圍繞IP做內容開發、再“反哺”硬件的做法也和騰訊以互動娛樂IP來驅動智能玩具的思路有些類似。

但一家初創企業一上來就將業務觸角幾乎伸向全領域,這本身在業界就比較罕見,而且自2014年11月成立至今,葡萄科技尚未進行過融資,以創始合夥人的自有資金啟動並維持到今天,三位合夥人的職業背景分別是遊族網絡、英特爾和盛大。但如果想要支撐起一個如此龐大的線上線下兒童娛樂與教育平臺,後期對資金的依賴將會更明顯的顯現出來。據林泰君透露,他們計劃在上市(最早2019年IPO)前只進行1-2輪融資。

PermaLink: https://articles.zkiz.com/?id=216765

人工智能長篇報告:1.5萬字告訴你AI的應用究竟對人類社會經濟有哪些影響

來源: http://www.iheima.com/zixun/2016/1008/159076.shtml

人工智能長篇報告:1.5萬字告訴你AI的應用究竟對人類社會經濟有哪些影響
豬場智能菌 豬場智能菌

人工智能長篇報告:1.5萬字告訴你AI的應用究竟對人類社會經濟有哪些影響

目前關於人工智能的四個關鍵性問題的答案,都在這里了。

來源 / AI Now《The AI Now Report》

譯者 / 網易智能(孫文文 費寧 誌文 阿樹 止水 倪盛)

前  言  

人工智能(Artificial Intelligence,簡稱AI)是一系列技術的集合,其下包括機器學習、推理、感知和自然語言處理等。人工智能的概念和應用65年前就已開始,不過最近AI的進步和應用讓這種技術再次成為熱議。隨著AI被更廣闊地應用到人類社會和經濟生活各個方面,新的機遇和挑戰隨之而生。其巨大的潛在影響讓人類不得不謹慎思考AI技術的發展與應用。

於今年7月舉行的“AI Now”研討會是由白宮科技政策辦公室和美國國家經濟委員會聯合推動的一系列研究的最後一個環節。此前的一系列研究分別從不同的角度對AI進行了分析研究,從政策法規到AI的安全控制,再到AI公益以及如何挖掘AI的更多潛能。這次“AI Now”則主要就未來十年AI在社會和經濟領域的影響進行討論。來自全球多個領域的專家學者集聚一堂,發表自己的觀點。討論的問題包括:現階段AI的迅速發展造成了哪些問題?如何更好地理解與使用AI來創造更公平公正的未來?

社會和經濟的問題多不勝數,本次“AI Now”主要圍繞“醫療”、“勞工就業”、“AI公平”以及“AI道德”準則展開討論。

之所以選擇“醫療”和“勞工就業”作為主要話題,是因為目前這兩個領域中AI滲入廣泛,AI所能帶來的問題在這兩個領域中較為突出和明顯。而“AI公平”和“AI道德”則是未來大家都關註的問題:AI會有助於世界大同還是會加劇社會不公?以及如何確保AI的利益被全體人類享用?

該研討會的舉行旨在讓AI能夠更好地造福人類社會。通過眾多專家學者聚集一堂進行討論的方式,本次“AI Now”研討會對人工智能學界內外都具有顯著意義。

  問題和建議  

研討會對未來AI所可能造成的情況做出了預見,並分別給出相應的建議。需要聲明的是,下列建議融合了全體與會人員的智慧,並不代表個人或某組織的立場。

隨著AI愈加緊密地被應用到社會經濟生活的方方面面,以下列出的問題和對應的建議可以作為投資者和相關領域從業者在對來的參考指南。

1、問題:AI的發展和應用有賴於特定的基礎設施和人、物資源。這些基礎資源的短缺無疑會限制AI的發展,對這些基礎設施和資源的掌握在AI發展前期變的至關重要。

建議:從多個渠道改善發展AI的資源基礎。註重數據集、計算機、相關人才教育培訓等配套領域的建設。

2、問題:雖然目前AI水平還在初級,不過在多個領域AI已經作為人工輔助的角色存在,並且對勞動關系產生了影響。奧巴馬經濟顧問委員會的主席傑森·弗曼(Jason Furman)就表示,低技術的體力勞動是最有可能被AI和自動化機械取而代之的職位。如果機器人開始和人類競爭工作,人力資源的分配也將迎來變革。

建議:更新自己的思維和技能,來應對AI參與所帶來的就業結構的改變。未來AI機器將承擔絕大多數低技術水平的工作職位,人們需要調整自己的技能儲備和收支方向以應對新形勢。

3、問題:AI和自動化的過程通常都是在人們目所不及的幕後進行。缺少了人類的參與,機器可能做出有失公允或不慎恰當的決定。隨著AI應用的進一步增長,對AI判斷和勘誤將變得更加重要,也更加困難。

建議:支持AI校準和勘誤的研究,AI錯誤危害評估程序也應提上日程。這些研究應和AI的突飛猛進配套發展,就像人類系統中司法之於行政。如此能夠及時發現AI犯下的錯誤,並避免嚴重後果。

4、問題:針對AI模式下公私機構公平和問責制的研究似乎與當前美國一些法律相忤,比如計算機欺詐與濫用法案(CFAA)和數字千年版權法案(DMCA)。

建議:需要澄清的是,無論是計算機欺詐與濫用法案還是數字千年版權法案,都沒有限制相關研究。

5、問題:盡管AI正以飛快的速度被運用在醫療、勞工等諸多領域,但目前人類沒有一個公認的辦法來在評估AI所帶來的影響。

建議:支持AI影響評估系統的研究。而且該領域的研究應該和政府機構通力合作,使成果能為政府行政所用。

6、問題:那些因部署AI而權益受到損害的人,其聲音往往被忽視。

建議:在打造AI系統的時候,受影響者的意見應該被聽取。AI應由各方共同設計以免有失公允和太過激進。

7、問題:AI的研究主要集中在電子技術上,對於人性方面問題的關註常常不足。在未來,計算機科學領域的成員將益加呈現同質化和單一化對特點,這不利於AI開發者的眼界和經驗,進而影響到AI產品的打造。

建議:AI研究員和開發者應該盡量多元化,開發人員的多樣與多元也會帶來更豐富紛呈的AI產品。未來AI領域應該多多支持跨學科研究,從而使得AI系統能夠融合電子計算、社會科學以及人文氣息。

8、問題:現有的道德準則已經不能應對AI在現實中所面臨問題的複雜性。(比如在醫療、執法、犯罪判決以及勞務等等)同時,在大學里的計算機課堂上,盡管這些理工課程也逐漸開始重視道德教育,然而並未徹底貫徹到實踐中。

建議:同美國人工智能協會(AAAI)、美國計算機協會(ACM)以及電器和電子工程師協會(IEEE)這些專業機構進行合作,推動產生可以面對新形勢的道德準則。同時在學校課堂上貫徹落實這些新道德準則的教育。每個有誌於計算機科學的學生在專業課之外也應接受公民權利、自由等道德教育。相應的,那些有AI滲入的領域(比如醫療場所)的從業人員也應該對這些新道德標準有所知悉。

目前關於人工智能的四個關鍵性問題    

我們現在將對目前關於人工智能的四個關鍵問題進行深入探討,為讀者提供一個了解業內專家見解以及建議的機會。相關探討包括每個關鍵問題所面臨的挑戰、機遇以及可采用的幹預措施。

  1. 社會不公  

人工智能系統如何造成偏見以及歧視等社會不公現象?

人工智能系統在高風險決策領域的作用越來越重要——從信貸、保險再到第三方決策以及假釋問題。人工智能技術將代替人工決定誰會獲得重要機遇,而誰又將被拋棄,由此將會引發一系列關於權利、自由以及社會公正問題。

有些人認為人工智能系統的應用有助於克服人類主觀偏見帶來的一系列問題,而有些人則擔心人工智能系統將會放大這些偏見,反而會進一步擴大機會的不均等。

在這場討論中,數據將會起到至關重要的作用,引發人們的強烈關註。人工智能系統的運行往往取決於其所獲得的數據,也是這些數據的直觀反映。其中也包括這些數據的來源以及收集過程中的偏差。從這方面來講,關於人工智能的影響是與相應的大數據技術密切相關的。

從廣義上講,數據偏差有兩種形式。第一種是采集的數據客觀上不能夠準確反映現實情況(主要歸因於測量方法的不準確;數據采集不完整或過於片面;非標準化的自我評價以及數據采集過程中的其他缺陷)。第二種在數據采集的過程中主觀上存在結構性偏差(諸如在關於職業數據的采集中有目的性地通過主觀性的重男輕女來預測職場成功率)。前一種的數據偏差可以通過“凈化數據”或者改進數據采集過程來加以解決。但後一種則需要複雜的人工幹預措施。值得註意的是,雖然有很多機構都為解決這種問題做了大量的工作,但對於如何“檢測”數據偏差尚無定論。

當采集的數據存在上述偏差時,用這種數據所訓練的人工智能系統也會存在相應偏差,其產生的模型或者結果不肯避免的會複制並放大這種偏差。在這種情況下,人工智能系統所作出的決策將會產生差別效應,從而引發社會不公。而這種不公平要比人為偏見和不公隱晦的多。

在以風險控制為主導的行業中,隨著人工智能系統的廣泛應用,導致人與人之間的細微差別異化對待等現象顯著增加,在保險以及其他社會擔保行業尤為如此。人工智能系統的應用能夠使公司更加有效地通過“逆向選擇”來識別特定群體以及個人,從而有效避免風險。

諸如在醫療保險領域,人工智能系統會對投保人的特征以及表現行為進行分析,並對那些被識別為特殊疾病或者是未來發病率高的投保人收取更多保費。在這種情況下,對於那些健康狀況不佳且經濟能力差的人群尤為不利。這就是為何批評者經常會指責稱,即便人工智能系統的預測準確,保險人行為理性,但效果卻常常是帶來負面影響。

保險業的競爭或許會加劇這種發展趨勢,最終人工智能系統的應用或許會加劇這種不平等性。當然,相關反歧視法律法規中的規範性原則能夠為解決這些問題帶來幫助,雖然這種方法可能不是最有效、最公平的。此外,對人工智能系統進行設計和部署也很重要,但現有的法律框架或許會使相應研究受到阻礙。諸如如計算機欺詐和濫用法(CFAA)和數字千年版權法案(DMCA)都對這方面研究進行了限制,因此當下也需要對現行法規進行改革,確保必要的研究能夠順利進行。

人工智能將受益少數人?

人工智能系統為經濟價值的產生帶來了新的方式,也對經濟價值的分配產生了新的影響。在某種程度上,人工智能系統的價值分配會使一部分群體受益,從而延續或加劇現有的薪資、收入以及財富分配差距。

那些有能力研發人工智能技術的組織將會加劇這種不平等性。據預測,人工智能是一個每年市值達到數十億美元的龐大產業。開發人工智能技術需要大量的前期投資,其中包括海量的計算資源以及大數據,兩者的成本都非常之大。這導致人工智能的開發和應用被限制在一個特定的範圍之內。在這種情況下,那些擁有強大數據以及計算能力的企業才能夠通過人工智能系統深入了解市場動態,從而獲取更多優勢,為自己帶來“富者更富”的馬太效應,帶來更多成功。

從另一方面來說,人工智能以及自動化系統能夠降低商品和服務成本,如果這些降低的成本能夠使消費者受益,那麽人工智能就可以縮小貧富差距。在這種情況下,人工智能系統能夠提高整個社會的生活水平,甚至於引發一個漸進式的再分配效應。

此外,人工智能也會帶來全新的生活方式。在人工智能環境下,那些工作落伍的人有機會需求獲取資源的新方式,而工作受到影響的人也能夠通過人工智能創造新的就業機會。換而言之,人工智能能夠緩解勞動力危機,讓人們自由追求生活以及工作新方式,從而提高社會的整體福利。

盡管如此,一些評論家指出,人工智能系統會使得某些工人的技能多余化,那些被自動化所取代的工人不得不尋求新的就業機會。即便這部分工人能夠找到新的工作,這種工作也常常是低附加值的,且工作穩定性更低。從這個角度將,人工智能以及自動化系統反而消除了就業機會。

更進一步,如果學習新的工作技能非常昂貴,工人們或許會認為這種職業技能培訓與新工作並不成正比。在這種情況下,人工智能系統不僅會增加社會不公,更會帶來永久性的失業以及貧窮。這就是為何理解人工智能系統對勞動力的潛在影響是理解其對經濟平等性影響的重要方面。

和以往許多技術一樣,人工智能技術也往往反映了其創建者的價值觀。因此,也可以通過在人工智能開發、部署、維護階段的多元化來推動人工智能技術的平等性。

當前,在人工智能甚至於整個計算機科學家技術行業,女性以及少數民族從業人員所占比例還很少。這種現狀也在一定程度上導致整個技術缺乏包容性,導致一定的偏見,延續或限制相關從業者對其他群體的考慮。

人們也越來越清楚的認識到,人工智能領域從業者的多樣性有助於人工智能系統滿足不同人群的利益。為了解決偏見、歧視和不平等問題,人工智能團隊需要一個更廣泛的視角。

 2.  勞工關系   

目前有關就業和AI系統的討論往往都集中在對人們未來將會失業的擔憂上。最新的研究表明,還存在更加複雜、影響更加直接的問題,這些問題不僅僅影響勞工市場,還影響雇主與雇員之間的關系、權力動力學、職業責任和工作在人類生活中的角色。

許多傳統經濟研究人員正在密切追蹤美國國內勞工市場和企業機構,以此來考量AI系統的影響。這類研究可帶來非常重要的定性數據,能夠促進對宏觀經濟趨勢和勞工供需狀況的理解,比如未來將會有多少工作崗位。

與此同時,社會科學研究則評估工作屬性和工作動力的改變正在如何改變人們的日常生活體驗。這兩個研究視角對於衡量AI系統短期對勞動力的社會影響和經濟影響都必不可少。

AI會影響工作崗位需求嗎?

自動化技術在經濟中的角色遠非新議題,事實上對於AI系統影響的考慮是出現於長期以來的討論。

雖然表面來看勞工需求會隨著自動化技術的日益普及而下降,畢竟需要做的工作將會很有限,但也有經濟學家並不這麽認為,他們稱該觀點是“勞動合成”謬論。他們指出,隨著一個行業的生產力的提升(由於自動化技術或者其它因素),新行業也會誕生,因而會產生新的勞工需求。例如,1900年農業在美國勞動力中的占比為41%,到2000年該占比只有2%。兩位勞工經濟學家大衛·奧特爾(David Autor)和大衛·多恩(David Dorn)稱,即便出現這種劇變,失業率長期來看並沒有出現上升,就業人口比率實際上反而出現提升。另外兩位經濟學家詹姆斯·亨廷頓(James Huntington)和卡爾·弗雷(Carl Frey)則給出了可怕的預言:AI系統將會大大減少工作崗位。

還有人在爭論勞動市場的變化和波動是否與技術進步有關,是否只是因經濟政策而出現。這類看法聚焦於現有的法律體系和監管機制對於AI和自動化系統的發展應該擔當什麽樣的角色。例如,羅伯特·戈登(Robert Gordon)認為當前的創新浪潮其實並沒有它們表面上看起來那麽具有變革性。不少持相反意見的人則稱,勞動市場正因為技術變化而發生重要轉變。這些人包括約瑟夫·斯蒂格利茨(Joseph Stiglitz)和拉里·米歇爾(Larry Mishel),他們認為,要保護勞動力,就必須要對AI和自動化系統相關的監管和其它政策變化上保持高度的重視。

奧特爾、多恩等經濟學家發現“就業兩極分化”現象正變得非常明顯,即中等技能崗位在減少,而高等技能和低等技能的崗位則在增加。雖然未來可能會出現新的崗位,但它們往往都收入比較低,不受歡迎。

例如,許多支持AI系統的工作事實上需要由人類去完成,他們需要維護那些基礎設施,照顧系統的“健康狀況”。這種勞動力往往不大顯眼,至少從媒體的報道和人們對AI的印象來看是這樣。因此它往往受到低估。這類工作包括負責清潔辦公室和維護工作的清潔工,負責維修服務器故障的維修工,以及有位記者所說的“數據衛生工”(能夠“清理”數據,為數據分析做好準備)。

AI系統對勞動力的影響相關的問題應當不僅僅包括未來是否會創造出新崗位,還應當包括那些崗位會否是能維持生計的體面工作。

此外,有關AI系統和勞工市場未來的討論通常都專註於傳統上被認為是低收入的工人階級崗位,如制造業、卡車運輸、零售或者服務工作,但研究表明,未來各行各業都將受到影響,其中包括需要專業訓練或者高學歷的專業工作,如放射學或者法律。關於這一點,未來將需要解決職業責任和義務方面的新問題。

AI將會如何影響主雇關系?

近年來,研究人員開始研究依靠大數據的AI和自動化系統(從Uber到應用於大型零售商的自動化調度軟件,再到工作間監視)正在如何改變雇主與雇員之間的關系。

研究發現,雖然這類系統可以用來賦能員工,但該類技術也可能會引發大問題,如剝奪員工權利,加劇就業歧視問題,以及催生不當勞動行為。

例如,AI驅動的勞動力管理和調度系統正越來越多地被用來管理勞動力,助力按需經濟的增長和“朝不保夕族”(precariat)的崛起。雖然部分研究人員稱恰當的調度能夠帶來很有價值的彈性,但到目前為止,更多的研究發現受該類系統管制的員工存在情緒緊張和缺乏安全感問題。

由這類系統管理的員工的不利體驗包括長期不充分就業,財務狀況不穩定,缺少傳統全職員工能夠獲得的福利保障,無力為家庭或者自我照顧(又或者因為忍受不了該類工作往往要求的隨時待命性質而尋找別的工作)做規劃。此外,受這些問題影響的員工更多是女性和少數族裔。

另外,基於AI系統的新遠程管理模式會加大將“系統”所做的嚴重影響員工的決策歸責於雇主的難度。因此,員工更容易受到剝削。

例如,像Uber這樣的由大數據和AI驅動的平臺會遠程控制行駛路線、定價、報酬甚至人際交流方面的標準——這些決定傳統上說通常都有人工親自管理。

除了模糊化特定決策的性質和邏輯之外,這類遠程管理通常並不被認為是“雇員管理”。

由於這些新管理模式不大符合現有的監管模式,像Uber這樣的公司會將自己標榜為技術公司,而非雇員的管理者。按照這一理念,這類公司將自己視作促進連接的平臺,因此不會像傳統雇主那樣對雇員負責。依照這種模式,雇員最終要承擔權益保障(如減輕稅項負擔、醫療保健和其它的勞工保障)和潛在救濟模式的就業帶來的風險。

  3.  醫療健康  

像我們現在所看到的大多數已被應用到醫療健康領域的AI系統,它們幾乎都依賴於大型數據庫,這些AI系統會通過各種複雜的統計模型和機器學習技術,從其所收集到的海量數據中,自動提煉出各種重要信息。

那些已投入使用的醫療數據信息源(仍處在不斷增長當中)——包括電子病歷(EHRs)、臨床和醫保數據庫、從各類消費電子產品和App上傳來的健康數據——目前已經被大量地應用到AI系統的實踐,這些AI系統具有極大的能改善社會醫保水平的潛力。

無論是臨床診斷、病人護理,還是施藥;無論是藥品生產、組織管理,還是醫保信息交互,這些AI系統都為醫療從業者的工作起到了極大的助力。

AI是如何被融入到醫學研究和醫療健康的?

將AI系統融入到醫學研究,具有令人極為欣喜的應用前景,它能幫助我們更好地理解那些疾病的病理,幫助我們開發出更多的新式治療手段,實現更為精準的醫學診斷,甚至還能私人訂制地為個人生產出特制的藥品。

然而,鑒於目前仍存在的將AI應用到醫療領域的局限和偏見,它們或將阻礙這些應用前景的實現,而這就需要研究人員更為細心謹慎地去探索這一前沿的技術。

目前,這些將AI技術應用到醫療領域的局限,包括有不完整或不準確的研究數據,即未含蓋到特定的少數群體,除此之外,尤以美國醫保系統為代表的複雜醫療補貼激勵制度,也將在一定程度上阻礙到了AI醫療技術的應用。舉個簡單的例子,目前的一些醫療補貼制度會更支持個別種類的藥物研發,或是更傾向於補貼個別治療方案。

醫療研究數據時常會表現出客觀、通用的屬性,但在實際應用的過程中,這些研究結論往往會表現出片面、暫時和只針對某些團體或病癥的特性,而AI系統根據這些“片面”數據所分析和建立出的模型,可能會引出、建立或是衍生出一些錯誤的猜測。

所幸的是,這樣的錯誤情況是可以避免的。如果一個AI系統所收集的數據不存在上面我們所提到的那些瑕疵(假設這點是可以被保證的),或是該AI系統所使用的數據框架像隨機對照試驗方法(randomized control trials, RCTs)或是其它公共醫療數據庫那樣,具有自行矯正這些問題的能力,能減小其內在錯誤偏差的話,它就能有效地避免重大誤差的出現。

假設這些誤差微小到可被忽略,將AI系統融入到醫療健康研究和臨床實踐中心的一個最有可能實現的應用前景,是讓AI去協助醫生進行病癥診斷,從海量數據中發現規律性的模式,從而幫助醫生更早地揪出那些藏匿在身體深處的“狡猾”病竈。

事實上,AI系統目前已經可以完成對部分病癥的診斷了,這其中就包括了白血病。在檢查和臨床護理環節,AI系統在一些情況下,也有幾率能減少,甚至預防誤診情況的出現。須知,誤診是可以致命的,AI輔助診斷技術的價值之高,可想而知。

在這方面,AI系統在診斷和確立病癥的環節上,正扮演越來越重要的角色。然而,也正是因為如此,研究人員必須警惕,要避免出現因AI錯誤猜測,而推斷出“正常”或是“平均”等健康狀況描述的情況的發生。

類似的,我們只需要回顧一下美國在1973年前的那段歷史,就想象出當AI出現誤診時,會發生什麽樣慘劇。彼時,美國精神病學協會(American Psychiatric Association)將同性戀作為一種精神疾病列入到了它權威的精神病診斷和統計手冊當中,這樣一來,悲劇的出現就不可避免了。

同樣的,當AI系統被直接地應用到病人護理時,它們將涉足到診斷和臨床管理的方方面面,而這也時常將隔開看護者同病人之間的距離,所以,適當地明確出AI“專業程度”的局限,是非常重要的。

一名人類外科醫生在上崗之前,會先上醫科大學,在經歷過層層嚴苛的考核後,他們的醫術才能獲得世人的承認,然而,我們要如何造出一個出色的AI大夫來協助,或者甚至是取代一個有“文憑”的人類名醫呢?

這樣一個AI醫療系統意味著它需要具有絕對準確的專家級權威水平,不會出現誤診或是診斷偏頗的情況。這種級別的信任代表著這些AI系統無論是在出廠的能力評估上,還是在檢測其極限能力上,都可以接受更少的審查,而這也將制造出那些,目前還未被醫學倫理框架所囊括的新型倫理問題。

除此之外,我們還需要關註類似於這樣的AI醫療系統在醫保領域內被布置於何處,使誰受益等等這樣的問題。盡管讓醫療健康惠及所有人,讓大家都能負擔得起確實是一種需求,但已有大量的證據表明,取得醫保和健康數據的權限並未被公平地分配,在多數情況下,窮人、非白人和女性群體常常處於劣勢地位。

讓AI系統融入到醫保體系,非但不會根除這些系統性的不平等問題,反而還有可能會放大這種問題的嚴重性。雖然AI系統可以實現合適的定制化醫療護理,讓各式各樣的人都獲益,但它也可以被故意培養成過濾掉那些之前就常常被忽視、被服務不周的外圍群體。

如果這些群體沒有被給予適當的考慮的話,這反過來也將影響到AI系統所構建出的預測模型。AI預測模型會被那些能用上這種AI系統的特權群體所上傳的健康數據所不斷的固化,從而只能有效反饋出富人的“健康狀況”,並最終構建出一個會完全排斥“邊緣人群”的健康與疾病的整體認知模型。

鑒於目前美國存在的醫保財政的亂象,這樣的憂患確實是值得人們投入更多關註,就像這樣的亂象在過去影響到醫療技術的整合一樣,它也必然會在未來影響到AI醫療系統的布置和效用,

基於這樣的考慮,人們在推動AI醫療系統不斷發展的同時,也在不斷努力地去降低AI醫療系統造價,而這也將促使那些利益相關者(比如政客、保險公司、健康機構、制藥企業、雇主和其他人)把他們的註碼,寄托於大規模的健康數據收集和AI系統的研制上,以此來幫助他們更好地維護他們在模型研發和醫保護理上的經濟利益。

然而,將這些信息技術和AI系統整合到醫院和其它醫療健康體系所需要的關鍵培訓、資源和那些正在進行當中的必要維護,並不總是能夠得到支持,或者說並不總是能處於“不差錢”的狀況。而這種情況其實已經導致了技術資源和技術能力的分配不均。

訓練AI所需的數據收集和病患觀察將如何影響到個人隱私?

AI系統對數據量的極度依賴和對病例觀察的需求也自然而然地催生出了對病人隱私、秘密和安全保護等等急迫的問題。

目前,對AI醫療系統高性能期許的實現依賴於通過各式各樣的設備、平臺和互聯網來源源不斷地獲取到海量的病患數據,而這一過程也不可避免地會涉及到某些人或機構會在利益的驅使下,做出出格的監視行為。、

與此同時,像同態加密(Homomorphic encryption)、差分隱私(differential privacy)和隨機隱私(stochastic privacy)這樣的技術帶給了我們應對這些亂象現象的新的希望,它們可以讓AI系統實現在不“查閱”數據的情況下,直接地去“調用”它們。雖然就目前來說,這些新技術仍處於研發的初步階段,連一個通用應用程序都還沒有被開發出來,但它展現出能令人鼓舞的應用前景。

除此之外,隨著近期美國政府對循證醫學(Evidence ¬based medicine)的推廣和《平價醫保法案》(Affordable Care Act)已由原先的按服務收費轉變至按治療行為收費的這一變化,監管行為背後所涉及到的經濟利益問題和對敏感健康數據消費的問題,都在不斷地加劇惡化當中。

至於那些保險公司,在AI系統入局的情況下,其所需面對的對驗證交叉補貼方案合理性的呼聲的壓力也在與日俱增。

舉個例子,盡管美國政府在2008年就頒布了《基因資訊平等法》(Genetic Information Nondiscrimination Act),但出於對保險分層管理的需求,保險公司對能獲取到遺傳危險率信息的興趣也在日益增長。事實上,差別定價目前已經成為了數據分析供應商的一項業內通用做法,而這反過來也進一步地鞏固和加劇了目前的不平等現象。

此外,“智能設備”和其它能讓AI系統獲取到所需數據的聯網傳感器也已讓追蹤和監視變得無處不在,而這也將目前的那些隱私保護政策的覆蓋範圍不斷地拓寬,像《醫療健康可攜性和責任法案》(Health Insurance Portability and Accountability Act)就是在這一考慮下的產物。

隨著AI系統被越來越多地融入到健康和電子消費產品上,病人因細分數據而被重新定義,或是由代理數據來預測出他們的身份、所患疾病和其它健康信息的風險,正不斷地升高。

除此之外,那些驅動這些數據收集設備的軟件也常常是為私人所持有,而不是開源的(不受外部審查審計的約束)。雖然,美國政府最近簽署的法令對《數字千禧年著作權法案》(Digital Millennium Copyright Act)中的相關條例進行了免除,讓審查外部醫療設施的代碼成為可能,但更為重要的或許是審查那些內部醫療設施,然而這種行為並未被這一豁免權所囊括到。

總的來說,相關業內專家們都已經對在物聯網設備上,布置聯網技術所潛在的重大安全隱患做過警告了,在這些警告中,有很多就是專門針對醫療設備安全問題的。

AI將如何影響患者和醫療保險供應商?

那些已被實現或是有望被實現的AI技術,對健康護理系統的構建有著深遠的意義,對需要照顧的病患,或是那些虛弱體質的人也意義非凡。

人們對於AI系統,進行了許多美好的構想,寄予它們護理工作調解員的角色,並相信它們在未來有可能完全取締了護工的工作。這一轉變前景樂觀、經濟,且高效,很可能會改善患者與醫生或其他護工之間的關系和他們的工作方式。

能展示AI系統具有代替或者協助人工護理工作的潛力的例子非常之多,包括有機器人外科醫生、虛擬管家和陪護機器人等等。這些例子逐漸引發了一些爭論,比如代理照顧和陪同護理的社會意義是否可以讓非人類的機器來代替?當機器替代人工時,它是否能不僅僅只是增強人工的專業性,而能做到真正的獨當一面呢?當我們認為一臺機器有能力“護理”病人時,它具備了哪些“護理”能力呢?我們又是如何定義“護理”這個詞呢?這些我們以為的“以為”是否是站在病人權益的角度上,去考慮的呢?

就目前來說,雖然陪護機器人在取代人工護理工作上,還未取得什麽明顯的效果, 但由AI驅動的APP和聯網設備能讓病人取回對自己健康管理的控制權的前景正在與日俱增,而這也預示著AI醫療系統同病人的直接交互,正處於早期發展階段。。

這種人與AI的直接交互其實也是一把雙刃劍。一方面,它能讓病人康複地更快、對自身病情有更多的了解。另一方面,這種變革也需要他們擔負更多的風險。這些風險包括它可能會誤導病患,影響他們可能會接收到的信息的質量和準確性,而這也是美國聯邦貿易委員會(FTC)在近些年來,所要傳達給我們的擔慮。

除此之外,這些搭載了AI的APP也可以將原先醫療從業者所需要承擔的責任轉移病人本身,但這對病人來說不見得是什麽好消息,因為並不是所有人都有時間、財力和AI技術獲取渠道,來實現對他們自身健康的護理。

那麽,什麽樣的患者能優先享受到這些仍在不斷改進當中的AI醫療技術的紅利呢?對於那些“裝備”不良卻想管理和維護自己個人數據的病患來說,他們所接受到的健康看護是否是不合格的呢?

再者,那些搭載了AI技術的應用的設計者和研發者在這一社會演變過程中,又需要扮演什麽新的角色?需要承擔哪些新的責任?

那些始終處於風口浪尖的醫學道德倫理,又將如何融入到這些與眾不同的,新式工程技術的載體上呢?

  4. 道德責任  

AI系統的部署不僅將引發新的責任,也將對職業道德、研究道德、甚至公共安全評估等現有領域造成挑戰。

近來,人們對道德和AI系統的討論傾向於優先考慮很久以後可能會出現的AI系統,例如,“奇點”的來臨,或超級智能的發展。

也就是說,這種討論往往並未關註AI系統在短期或中期內會產生的道德影響,例如,當前已投入使用的大量任務型AI系統引發了新挑戰、可能加劇不平等、或從根本上改變權利機制。

當代AI系統上能夠執行各種各樣的活動,這類技術會引發各種隱性和顯性後果,因此可能對傳統倫理框架提出新挑戰。AI系統被部署在人類社會中時或許會引發不可預測的相互作用和後果。

在資源配置以及讓權力和信息集中或重組的潛力方面,我們迫切需要處理一些關鍵問題來確保AI技術不會造成傷害,特別對於已被邊緣化的群體。

我們如何向AI授予權力或委派AI展開決策?

AI系統在社會和經濟領域內的融合需要我們把社會問題轉變為能夠被AI解決的技術問題。這種轉變無法保證AI系統產生的錯誤會少於它將取代的現有系統。瑞安•卡洛(Ryan Calo)指出,人們通常以為,AI系統(如,自主駕駛汽車)犯的錯誤將少於人類。實則不然。複雜程度不高的AI系統無法避免地會犯一些人類不會犯的新錯誤。

在許多領域中,倫理框架往往需要產生記錄,例如,病歷、律師的案卷、或研究人員向機構審查委員會提交的文件。此外,人們還面向患者、客戶或感覺自己遭遇了不公正待遇的對象設立了補救機制。

當代的AI系統往往無法提供此類記錄或補救機制,要麽因為技術上無法實現,要麽因為設計者並未考慮此類記錄或機制。

這意味著,受到影響的特定群體或個人往往無法對AI或其他預測系統的決策進行檢驗或質疑。這會惡化各種形式的權力不對等現象。而權力不對等是一個很重要的倫理議題。

當受到影響的個人無法對這類自動化決策展開檢驗、質疑或上訴時,他們就處在了權力相對缺失的位置上。

這帶來的風險是,AI系統不僅將削弱弱勢群體的質疑權力,而且將賦予設計方更多定義道德行為的權力。這種權力能夠以十分微妙的形式呈現出來。例如,各種自動化系統往往被用來從某種方向來影響或“微調”某些個體,而很大程度上扮演決定或支配角色的是設計部署此類系統並從中獲利的一方。

若要從零開始構建AI系統,以實現糾正上述不平衡現象等目標,這本身就要受到實力差距的限制。打造和維護AI系統需要大量的計算資源和大量數據。而擁有海量數據和計算資源的企業相對缺乏這類資源的企業擁有更多的戰略優勢。

我們如何在現有的各種行業中應對與AI相關的倫理問題?

隨著AI系統在不同行業環境(如,醫學、法律、金融)中的融入愈加深入,我們還將面臨跨越不同行業的新的道德困境。

例如,AI系統在保健環境中的應用將對醫療專業人員道德準則中秉持的核心價值(如,涉及保密、護理的連續性、避免利益沖突以及知情權)造成挑戰。

隨著醫療業的不同利益相關方推出了各種各樣的AI產品和服務。對這些核心價值的挑戰可能會以全新的和意想不到的方式呈現。

當一名醫生使用的AI診斷設備在受訓時使用了一家醫藥公司的藥品試驗數據,而這家公司是某種藥物處方的既得利益者,那麽這位醫生應如何遵守避免利益沖突的誓言?

雖然這是個假想的情況,但這點明了在修訂以及更新職業道德準則的過程中必須解決的棘手問題。

同樣地,負責管理AI研發及維護的專業協會也有必要考慮采取相應的措施。例如,美國人工智能協會(AAAI)應制定相關的道德準則,而美國計算機協會(ACM)以及電氣和電子工程師協會(IEEE)需認真修訂相關的道德準則。ACM和IEEE現有的道德準則已擁有20年以上的歷史,不用說,這些準則不僅無法解決與人類機構、隱私和安全相關的核心問題,而且也無法預防AI和其他自動化決策系統可能產生的危害。隨著AI技術進一步被整合到重要的社會領域中,這一點正變得越來越重要。

盡管更多的高等教育機構在技術和科學專業的教學中已開始強調職業道德的重要性,但這番努力仍處在初期,還有進一步的拓展空間。而民權、公民自由和道德實踐等領域的知識還未成為學生們畢業時必須掌握的要求範圍。此外,有一點是值得註意的,若有人違背醫藥界道德準則,他需承擔的懲罰包括失去行醫權力,這一點並不適用計算機科學或許多其他相關領域。

目前還不清楚大多數計算機科學家是否熟知ACM或IEEE準則中的核心內容。我們也不清楚,企業雇主是否會因為其他鼓勵或壓力因素而選擇不遵守這種不具約束力的法規。因此,從實用角度看,除了僅僅對倫理框架進行改寫和更新外,有必要關註範圍更廣的鼓勵機制,並確保對倫理準則的遵從並不是事後才想起的事項,而是相關專業領域需要關註的核心問題,以及AI領域學習和實踐中不可或缺的組成部分。

  闡述建議  

下面我們將進一步闡述上面簡要提到的建議背後的基本原理。

1、多元化和拓寬AI開發和部署所必需的資源——如數據集、計算資源、教育和培訓的使用,包括擴大參與這種開發的機會。特別是關註當前缺乏這種訪問的人口。

正如在AI Now Experts研討會期間很多人提到的,這些開發和培訓AI系統的方法費用高昂並只限於少數大公司。或者簡單地說,在沒有大量資源的情況下DIY AI是不可能的。培訓用AI模式要求有大量數據——越多越好。同時還要求有巨大的計算能力,而這費用不菲。這使得即使要進行基礎研究都只能限於能支付這種使用費用的公司,因此限制了民主化開發AI系統服務於不同人群目標的可能性。投資基本的基礎設施和使用合適的培訓數據,有助於公平競爭。同樣,開放現有行業和機構里開發和設計過程,以多元化內部紀律和外部評論,可幫助開發更好服務和反映多元化環境需求的AI系統。

2、升級使公平勞動行為具體化的定義和框架,以適應AI管理部署到工作地時出現的結構性變化。同時研究可替代的收入和資源分布、教育和再培訓模式,以適應未來重複性工作日益自動化和勞動及就業態勢不斷變化。

在AI Now Experts研討會上,奧巴馬總統首席經濟學家賈森·福爾曼(Jason Furman)指出,在美國每小時工資只有不到20美元的工作,83%都將面臨自動化的嚴重壓力。對於每小時工資在20-40美元的中等收入工作,這個比例也高達31%。這是勞動力市場一次巨大轉變,可能導致出現一個永久失業階層。為確保AI系統的效率在勞動力市場不會導致民眾不安,或社會重要機構如教育(有一種可能是教育不再視為就業的更好途徑)的解散,在這種巨大轉變出現,應該徹底研究替代性資源分布方法和其他應對引入自動化的模式,制定的政策應該為組織良好的各種落實測試開路,控制可能導致的災難性後果。

除了“替代工人”外,AI系統也對勞動力市場也有其他多重影響。例如,它們改變了權力關系、就業預期和工作本身的角色。這些變化已經對工人產生深遠影響,因此在引入AI系統時,在考慮如何表述公平和不公平做法上,理解這些影響很重要。例如,如果開發實際作為管理層行事的AI系統的公司,可被視為科技服務公司,與雇主不同的是,職員可能不受現有法律保護。

3、在設計和部署階段,支持研究開發衡量和評估AI系統準確性和公平度的方法。同樣地,也支持研究開發衡量及解決一旦使用出現的AI錯誤和損害的方法,包括涉及通知、矯正和減輕這些因AI系統自動決策導致的錯誤和損害的問責制。這些方法應優先通知受自動決策影響的人們,並開發對錯誤或有害判斷提出異議的方法。

AI和預測性系統日益決定了人們是否能獲得或失去機會。在很多情況下,人們沒有意識到是機器而非人類在做出改變人生的決定。即使他們意識到,也沒有對錯誤界定提出異議或拒絕有害決策的標準流程。我們需要在研究和技術原型化上投資,確保在AI系統日益用於做出重要決策的環境中,確保基本權利和責任受到尊重。

4、澄清無論是反電腦欺詐和濫用法案還是數字千年版權法案不是用於限制對AI責任的研究

為了進行對檢驗、衡量和評估AI系統對公共和私人機構決策的影響所需的研究,特別是有關如公平和歧視的關鍵社會關切,研究人員必須被清楚地允許跨大量域名並通過大量不同方法測試系統。然而,某些美國法律,如反電腦欺詐和濫用法案(CFAA)和數字千年版權法案(DMCA),規定與電腦系統甚至互聯網上公開可訪問的電腦系統“未授權”互動為非法,可能限制或禁止這種研究。這些法律應該澄清或修改,明確允許促進這種重要研究的互動。

5、支持在現實環境中AI系統對社會經濟生活影響的強大評估和評價方法的基礎性研究。與政府機構合作將這些新技術集成到他們的調查、監管和執法能力中。

我們當前缺乏對AI系統社會經濟影響評估和理解的嚴格做法。這意味著AI系統在融合到現有社會經濟領域,部署在新產品和環境中,卻不能衡量或精確計算它們的影響。這種情況類似於進行試驗卻不願記錄結果。為確保AI系統帶來的益處,必須進行協調一致的研究開發嚴格的方法,理解AI系統的影響,當使用這種方法時可幫助形成跨部門和政府內部的標準做法。這種研究及其結果可比作早期預警系統。

6、在與這些人聯合開發和部署這種系統時,與受自動決策應用和AI系統影響的社區代表及成員合作,聯合設計可問責的AI。

在很多情況下,這些受AI系統影響的人將是對AI系統環境和結果最權威性的專家。特別是鑒於當前AI領域缺乏多元化,那些受AI系統部署影響的人實際上從事提供反饋和設計方向,來自反饋機制的這些建議可直接影響AI系統的開發和更廣泛的政策框架。

7、加強行動提高AI開發者和研究者的多元化,拓寬和融合所有觀點、環境和學科背景到AI系統開發中。AI領域應該也結合計算、社會科學和人文學,支持和促進針對AI系統對多個觀點影響的跨學科AI研究。

計算機科學作為一個學科領域缺乏多樣性。特別是嚴重缺乏女性從業者,在AI里這種情況更為糟糕。例如,雖然有些AI學術實驗室由女性掌管,但在最近的神經信息處理系統大會上,與會者只有13.7%是女性,這次大會是該領域最主要的年度大會之一。缺乏多元化的圈子不大可能會考慮這些不在其中人的需求和關註。當這些需求和關註成為部署AI的社會經濟機構的中心時,理解這些需求和關註很重要,AI開發反映了這些重要的觀點。關註開發AI人群多元化是關鍵,除了性別和代表受保護人群外,包括除計算機科學外各種學科的多元化、建立依賴來自相關社會經濟領域學習的專業知識的開發實踐。

在計算機科學之外和計算機科學之內AI子領域的社會經濟領域,進行AI影響的徹底評估將需要多數這種專業知識。由於很多環境下AI被集成和使用——如醫學、勞動力市場或在線廣告——本身是學習的豐富領域。為真正制定AI影響評估的嚴格流程,我們將需要跨學科的協作,建立新的研究方向和領域。

8、與專業組織如美國人工智能進步協會(AAAI)、美國計算機協會(ACM)和電氣及電子工程師協會(IEEE)合作,更新(或制作)專業道德準則,更好地反映在社會經濟領域部署AI和自動化系統的複雜性。為任何想掌握計算機科學的人開設公民權、公民自由權和道德培訓課程,反映了教育中的這些變化。同樣,更新專業道德準則約束引入AI系統的專業人士,如適用於醫生和醫院工作者的道德準則。

在醫學和法律等職業中,專業人士的行為受控制可接受和不可接受行為的道德準則約束。專業組織如ACM和IEEE確實制定了道德準則,然而這些準則過時了,不足以解決複雜社會經濟環境中使用AI系統帶來的具體並常常是微妙的挑戰。雖然醫生確實遵守了約束他們對待病人行為的職業道德,但AI系統的發展,如幫助醫生診療和治療病人,出現了現有職業道德準則不總是能解決的道德挑戰。職業準則和計算機科學培訓必須更新,以反映AI系統建造者對因使用這些系統遭受不同程度不利影響的人所負有的責任。在AI用於增強人類決策時,職業道德準則應該包括在AI系統受到利益沖突左右的時候鑒定責任的保護措施。

人工智能 AI
贊(...)
文章評論
匿名用戶
發布
PermaLink: https://articles.zkiz.com/?id=217607

人工智能長篇報告:1.5萬字告訴你AI的應用究竟對人類社會經濟有哪些影響

來源: http://www.iheima.com/zixun/2016/1008/159076.shtml

人工智能長篇報告:1.5萬字告訴你AI的應用究竟對人類社會經濟有哪些影響
豬場智能菌 豬場智能菌

人工智能長篇報告:1.5萬字告訴你AI的應用究竟對人類社會經濟有哪些影響

目前關於人工智能的四個關鍵性問題的答案,都在這里了。

來源 / AI Now《The AI Now Report》

譯者 / 網易智能(孫文文 費寧 誌文 阿樹 止水 倪盛)

前  言  

人工智能(Artificial Intelligence,簡稱AI)是一系列技術的集合,其下包括機器學習、推理、感知和自然語言處理等。人工智能的概念和應用65年前就已開始,不過最近AI的進步和應用讓這種技術再次成為熱議。隨著AI被更廣闊地應用到人類社會和經濟生活各個方面,新的機遇和挑戰隨之而生。其巨大的潛在影響讓人類不得不謹慎思考AI技術的發展與應用。

於今年7月舉行的“AI Now”研討會是由白宮科技政策辦公室和美國國家經濟委員會聯合推動的一系列研究的最後一個環節。此前的一系列研究分別從不同的角度對AI進行了分析研究,從政策法規到AI的安全控制,再到AI公益以及如何挖掘AI的更多潛能。這次“AI Now”則主要就未來十年AI在社會和經濟領域的影響進行討論。來自全球多個領域的專家學者集聚一堂,發表自己的觀點。討論的問題包括:現階段AI的迅速發展造成了哪些問題?如何更好地理解與使用AI來創造更公平公正的未來?

社會和經濟的問題多不勝數,本次“AI Now”主要圍繞“醫療”、“勞工就業”、“AI公平”以及“AI道德”準則展開討論。

之所以選擇“醫療”和“勞工就業”作為主要話題,是因為目前這兩個領域中AI滲入廣泛,AI所能帶來的問題在這兩個領域中較為突出和明顯。而“AI公平”和“AI道德”則是未來大家都關註的問題:AI會有助於世界大同還是會加劇社會不公?以及如何確保AI的利益被全體人類享用?

該研討會的舉行旨在讓AI能夠更好地造福人類社會。通過眾多專家學者聚集一堂進行討論的方式,本次“AI Now”研討會對人工智能學界內外都具有顯著意義。

  問題和建議  

研討會對未來AI所可能造成的情況做出了預見,並分別給出相應的建議。需要聲明的是,下列建議融合了全體與會人員的智慧,並不代表個人或某組織的立場。

隨著AI愈加緊密地被應用到社會經濟生活的方方面面,以下列出的問題和對應的建議可以作為投資者和相關領域從業者在對來的參考指南。

1、問題:AI的發展和應用有賴於特定的基礎設施和人、物資源。這些基礎資源的短缺無疑會限制AI的發展,對這些基礎設施和資源的掌握在AI發展前期變的至關重要。

建議:從多個渠道改善發展AI的資源基礎。註重數據集、計算機、相關人才教育培訓等配套領域的建設。

2、問題:雖然目前AI水平還在初級,不過在多個領域AI已經作為人工輔助的角色存在,並且對勞動關系產生了影響。奧巴馬經濟顧問委員會的主席傑森·弗曼(Jason Furman)就表示,低技術的體力勞動是最有可能被AI和自動化機械取而代之的職位。如果機器人開始和人類競爭工作,人力資源的分配也將迎來變革。

建議:更新自己的思維和技能,來應對AI參與所帶來的就業結構的改變。未來AI機器將承擔絕大多數低技術水平的工作職位,人們需要調整自己的技能儲備和收支方向以應對新形勢。

3、問題:AI和自動化的過程通常都是在人們目所不及的幕後進行。缺少了人類的參與,機器可能做出有失公允或不慎恰當的決定。隨著AI應用的進一步增長,對AI判斷和勘誤將變得更加重要,也更加困難。

建議:支持AI校準和勘誤的研究,AI錯誤危害評估程序也應提上日程。這些研究應和AI的突飛猛進配套發展,就像人類系統中司法之於行政。如此能夠及時發現AI犯下的錯誤,並避免嚴重後果。

4、問題:針對AI模式下公私機構公平和問責制的研究似乎與當前美國一些法律相忤,比如計算機欺詐與濫用法案(CFAA)和數字千年版權法案(DMCA)。

建議:需要澄清的是,無論是計算機欺詐與濫用法案還是數字千年版權法案,都沒有限制相關研究。

5、問題:盡管AI正以飛快的速度被運用在醫療、勞工等諸多領域,但目前人類沒有一個公認的辦法來在評估AI所帶來的影響。

建議:支持AI影響評估系統的研究。而且該領域的研究應該和政府機構通力合作,使成果能為政府行政所用。

6、問題:那些因部署AI而權益受到損害的人,其聲音往往被忽視。

建議:在打造AI系統的時候,受影響者的意見應該被聽取。AI應由各方共同設計以免有失公允和太過激進。

7、問題:AI的研究主要集中在電子技術上,對於人性方面問題的關註常常不足。在未來,計算機科學領域的成員將益加呈現同質化和單一化對特點,這不利於AI開發者的眼界和經驗,進而影響到AI產品的打造。

建議:AI研究員和開發者應該盡量多元化,開發人員的多樣與多元也會帶來更豐富紛呈的AI產品。未來AI領域應該多多支持跨學科研究,從而使得AI系統能夠融合電子計算、社會科學以及人文氣息。

8、問題:現有的道德準則已經不能應對AI在現實中所面臨問題的複雜性。(比如在醫療、執法、犯罪判決以及勞務等等)同時,在大學里的計算機課堂上,盡管這些理工課程也逐漸開始重視道德教育,然而並未徹底貫徹到實踐中。

建議:同美國人工智能協會(AAAI)、美國計算機協會(ACM)以及電器和電子工程師協會(IEEE)這些專業機構進行合作,推動產生可以面對新形勢的道德準則。同時在學校課堂上貫徹落實這些新道德準則的教育。每個有誌於計算機科學的學生在專業課之外也應接受公民權利、自由等道德教育。相應的,那些有AI滲入的領域(比如醫療場所)的從業人員也應該對這些新道德標準有所知悉。

目前關於人工智能的四個關鍵性問題    

我們現在將對目前關於人工智能的四個關鍵問題進行深入探討,為讀者提供一個了解業內專家見解以及建議的機會。相關探討包括每個關鍵問題所面臨的挑戰、機遇以及可采用的幹預措施。

  1. 社會不公  

人工智能系統如何造成偏見以及歧視等社會不公現象?

人工智能系統在高風險決策領域的作用越來越重要——從信貸、保險再到第三方決策以及假釋問題。人工智能技術將代替人工決定誰會獲得重要機遇,而誰又將被拋棄,由此將會引發一系列關於權利、自由以及社會公正問題。

有些人認為人工智能系統的應用有助於克服人類主觀偏見帶來的一系列問題,而有些人則擔心人工智能系統將會放大這些偏見,反而會進一步擴大機會的不均等。

在這場討論中,數據將會起到至關重要的作用,引發人們的強烈關註。人工智能系統的運行往往取決於其所獲得的數據,也是這些數據的直觀反映。其中也包括這些數據的來源以及收集過程中的偏差。從這方面來講,關於人工智能的影響是與相應的大數據技術密切相關的。

從廣義上講,數據偏差有兩種形式。第一種是采集的數據客觀上不能夠準確反映現實情況(主要歸因於測量方法的不準確;數據采集不完整或過於片面;非標準化的自我評價以及數據采集過程中的其他缺陷)。第二種在數據采集的過程中主觀上存在結構性偏差(諸如在關於職業數據的采集中有目的性地通過主觀性的重男輕女來預測職場成功率)。前一種的數據偏差可以通過“凈化數據”或者改進數據采集過程來加以解決。但後一種則需要複雜的人工幹預措施。值得註意的是,雖然有很多機構都為解決這種問題做了大量的工作,但對於如何“檢測”數據偏差尚無定論。

當采集的數據存在上述偏差時,用這種數據所訓練的人工智能系統也會存在相應偏差,其產生的模型或者結果不肯避免的會複制並放大這種偏差。在這種情況下,人工智能系統所作出的決策將會產生差別效應,從而引發社會不公。而這種不公平要比人為偏見和不公隱晦的多。

在以風險控制為主導的行業中,隨著人工智能系統的廣泛應用,導致人與人之間的細微差別異化對待等現象顯著增加,在保險以及其他社會擔保行業尤為如此。人工智能系統的應用能夠使公司更加有效地通過“逆向選擇”來識別特定群體以及個人,從而有效避免風險。

諸如在醫療保險領域,人工智能系統會對投保人的特征以及表現行為進行分析,並對那些被識別為特殊疾病或者是未來發病率高的投保人收取更多保費。在這種情況下,對於那些健康狀況不佳且經濟能力差的人群尤為不利。這就是為何批評者經常會指責稱,即便人工智能系統的預測準確,保險人行為理性,但效果卻常常是帶來負面影響。

保險業的競爭或許會加劇這種發展趨勢,最終人工智能系統的應用或許會加劇這種不平等性。當然,相關反歧視法律法規中的規範性原則能夠為解決這些問題帶來幫助,雖然這種方法可能不是最有效、最公平的。此外,對人工智能系統進行設計和部署也很重要,但現有的法律框架或許會使相應研究受到阻礙。諸如如計算機欺詐和濫用法(CFAA)和數字千年版權法案(DMCA)都對這方面研究進行了限制,因此當下也需要對現行法規進行改革,確保必要的研究能夠順利進行。

人工智能將受益少數人?

人工智能系統為經濟價值的產生帶來了新的方式,也對經濟價值的分配產生了新的影響。在某種程度上,人工智能系統的價值分配會使一部分群體受益,從而延續或加劇現有的薪資、收入以及財富分配差距。

那些有能力研發人工智能技術的組織將會加劇這種不平等性。據預測,人工智能是一個每年市值達到數十億美元的龐大產業。開發人工智能技術需要大量的前期投資,其中包括海量的計算資源以及大數據,兩者的成本都非常之大。這導致人工智能的開發和應用被限制在一個特定的範圍之內。在這種情況下,那些擁有強大數據以及計算能力的企業才能夠通過人工智能系統深入了解市場動態,從而獲取更多優勢,為自己帶來“富者更富”的馬太效應,帶來更多成功。

從另一方面來說,人工智能以及自動化系統能夠降低商品和服務成本,如果這些降低的成本能夠使消費者受益,那麽人工智能就可以縮小貧富差距。在這種情況下,人工智能系統能夠提高整個社會的生活水平,甚至於引發一個漸進式的再分配效應。

此外,人工智能也會帶來全新的生活方式。在人工智能環境下,那些工作落伍的人有機會需求獲取資源的新方式,而工作受到影響的人也能夠通過人工智能創造新的就業機會。換而言之,人工智能能夠緩解勞動力危機,讓人們自由追求生活以及工作新方式,從而提高社會的整體福利。

盡管如此,一些評論家指出,人工智能系統會使得某些工人的技能多余化,那些被自動化所取代的工人不得不尋求新的就業機會。即便這部分工人能夠找到新的工作,這種工作也常常是低附加值的,且工作穩定性更低。從這個角度將,人工智能以及自動化系統反而消除了就業機會。

更進一步,如果學習新的工作技能非常昂貴,工人們或許會認為這種職業技能培訓與新工作並不成正比。在這種情況下,人工智能系統不僅會增加社會不公,更會帶來永久性的失業以及貧窮。這就是為何理解人工智能系統對勞動力的潛在影響是理解其對經濟平等性影響的重要方面。

和以往許多技術一樣,人工智能技術也往往反映了其創建者的價值觀。因此,也可以通過在人工智能開發、部署、維護階段的多元化來推動人工智能技術的平等性。

當前,在人工智能甚至於整個計算機科學家技術行業,女性以及少數民族從業人員所占比例還很少。這種現狀也在一定程度上導致整個技術缺乏包容性,導致一定的偏見,延續或限制相關從業者對其他群體的考慮。

人們也越來越清楚的認識到,人工智能領域從業者的多樣性有助於人工智能系統滿足不同人群的利益。為了解決偏見、歧視和不平等問題,人工智能團隊需要一個更廣泛的視角。

 2.  勞工關系   

目前有關就業和AI系統的討論往往都集中在對人們未來將會失業的擔憂上。最新的研究表明,還存在更加複雜、影響更加直接的問題,這些問題不僅僅影響勞工市場,還影響雇主與雇員之間的關系、權力動力學、職業責任和工作在人類生活中的角色。

許多傳統經濟研究人員正在密切追蹤美國國內勞工市場和企業機構,以此來考量AI系統的影響。這類研究可帶來非常重要的定性數據,能夠促進對宏觀經濟趨勢和勞工供需狀況的理解,比如未來將會有多少工作崗位。

與此同時,社會科學研究則評估工作屬性和工作動力的改變正在如何改變人們的日常生活體驗。這兩個研究視角對於衡量AI系統短期對勞動力的社會影響和經濟影響都必不可少。

AI會影響工作崗位需求嗎?

自動化技術在經濟中的角色遠非新議題,事實上對於AI系統影響的考慮是出現於長期以來的討論。

雖然表面來看勞工需求會隨著自動化技術的日益普及而下降,畢竟需要做的工作將會很有限,但也有經濟學家並不這麽認為,他們稱該觀點是“勞動合成”謬論。他們指出,隨著一個行業的生產力的提升(由於自動化技術或者其它因素),新行業也會誕生,因而會產生新的勞工需求。例如,1900年農業在美國勞動力中的占比為41%,到2000年該占比只有2%。兩位勞工經濟學家大衛·奧特爾(David Autor)和大衛·多恩(David Dorn)稱,即便出現這種劇變,失業率長期來看並沒有出現上升,就業人口比率實際上反而出現提升。另外兩位經濟學家詹姆斯·亨廷頓(James Huntington)和卡爾·弗雷(Carl Frey)則給出了可怕的預言:AI系統將會大大減少工作崗位。

還有人在爭論勞動市場的變化和波動是否與技術進步有關,是否只是因經濟政策而出現。這類看法聚焦於現有的法律體系和監管機制對於AI和自動化系統的發展應該擔當什麽樣的角色。例如,羅伯特·戈登(Robert Gordon)認為當前的創新浪潮其實並沒有它們表面上看起來那麽具有變革性。不少持相反意見的人則稱,勞動市場正因為技術變化而發生重要轉變。這些人包括約瑟夫·斯蒂格利茨(Joseph Stiglitz)和拉里·米歇爾(Larry Mishel),他們認為,要保護勞動力,就必須要對AI和自動化系統相關的監管和其它政策變化上保持高度的重視。

奧特爾、多恩等經濟學家發現“就業兩極分化”現象正變得非常明顯,即中等技能崗位在減少,而高等技能和低等技能的崗位則在增加。雖然未來可能會出現新的崗位,但它們往往都收入比較低,不受歡迎。

例如,許多支持AI系統的工作事實上需要由人類去完成,他們需要維護那些基礎設施,照顧系統的“健康狀況”。這種勞動力往往不大顯眼,至少從媒體的報道和人們對AI的印象來看是這樣。因此它往往受到低估。這類工作包括負責清潔辦公室和維護工作的清潔工,負責維修服務器故障的維修工,以及有位記者所說的“數據衛生工”(能夠“清理”數據,為數據分析做好準備)。

AI系統對勞動力的影響相關的問題應當不僅僅包括未來是否會創造出新崗位,還應當包括那些崗位會否是能維持生計的體面工作。

此外,有關AI系統和勞工市場未來的討論通常都專註於傳統上被認為是低收入的工人階級崗位,如制造業、卡車運輸、零售或者服務工作,但研究表明,未來各行各業都將受到影響,其中包括需要專業訓練或者高學歷的專業工作,如放射學或者法律。關於這一點,未來將需要解決職業責任和義務方面的新問題。

AI將會如何影響主雇關系?

近年來,研究人員開始研究依靠大數據的AI和自動化系統(從Uber到應用於大型零售商的自動化調度軟件,再到工作間監視)正在如何改變雇主與雇員之間的關系。

研究發現,雖然這類系統可以用來賦能員工,但該類技術也可能會引發大問題,如剝奪員工權利,加劇就業歧視問題,以及催生不當勞動行為。

例如,AI驅動的勞動力管理和調度系統正越來越多地被用來管理勞動力,助力按需經濟的增長和“朝不保夕族”(precariat)的崛起。雖然部分研究人員稱恰當的調度能夠帶來很有價值的彈性,但到目前為止,更多的研究發現受該類系統管制的員工存在情緒緊張和缺乏安全感問題。

由這類系統管理的員工的不利體驗包括長期不充分就業,財務狀況不穩定,缺少傳統全職員工能夠獲得的福利保障,無力為家庭或者自我照顧(又或者因為忍受不了該類工作往往要求的隨時待命性質而尋找別的工作)做規劃。此外,受這些問題影響的員工更多是女性和少數族裔。

另外,基於AI系統的新遠程管理模式會加大將“系統”所做的嚴重影響員工的決策歸責於雇主的難度。因此,員工更容易受到剝削。

例如,像Uber這樣的由大數據和AI驅動的平臺會遠程控制行駛路線、定價、報酬甚至人際交流方面的標準——這些決定傳統上說通常都有人工親自管理。

除了模糊化特定決策的性質和邏輯之外,這類遠程管理通常並不被認為是“雇員管理”。

由於這些新管理模式不大符合現有的監管模式,像Uber這樣的公司會將自己標榜為技術公司,而非雇員的管理者。按照這一理念,這類公司將自己視作促進連接的平臺,因此不會像傳統雇主那樣對雇員負責。依照這種模式,雇員最終要承擔權益保障(如減輕稅項負擔、醫療保健和其它的勞工保障)和潛在救濟模式的就業帶來的風險。

  3.  醫療健康  

像我們現在所看到的大多數已被應用到醫療健康領域的AI系統,它們幾乎都依賴於大型數據庫,這些AI系統會通過各種複雜的統計模型和機器學習技術,從其所收集到的海量數據中,自動提煉出各種重要信息。

那些已投入使用的醫療數據信息源(仍處在不斷增長當中)——包括電子病歷(EHRs)、臨床和醫保數據庫、從各類消費電子產品和App上傳來的健康數據——目前已經被大量地應用到AI系統的實踐,這些AI系統具有極大的能改善社會醫保水平的潛力。

無論是臨床診斷、病人護理,還是施藥;無論是藥品生產、組織管理,還是醫保信息交互,這些AI系統都為醫療從業者的工作起到了極大的助力。

AI是如何被融入到醫學研究和醫療健康的?

將AI系統融入到醫學研究,具有令人極為欣喜的應用前景,它能幫助我們更好地理解那些疾病的病理,幫助我們開發出更多的新式治療手段,實現更為精準的醫學診斷,甚至還能私人訂制地為個人生產出特制的藥品。

然而,鑒於目前仍存在的將AI應用到醫療領域的局限和偏見,它們或將阻礙這些應用前景的實現,而這就需要研究人員更為細心謹慎地去探索這一前沿的技術。

目前,這些將AI技術應用到醫療領域的局限,包括有不完整或不準確的研究數據,即未含蓋到特定的少數群體,除此之外,尤以美國醫保系統為代表的複雜醫療補貼激勵制度,也將在一定程度上阻礙到了AI醫療技術的應用。舉個簡單的例子,目前的一些醫療補貼制度會更支持個別種類的藥物研發,或是更傾向於補貼個別治療方案。

醫療研究數據時常會表現出客觀、通用的屬性,但在實際應用的過程中,這些研究結論往往會表現出片面、暫時和只針對某些團體或病癥的特性,而AI系統根據這些“片面”數據所分析和建立出的模型,可能會引出、建立或是衍生出一些錯誤的猜測。

所幸的是,這樣的錯誤情況是可以避免的。如果一個AI系統所收集的數據不存在上面我們所提到的那些瑕疵(假設這點是可以被保證的),或是該AI系統所使用的數據框架像隨機對照試驗方法(randomized control trials, RCTs)或是其它公共醫療數據庫那樣,具有自行矯正這些問題的能力,能減小其內在錯誤偏差的話,它就能有效地避免重大誤差的出現。

假設這些誤差微小到可被忽略,將AI系統融入到醫療健康研究和臨床實踐中心的一個最有可能實現的應用前景,是讓AI去協助醫生進行病癥診斷,從海量數據中發現規律性的模式,從而幫助醫生更早地揪出那些藏匿在身體深處的“狡猾”病竈。

事實上,AI系統目前已經可以完成對部分病癥的診斷了,這其中就包括了白血病。在檢查和臨床護理環節,AI系統在一些情況下,也有幾率能減少,甚至預防誤診情況的出現。須知,誤診是可以致命的,AI輔助診斷技術的價值之高,可想而知。

在這方面,AI系統在診斷和確立病癥的環節上,正扮演越來越重要的角色。然而,也正是因為如此,研究人員必須警惕,要避免出現因AI錯誤猜測,而推斷出“正常”或是“平均”等健康狀況描述的情況的發生。

類似的,我們只需要回顧一下美國在1973年前的那段歷史,就想象出當AI出現誤診時,會發生什麽樣慘劇。彼時,美國精神病學協會(American Psychiatric Association)將同性戀作為一種精神疾病列入到了它權威的精神病診斷和統計手冊當中,這樣一來,悲劇的出現就不可避免了。

同樣的,當AI系統被直接地應用到病人護理時,它們將涉足到診斷和臨床管理的方方面面,而這也時常將隔開看護者同病人之間的距離,所以,適當地明確出AI“專業程度”的局限,是非常重要的。

一名人類外科醫生在上崗之前,會先上醫科大學,在經歷過層層嚴苛的考核後,他們的醫術才能獲得世人的承認,然而,我們要如何造出一個出色的AI大夫來協助,或者甚至是取代一個有“文憑”的人類名醫呢?

這樣一個AI醫療系統意味著它需要具有絕對準確的專家級權威水平,不會出現誤診或是診斷偏頗的情況。這種級別的信任代表著這些AI系統無論是在出廠的能力評估上,還是在檢測其極限能力上,都可以接受更少的審查,而這也將制造出那些,目前還未被醫學倫理框架所囊括的新型倫理問題。

除此之外,我們還需要關註類似於這樣的AI醫療系統在醫保領域內被布置於何處,使誰受益等等這樣的問題。盡管讓醫療健康惠及所有人,讓大家都能負擔得起確實是一種需求,但已有大量的證據表明,取得醫保和健康數據的權限並未被公平地分配,在多數情況下,窮人、非白人和女性群體常常處於劣勢地位。

讓AI系統融入到醫保體系,非但不會根除這些系統性的不平等問題,反而還有可能會放大這種問題的嚴重性。雖然AI系統可以實現合適的定制化醫療護理,讓各式各樣的人都獲益,但它也可以被故意培養成過濾掉那些之前就常常被忽視、被服務不周的外圍群體。

如果這些群體沒有被給予適當的考慮的話,這反過來也將影響到AI系統所構建出的預測模型。AI預測模型會被那些能用上這種AI系統的特權群體所上傳的健康數據所不斷的固化,從而只能有效反饋出富人的“健康狀況”,並最終構建出一個會完全排斥“邊緣人群”的健康與疾病的整體認知模型。

鑒於目前美國存在的醫保財政的亂象,這樣的憂患確實是值得人們投入更多關註,就像這樣的亂象在過去影響到醫療技術的整合一樣,它也必然會在未來影響到AI醫療系統的布置和效用,

基於這樣的考慮,人們在推動AI醫療系統不斷發展的同時,也在不斷努力地去降低AI醫療系統造價,而這也將促使那些利益相關者(比如政客、保險公司、健康機構、制藥企業、雇主和其他人)把他們的註碼,寄托於大規模的健康數據收集和AI系統的研制上,以此來幫助他們更好地維護他們在模型研發和醫保護理上的經濟利益。

然而,將這些信息技術和AI系統整合到醫院和其它醫療健康體系所需要的關鍵培訓、資源和那些正在進行當中的必要維護,並不總是能夠得到支持,或者說並不總是能處於“不差錢”的狀況。而這種情況其實已經導致了技術資源和技術能力的分配不均。

訓練AI所需的數據收集和病患觀察將如何影響到個人隱私?

AI系統對數據量的極度依賴和對病例觀察的需求也自然而然地催生出了對病人隱私、秘密和安全保護等等急迫的問題。

目前,對AI醫療系統高性能期許的實現依賴於通過各式各樣的設備、平臺和互聯網來源源不斷地獲取到海量的病患數據,而這一過程也不可避免地會涉及到某些人或機構會在利益的驅使下,做出出格的監視行為。、

與此同時,像同態加密(Homomorphic encryption)、差分隱私(differential privacy)和隨機隱私(stochastic privacy)這樣的技術帶給了我們應對這些亂象現象的新的希望,它們可以讓AI系統實現在不“查閱”數據的情況下,直接地去“調用”它們。雖然就目前來說,這些新技術仍處於研發的初步階段,連一個通用應用程序都還沒有被開發出來,但它展現出能令人鼓舞的應用前景。

除此之外,隨著近期美國政府對循證醫學(Evidence ¬based medicine)的推廣和《平價醫保法案》(Affordable Care Act)已由原先的按服務收費轉變至按治療行為收費的這一變化,監管行為背後所涉及到的經濟利益問題和對敏感健康數據消費的問題,都在不斷地加劇惡化當中。

至於那些保險公司,在AI系統入局的情況下,其所需面對的對驗證交叉補貼方案合理性的呼聲的壓力也在與日俱增。

舉個例子,盡管美國政府在2008年就頒布了《基因資訊平等法》(Genetic Information Nondiscrimination Act),但出於對保險分層管理的需求,保險公司對能獲取到遺傳危險率信息的興趣也在日益增長。事實上,差別定價目前已經成為了數據分析供應商的一項業內通用做法,而這反過來也進一步地鞏固和加劇了目前的不平等現象。

此外,“智能設備”和其它能讓AI系統獲取到所需數據的聯網傳感器也已讓追蹤和監視變得無處不在,而這也將目前的那些隱私保護政策的覆蓋範圍不斷地拓寬,像《醫療健康可攜性和責任法案》(Health Insurance Portability and Accountability Act)就是在這一考慮下的產物。

隨著AI系統被越來越多地融入到健康和電子消費產品上,病人因細分數據而被重新定義,或是由代理數據來預測出他們的身份、所患疾病和其它健康信息的風險,正不斷地升高。

除此之外,那些驅動這些數據收集設備的軟件也常常是為私人所持有,而不是開源的(不受外部審查審計的約束)。雖然,美國政府最近簽署的法令對《數字千禧年著作權法案》(Digital Millennium Copyright Act)中的相關條例進行了免除,讓審查外部醫療設施的代碼成為可能,但更為重要的或許是審查那些內部醫療設施,然而這種行為並未被這一豁免權所囊括到。

總的來說,相關業內專家們都已經對在物聯網設備上,布置聯網技術所潛在的重大安全隱患做過警告了,在這些警告中,有很多就是專門針對醫療設備安全問題的。

AI將如何影響患者和醫療保險供應商?

那些已被實現或是有望被實現的AI技術,對健康護理系統的構建有著深遠的意義,對需要照顧的病患,或是那些虛弱體質的人也意義非凡。

人們對於AI系統,進行了許多美好的構想,寄予它們護理工作調解員的角色,並相信它們在未來有可能完全取締了護工的工作。這一轉變前景樂觀、經濟,且高效,很可能會改善患者與醫生或其他護工之間的關系和他們的工作方式。

能展示AI系統具有代替或者協助人工護理工作的潛力的例子非常之多,包括有機器人外科醫生、虛擬管家和陪護機器人等等。這些例子逐漸引發了一些爭論,比如代理照顧和陪同護理的社會意義是否可以讓非人類的機器來代替?當機器替代人工時,它是否能不僅僅只是增強人工的專業性,而能做到真正的獨當一面呢?當我們認為一臺機器有能力“護理”病人時,它具備了哪些“護理”能力呢?我們又是如何定義“護理”這個詞呢?這些我們以為的“以為”是否是站在病人權益的角度上,去考慮的呢?

就目前來說,雖然陪護機器人在取代人工護理工作上,還未取得什麽明顯的效果, 但由AI驅動的APP和聯網設備能讓病人取回對自己健康管理的控制權的前景正在與日俱增,而這也預示著AI醫療系統同病人的直接交互,正處於早期發展階段。。

這種人與AI的直接交互其實也是一把雙刃劍。一方面,它能讓病人康複地更快、對自身病情有更多的了解。另一方面,這種變革也需要他們擔負更多的風險。這些風險包括它可能會誤導病患,影響他們可能會接收到的信息的質量和準確性,而這也是美國聯邦貿易委員會(FTC)在近些年來,所要傳達給我們的擔慮。

除此之外,這些搭載了AI的APP也可以將原先醫療從業者所需要承擔的責任轉移病人本身,但這對病人來說不見得是什麽好消息,因為並不是所有人都有時間、財力和AI技術獲取渠道,來實現對他們自身健康的護理。

那麽,什麽樣的患者能優先享受到這些仍在不斷改進當中的AI醫療技術的紅利呢?對於那些“裝備”不良卻想管理和維護自己個人數據的病患來說,他們所接受到的健康看護是否是不合格的呢?

再者,那些搭載了AI技術的應用的設計者和研發者在這一社會演變過程中,又需要扮演什麽新的角色?需要承擔哪些新的責任?

那些始終處於風口浪尖的醫學道德倫理,又將如何融入到這些與眾不同的,新式工程技術的載體上呢?

  4. 道德責任  

AI系統的部署不僅將引發新的責任,也將對職業道德、研究道德、甚至公共安全評估等現有領域造成挑戰。

近來,人們對道德和AI系統的討論傾向於優先考慮很久以後可能會出現的AI系統,例如,“奇點”的來臨,或超級智能的發展。

也就是說,這種討論往往並未關註AI系統在短期或中期內會產生的道德影響,例如,當前已投入使用的大量任務型AI系統引發了新挑戰、可能加劇不平等、或從根本上改變權利機制。

當代AI系統上能夠執行各種各樣的活動,這類技術會引發各種隱性和顯性後果,因此可能對傳統倫理框架提出新挑戰。AI系統被部署在人類社會中時或許會引發不可預測的相互作用和後果。

在資源配置以及讓權力和信息集中或重組的潛力方面,我們迫切需要處理一些關鍵問題來確保AI技術不會造成傷害,特別對於已被邊緣化的群體。

我們如何向AI授予權力或委派AI展開決策?

AI系統在社會和經濟領域內的融合需要我們把社會問題轉變為能夠被AI解決的技術問題。這種轉變無法保證AI系統產生的錯誤會少於它將取代的現有系統。瑞安•卡洛(Ryan Calo)指出,人們通常以為,AI系統(如,自主駕駛汽車)犯的錯誤將少於人類。實則不然。複雜程度不高的AI系統無法避免地會犯一些人類不會犯的新錯誤。

在許多領域中,倫理框架往往需要產生記錄,例如,病歷、律師的案卷、或研究人員向機構審查委員會提交的文件。此外,人們還面向患者、客戶或感覺自己遭遇了不公正待遇的對象設立了補救機制。

當代的AI系統往往無法提供此類記錄或補救機制,要麽因為技術上無法實現,要麽因為設計者並未考慮此類記錄或機制。

這意味著,受到影響的特定群體或個人往往無法對AI或其他預測系統的決策進行檢驗或質疑。這會惡化各種形式的權力不對等現象。而權力不對等是一個很重要的倫理議題。

當受到影響的個人無法對這類自動化決策展開檢驗、質疑或上訴時,他們就處在了權力相對缺失的位置上。

這帶來的風險是,AI系統不僅將削弱弱勢群體的質疑權力,而且將賦予設計方更多定義道德行為的權力。這種權力能夠以十分微妙的形式呈現出來。例如,各種自動化系統往往被用來從某種方向來影響或“微調”某些個體,而很大程度上扮演決定或支配角色的是設計部署此類系統並從中獲利的一方。

若要從零開始構建AI系統,以實現糾正上述不平衡現象等目標,這本身就要受到實力差距的限制。打造和維護AI系統需要大量的計算資源和大量數據。而擁有海量數據和計算資源的企業相對缺乏這類資源的企業擁有更多的戰略優勢。

我們如何在現有的各種行業中應對與AI相關的倫理問題?

隨著AI系統在不同行業環境(如,醫學、法律、金融)中的融入愈加深入,我們還將面臨跨越不同行業的新的道德困境。

例如,AI系統在保健環境中的應用將對醫療專業人員道德準則中秉持的核心價值(如,涉及保密、護理的連續性、避免利益沖突以及知情權)造成挑戰。

隨著醫療業的不同利益相關方推出了各種各樣的AI產品和服務。對這些核心價值的挑戰可能會以全新的和意想不到的方式呈現。

當一名醫生使用的AI診斷設備在受訓時使用了一家醫藥公司的藥品試驗數據,而這家公司是某種藥物處方的既得利益者,那麽這位醫生應如何遵守避免利益沖突的誓言?

雖然這是個假想的情況,但這點明了在修訂以及更新職業道德準則的過程中必須解決的棘手問題。

同樣地,負責管理AI研發及維護的專業協會也有必要考慮采取相應的措施。例如,美國人工智能協會(AAAI)應制定相關的道德準則,而美國計算機協會(ACM)以及電氣和電子工程師協會(IEEE)需認真修訂相關的道德準則。ACM和IEEE現有的道德準則已擁有20年以上的歷史,不用說,這些準則不僅無法解決與人類機構、隱私和安全相關的核心問題,而且也無法預防AI和其他自動化決策系統可能產生的危害。隨著AI技術進一步被整合到重要的社會領域中,這一點正變得越來越重要。

盡管更多的高等教育機構在技術和科學專業的教學中已開始強調職業道德的重要性,但這番努力仍處在初期,還有進一步的拓展空間。而民權、公民自由和道德實踐等領域的知識還未成為學生們畢業時必須掌握的要求範圍。此外,有一點是值得註意的,若有人違背醫藥界道德準則,他需承擔的懲罰包括失去行醫權力,這一點並不適用計算機科學或許多其他相關領域。

目前還不清楚大多數計算機科學家是否熟知ACM或IEEE準則中的核心內容。我們也不清楚,企業雇主是否會因為其他鼓勵或壓力因素而選擇不遵守這種不具約束力的法規。因此,從實用角度看,除了僅僅對倫理框架進行改寫和更新外,有必要關註範圍更廣的鼓勵機制,並確保對倫理準則的遵從並不是事後才想起的事項,而是相關專業領域需要關註的核心問題,以及AI領域學習和實踐中不可或缺的組成部分。

  闡述建議  

下面我們將進一步闡述上面簡要提到的建議背後的基本原理。

1、多元化和拓寬AI開發和部署所必需的資源——如數據集、計算資源、教育和培訓的使用,包括擴大參與這種開發的機會。特別是關註當前缺乏這種訪問的人口。

正如在AI Now Experts研討會期間很多人提到的,這些開發和培訓AI系統的方法費用高昂並只限於少數大公司。或者簡單地說,在沒有大量資源的情況下DIY AI是不可能的。培訓用AI模式要求有大量數據——越多越好。同時還要求有巨大的計算能力,而這費用不菲。這使得即使要進行基礎研究都只能限於能支付這種使用費用的公司,因此限制了民主化開發AI系統服務於不同人群目標的可能性。投資基本的基礎設施和使用合適的培訓數據,有助於公平競爭。同樣,開放現有行業和機構里開發和設計過程,以多元化內部紀律和外部評論,可幫助開發更好服務和反映多元化環境需求的AI系統。

2、升級使公平勞動行為具體化的定義和框架,以適應AI管理部署到工作地時出現的結構性變化。同時研究可替代的收入和資源分布、教育和再培訓模式,以適應未來重複性工作日益自動化和勞動及就業態勢不斷變化。

在AI Now Experts研討會上,奧巴馬總統首席經濟學家賈森·福爾曼(Jason Furman)指出,在美國每小時工資只有不到20美元的工作,83%都將面臨自動化的嚴重壓力。對於每小時工資在20-40美元的中等收入工作,這個比例也高達31%。這是勞動力市場一次巨大轉變,可能導致出現一個永久失業階層。為確保AI系統的效率在勞動力市場不會導致民眾不安,或社會重要機構如教育(有一種可能是教育不再視為就業的更好途徑)的解散,在這種巨大轉變出現,應該徹底研究替代性資源分布方法和其他應對引入自動化的模式,制定的政策應該為組織良好的各種落實測試開路,控制可能導致的災難性後果。

除了“替代工人”外,AI系統也對勞動力市場也有其他多重影響。例如,它們改變了權力關系、就業預期和工作本身的角色。這些變化已經對工人產生深遠影響,因此在引入AI系統時,在考慮如何表述公平和不公平做法上,理解這些影響很重要。例如,如果開發實際作為管理層行事的AI系統的公司,可被視為科技服務公司,與雇主不同的是,職員可能不受現有法律保護。

3、在設計和部署階段,支持研究開發衡量和評估AI系統準確性和公平度的方法。同樣地,也支持研究開發衡量及解決一旦使用出現的AI錯誤和損害的方法,包括涉及通知、矯正和減輕這些因AI系統自動決策導致的錯誤和損害的問責制。這些方法應優先通知受自動決策影響的人們,並開發對錯誤或有害判斷提出異議的方法。

AI和預測性系統日益決定了人們是否能獲得或失去機會。在很多情況下,人們沒有意識到是機器而非人類在做出改變人生的決定。即使他們意識到,也沒有對錯誤界定提出異議或拒絕有害決策的標準流程。我們需要在研究和技術原型化上投資,確保在AI系統日益用於做出重要決策的環境中,確保基本權利和責任受到尊重。

4、澄清無論是反電腦欺詐和濫用法案還是數字千年版權法案不是用於限制對AI責任的研究

為了進行對檢驗、衡量和評估AI系統對公共和私人機構決策的影響所需的研究,特別是有關如公平和歧視的關鍵社會關切,研究人員必須被清楚地允許跨大量域名並通過大量不同方法測試系統。然而,某些美國法律,如反電腦欺詐和濫用法案(CFAA)和數字千年版權法案(DMCA),規定與電腦系統甚至互聯網上公開可訪問的電腦系統“未授權”互動為非法,可能限制或禁止這種研究。這些法律應該澄清或修改,明確允許促進這種重要研究的互動。

5、支持在現實環境中AI系統對社會經濟生活影響的強大評估和評價方法的基礎性研究。與政府機構合作將這些新技術集成到他們的調查、監管和執法能力中。

我們當前缺乏對AI系統社會經濟影響評估和理解的嚴格做法。這意味著AI系統在融合到現有社會經濟領域,部署在新產品和環境中,卻不能衡量或精確計算它們的影響。這種情況類似於進行試驗卻不願記錄結果。為確保AI系統帶來的益處,必須進行協調一致的研究開發嚴格的方法,理解AI系統的影響,當使用這種方法時可幫助形成跨部門和政府內部的標準做法。這種研究及其結果可比作早期預警系統。

6、在與這些人聯合開發和部署這種系統時,與受自動決策應用和AI系統影響的社區代表及成員合作,聯合設計可問責的AI。

在很多情況下,這些受AI系統影響的人將是對AI系統環境和結果最權威性的專家。特別是鑒於當前AI領域缺乏多元化,那些受AI系統部署影響的人實際上從事提供反饋和設計方向,來自反饋機制的這些建議可直接影響AI系統的開發和更廣泛的政策框架。

7、加強行動提高AI開發者和研究者的多元化,拓寬和融合所有觀點、環境和學科背景到AI系統開發中。AI領域應該也結合計算、社會科學和人文學,支持和促進針對AI系統對多個觀點影響的跨學科AI研究。

計算機科學作為一個學科領域缺乏多樣性。特別是嚴重缺乏女性從業者,在AI里這種情況更為糟糕。例如,雖然有些AI學術實驗室由女性掌管,但在最近的神經信息處理系統大會上,與會者只有13.7%是女性,這次大會是該領域最主要的年度大會之一。缺乏多元化的圈子不大可能會考慮這些不在其中人的需求和關註。當這些需求和關註成為部署AI的社會經濟機構的中心時,理解這些需求和關註很重要,AI開發反映了這些重要的觀點。關註開發AI人群多元化是關鍵,除了性別和代表受保護人群外,包括除計算機科學外各種學科的多元化、建立依賴來自相關社會經濟領域學習的專業知識的開發實踐。

在計算機科學之外和計算機科學之內AI子領域的社會經濟領域,進行AI影響的徹底評估將需要多數這種專業知識。由於很多環境下AI被集成和使用——如醫學、勞動力市場或在線廣告——本身是學習的豐富領域。為真正制定AI影響評估的嚴格流程,我們將需要跨學科的協作,建立新的研究方向和領域。

8、與專業組織如美國人工智能進步協會(AAAI)、美國計算機協會(ACM)和電氣及電子工程師協會(IEEE)合作,更新(或制作)專業道德準則,更好地反映在社會經濟領域部署AI和自動化系統的複雜性。為任何想掌握計算機科學的人開設公民權、公民自由權和道德培訓課程,反映了教育中的這些變化。同樣,更新專業道德準則約束引入AI系統的專業人士,如適用於醫生和醫院工作者的道德準則。

在醫學和法律等職業中,專業人士的行為受控制可接受和不可接受行為的道德準則約束。專業組織如ACM和IEEE確實制定了道德準則,然而這些準則過時了,不足以解決複雜社會經濟環境中使用AI系統帶來的具體並常常是微妙的挑戰。雖然醫生確實遵守了約束他們對待病人行為的職業道德,但AI系統的發展,如幫助醫生診療和治療病人,出現了現有職業道德準則不總是能解決的道德挑戰。職業準則和計算機科學培訓必須更新,以反映AI系統建造者對因使用這些系統遭受不同程度不利影響的人所負有的責任。在AI用於增強人類決策時,職業道德準則應該包括在AI系統受到利益沖突左右的時候鑒定責任的保護措施。

人工智能 AI
贊(...)
文章評論
匿名用戶
發布
PermaLink: https://articles.zkiz.com/?id=217608

Next Page

ZKIZ Archives @ 2019