9月9日消息,據彭博報道,特斯拉和SpaceX公司CEO埃隆·馬斯克今日表示,近日發生的“獵鷹9號”爆炸事故是Space X在過去14年間所經歷的最費解、最複雜的一次事故。
馬斯克今日在Twitter稱,火箭爆炸時引擎是處於關閉狀態的。為此,他還向公眾求援,如果有人當時用手機記錄下爆炸的一幕,可以以電子郵件形式發送給SpaceX。
馬斯克說:“目前事故原因調查仍在繼續。這是我們在過去14年間所經歷的最費解、最複雜的一次事故。需要強調的是,火箭爆炸前我們正在進行例行的燃料加註,火箭引擎是關閉的,根本沒有熱源。”
SpaceX表示,此次事故發生後,他們已經研究了大量數據和視頻。馬斯克說:“特別是要了解爆炸前幾秒的相對安靜的聲響。”當被問及是否有可能是外物撞擊到了火箭,馬斯克說:“不排除這種可能。”
此前在9月1日,SpaceX火箭在美國佛羅里達肯尼迪發射中心試飛前發生爆炸,損毀的不僅僅是獵鷹9號火箭,還有以色列的一顆視頻和寬帶衛星阿莫斯6號,以及Facebook一枚能夠覆蓋全球部分地區無線網絡的衛星。
上一次SpaceX經歷重大事故是去年6月,當時獵鷹9號在通往國際空間站的途中自動解體。SpaceX為此用了近半年時間進行事故調查。在此期間,公司一切飛行器全部停飛。直到去年年底,SpaceX才重新讓獵鷹9號在設計改進後再次起飛。這也意味著這次事故可能同樣會耗去SpaceX相當長的時間去接受調查,並通過進一步的改進防止再次發生爆炸。
對於這次事故,衛星所有者、以色列Space Communication公司表示,將索賠5000萬美元,或要求Space X提供一次免費的發射服務。另外,還可能向以色列Aerospace Industries公司索賠2.05億美元,因為該公司制造了AMOS-6衛星。
(新華社/圖)
2016年9月11日下午,在深圳舉行的馬洪基金會秋季理事會論壇上,著名經濟學家張維迎與深圳市原副市長唐傑教授,分別就“清除創新的體制障礙”以及“創新中的企業和政府行為”進行了專題演講。作為市場經濟中“企業家精神”的知名捍衛者,張維迎教授以嚴謹的邏輯與案例分析,論證了在市場經濟的“資源配置”與“技術進步”兩大功能中,企業家的“套利”和“創新”精神起到了關鍵的驅動作用。相映成趣的是,唐傑教授的演講從創新的“空間分布”展開分析:為什麽在不同時代創新總是集中於少數國家或城市空間內,而沒有形成理論上應該呈現的“均衡分布”。
張維迎認為,中國經濟過去30年的發展中,由於內部體制約束和外部技術落差等原因,企業和企業家基本上是依靠商業和政策性套利模式成長起來的;但在隨著經濟高速增長而接近市場均衡階段後,無論是技術追隨型的商業套利,還是政府支持型的政策性套利空間都已經越來越小。
而在長期依靠套利模式成長起來的市場機制和行為模式慣性下,無論是政府體制還是企業家心態,都更難適應創新型經濟的發展要求。
這是因為創新經濟體系作為一種兼具不確定性和長周期投入的新型增長模式,對產權保護和法治公平的敏感性遠大於套利經營模式;與此同時創新成果對原有市場利益結構的破壞,也會引起既得利益群體的諸多阻礙與反擊。
這些本質上的“利益之爭”,在某些時候會由於社會觀念的誤區而變成制度或政策阻礙。對此張維迎教授以《反壟斷法》為例,指出企業創新形成的差異化競爭力本身就具有“壟斷”性質,而被經濟學家們“搞反了概念”的“反壟斷”,本質上是一種反競爭機制,變成了劣勢企業狙擊創新企業成長的政策武器。對此,張維迎強調壟斷與否並不在於市場中有多少家企業,而在於市場本身是否對外來競爭者開放。
基於“法治公平”的市場創新理念,張維迎教授對當下的產業政策、國企模式以及貨幣刺激等政策均提出了批評,認為這些“差異化政策”正在成為國家創新的“體制障礙”。
在對張維迎教授強調“源頭創新”理念表示贊同的同時,唐傑以華為為例,分析指出這家著名通信企業從模仿式跟隨到跨入引領式“源頭創新”的歷程,之所以發生在深圳這個“城市空間”,來自於兩個方面的差別:一是深圳有著比其他城市更加完善的市場經濟機制;二是在這一市場機制形成過程中,“合理的政府行為”。
在其後的討論中,唐傑提出一個值得深思的現象:在2000年之前,中國手機制造集中在北京三星和天津摩托羅拉兩家企業內;而今天中國10億支手機的生產能力中,有8億在深圳。
而在手機產業“空間轉移”的背後,是企業形態的巨大變化:與摩托羅拉、諾基亞等巨頭獨霸手機市場不同的是,今天深圳手機產業鏈遠非華為等數家品牌企業“獨大”,而是有著2000多家分工合作的大、中、小企業共同構成的“產業群”。
“華為不是華為公司,而是‘華為系’,”唐傑教授表示,正是在現代產業體系深度分工和契約合作模式下,大量產業鏈上的中小企業,得以通過“執行制造標準”的方式,分享著包括華為在內的領導企業強大的研發專利成果,形成了不斷提升和演化的動態產業鏈及創新擴散模式。
唐傑認為,在這一新型的現代產業模式下,深圳政府選擇的“合理行為”就是“補足產業鏈”和完善包括合約執行在內的“市場規則體系”。
比如在手機產業的轉移中,深圳政府做了一件看似“微不足道”的事:因為當時手機入網必須通過工信部北京檢測中心的檢驗,而長達三、四個月的送檢過程根本無法滿足產品更新換代的需求。於是深圳市政府向工信部申請成立深圳檢測中心,並以財政補貼等方式為中心提供運營支持。
政策出臺後迅速引發深圳“山寨”手機業向自主品牌轉型,並拉動整個手機產業鏈的升級壯大。“你可以說是產業政策,也可以說是公共政策,”唐傑表示在市場機制轉型過程中,深圳政府正是靠著這種“拾遺補缺”式的點滴積累,形成了今天的產業配套和市場機制比較優勢。
正是在這個意義上,身為經濟學家的唐傑表示,他與張維迎教授對“創新中的政府角色”理解,在“以市場為中心”的邏輯基礎上是一致的。只是一個從右摸——警示過度的政府幹預會帶來“市場失敗”;而另一個從左摸——認為保障市場公平、保護市場競爭的合理政府行為,能為市場機制的完善創造更好的環境。
一部優秀國產電影的誕生,必須把握熱門IP、優秀編劇、資深制作人這些核心要素,也勢必要面對傳統電影制片公司、互聯網巨頭等多方合力下的市場環境。
韓國電影《釜山行》近期頗受好評,該片不僅成為韓國今年第一部票房過千萬的電影,也在中國、美國等地備受好評。據媒體報道,有五分之一的韓國人為該電影票房做了貢獻,該片也成為今年在美國第一部票房過百萬美元的韓國電影,美國爛番茄網甚至給出了93%的好評。
電影《釜山行》截圖
相比韓國電影《釜山行》的風光,國產電影不僅在“保護月”里表現慘淡,還在難得的火熱暑假檔遭遇“寒冬”。問答網站“知乎”上,甚至有匿名評論稱“我們想保護一下他們,他們卻餵我們吃屎……”,簡單粗暴地表述了:國產電影爛片叠出,這個眾人皆知的事實。
正如大家所看到的,國產電影的制作成本主要投入在個別明星身上,導致電影在故事情節、演員陣容、場景布置等方面,長期停留在及格線之下。即使擁有最火爆的IP、有炙手可熱的當紅明星參演,依然難掩敗局。誰來阻止國產爛片,優質國產電影誕生的突破口在哪?
接下來你將看到:
“IP囤積大潮”下,票房收入卻涇渭分明
熱門IP變優質電影,編劇和制作人是核心
導演中心還是制作人中心?先弄清電影制片模式
“IP囤積大潮”下,票房收入卻涇渭分明
國內電影票房快速增長,導致大量資本進入電影行業,作品的版權費用居高不下。
這跟一個常見的投資邏輯有關:“IP自帶的話題和粉絲量可以減少宣傳成本,降低投資風險”,既然熱門IP就意味著令人垂涎的電影票房,自然地,越來越多的市場參與者開始加入“IP囤積大潮”。包括BAT在內的各類上市公司、影視公司、出版商紛紛布局IP產業,自主創作、投資、收購等諸多方式皆有。
國內文學IP供不應求的現狀,讓人不禁好奇:這些大熱的IP改編成電影後,結果如何?投入產出比是否讓人滿意?
-改編自韓寒小說《長安亂》的IP電影《喜樂長安》票房僅184萬;
-改編自蔡駿小說《謀殺似水年華》的同名電影票房僅一千多萬;
……
以電影《喜樂長安》為例,韓寒曾在微博上做過一個關於“讀者希望看自己哪部作品被搬上銀幕”的調查投票,《長安亂》名列前三,期待值可見一斑。然而觀影後,有超過三分之二的評論在吐槽劇情差、瞎改編。
電影《喜樂長安》的編劇為竹卿等人,《謀殺似水年華》的編劇為陳果等人,兩部電影的編劇均非原著者本人、此前也鮮有口碑較好的經典作品。
反觀2016年8月票房靠前的幾部電影,
-改編自南派三叔同名小說的《盜墓筆記》票房超9億元;
- 改編自同名電視劇的《使徒行者》票房超5億元;
-改編自顧漫同名小說《微微一笑很傾城》票房超2億元。
細分的人會發現,票房收入不錯的電影不光是有熱門IP,更要有優質的編劇和制作團隊。《盜墓筆記》編劇由小說原作者南派三叔親自擔任,花費2年時間打造劇本;《使徒行者》的編劇為香港著名編劇關皓月,其代表作《潛行阻擊》、《隔世追兇》、《沖上雲霄》收視、口碑俱佳;《微微一笑很傾城》改編自顧漫的同名小說,編劇也是顧漫本人。
熱門IP變優質電影,編劇和制片人是核心
大熱電影《釜山行》,正是重視劇本的最佳例子。該作品的導演延相昊此前一直專註做動畫電影,直到和動畫電影《首爾站》(被看作是《釜山行》的前傳)電影發行方交流時,有人提出了把《首爾站》拍成真人版的建議。至於,為何遲遲不涉足真人版電影?導演延相昊的回答是,“因為覺得還沒有遇到合心意的真人片劇本,所以一直在等”。《釜山行》正是由導演延相昊和作家樸柱錫一同磨了六個月才出來的作品。
動畫電影《首爾站》官方海報
如此說來,要想打造電影爆款,好的劇本必不可少。然而優質的IP不等於好的劇本,沒有編劇的精心打磨,導演也只是“巧婦難為無米之炊”。
首先要強調的是,並非所有的熱門IP都適合改編成電影。IP改編為電影需要符合電影的敘事邏輯,很多編劇在IP的研發過程中只是照搬原作,缺乏精心打磨。
對於適合改編成電影的IP,編劇和制片人是關鍵。目前市場上的編劇資源魚龍混雜,業務模式千姿百態。與影視公司/編劇公司簽約,或者成立獨立工作室均有。
比如,國內最大的編劇經紀公司喜多瑞,旗下擁有簽約編劇70余位;再如,“如戲”公司通過舉辦限時創作比賽,簽約從比賽中脫穎而出的編劇新人。盡管行業內有大量的編劇新人在湧現,但改編劇本的門檻極高,不僅要求創作人員的藝術才情,更要求市場敏銳度。不過,編劇也並非是創作時間越長、越出名,作品就越受歡迎。
而針對電影制作全流程的把控,制片人才是靈魂人物。電影制片公司,往往是接到一個項目後,再去找包括導演、演員、化妝師、攝影等人在內的攝制團隊。所以,對於制片公司而言,核心競爭力在於制片人,他們才是指揮整個電影制作團隊的“將軍”。
導演中心還是制片人中心?先弄清電影制片模式
如果說制片人是靈魂人物,那我們熟知的“導演”又扮演了什麽角色呢?其實,電影制片一般分為兩種模式:“制片人中心制”和“導演中心制”。
“導演中心制”,是以導演為核心的創作團隊,導演在資本和藝術創作上仍然擁有的強大話語權,制片公司會尊重導演的提議。早期的國產電影都是導演中心制。
導演中心制,有可能面臨的尷尬是:導演對藝術的極致追求可能會導致超期、超預算,如果最終電影票房沒有達到總成本的三倍左右,那麽投資人的錢極有可能收不回來。例如,王家衛執導功夫電影《一代宗師》,歷時3年拍攝,囊括第33屆香港電影金像獎十二項大獎,然而,站在電影投資方的角度看,電影並沒有賺錢。
盡管影片逼格、口碑俱佳,投資回報率卻不盡如人意
好在今天,即使是項目外包,大部分制片公司仍然會有制片人參與到電影的品控監管,以保障制作品質精良和預期時間內完成。劇組的會計、出納以及其他財務人員也由電影制片公司指派,以確保花費在預算之內。目前的導演中心制更像是和制片公司的協議項目合作,早已沒有傳統導演獨大的局面。
“制片人中心制”中,制片人全程參與電影制作過程,從前期籌備、拍攝階段、後期制作到審查階段。需要參與到:成本控制、劇本策劃、制作預算、營銷策略等各個工作環節中。目前,好萊塢多以制片人中心制為主。
值得註意的現象是,越來越多的互聯網企業跨界進入電影制片行業,搶占市場份額。目前,電影制片互聯網巨頭主要有騰訊影視和合一影業(由優酷和土豆集團共同成立的公司)。相較而言,傳統制作公司通過公司內部健全的影視制作質量管理和控制體系把控風險。在制作水準、物料配合、宣傳配合包括藝人協調等方面均有較好的專業水平,處於行業前列。
萬達影視占比16%、以67.5億總票房處於領先地位
互聯網巨頭騰訊影視和合一影業緊隨其後,
占比分別為15%和13%
盡管互聯網公司的進入加劇了制片行業的競爭,也為傳統制片公司帶來了大量的合作機會。制片公司分為兩類,一類是參與電影制作,賺取制作費用;一類帶有資本屬性,參與影視投資,賺取33%的票房分賬。目前,由於大制作影片投資預算動輒上億,行業單部影片已形成多家制片投資方的新格局,即一家負責制作,多家聯合投資,根據投資協議來確定各方對影片版權收益的分配。制片公司彼此不是競爭關系,更多的是合作關系。
而互聯網公司憑借視頻網站的預告片花絮等營銷資源來換取部分投資比例和後期播出版權,此外,互聯網公司掌握的平臺“大數據”,包括票務網站電影購票數據、視頻網站電影觀看數據等,也能夠幫助制片人合理預測電影票房、有效降低電影投資風險。
結語
毫無疑問,一部優秀國產電影的誕生,必須把握熱門IP、優秀編劇、資深制作人這些核心要素,也勢必要面對傳統電影制片公司、互聯網巨頭等多方合力下的市場環境。未來,國產電影能否從狗血劇情、渣制作、5毛特效中出走,真正獲得票房、口碑的雙豐收?我們拭目以待。
一紙民事起訴書將ST慧球持續兩個多月的股權爭鬥亂局漸漸攤開,該公司前董事長顧國平通過黑箱協議轉讓股權而最終違約,導致上市公司實際控制人不明,並遭遇知底細的“入侵者強勢”介入,引發系列控制權宮鬥。
ST慧球9月27日晚間公告稱,經核實公司董事會、監事會及股東大會相關歷史資料,並未發現涉及本次涉訴擔保事項的任何相關文件,認為相關民事起訴狀中關於公司為“上述協議提供無限連帶責任擔保”並未經過公司董事會、監事會、股東大會的審議程序。公司董事會認為,該擔保事項系違規擔保,本公司不應該、不認同、不接受因此承擔相關擔保責任。
然而,瑞萊嘉譽受讓的股權究竟從何而來?顧國平、鮮言、瑞菜嘉譽在這起糾紛中真正扮演了什麽角色?等等懸疑仍然待解。
蹊蹺的股權轉讓
上證所監管通報顯示,9月23日,收到ST慧球股東反映,該公司涉及一起重大訴訟,因股權轉讓糾紛,已向法院起訴ST慧球及其前實際控制人顧國平,且上海高院目前已經受理。
對於ST慧球控制權宮鬥劇來說,今年4月27日是關鍵時間點。根據上證所公布的《民事起訴書》,當日顧國平、上海斐訊數據通信技術有限公司(下稱“斐訊通信”)、ST慧球與一家名為上海躬盛網絡科技有限公司(下稱“躬盛網絡”)的公司簽訂《股權轉讓備忘錄》、《經營權和股權轉讓協議書》、《借款協議》,約定顧國平將ST慧球的6.66%股權轉讓給躬盛網絡,轉讓價為7億元。由斐訊通信、ST慧球為上述協議提供連帶責任擔保。但最終顧國平卻並未履約。
據本報記者調查發現,躬盛網絡實為迷局主角之一的匹凸匹前實際控制人鮮言的“馬甲”。工商信息顯示,躬盛網絡的法定代表人為楊劍鋒,而楊劍鋒曾為上海躬盛投資管理有限公司(下稱“躬盛投資”)的法定代表人、投資人,上述信息分別於2016年5月9日變更為朱曉堃、於2016年3月22日變更為上海柯塞威股權投資基金管理有限公司(下稱“上海柯塞威”)。而上海柯塞威與鮮言控股的深圳柯塞威金融信息服務有限公司同隸屬於柯塞威集團;此外,上海柯塞威原名為上海鴻禧股權投資基金管理有限公司。有媒體曾報道,後者曾為鮮言控股的鴻豐國際集團子公司。此前也有多位接近ST慧球的知情人士向《第一財經日報》表示,顧國平已將上市公司轉賣給了鮮言。
今年8月份,鮮言開始在ST慧球現身,被聘為該公司證券事務代表。由於鮮言進入後,ST慧球宣布擬成立多家公司,名稱與鮮言旗下公司名字相近,且其中一家與瑞萊嘉譽同處一棟樓,還引發了雙方是一致行動人的猜測。但此後卻接連發生了上市公司阻止瑞萊嘉譽信息披露、瑞萊嘉譽提議罷免ST慧球董事長董文亮等全體董事等蹊蹺之事。
今年7月21日-7月28日,瑞萊嘉譽通過二級市場舉牌,成為持有ST慧球1973.9萬股,持股比例4.999978%。此後,瑞萊嘉譽繼續增持,截至目前,持股比例已達10.46%,成為第一大股東。
按照起訴書的說法,顧國平為了完成ST慧球重組,選定國泰君安為重組財務顧問。在此過程中,國泰君安違反保密原則,讓瑞萊嘉譽、華安未來資產管理(上海)有限公司(下稱“華安未來”),數次大宗受讓顧國平所持ST慧球股份。公告信息顯示,ST慧球重組停牌是在2016年1月19日,並在1月26日正式披露顧國平擬將斐訊數據與該公司重組的消息。
也就是說,起訴書認為鮮言與瑞萊嘉譽關於ST慧球的控制權之爭,是因為顧國平違約、瑞萊嘉譽“橫刀奪愛”所致。
但該說法也有疑問。 2015年10月之後,顧國平先後通過德邦創新資本管理有限公司(下稱“德邦創新”)、華安未來、上海和熙投資管理有限公司(下稱“上海和熙”),發行了五個資管計劃,借助杠桿融資大舉增持ST慧球。
年報信息顯示,截至2015年12月底,德邦慧金1號、和熙2號、華安匯增1—3號五個資管計劃,分別持有ST慧球842萬股、750萬股、644萬股、610萬股、527萬股,合計持有3371萬股。今年1月9日,ST慧球披露稱,顧國平通過通過上述資管計劃,共計持有其3471萬股,持股不比例上升至8.79%。
但今年初A股遭遇“熔斷風暴“,顧國平的杠桿持股遭到多次平倉。今年1月,德邦慧金1號爆倉,顧國平未按約定補倉,其所持ST慧球842萬股,被該資管計劃優先級委托人強制平倉。
7月12日,華安匯增2號、3號凈值也跌破約定的補倉線,顧國平未在約定時間內補倉,華安未來解除了與其一致行動人關系。7月14日,和熙2號也解除了與顧國平的一致人行動關系。至此,顧國平僅剩華安匯增1號直接、間接持有ST慧球710萬股,持股比例僅為1.8%。
在起訴書中,對於瑞萊嘉譽、華安未來買入的具體時間,躬盛網絡並未說明。顧國平與鮮言前述股權轉讓、借款協議,發生在4月27日。但根據上述起訴書的說法,瑞萊嘉譽、華安未來受讓顧國平所持股份,是在ST慧球啟動重組之後。
但問題在於,除了今年1月份被強制平倉外,直到今年7月,公開資料顯示的顧國平持有ST慧球的股份數並未發生變化。截至今年3月底,德邦慧金1號持股數量為791.5萬股,僅減持了50萬股,其他四個資管計劃持股數理並未變化。
而根據瑞萊嘉譽此前公告,其所持ST慧球1900萬股是北京州際田野投資咨詢有限公司(下稱“州際田野”)通過大宗交易轉讓而來。而1900萬股占慧球科技總股本的3.85%,超過一季報中第一大股東吳鳴霄,但州際田野並未出現在慧球科技一季報十大股東之列。
誰在說謊?
躬盛網絡在起訴書中稱,“國泰君安證券股份有限公司違反《獨立顧問協議》重要的獨立性和保密性原則,讓其關聯人控制的深圳瑞萊嘉譽投資企業(有限合夥)與華安未來資產管理(上海)有限公司,分數次大宗受讓第一被告(即顧國平)間接持有的股份。”
按照躬盛網絡上述說法,瑞萊嘉譽、華安未來均為國泰君安關聯人所控制。此外,華安未來的股東國泰君安投資管理股份有限(下稱“國君投資”),也是國泰君安的關聯公司。基於這一關聯關系,國泰君安才泄露了ST慧球重組消息。
工商登記資料顯示,國君投資確實持有華安基金20%股權,而華安基金則持有華安未來51%股權,但國泰君安並未直接持有華安未來股權,亦不持有國君投資股權。
從時間上來看,躬盛網絡的說法,與國泰均安7月8日出具的ST慧球終止重組專項核查意見也有關系。在該核查意見中,國泰君安表示,該公司5月26日起,才與ST慧球簽署財務顧問協議,正式開展此次重組的獨立財務顧問工作。而在6月15日,經雙方協商,國泰君安已與上市公司終止了財務顧問協議。
根據公開信息,瑞萊嘉譽成立於2016年4月28日,在顧國平與上海躬盛簽署上述協議次日,就已成立。換言之,瑞萊嘉譽的成立,是奔著ST慧球股權而來。而其普通合夥人深圳市前海瑞萊基金管理有限公司,也在此前一天的4月27日才成立。這就意味著,如果上述信披屬實,則瑞萊嘉譽成立之時,國泰君安尚未成為ST慧球重組財務顧問。
國泰君安方面也回應稱,因斐訊通信借殼ST慧球上市事宜,國泰君安與ST慧球於2016年5月接觸並簽訂獨立財務顧問協議,按照證監會執業要求及項目實際情況,國泰君安於2016年6月通知上市公司終止協議並退出現場工作。ST慧球於2016年7月5日宣布重組終止,並於7月7日股票複牌交易;國泰君安受聘擔任ST慧球獨立財務顧問期間,ST慧球股票處於停牌狀態,未有股票交易,不存在其他方通過大宗交易受讓股票的可能,更不存在國泰君安指使受讓股票相關情形。
而作為連帶責任擔保方,ST慧球始終不曾披露顧國平股權轉讓的經過、糾葛,反而在控制權之爭爆發後,多次認定顧國平為實際控制人。9月27日,記者就此撥打鮮言、顧國平等人電話,但鮮言手機始終處於正在通話狀態,顧國平也未就相關問題予以回應。
一個值得註意的細節是,2016年4月,北京瑞爾德嘉創業投資管理有限公司起訴顧國平等合同糾紛,導致顧國平增持ST慧球的華安匯增1號、2號、3號的3000萬份、3500萬份3500萬份份額被凍結。
“天眼查”最新資料顯示,20015年12月23日,廣西壯族自治區北海中院發布了一則公告,該院受理原告晁曉東與北京川騰投資有限公司(下稱“北京川騰”)、ST慧球、北京瑞爾德嘉創業投資管理有限公司(下稱“瑞爾德嘉”)案外人執行異議一案,因北京川騰去向不明,無法直接送達,法院通過公告,向其送達起訴狀副本、應訴通知書等文件。值得註意的是,早在2013年,因為與惠州輝騰投資有限公司發生質押擔保糾紛,瑞爾德嘉就申請凍結惠州輝騰所持ST慧球1605萬股。
ST慧球究竟歸誰
毫無疑問,上述民事起訴書同時暴露出了一系列法律問題。未經公告及股東大會審議的黑箱協議對上市公司而言是否有效?是否需要承擔高額連帶賠償?ST慧球究竟將歸誰?
根據該民事起訴書,4月27日,顧國平與躬盛網絡簽訂了《經營權和股份轉讓協議書》,約定將直接和間接持有的ST慧球6.66%的股權轉讓給躬盛網絡,轉讓對價為7億元,如果違約,顧國平需向躬盛網絡支付股權轉讓價款的雙倍作為違約金;同時,顧國平向躬盛網絡借款1億元,並簽訂《借款協議》。而上市公司當日也與躬盛網絡簽訂了《股權轉讓備忘錄》,上市公司將為上述協議提供無限連帶責任擔保。
上海市東方劍橋律師事務所律師吳立駿認為,顧國平所轉讓的股權涉及實際控制人變更,在簽署協議後要及時予以信息披露,未公告則存在信披違規,可能要被行政處罰;而上市公司真的在協議上簽字蓋章了,那麽也存在違法違規擔保沒有及時披露,也涉及信息披露違規。
對此市場投資者存有疑問,在協議未公告未經董事會、股東大會審議的情況下,上市公司是否要對顧國平的股權轉讓協議和借款協議承擔無限連帶擔保責任?
在上海天銘律師事務所律師宋一欣看來,如果上市公司有簽協議且有蓋章,就有可能要承擔責任,主要還是違反了《合同法》,如果顧國平不願意承擔責任,上市公司就需要承擔連帶責任,但上市公司可以向顧國平追討損失。
“上市公司需要承擔擔保責任,不需要經過股東大會審議也有效,因為對於沒通過股東大會審議的擔保、質押等是否是無效的,目前法律沒有明文規定。”吳立駿表示。
這意味著若顧國平不承擔違約責任,那麽上市公司將可能承擔14億元的股權轉讓賠償金以及1億元的借款,累計共15億元,而這部分錢又不能追討回的話,那麽這將對上市公司構成風險。
“納稅申報表上又看不出什麽東西。”
在本屆美國大選的首輪電視辯論上,唐納德·特朗普如是說。
雖然在美國,總統候選人公開納稅設申報是一個持續了幾十年的慣例,但特朗普卻始終不肯松動。他說,15年來,美國國家稅務局(IRS)幾乎年年對他展開稅務審計。
他還建議大家去找聯邦競選委員會,因為他向該委員會遞交了一份104頁的材料,“基本上就是財務報表一類的東西”,並說,該文件顯示,他這一年收入6.94億美元。
然而,福布斯指出,這個數字並不準確。首先,在那份文件中,他將營收與自己的到手收入混為一談,其次,所謂的年收入其實覆蓋了17個月的時間。
考慮到這是繼美國商人老羅斯·佩羅(H. Ross Perot Sr.)以來,第一次有億萬富豪向美國總統之位發起實實在在的沖擊,而且是作為大黨的提名候選人(佩羅曾在1992和1996年作為第三黨候選人參加總統競選),特朗普的身家問題自然繞不過去。
最近,福布斯就對特朗普的財富作了新一輪的評估,將他的當前凈資產確定在37億美元。
這一估值較一年前縮水 8億美元。主要是由於紐約房地產市場疲軟,導致房屋估值下跌。而福布斯將特朗普名下資產歸為28個大項,其中11項都是地處紐約的房地產資產。
另外,特朗普自己給自己的競選活動貸款4,800萬美元,同時捐款700萬美元。
紐約市的房地產
位於曼哈頓第五大道的特朗普塔大廈(Trump Tower)當前凈值3.71億美元,較去年貶值1.59億美元,主要原因是營業利潤下滑20%,以及曼哈頓地區商業地產的整體疲軟。
同樣受累於紐約房產市場疲軟的還有第六大道1290號,該處房產總價值高達23.1億美元,特朗普在其中持有30%的股份,當前凈值為4.09億美元,較2015年縮水6200萬美元。
說起來,這一資產還跟中國投資人有關。1994年,特朗普在紐約上西區的哈德遜河畔有一塊78英畝的土地,由於負債累累,他說服一批中國投資者註資收購這塊地皮,連同它那2.5億美元的債務,而特朗普繼續持有30%的股份,充當有限合夥人。
十二年後,這些投資者作價17.6億美元將該地塊易手,用所得資金收購了第六大道1290號,以及舊金山的美銀中心。
特朗普一度以售價太低為由提起訴訟,阻礙交易進行,但未能如願。如今,特朗普仍在當初中國合夥人收購的房產中持有30%的股份(2007年,他們就作價18.1億美元,將70%的控股股權賣給了紐約市的房產投資信托Vornado)。對此,紐約市的一名房產經紀人評論說,那次官司敗訴是特朗普之幸。
華爾街40號又稱特朗普大樓,當前凈值3.45億美元。這座71層樓的建築始建於1929年,旨在成為世界最高建築,但沒過多久,這個頭銜就被克萊斯勒大廈奪走。特朗普於1995年收購該建築。有一次,特朗普就9·11事件接受地方電視臺采訪,說雙子塔的倒塌讓華爾街40號成了市中心最高的建築。結果自然是招致罵聲一片。
除以上寫字樓與零售物業外,特朗普還在紐約市擁有多處住宅物業,其中包括位於布魯克林區的一個經濟適用建築群。
高爾夫球場
特朗普名下有不少高爾夫球場。其中有10座分布在美國的6個州,外加哥倫比亞特區。凈值共計2.06億美元,較上一年貶值7200萬美元。
另有三座位於愛爾蘭和英國的蘇格蘭,當前凈值為8500萬美元。雖然福布斯給出了升值評估,但由於英鎊對美元匯率走低,最終還是損失了一定的估值額度。
酒店與公寓
特朗普在芝加哥、華盛頓特區和拉斯維加斯擁有三處酒店/公寓房地產。其中,芝加哥的特朗普國際酒店大廈凈值1.19億美元。
由於這座酒店/公寓建築上的“特朗普”標誌太過顯眼,特朗普還曾和芝加哥市長起過爭執。最後,芝加哥市還為此頒布了一項條例,對濱河布道一帶日後可以設立的徽標大小和數量作了限制。
私人房產
特朗普的私人房產包括:佛羅里達州棕櫚灘的兩處住所,凈值1450萬美元,較2015年升值285萬美元;比弗利山的卡農北道(N. Canon Drive)809號,凈值900萬美元,較去年升值50萬美元;紐約市特朗普大廈的頂層複式公寓,凈值9000萬美元,貶值1000萬美元。
產品授權與私人飛機
特朗普品牌的授權商品種類涵蓋家居、男裝、咖啡、礦泉水和香水。許可價值共計1400萬美元,較2015年下滑875萬美元。
特朗普名下有三架塞考斯基(Sikorsky)S-76B直升機、一架波音757客機和一架賽斯納(Cessna)750 Citation X客機。凈值共計3500萬美元,較2015年貶值2700萬美元。
最後,鑒於特朗普競選團隊曾給這位億萬富豪的“品牌價值”估出33.2億美元的天價,福布斯特地聲明,“品牌價值”不列入凈資產計算。“偉大的商人自會將品牌轉化為利潤,繼而獲得估值。推定出來的交易談不上估值。”
目前關於人工智能的四個關鍵性問題的答案,都在這里了。
來源 / AI Now《The AI Now Report》
譯者 / 網易智能(孫文文 費寧 誌文 阿樹 止水 倪盛)
前 言
人工智能(Artificial Intelligence,簡稱AI)是一系列技術的集合,其下包括機器學習、推理、感知和自然語言處理等。人工智能的概念和應用65年前就已開始,不過最近AI的進步和應用讓這種技術再次成為熱議。隨著AI被更廣闊地應用到人類社會和經濟生活各個方面,新的機遇和挑戰隨之而生。其巨大的潛在影響讓人類不得不謹慎思考AI技術的發展與應用。
於今年7月舉行的“AI Now”研討會是由白宮科技政策辦公室和美國國家經濟委員會聯合推動的一系列研究的最後一個環節。此前的一系列研究分別從不同的角度對AI進行了分析研究,從政策法規到AI的安全控制,再到AI公益以及如何挖掘AI的更多潛能。這次“AI Now”則主要就未來十年AI在社會和經濟領域的影響進行討論。來自全球多個領域的專家學者集聚一堂,發表自己的觀點。討論的問題包括:現階段AI的迅速發展造成了哪些問題?如何更好地理解與使用AI來創造更公平公正的未來?
社會和經濟的問題多不勝數,本次“AI Now”主要圍繞“醫療”、“勞工就業”、“AI公平”以及“AI道德”準則展開討論。
之所以選擇“醫療”和“勞工就業”作為主要話題,是因為目前這兩個領域中AI滲入廣泛,AI所能帶來的問題在這兩個領域中較為突出和明顯。而“AI公平”和“AI道德”則是未來大家都關註的問題:AI會有助於世界大同還是會加劇社會不公?以及如何確保AI的利益被全體人類享用?
該研討會的舉行旨在讓AI能夠更好地造福人類社會。通過眾多專家學者聚集一堂進行討論的方式,本次“AI Now”研討會對人工智能學界內外都具有顯著意義。
問題和建議
研討會對未來AI所可能造成的情況做出了預見,並分別給出相應的建議。需要聲明的是,下列建議融合了全體與會人員的智慧,並不代表個人或某組織的立場。
隨著AI愈加緊密地被應用到社會經濟生活的方方面面,以下列出的問題和對應的建議可以作為投資者和相關領域從業者在對來的參考指南。
1、問題:AI的發展和應用有賴於特定的基礎設施和人、物資源。這些基礎資源的短缺無疑會限制AI的發展,對這些基礎設施和資源的掌握在AI發展前期變的至關重要。
建議:從多個渠道改善發展AI的資源基礎。註重數據集、計算機、相關人才教育培訓等配套領域的建設。
2、問題:雖然目前AI水平還在初級,不過在多個領域AI已經作為人工輔助的角色存在,並且對勞動關系產生了影響。奧巴馬經濟顧問委員會的主席傑森·弗曼(Jason Furman)就表示,低技術的體力勞動是最有可能被AI和自動化機械取而代之的職位。如果機器人開始和人類競爭工作,人力資源的分配也將迎來變革。
建議:更新自己的思維和技能,來應對AI參與所帶來的就業結構的改變。未來AI機器將承擔絕大多數低技術水平的工作職位,人們需要調整自己的技能儲備和收支方向以應對新形勢。
3、問題:AI和自動化的過程通常都是在人們目所不及的幕後進行。缺少了人類的參與,機器可能做出有失公允或不慎恰當的決定。隨著AI應用的進一步增長,對AI判斷和勘誤將變得更加重要,也更加困難。
建議:支持AI校準和勘誤的研究,AI錯誤危害評估程序也應提上日程。這些研究應和AI的突飛猛進配套發展,就像人類系統中司法之於行政。如此能夠及時發現AI犯下的錯誤,並避免嚴重後果。
4、問題:針對AI模式下公私機構公平和問責制的研究似乎與當前美國一些法律相忤,比如計算機欺詐與濫用法案(CFAA)和數字千年版權法案(DMCA)。
建議:需要澄清的是,無論是計算機欺詐與濫用法案還是數字千年版權法案,都沒有限制相關研究。
5、問題:盡管AI正以飛快的速度被運用在醫療、勞工等諸多領域,但目前人類沒有一個公認的辦法來在評估AI所帶來的影響。
建議:支持AI影響評估系統的研究。而且該領域的研究應該和政府機構通力合作,使成果能為政府行政所用。
6、問題:那些因部署AI而權益受到損害的人,其聲音往往被忽視。
建議:在打造AI系統的時候,受影響者的意見應該被聽取。AI應由各方共同設計以免有失公允和太過激進。
7、問題:AI的研究主要集中在電子技術上,對於人性方面問題的關註常常不足。在未來,計算機科學領域的成員將益加呈現同質化和單一化對特點,這不利於AI開發者的眼界和經驗,進而影響到AI產品的打造。
建議:AI研究員和開發者應該盡量多元化,開發人員的多樣與多元也會帶來更豐富紛呈的AI產品。未來AI領域應該多多支持跨學科研究,從而使得AI系統能夠融合電子計算、社會科學以及人文氣息。
8、問題:現有的道德準則已經不能應對AI在現實中所面臨問題的複雜性。(比如在醫療、執法、犯罪判決以及勞務等等)同時,在大學里的計算機課堂上,盡管這些理工課程也逐漸開始重視道德教育,然而並未徹底貫徹到實踐中。
建議:同美國人工智能協會(AAAI)、美國計算機協會(ACM)以及電器和電子工程師協會(IEEE)這些專業機構進行合作,推動產生可以面對新形勢的道德準則。同時在學校課堂上貫徹落實這些新道德準則的教育。每個有誌於計算機科學的學生在專業課之外也應接受公民權利、自由等道德教育。相應的,那些有AI滲入的領域(比如醫療場所)的從業人員也應該對這些新道德標準有所知悉。
目前關於人工智能的四個關鍵性問題
我們現在將對目前關於人工智能的四個關鍵問題進行深入探討,為讀者提供一個了解業內專家見解以及建議的機會。相關探討包括每個關鍵問題所面臨的挑戰、機遇以及可采用的幹預措施。
1. 社會不公
人工智能系統如何造成偏見以及歧視等社會不公現象?
人工智能系統在高風險決策領域的作用越來越重要——從信貸、保險再到第三方決策以及假釋問題。人工智能技術將代替人工決定誰會獲得重要機遇,而誰又將被拋棄,由此將會引發一系列關於權利、自由以及社會公正問題。
有些人認為人工智能系統的應用有助於克服人類主觀偏見帶來的一系列問題,而有些人則擔心人工智能系統將會放大這些偏見,反而會進一步擴大機會的不均等。
在這場討論中,數據將會起到至關重要的作用,引發人們的強烈關註。人工智能系統的運行往往取決於其所獲得的數據,也是這些數據的直觀反映。其中也包括這些數據的來源以及收集過程中的偏差。從這方面來講,關於人工智能的影響是與相應的大數據技術密切相關的。
從廣義上講,數據偏差有兩種形式。第一種是采集的數據客觀上不能夠準確反映現實情況(主要歸因於測量方法的不準確;數據采集不完整或過於片面;非標準化的自我評價以及數據采集過程中的其他缺陷)。第二種在數據采集的過程中主觀上存在結構性偏差(諸如在關於職業數據的采集中有目的性地通過主觀性的重男輕女來預測職場成功率)。前一種的數據偏差可以通過“凈化數據”或者改進數據采集過程來加以解決。但後一種則需要複雜的人工幹預措施。值得註意的是,雖然有很多機構都為解決這種問題做了大量的工作,但對於如何“檢測”數據偏差尚無定論。
當采集的數據存在上述偏差時,用這種數據所訓練的人工智能系統也會存在相應偏差,其產生的模型或者結果不肯避免的會複制並放大這種偏差。在這種情況下,人工智能系統所作出的決策將會產生差別效應,從而引發社會不公。而這種不公平要比人為偏見和不公隱晦的多。
在以風險控制為主導的行業中,隨著人工智能系統的廣泛應用,導致人與人之間的細微差別異化對待等現象顯著增加,在保險以及其他社會擔保行業尤為如此。人工智能系統的應用能夠使公司更加有效地通過“逆向選擇”來識別特定群體以及個人,從而有效避免風險。
諸如在醫療保險領域,人工智能系統會對投保人的特征以及表現行為進行分析,並對那些被識別為特殊疾病或者是未來發病率高的投保人收取更多保費。在這種情況下,對於那些健康狀況不佳且經濟能力差的人群尤為不利。這就是為何批評者經常會指責稱,即便人工智能系統的預測準確,保險人行為理性,但效果卻常常是帶來負面影響。
保險業的競爭或許會加劇這種發展趨勢,最終人工智能系統的應用或許會加劇這種不平等性。當然,相關反歧視法律法規中的規範性原則能夠為解決這些問題帶來幫助,雖然這種方法可能不是最有效、最公平的。此外,對人工智能系統進行設計和部署也很重要,但現有的法律框架或許會使相應研究受到阻礙。諸如如計算機欺詐和濫用法(CFAA)和數字千年版權法案(DMCA)都對這方面研究進行了限制,因此當下也需要對現行法規進行改革,確保必要的研究能夠順利進行。
人工智能將受益少數人?
人工智能系統為經濟價值的產生帶來了新的方式,也對經濟價值的分配產生了新的影響。在某種程度上,人工智能系統的價值分配會使一部分群體受益,從而延續或加劇現有的薪資、收入以及財富分配差距。
那些有能力研發人工智能技術的組織將會加劇這種不平等性。據預測,人工智能是一個每年市值達到數十億美元的龐大產業。開發人工智能技術需要大量的前期投資,其中包括海量的計算資源以及大數據,兩者的成本都非常之大。這導致人工智能的開發和應用被限制在一個特定的範圍之內。在這種情況下,那些擁有強大數據以及計算能力的企業才能夠通過人工智能系統深入了解市場動態,從而獲取更多優勢,為自己帶來“富者更富”的馬太效應,帶來更多成功。
從另一方面來說,人工智能以及自動化系統能夠降低商品和服務成本,如果這些降低的成本能夠使消費者受益,那麽人工智能就可以縮小貧富差距。在這種情況下,人工智能系統能夠提高整個社會的生活水平,甚至於引發一個漸進式的再分配效應。
此外,人工智能也會帶來全新的生活方式。在人工智能環境下,那些工作落伍的人有機會需求獲取資源的新方式,而工作受到影響的人也能夠通過人工智能創造新的就業機會。換而言之,人工智能能夠緩解勞動力危機,讓人們自由追求生活以及工作新方式,從而提高社會的整體福利。
盡管如此,一些評論家指出,人工智能系統會使得某些工人的技能多余化,那些被自動化所取代的工人不得不尋求新的就業機會。即便這部分工人能夠找到新的工作,這種工作也常常是低附加值的,且工作穩定性更低。從這個角度將,人工智能以及自動化系統反而消除了就業機會。
更進一步,如果學習新的工作技能非常昂貴,工人們或許會認為這種職業技能培訓與新工作並不成正比。在這種情況下,人工智能系統不僅會增加社會不公,更會帶來永久性的失業以及貧窮。這就是為何理解人工智能系統對勞動力的潛在影響是理解其對經濟平等性影響的重要方面。
和以往許多技術一樣,人工智能技術也往往反映了其創建者的價值觀。因此,也可以通過在人工智能開發、部署、維護階段的多元化來推動人工智能技術的平等性。
當前,在人工智能甚至於整個計算機科學家技術行業,女性以及少數民族從業人員所占比例還很少。這種現狀也在一定程度上導致整個技術缺乏包容性,導致一定的偏見,延續或限制相關從業者對其他群體的考慮。
人們也越來越清楚的認識到,人工智能領域從業者的多樣性有助於人工智能系統滿足不同人群的利益。為了解決偏見、歧視和不平等問題,人工智能團隊需要一個更廣泛的視角。
2. 勞工關系
目前有關就業和AI系統的討論往往都集中在對人們未來將會失業的擔憂上。最新的研究表明,還存在更加複雜、影響更加直接的問題,這些問題不僅僅影響勞工市場,還影響雇主與雇員之間的關系、權力動力學、職業責任和工作在人類生活中的角色。
許多傳統經濟研究人員正在密切追蹤美國國內勞工市場和企業機構,以此來考量AI系統的影響。這類研究可帶來非常重要的定性數據,能夠促進對宏觀經濟趨勢和勞工供需狀況的理解,比如未來將會有多少工作崗位。
與此同時,社會科學研究則評估工作屬性和工作動力的改變正在如何改變人們的日常生活體驗。這兩個研究視角對於衡量AI系統短期對勞動力的社會影響和經濟影響都必不可少。
AI會影響工作崗位需求嗎?
自動化技術在經濟中的角色遠非新議題,事實上對於AI系統影響的考慮是出現於長期以來的討論。
雖然表面來看勞工需求會隨著自動化技術的日益普及而下降,畢竟需要做的工作將會很有限,但也有經濟學家並不這麽認為,他們稱該觀點是“勞動合成”謬論。他們指出,隨著一個行業的生產力的提升(由於自動化技術或者其它因素),新行業也會誕生,因而會產生新的勞工需求。例如,1900年農業在美國勞動力中的占比為41%,到2000年該占比只有2%。兩位勞工經濟學家大衛·奧特爾(David Autor)和大衛·多恩(David Dorn)稱,即便出現這種劇變,失業率長期來看並沒有出現上升,就業人口比率實際上反而出現提升。另外兩位經濟學家詹姆斯·亨廷頓(James Huntington)和卡爾·弗雷(Carl Frey)則給出了可怕的預言:AI系統將會大大減少工作崗位。
還有人在爭論勞動市場的變化和波動是否與技術進步有關,是否只是因經濟政策而出現。這類看法聚焦於現有的法律體系和監管機制對於AI和自動化系統的發展應該擔當什麽樣的角色。例如,羅伯特·戈登(Robert Gordon)認為當前的創新浪潮其實並沒有它們表面上看起來那麽具有變革性。不少持相反意見的人則稱,勞動市場正因為技術變化而發生重要轉變。這些人包括約瑟夫·斯蒂格利茨(Joseph Stiglitz)和拉里·米歇爾(Larry Mishel),他們認為,要保護勞動力,就必須要對AI和自動化系統相關的監管和其它政策變化上保持高度的重視。
奧特爾、多恩等經濟學家發現“就業兩極分化”現象正變得非常明顯,即中等技能崗位在減少,而高等技能和低等技能的崗位則在增加。雖然未來可能會出現新的崗位,但它們往往都收入比較低,不受歡迎。
例如,許多支持AI系統的工作事實上需要由人類去完成,他們需要維護那些基礎設施,照顧系統的“健康狀況”。這種勞動力往往不大顯眼,至少從媒體的報道和人們對AI的印象來看是這樣。因此它往往受到低估。這類工作包括負責清潔辦公室和維護工作的清潔工,負責維修服務器故障的維修工,以及有位記者所說的“數據衛生工”(能夠“清理”數據,為數據分析做好準備)。
AI系統對勞動力的影響相關的問題應當不僅僅包括未來是否會創造出新崗位,還應當包括那些崗位會否是能維持生計的體面工作。
此外,有關AI系統和勞工市場未來的討論通常都專註於傳統上被認為是低收入的工人階級崗位,如制造業、卡車運輸、零售或者服務工作,但研究表明,未來各行各業都將受到影響,其中包括需要專業訓練或者高學歷的專業工作,如放射學或者法律。關於這一點,未來將需要解決職業責任和義務方面的新問題。
AI將會如何影響主雇關系?
近年來,研究人員開始研究依靠大數據的AI和自動化系統(從Uber到應用於大型零售商的自動化調度軟件,再到工作間監視)正在如何改變雇主與雇員之間的關系。
研究發現,雖然這類系統可以用來賦能員工,但該類技術也可能會引發大問題,如剝奪員工權利,加劇就業歧視問題,以及催生不當勞動行為。
例如,AI驅動的勞動力管理和調度系統正越來越多地被用來管理勞動力,助力按需經濟的增長和“朝不保夕族”(precariat)的崛起。雖然部分研究人員稱恰當的調度能夠帶來很有價值的彈性,但到目前為止,更多的研究發現受該類系統管制的員工存在情緒緊張和缺乏安全感問題。
由這類系統管理的員工的不利體驗包括長期不充分就業,財務狀況不穩定,缺少傳統全職員工能夠獲得的福利保障,無力為家庭或者自我照顧(又或者因為忍受不了該類工作往往要求的隨時待命性質而尋找別的工作)做規劃。此外,受這些問題影響的員工更多是女性和少數族裔。
另外,基於AI系統的新遠程管理模式會加大將“系統”所做的嚴重影響員工的決策歸責於雇主的難度。因此,員工更容易受到剝削。
例如,像Uber這樣的由大數據和AI驅動的平臺會遠程控制行駛路線、定價、報酬甚至人際交流方面的標準——這些決定傳統上說通常都有人工親自管理。
除了模糊化特定決策的性質和邏輯之外,這類遠程管理通常並不被認為是“雇員管理”。
由於這些新管理模式不大符合現有的監管模式,像Uber這樣的公司會將自己標榜為技術公司,而非雇員的管理者。按照這一理念,這類公司將自己視作促進連接的平臺,因此不會像傳統雇主那樣對雇員負責。依照這種模式,雇員最終要承擔權益保障(如減輕稅項負擔、醫療保健和其它的勞工保障)和潛在救濟模式的就業帶來的風險。
3. 醫療健康
像我們現在所看到的大多數已被應用到醫療健康領域的AI系統,它們幾乎都依賴於大型數據庫,這些AI系統會通過各種複雜的統計模型和機器學習技術,從其所收集到的海量數據中,自動提煉出各種重要信息。
那些已投入使用的醫療數據信息源(仍處在不斷增長當中)——包括電子病歷(EHRs)、臨床和醫保數據庫、從各類消費電子產品和App上傳來的健康數據——目前已經被大量地應用到AI系統的實踐,這些AI系統具有極大的能改善社會醫保水平的潛力。
無論是臨床診斷、病人護理,還是施藥;無論是藥品生產、組織管理,還是醫保信息交互,這些AI系統都為醫療從業者的工作起到了極大的助力。
AI是如何被融入到醫學研究和醫療健康的?
將AI系統融入到醫學研究,具有令人極為欣喜的應用前景,它能幫助我們更好地理解那些疾病的病理,幫助我們開發出更多的新式治療手段,實現更為精準的醫學診斷,甚至還能私人訂制地為個人生產出特制的藥品。
然而,鑒於目前仍存在的將AI應用到醫療領域的局限和偏見,它們或將阻礙這些應用前景的實現,而這就需要研究人員更為細心謹慎地去探索這一前沿的技術。
目前,這些將AI技術應用到醫療領域的局限,包括有不完整或不準確的研究數據,即未含蓋到特定的少數群體,除此之外,尤以美國醫保系統為代表的複雜醫療補貼激勵制度,也將在一定程度上阻礙到了AI醫療技術的應用。舉個簡單的例子,目前的一些醫療補貼制度會更支持個別種類的藥物研發,或是更傾向於補貼個別治療方案。
醫療研究數據時常會表現出客觀、通用的屬性,但在實際應用的過程中,這些研究結論往往會表現出片面、暫時和只針對某些團體或病癥的特性,而AI系統根據這些“片面”數據所分析和建立出的模型,可能會引出、建立或是衍生出一些錯誤的猜測。
所幸的是,這樣的錯誤情況是可以避免的。如果一個AI系統所收集的數據不存在上面我們所提到的那些瑕疵(假設這點是可以被保證的),或是該AI系統所使用的數據框架像隨機對照試驗方法(randomized control trials, RCTs)或是其它公共醫療數據庫那樣,具有自行矯正這些問題的能力,能減小其內在錯誤偏差的話,它就能有效地避免重大誤差的出現。
假設這些誤差微小到可被忽略,將AI系統融入到醫療健康研究和臨床實踐中心的一個最有可能實現的應用前景,是讓AI去協助醫生進行病癥診斷,從海量數據中發現規律性的模式,從而幫助醫生更早地揪出那些藏匿在身體深處的“狡猾”病竈。
事實上,AI系統目前已經可以完成對部分病癥的診斷了,這其中就包括了白血病。在檢查和臨床護理環節,AI系統在一些情況下,也有幾率能減少,甚至預防誤診情況的出現。須知,誤診是可以致命的,AI輔助診斷技術的價值之高,可想而知。
在這方面,AI系統在診斷和確立病癥的環節上,正扮演越來越重要的角色。然而,也正是因為如此,研究人員必須警惕,要避免出現因AI錯誤猜測,而推斷出“正常”或是“平均”等健康狀況描述的情況的發生。
類似的,我們只需要回顧一下美國在1973年前的那段歷史,就想象出當AI出現誤診時,會發生什麽樣慘劇。彼時,美國精神病學協會(American Psychiatric Association)將同性戀作為一種精神疾病列入到了它權威的精神病診斷和統計手冊當中,這樣一來,悲劇的出現就不可避免了。
同樣的,當AI系統被直接地應用到病人護理時,它們將涉足到診斷和臨床管理的方方面面,而這也時常將隔開看護者同病人之間的距離,所以,適當地明確出AI“專業程度”的局限,是非常重要的。
一名人類外科醫生在上崗之前,會先上醫科大學,在經歷過層層嚴苛的考核後,他們的醫術才能獲得世人的承認,然而,我們要如何造出一個出色的AI大夫來協助,或者甚至是取代一個有“文憑”的人類名醫呢?
這樣一個AI醫療系統意味著它需要具有絕對準確的專家級權威水平,不會出現誤診或是診斷偏頗的情況。這種級別的信任代表著這些AI系統無論是在出廠的能力評估上,還是在檢測其極限能力上,都可以接受更少的審查,而這也將制造出那些,目前還未被醫學倫理框架所囊括的新型倫理問題。
除此之外,我們還需要關註類似於這樣的AI醫療系統在醫保領域內被布置於何處,使誰受益等等這樣的問題。盡管讓醫療健康惠及所有人,讓大家都能負擔得起確實是一種需求,但已有大量的證據表明,取得醫保和健康數據的權限並未被公平地分配,在多數情況下,窮人、非白人和女性群體常常處於劣勢地位。
讓AI系統融入到醫保體系,非但不會根除這些系統性的不平等問題,反而還有可能會放大這種問題的嚴重性。雖然AI系統可以實現合適的定制化醫療護理,讓各式各樣的人都獲益,但它也可以被故意培養成過濾掉那些之前就常常被忽視、被服務不周的外圍群體。
如果這些群體沒有被給予適當的考慮的話,這反過來也將影響到AI系統所構建出的預測模型。AI預測模型會被那些能用上這種AI系統的特權群體所上傳的健康數據所不斷的固化,從而只能有效反饋出富人的“健康狀況”,並最終構建出一個會完全排斥“邊緣人群”的健康與疾病的整體認知模型。
鑒於目前美國存在的醫保財政的亂象,這樣的憂患確實是值得人們投入更多關註,就像這樣的亂象在過去影響到醫療技術的整合一樣,它也必然會在未來影響到AI醫療系統的布置和效用,
基於這樣的考慮,人們在推動AI醫療系統不斷發展的同時,也在不斷努力地去降低AI醫療系統造價,而這也將促使那些利益相關者(比如政客、保險公司、健康機構、制藥企業、雇主和其他人)把他們的註碼,寄托於大規模的健康數據收集和AI系統的研制上,以此來幫助他們更好地維護他們在模型研發和醫保護理上的經濟利益。
然而,將這些信息技術和AI系統整合到醫院和其它醫療健康體系所需要的關鍵培訓、資源和那些正在進行當中的必要維護,並不總是能夠得到支持,或者說並不總是能處於“不差錢”的狀況。而這種情況其實已經導致了技術資源和技術能力的分配不均。
訓練AI所需的數據收集和病患觀察將如何影響到個人隱私?
AI系統對數據量的極度依賴和對病例觀察的需求也自然而然地催生出了對病人隱私、秘密和安全保護等等急迫的問題。
目前,對AI醫療系統高性能期許的實現依賴於通過各式各樣的設備、平臺和互聯網來源源不斷地獲取到海量的病患數據,而這一過程也不可避免地會涉及到某些人或機構會在利益的驅使下,做出出格的監視行為。、
與此同時,像同態加密(Homomorphic encryption)、差分隱私(differential privacy)和隨機隱私(stochastic privacy)這樣的技術帶給了我們應對這些亂象現象的新的希望,它們可以讓AI系統實現在不“查閱”數據的情況下,直接地去“調用”它們。雖然就目前來說,這些新技術仍處於研發的初步階段,連一個通用應用程序都還沒有被開發出來,但它展現出能令人鼓舞的應用前景。
除此之外,隨著近期美國政府對循證醫學(Evidence ¬based medicine)的推廣和《平價醫保法案》(Affordable Care Act)已由原先的按服務收費轉變至按治療行為收費的這一變化,監管行為背後所涉及到的經濟利益問題和對敏感健康數據消費的問題,都在不斷地加劇惡化當中。
至於那些保險公司,在AI系統入局的情況下,其所需面對的對驗證交叉補貼方案合理性的呼聲的壓力也在與日俱增。
舉個例子,盡管美國政府在2008年就頒布了《基因資訊平等法》(Genetic Information Nondiscrimination Act),但出於對保險分層管理的需求,保險公司對能獲取到遺傳危險率信息的興趣也在日益增長。事實上,差別定價目前已經成為了數據分析供應商的一項業內通用做法,而這反過來也進一步地鞏固和加劇了目前的不平等現象。
此外,“智能設備”和其它能讓AI系統獲取到所需數據的聯網傳感器也已讓追蹤和監視變得無處不在,而這也將目前的那些隱私保護政策的覆蓋範圍不斷地拓寬,像《醫療健康可攜性和責任法案》(Health Insurance Portability and Accountability Act)就是在這一考慮下的產物。
隨著AI系統被越來越多地融入到健康和電子消費產品上,病人因細分數據而被重新定義,或是由代理數據來預測出他們的身份、所患疾病和其它健康信息的風險,正不斷地升高。
除此之外,那些驅動這些數據收集設備的軟件也常常是為私人所持有,而不是開源的(不受外部審查審計的約束)。雖然,美國政府最近簽署的法令對《數字千禧年著作權法案》(Digital Millennium Copyright Act)中的相關條例進行了免除,讓審查外部醫療設施的代碼成為可能,但更為重要的或許是審查那些內部醫療設施,然而這種行為並未被這一豁免權所囊括到。
總的來說,相關業內專家們都已經對在物聯網設備上,布置聯網技術所潛在的重大安全隱患做過警告了,在這些警告中,有很多就是專門針對醫療設備安全問題的。
AI將如何影響患者和醫療保險供應商?
那些已被實現或是有望被實現的AI技術,對健康護理系統的構建有著深遠的意義,對需要照顧的病患,或是那些虛弱體質的人也意義非凡。
人們對於AI系統,進行了許多美好的構想,寄予它們護理工作調解員的角色,並相信它們在未來有可能完全取締了護工的工作。這一轉變前景樂觀、經濟,且高效,很可能會改善患者與醫生或其他護工之間的關系和他們的工作方式。
能展示AI系統具有代替或者協助人工護理工作的潛力的例子非常之多,包括有機器人外科醫生、虛擬管家和陪護機器人等等。這些例子逐漸引發了一些爭論,比如代理照顧和陪同護理的社會意義是否可以讓非人類的機器來代替?當機器替代人工時,它是否能不僅僅只是增強人工的專業性,而能做到真正的獨當一面呢?當我們認為一臺機器有能力“護理”病人時,它具備了哪些“護理”能力呢?我們又是如何定義“護理”這個詞呢?這些我們以為的“以為”是否是站在病人權益的角度上,去考慮的呢?
就目前來說,雖然陪護機器人在取代人工護理工作上,還未取得什麽明顯的效果, 但由AI驅動的APP和聯網設備能讓病人取回對自己健康管理的控制權的前景正在與日俱增,而這也預示著AI醫療系統同病人的直接交互,正處於早期發展階段。。
這種人與AI的直接交互其實也是一把雙刃劍。一方面,它能讓病人康複地更快、對自身病情有更多的了解。另一方面,這種變革也需要他們擔負更多的風險。這些風險包括它可能會誤導病患,影響他們可能會接收到的信息的質量和準確性,而這也是美國聯邦貿易委員會(FTC)在近些年來,所要傳達給我們的擔慮。
除此之外,這些搭載了AI的APP也可以將原先醫療從業者所需要承擔的責任轉移病人本身,但這對病人來說不見得是什麽好消息,因為並不是所有人都有時間、財力和AI技術獲取渠道,來實現對他們自身健康的護理。
那麽,什麽樣的患者能優先享受到這些仍在不斷改進當中的AI醫療技術的紅利呢?對於那些“裝備”不良卻想管理和維護自己個人數據的病患來說,他們所接受到的健康看護是否是不合格的呢?
再者,那些搭載了AI技術的應用的設計者和研發者在這一社會演變過程中,又需要扮演什麽新的角色?需要承擔哪些新的責任?
那些始終處於風口浪尖的醫學道德倫理,又將如何融入到這些與眾不同的,新式工程技術的載體上呢?
4. 道德責任
AI系統的部署不僅將引發新的責任,也將對職業道德、研究道德、甚至公共安全評估等現有領域造成挑戰。
近來,人們對道德和AI系統的討論傾向於優先考慮很久以後可能會出現的AI系統,例如,“奇點”的來臨,或超級智能的發展。
也就是說,這種討論往往並未關註AI系統在短期或中期內會產生的道德影響,例如,當前已投入使用的大量任務型AI系統引發了新挑戰、可能加劇不平等、或從根本上改變權利機制。
當代AI系統上能夠執行各種各樣的活動,這類技術會引發各種隱性和顯性後果,因此可能對傳統倫理框架提出新挑戰。AI系統被部署在人類社會中時或許會引發不可預測的相互作用和後果。
在資源配置以及讓權力和信息集中或重組的潛力方面,我們迫切需要處理一些關鍵問題來確保AI技術不會造成傷害,特別對於已被邊緣化的群體。
我們如何向AI授予權力或委派AI展開決策?
AI系統在社會和經濟領域內的融合需要我們把社會問題轉變為能夠被AI解決的技術問題。這種轉變無法保證AI系統產生的錯誤會少於它將取代的現有系統。瑞安•卡洛(Ryan Calo)指出,人們通常以為,AI系統(如,自主駕駛汽車)犯的錯誤將少於人類。實則不然。複雜程度不高的AI系統無法避免地會犯一些人類不會犯的新錯誤。
在許多領域中,倫理框架往往需要產生記錄,例如,病歷、律師的案卷、或研究人員向機構審查委員會提交的文件。此外,人們還面向患者、客戶或感覺自己遭遇了不公正待遇的對象設立了補救機制。
當代的AI系統往往無法提供此類記錄或補救機制,要麽因為技術上無法實現,要麽因為設計者並未考慮此類記錄或機制。
這意味著,受到影響的特定群體或個人往往無法對AI或其他預測系統的決策進行檢驗或質疑。這會惡化各種形式的權力不對等現象。而權力不對等是一個很重要的倫理議題。
當受到影響的個人無法對這類自動化決策展開檢驗、質疑或上訴時,他們就處在了權力相對缺失的位置上。
這帶來的風險是,AI系統不僅將削弱弱勢群體的質疑權力,而且將賦予設計方更多定義道德行為的權力。這種權力能夠以十分微妙的形式呈現出來。例如,各種自動化系統往往被用來從某種方向來影響或“微調”某些個體,而很大程度上扮演決定或支配角色的是設計部署此類系統並從中獲利的一方。
若要從零開始構建AI系統,以實現糾正上述不平衡現象等目標,這本身就要受到實力差距的限制。打造和維護AI系統需要大量的計算資源和大量數據。而擁有海量數據和計算資源的企業相對缺乏這類資源的企業擁有更多的戰略優勢。
我們如何在現有的各種行業中應對與AI相關的倫理問題?
隨著AI系統在不同行業環境(如,醫學、法律、金融)中的融入愈加深入,我們還將面臨跨越不同行業的新的道德困境。
例如,AI系統在保健環境中的應用將對醫療專業人員道德準則中秉持的核心價值(如,涉及保密、護理的連續性、避免利益沖突以及知情權)造成挑戰。
隨著醫療業的不同利益相關方推出了各種各樣的AI產品和服務。對這些核心價值的挑戰可能會以全新的和意想不到的方式呈現。
當一名醫生使用的AI診斷設備在受訓時使用了一家醫藥公司的藥品試驗數據,而這家公司是某種藥物處方的既得利益者,那麽這位醫生應如何遵守避免利益沖突的誓言?
雖然這是個假想的情況,但這點明了在修訂以及更新職業道德準則的過程中必須解決的棘手問題。
同樣地,負責管理AI研發及維護的專業協會也有必要考慮采取相應的措施。例如,美國人工智能協會(AAAI)應制定相關的道德準則,而美國計算機協會(ACM)以及電氣和電子工程師協會(IEEE)需認真修訂相關的道德準則。ACM和IEEE現有的道德準則已擁有20年以上的歷史,不用說,這些準則不僅無法解決與人類機構、隱私和安全相關的核心問題,而且也無法預防AI和其他自動化決策系統可能產生的危害。隨著AI技術進一步被整合到重要的社會領域中,這一點正變得越來越重要。
盡管更多的高等教育機構在技術和科學專業的教學中已開始強調職業道德的重要性,但這番努力仍處在初期,還有進一步的拓展空間。而民權、公民自由和道德實踐等領域的知識還未成為學生們畢業時必須掌握的要求範圍。此外,有一點是值得註意的,若有人違背醫藥界道德準則,他需承擔的懲罰包括失去行醫權力,這一點並不適用計算機科學或許多其他相關領域。
目前還不清楚大多數計算機科學家是否熟知ACM或IEEE準則中的核心內容。我們也不清楚,企業雇主是否會因為其他鼓勵或壓力因素而選擇不遵守這種不具約束力的法規。因此,從實用角度看,除了僅僅對倫理框架進行改寫和更新外,有必要關註範圍更廣的鼓勵機制,並確保對倫理準則的遵從並不是事後才想起的事項,而是相關專業領域需要關註的核心問題,以及AI領域學習和實踐中不可或缺的組成部分。
闡述建議
下面我們將進一步闡述上面簡要提到的建議背後的基本原理。
1、多元化和拓寬AI開發和部署所必需的資源——如數據集、計算資源、教育和培訓的使用,包括擴大參與這種開發的機會。特別是關註當前缺乏這種訪問的人口。
正如在AI Now Experts研討會期間很多人提到的,這些開發和培訓AI系統的方法費用高昂並只限於少數大公司。或者簡單地說,在沒有大量資源的情況下DIY AI是不可能的。培訓用AI模式要求有大量數據——越多越好。同時還要求有巨大的計算能力,而這費用不菲。這使得即使要進行基礎研究都只能限於能支付這種使用費用的公司,因此限制了民主化開發AI系統服務於不同人群目標的可能性。投資基本的基礎設施和使用合適的培訓數據,有助於公平競爭。同樣,開放現有行業和機構里開發和設計過程,以多元化內部紀律和外部評論,可幫助開發更好服務和反映多元化環境需求的AI系統。
2、升級使公平勞動行為具體化的定義和框架,以適應AI管理部署到工作地時出現的結構性變化。同時研究可替代的收入和資源分布、教育和再培訓模式,以適應未來重複性工作日益自動化和勞動及就業態勢不斷變化。
在AI Now Experts研討會上,奧巴馬總統首席經濟學家賈森·福爾曼(Jason Furman)指出,在美國每小時工資只有不到20美元的工作,83%都將面臨自動化的嚴重壓力。對於每小時工資在20-40美元的中等收入工作,這個比例也高達31%。這是勞動力市場一次巨大轉變,可能導致出現一個永久失業階層。為確保AI系統的效率在勞動力市場不會導致民眾不安,或社會重要機構如教育(有一種可能是教育不再視為就業的更好途徑)的解散,在這種巨大轉變出現,應該徹底研究替代性資源分布方法和其他應對引入自動化的模式,制定的政策應該為組織良好的各種落實測試開路,控制可能導致的災難性後果。
除了“替代工人”外,AI系統也對勞動力市場也有其他多重影響。例如,它們改變了權力關系、就業預期和工作本身的角色。這些變化已經對工人產生深遠影響,因此在引入AI系統時,在考慮如何表述公平和不公平做法上,理解這些影響很重要。例如,如果開發實際作為管理層行事的AI系統的公司,可被視為科技服務公司,與雇主不同的是,職員可能不受現有法律保護。
3、在設計和部署階段,支持研究開發衡量和評估AI系統準確性和公平度的方法。同樣地,也支持研究開發衡量及解決一旦使用出現的AI錯誤和損害的方法,包括涉及通知、矯正和減輕這些因AI系統自動決策導致的錯誤和損害的問責制。這些方法應優先通知受自動決策影響的人們,並開發對錯誤或有害判斷提出異議的方法。
AI和預測性系統日益決定了人們是否能獲得或失去機會。在很多情況下,人們沒有意識到是機器而非人類在做出改變人生的決定。即使他們意識到,也沒有對錯誤界定提出異議或拒絕有害決策的標準流程。我們需要在研究和技術原型化上投資,確保在AI系統日益用於做出重要決策的環境中,確保基本權利和責任受到尊重。
4、澄清無論是反電腦欺詐和濫用法案還是數字千年版權法案不是用於限制對AI責任的研究
為了進行對檢驗、衡量和評估AI系統對公共和私人機構決策的影響所需的研究,特別是有關如公平和歧視的關鍵社會關切,研究人員必須被清楚地允許跨大量域名並通過大量不同方法測試系統。然而,某些美國法律,如反電腦欺詐和濫用法案(CFAA)和數字千年版權法案(DMCA),規定與電腦系統甚至互聯網上公開可訪問的電腦系統“未授權”互動為非法,可能限制或禁止這種研究。這些法律應該澄清或修改,明確允許促進這種重要研究的互動。
5、支持在現實環境中AI系統對社會經濟生活影響的強大評估和評價方法的基礎性研究。與政府機構合作將這些新技術集成到他們的調查、監管和執法能力中。
我們當前缺乏對AI系統社會經濟影響評估和理解的嚴格做法。這意味著AI系統在融合到現有社會經濟領域,部署在新產品和環境中,卻不能衡量或精確計算它們的影響。這種情況類似於進行試驗卻不願記錄結果。為確保AI系統帶來的益處,必須進行協調一致的研究開發嚴格的方法,理解AI系統的影響,當使用這種方法時可幫助形成跨部門和政府內部的標準做法。這種研究及其結果可比作早期預警系統。
6、在與這些人聯合開發和部署這種系統時,與受自動決策應用和AI系統影響的社區代表及成員合作,聯合設計可問責的AI。
在很多情況下,這些受AI系統影響的人將是對AI系統環境和結果最權威性的專家。特別是鑒於當前AI領域缺乏多元化,那些受AI系統部署影響的人實際上從事提供反饋和設計方向,來自反饋機制的這些建議可直接影響AI系統的開發和更廣泛的政策框架。
7、加強行動提高AI開發者和研究者的多元化,拓寬和融合所有觀點、環境和學科背景到AI系統開發中。AI領域應該也結合計算、社會科學和人文學,支持和促進針對AI系統對多個觀點影響的跨學科AI研究。
計算機科學作為一個學科領域缺乏多樣性。特別是嚴重缺乏女性從業者,在AI里這種情況更為糟糕。例如,雖然有些AI學術實驗室由女性掌管,但在最近的神經信息處理系統大會上,與會者只有13.7%是女性,這次大會是該領域最主要的年度大會之一。缺乏多元化的圈子不大可能會考慮這些不在其中人的需求和關註。當這些需求和關註成為部署AI的社會經濟機構的中心時,理解這些需求和關註很重要,AI開發反映了這些重要的觀點。關註開發AI人群多元化是關鍵,除了性別和代表受保護人群外,包括除計算機科學外各種學科的多元化、建立依賴來自相關社會經濟領域學習的專業知識的開發實踐。
在計算機科學之外和計算機科學之內AI子領域的社會經濟領域,進行AI影響的徹底評估將需要多數這種專業知識。由於很多環境下AI被集成和使用——如醫學、勞動力市場或在線廣告——本身是學習的豐富領域。為真正制定AI影響評估的嚴格流程,我們將需要跨學科的協作,建立新的研究方向和領域。
8、與專業組織如美國人工智能進步協會(AAAI)、美國計算機協會(ACM)和電氣及電子工程師協會(IEEE)合作,更新(或制作)專業道德準則,更好地反映在社會經濟領域部署AI和自動化系統的複雜性。為任何想掌握計算機科學的人開設公民權、公民自由權和道德培訓課程,反映了教育中的這些變化。同樣,更新專業道德準則約束引入AI系統的專業人士,如適用於醫生和醫院工作者的道德準則。
在醫學和法律等職業中,專業人士的行為受控制可接受和不可接受行為的道德準則約束。專業組織如ACM和IEEE確實制定了道德準則,然而這些準則過時了,不足以解決複雜社會經濟環境中使用AI系統帶來的具體並常常是微妙的挑戰。雖然醫生確實遵守了約束他們對待病人行為的職業道德,但AI系統的發展,如幫助醫生診療和治療病人,出現了現有職業道德準則不總是能解決的道德挑戰。職業準則和計算機科學培訓必須更新,以反映AI系統建造者對因使用這些系統遭受不同程度不利影響的人所負有的責任。在AI用於增強人類決策時,職業道德準則應該包括在AI系統受到利益沖突左右的時候鑒定責任的保護措施。
目前關於人工智能的四個關鍵性問題的答案,都在這里了。
來源 / AI Now《The AI Now Report》
譯者 / 網易智能(孫文文 費寧 誌文 阿樹 止水 倪盛)
前 言
人工智能(Artificial Intelligence,簡稱AI)是一系列技術的集合,其下包括機器學習、推理、感知和自然語言處理等。人工智能的概念和應用65年前就已開始,不過最近AI的進步和應用讓這種技術再次成為熱議。隨著AI被更廣闊地應用到人類社會和經濟生活各個方面,新的機遇和挑戰隨之而生。其巨大的潛在影響讓人類不得不謹慎思考AI技術的發展與應用。
於今年7月舉行的“AI Now”研討會是由白宮科技政策辦公室和美國國家經濟委員會聯合推動的一系列研究的最後一個環節。此前的一系列研究分別從不同的角度對AI進行了分析研究,從政策法規到AI的安全控制,再到AI公益以及如何挖掘AI的更多潛能。這次“AI Now”則主要就未來十年AI在社會和經濟領域的影響進行討論。來自全球多個領域的專家學者集聚一堂,發表自己的觀點。討論的問題包括:現階段AI的迅速發展造成了哪些問題?如何更好地理解與使用AI來創造更公平公正的未來?
社會和經濟的問題多不勝數,本次“AI Now”主要圍繞“醫療”、“勞工就業”、“AI公平”以及“AI道德”準則展開討論。
之所以選擇“醫療”和“勞工就業”作為主要話題,是因為目前這兩個領域中AI滲入廣泛,AI所能帶來的問題在這兩個領域中較為突出和明顯。而“AI公平”和“AI道德”則是未來大家都關註的問題:AI會有助於世界大同還是會加劇社會不公?以及如何確保AI的利益被全體人類享用?
該研討會的舉行旨在讓AI能夠更好地造福人類社會。通過眾多專家學者聚集一堂進行討論的方式,本次“AI Now”研討會對人工智能學界內外都具有顯著意義。
問題和建議
研討會對未來AI所可能造成的情況做出了預見,並分別給出相應的建議。需要聲明的是,下列建議融合了全體與會人員的智慧,並不代表個人或某組織的立場。
隨著AI愈加緊密地被應用到社會經濟生活的方方面面,以下列出的問題和對應的建議可以作為投資者和相關領域從業者在對來的參考指南。
1、問題:AI的發展和應用有賴於特定的基礎設施和人、物資源。這些基礎資源的短缺無疑會限制AI的發展,對這些基礎設施和資源的掌握在AI發展前期變的至關重要。
建議:從多個渠道改善發展AI的資源基礎。註重數據集、計算機、相關人才教育培訓等配套領域的建設。
2、問題:雖然目前AI水平還在初級,不過在多個領域AI已經作為人工輔助的角色存在,並且對勞動關系產生了影響。奧巴馬經濟顧問委員會的主席傑森·弗曼(Jason Furman)就表示,低技術的體力勞動是最有可能被AI和自動化機械取而代之的職位。如果機器人開始和人類競爭工作,人力資源的分配也將迎來變革。
建議:更新自己的思維和技能,來應對AI參與所帶來的就業結構的改變。未來AI機器將承擔絕大多數低技術水平的工作職位,人們需要調整自己的技能儲備和收支方向以應對新形勢。
3、問題:AI和自動化的過程通常都是在人們目所不及的幕後進行。缺少了人類的參與,機器可能做出有失公允或不慎恰當的決定。隨著AI應用的進一步增長,對AI判斷和勘誤將變得更加重要,也更加困難。
建議:支持AI校準和勘誤的研究,AI錯誤危害評估程序也應提上日程。這些研究應和AI的突飛猛進配套發展,就像人類系統中司法之於行政。如此能夠及時發現AI犯下的錯誤,並避免嚴重後果。
4、問題:針對AI模式下公私機構公平和問責制的研究似乎與當前美國一些法律相忤,比如計算機欺詐與濫用法案(CFAA)和數字千年版權法案(DMCA)。
建議:需要澄清的是,無論是計算機欺詐與濫用法案還是數字千年版權法案,都沒有限制相關研究。
5、問題:盡管AI正以飛快的速度被運用在醫療、勞工等諸多領域,但目前人類沒有一個公認的辦法來在評估AI所帶來的影響。
建議:支持AI影響評估系統的研究。而且該領域的研究應該和政府機構通力合作,使成果能為政府行政所用。
6、問題:那些因部署AI而權益受到損害的人,其聲音往往被忽視。
建議:在打造AI系統的時候,受影響者的意見應該被聽取。AI應由各方共同設計以免有失公允和太過激進。
7、問題:AI的研究主要集中在電子技術上,對於人性方面問題的關註常常不足。在未來,計算機科學領域的成員將益加呈現同質化和單一化對特點,這不利於AI開發者的眼界和經驗,進而影響到AI產品的打造。
建議:AI研究員和開發者應該盡量多元化,開發人員的多樣與多元也會帶來更豐富紛呈的AI產品。未來AI領域應該多多支持跨學科研究,從而使得AI系統能夠融合電子計算、社會科學以及人文氣息。
8、問題:現有的道德準則已經不能應對AI在現實中所面臨問題的複雜性。(比如在醫療、執法、犯罪判決以及勞務等等)同時,在大學里的計算機課堂上,盡管這些理工課程也逐漸開始重視道德教育,然而並未徹底貫徹到實踐中。
建議:同美國人工智能協會(AAAI)、美國計算機協會(ACM)以及電器和電子工程師協會(IEEE)這些專業機構進行合作,推動產生可以面對新形勢的道德準則。同時在學校課堂上貫徹落實這些新道德準則的教育。每個有誌於計算機科學的學生在專業課之外也應接受公民權利、自由等道德教育。相應的,那些有AI滲入的領域(比如醫療場所)的從業人員也應該對這些新道德標準有所知悉。
目前關於人工智能的四個關鍵性問題
我們現在將對目前關於人工智能的四個關鍵問題進行深入探討,為讀者提供一個了解業內專家見解以及建議的機會。相關探討包括每個關鍵問題所面臨的挑戰、機遇以及可采用的幹預措施。
1. 社會不公
人工智能系統如何造成偏見以及歧視等社會不公現象?
人工智能系統在高風險決策領域的作用越來越重要——從信貸、保險再到第三方決策以及假釋問題。人工智能技術將代替人工決定誰會獲得重要機遇,而誰又將被拋棄,由此將會引發一系列關於權利、自由以及社會公正問題。
有些人認為人工智能系統的應用有助於克服人類主觀偏見帶來的一系列問題,而有些人則擔心人工智能系統將會放大這些偏見,反而會進一步擴大機會的不均等。
在這場討論中,數據將會起到至關重要的作用,引發人們的強烈關註。人工智能系統的運行往往取決於其所獲得的數據,也是這些數據的直觀反映。其中也包括這些數據的來源以及收集過程中的偏差。從這方面來講,關於人工智能的影響是與相應的大數據技術密切相關的。
從廣義上講,數據偏差有兩種形式。第一種是采集的數據客觀上不能夠準確反映現實情況(主要歸因於測量方法的不準確;數據采集不完整或過於片面;非標準化的自我評價以及數據采集過程中的其他缺陷)。第二種在數據采集的過程中主觀上存在結構性偏差(諸如在關於職業數據的采集中有目的性地通過主觀性的重男輕女來預測職場成功率)。前一種的數據偏差可以通過“凈化數據”或者改進數據采集過程來加以解決。但後一種則需要複雜的人工幹預措施。值得註意的是,雖然有很多機構都為解決這種問題做了大量的工作,但對於如何“檢測”數據偏差尚無定論。
當采集的數據存在上述偏差時,用這種數據所訓練的人工智能系統也會存在相應偏差,其產生的模型或者結果不肯避免的會複制並放大這種偏差。在這種情況下,人工智能系統所作出的決策將會產生差別效應,從而引發社會不公。而這種不公平要比人為偏見和不公隱晦的多。
在以風險控制為主導的行業中,隨著人工智能系統的廣泛應用,導致人與人之間的細微差別異化對待等現象顯著增加,在保險以及其他社會擔保行業尤為如此。人工智能系統的應用能夠使公司更加有效地通過“逆向選擇”來識別特定群體以及個人,從而有效避免風險。
諸如在醫療保險領域,人工智能系統會對投保人的特征以及表現行為進行分析,並對那些被識別為特殊疾病或者是未來發病率高的投保人收取更多保費。在這種情況下,對於那些健康狀況不佳且經濟能力差的人群尤為不利。這就是為何批評者經常會指責稱,即便人工智能系統的預測準確,保險人行為理性,但效果卻常常是帶來負面影響。
保險業的競爭或許會加劇這種發展趨勢,最終人工智能系統的應用或許會加劇這種不平等性。當然,相關反歧視法律法規中的規範性原則能夠為解決這些問題帶來幫助,雖然這種方法可能不是最有效、最公平的。此外,對人工智能系統進行設計和部署也很重要,但現有的法律框架或許會使相應研究受到阻礙。諸如如計算機欺詐和濫用法(CFAA)和數字千年版權法案(DMCA)都對這方面研究進行了限制,因此當下也需要對現行法規進行改革,確保必要的研究能夠順利進行。
人工智能將受益少數人?
人工智能系統為經濟價值的產生帶來了新的方式,也對經濟價值的分配產生了新的影響。在某種程度上,人工智能系統的價值分配會使一部分群體受益,從而延續或加劇現有的薪資、收入以及財富分配差距。
那些有能力研發人工智能技術的組織將會加劇這種不平等性。據預測,人工智能是一個每年市值達到數十億美元的龐大產業。開發人工智能技術需要大量的前期投資,其中包括海量的計算資源以及大數據,兩者的成本都非常之大。這導致人工智能的開發和應用被限制在一個特定的範圍之內。在這種情況下,那些擁有強大數據以及計算能力的企業才能夠通過人工智能系統深入了解市場動態,從而獲取更多優勢,為自己帶來“富者更富”的馬太效應,帶來更多成功。
從另一方面來說,人工智能以及自動化系統能夠降低商品和服務成本,如果這些降低的成本能夠使消費者受益,那麽人工智能就可以縮小貧富差距。在這種情況下,人工智能系統能夠提高整個社會的生活水平,甚至於引發一個漸進式的再分配效應。
此外,人工智能也會帶來全新的生活方式。在人工智能環境下,那些工作落伍的人有機會需求獲取資源的新方式,而工作受到影響的人也能夠通過人工智能創造新的就業機會。換而言之,人工智能能夠緩解勞動力危機,讓人們自由追求生活以及工作新方式,從而提高社會的整體福利。
盡管如此,一些評論家指出,人工智能系統會使得某些工人的技能多余化,那些被自動化所取代的工人不得不尋求新的就業機會。即便這部分工人能夠找到新的工作,這種工作也常常是低附加值的,且工作穩定性更低。從這個角度將,人工智能以及自動化系統反而消除了就業機會。
更進一步,如果學習新的工作技能非常昂貴,工人們或許會認為這種職業技能培訓與新工作並不成正比。在這種情況下,人工智能系統不僅會增加社會不公,更會帶來永久性的失業以及貧窮。這就是為何理解人工智能系統對勞動力的潛在影響是理解其對經濟平等性影響的重要方面。
和以往許多技術一樣,人工智能技術也往往反映了其創建者的價值觀。因此,也可以通過在人工智能開發、部署、維護階段的多元化來推動人工智能技術的平等性。
當前,在人工智能甚至於整個計算機科學家技術行業,女性以及少數民族從業人員所占比例還很少。這種現狀也在一定程度上導致整個技術缺乏包容性,導致一定的偏見,延續或限制相關從業者對其他群體的考慮。
人們也越來越清楚的認識到,人工智能領域從業者的多樣性有助於人工智能系統滿足不同人群的利益。為了解決偏見、歧視和不平等問題,人工智能團隊需要一個更廣泛的視角。
2. 勞工關系
目前有關就業和AI系統的討論往往都集中在對人們未來將會失業的擔憂上。最新的研究表明,還存在更加複雜、影響更加直接的問題,這些問題不僅僅影響勞工市場,還影響雇主與雇員之間的關系、權力動力學、職業責任和工作在人類生活中的角色。
許多傳統經濟研究人員正在密切追蹤美國國內勞工市場和企業機構,以此來考量AI系統的影響。這類研究可帶來非常重要的定性數據,能夠促進對宏觀經濟趨勢和勞工供需狀況的理解,比如未來將會有多少工作崗位。
與此同時,社會科學研究則評估工作屬性和工作動力的改變正在如何改變人們的日常生活體驗。這兩個研究視角對於衡量AI系統短期對勞動力的社會影響和經濟影響都必不可少。
AI會影響工作崗位需求嗎?
自動化技術在經濟中的角色遠非新議題,事實上對於AI系統影響的考慮是出現於長期以來的討論。
雖然表面來看勞工需求會隨著自動化技術的日益普及而下降,畢竟需要做的工作將會很有限,但也有經濟學家並不這麽認為,他們稱該觀點是“勞動合成”謬論。他們指出,隨著一個行業的生產力的提升(由於自動化技術或者其它因素),新行業也會誕生,因而會產生新的勞工需求。例如,1900年農業在美國勞動力中的占比為41%,到2000年該占比只有2%。兩位勞工經濟學家大衛·奧特爾(David Autor)和大衛·多恩(David Dorn)稱,即便出現這種劇變,失業率長期來看並沒有出現上升,就業人口比率實際上反而出現提升。另外兩位經濟學家詹姆斯·亨廷頓(James Huntington)和卡爾·弗雷(Carl Frey)則給出了可怕的預言:AI系統將會大大減少工作崗位。
還有人在爭論勞動市場的變化和波動是否與技術進步有關,是否只是因經濟政策而出現。這類看法聚焦於現有的法律體系和監管機制對於AI和自動化系統的發展應該擔當什麽樣的角色。例如,羅伯特·戈登(Robert Gordon)認為當前的創新浪潮其實並沒有它們表面上看起來那麽具有變革性。不少持相反意見的人則稱,勞動市場正因為技術變化而發生重要轉變。這些人包括約瑟夫·斯蒂格利茨(Joseph Stiglitz)和拉里·米歇爾(Larry Mishel),他們認為,要保護勞動力,就必須要對AI和自動化系統相關的監管和其它政策變化上保持高度的重視。
奧特爾、多恩等經濟學家發現“就業兩極分化”現象正變得非常明顯,即中等技能崗位在減少,而高等技能和低等技能的崗位則在增加。雖然未來可能會出現新的崗位,但它們往往都收入比較低,不受歡迎。
例如,許多支持AI系統的工作事實上需要由人類去完成,他們需要維護那些基礎設施,照顧系統的“健康狀況”。這種勞動力往往不大顯眼,至少從媒體的報道和人們對AI的印象來看是這樣。因此它往往受到低估。這類工作包括負責清潔辦公室和維護工作的清潔工,負責維修服務器故障的維修工,以及有位記者所說的“數據衛生工”(能夠“清理”數據,為數據分析做好準備)。
AI系統對勞動力的影響相關的問題應當不僅僅包括未來是否會創造出新崗位,還應當包括那些崗位會否是能維持生計的體面工作。
此外,有關AI系統和勞工市場未來的討論通常都專註於傳統上被認為是低收入的工人階級崗位,如制造業、卡車運輸、零售或者服務工作,但研究表明,未來各行各業都將受到影響,其中包括需要專業訓練或者高學歷的專業工作,如放射學或者法律。關於這一點,未來將需要解決職業責任和義務方面的新問題。
AI將會如何影響主雇關系?
近年來,研究人員開始研究依靠大數據的AI和自動化系統(從Uber到應用於大型零售商的自動化調度軟件,再到工作間監視)正在如何改變雇主與雇員之間的關系。
研究發現,雖然這類系統可以用來賦能員工,但該類技術也可能會引發大問題,如剝奪員工權利,加劇就業歧視問題,以及催生不當勞動行為。
例如,AI驅動的勞動力管理和調度系統正越來越多地被用來管理勞動力,助力按需經濟的增長和“朝不保夕族”(precariat)的崛起。雖然部分研究人員稱恰當的調度能夠帶來很有價值的彈性,但到目前為止,更多的研究發現受該類系統管制的員工存在情緒緊張和缺乏安全感問題。
由這類系統管理的員工的不利體驗包括長期不充分就業,財務狀況不穩定,缺少傳統全職員工能夠獲得的福利保障,無力為家庭或者自我照顧(又或者因為忍受不了該類工作往往要求的隨時待命性質而尋找別的工作)做規劃。此外,受這些問題影響的員工更多是女性和少數族裔。
另外,基於AI系統的新遠程管理模式會加大將“系統”所做的嚴重影響員工的決策歸責於雇主的難度。因此,員工更容易受到剝削。
例如,像Uber這樣的由大數據和AI驅動的平臺會遠程控制行駛路線、定價、報酬甚至人際交流方面的標準——這些決定傳統上說通常都有人工親自管理。
除了模糊化特定決策的性質和邏輯之外,這類遠程管理通常並不被認為是“雇員管理”。
由於這些新管理模式不大符合現有的監管模式,像Uber這樣的公司會將自己標榜為技術公司,而非雇員的管理者。按照這一理念,這類公司將自己視作促進連接的平臺,因此不會像傳統雇主那樣對雇員負責。依照這種模式,雇員最終要承擔權益保障(如減輕稅項負擔、醫療保健和其它的勞工保障)和潛在救濟模式的就業帶來的風險。
3. 醫療健康
像我們現在所看到的大多數已被應用到醫療健康領域的AI系統,它們幾乎都依賴於大型數據庫,這些AI系統會通過各種複雜的統計模型和機器學習技術,從其所收集到的海量數據中,自動提煉出各種重要信息。
那些已投入使用的醫療數據信息源(仍處在不斷增長當中)——包括電子病歷(EHRs)、臨床和醫保數據庫、從各類消費電子產品和App上傳來的健康數據——目前已經被大量地應用到AI系統的實踐,這些AI系統具有極大的能改善社會醫保水平的潛力。
無論是臨床診斷、病人護理,還是施藥;無論是藥品生產、組織管理,還是醫保信息交互,這些AI系統都為醫療從業者的工作起到了極大的助力。
AI是如何被融入到醫學研究和醫療健康的?
將AI系統融入到醫學研究,具有令人極為欣喜的應用前景,它能幫助我們更好地理解那些疾病的病理,幫助我們開發出更多的新式治療手段,實現更為精準的醫學診斷,甚至還能私人訂制地為個人生產出特制的藥品。
然而,鑒於目前仍存在的將AI應用到醫療領域的局限和偏見,它們或將阻礙這些應用前景的實現,而這就需要研究人員更為細心謹慎地去探索這一前沿的技術。
目前,這些將AI技術應用到醫療領域的局限,包括有不完整或不準確的研究數據,即未含蓋到特定的少數群體,除此之外,尤以美國醫保系統為代表的複雜醫療補貼激勵制度,也將在一定程度上阻礙到了AI醫療技術的應用。舉個簡單的例子,目前的一些醫療補貼制度會更支持個別種類的藥物研發,或是更傾向於補貼個別治療方案。
醫療研究數據時常會表現出客觀、通用的屬性,但在實際應用的過程中,這些研究結論往往會表現出片面、暫時和只針對某些團體或病癥的特性,而AI系統根據這些“片面”數據所分析和建立出的模型,可能會引出、建立或是衍生出一些錯誤的猜測。
所幸的是,這樣的錯誤情況是可以避免的。如果一個AI系統所收集的數據不存在上面我們所提到的那些瑕疵(假設這點是可以被保證的),或是該AI系統所使用的數據框架像隨機對照試驗方法(randomized control trials, RCTs)或是其它公共醫療數據庫那樣,具有自行矯正這些問題的能力,能減小其內在錯誤偏差的話,它就能有效地避免重大誤差的出現。
假設這些誤差微小到可被忽略,將AI系統融入到醫療健康研究和臨床實踐中心的一個最有可能實現的應用前景,是讓AI去協助醫生進行病癥診斷,從海量數據中發現規律性的模式,從而幫助醫生更早地揪出那些藏匿在身體深處的“狡猾”病竈。
事實上,AI系統目前已經可以完成對部分病癥的診斷了,這其中就包括了白血病。在檢查和臨床護理環節,AI系統在一些情況下,也有幾率能減少,甚至預防誤診情況的出現。須知,誤診是可以致命的,AI輔助診斷技術的價值之高,可想而知。
在這方面,AI系統在診斷和確立病癥的環節上,正扮演越來越重要的角色。然而,也正是因為如此,研究人員必須警惕,要避免出現因AI錯誤猜測,而推斷出“正常”或是“平均”等健康狀況描述的情況的發生。
類似的,我們只需要回顧一下美國在1973年前的那段歷史,就想象出當AI出現誤診時,會發生什麽樣慘劇。彼時,美國精神病學協會(American Psychiatric Association)將同性戀作為一種精神疾病列入到了它權威的精神病診斷和統計手冊當中,這樣一來,悲劇的出現就不可避免了。
同樣的,當AI系統被直接地應用到病人護理時,它們將涉足到診斷和臨床管理的方方面面,而這也時常將隔開看護者同病人之間的距離,所以,適當地明確出AI“專業程度”的局限,是非常重要的。
一名人類外科醫生在上崗之前,會先上醫科大學,在經歷過層層嚴苛的考核後,他們的醫術才能獲得世人的承認,然而,我們要如何造出一個出色的AI大夫來協助,或者甚至是取代一個有“文憑”的人類名醫呢?
這樣一個AI醫療系統意味著它需要具有絕對準確的專家級權威水平,不會出現誤診或是診斷偏頗的情況。這種級別的信任代表著這些AI系統無論是在出廠的能力評估上,還是在檢測其極限能力上,都可以接受更少的審查,而這也將制造出那些,目前還未被醫學倫理框架所囊括的新型倫理問題。
除此之外,我們還需要關註類似於這樣的AI醫療系統在醫保領域內被布置於何處,使誰受益等等這樣的問題。盡管讓醫療健康惠及所有人,讓大家都能負擔得起確實是一種需求,但已有大量的證據表明,取得醫保和健康數據的權限並未被公平地分配,在多數情況下,窮人、非白人和女性群體常常處於劣勢地位。
讓AI系統融入到醫保體系,非但不會根除這些系統性的不平等問題,反而還有可能會放大這種問題的嚴重性。雖然AI系統可以實現合適的定制化醫療護理,讓各式各樣的人都獲益,但它也可以被故意培養成過濾掉那些之前就常常被忽視、被服務不周的外圍群體。
如果這些群體沒有被給予適當的考慮的話,這反過來也將影響到AI系統所構建出的預測模型。AI預測模型會被那些能用上這種AI系統的特權群體所上傳的健康數據所不斷的固化,從而只能有效反饋出富人的“健康狀況”,並最終構建出一個會完全排斥“邊緣人群”的健康與疾病的整體認知模型。
鑒於目前美國存在的醫保財政的亂象,這樣的憂患確實是值得人們投入更多關註,就像這樣的亂象在過去影響到醫療技術的整合一樣,它也必然會在未來影響到AI醫療系統的布置和效用,
基於這樣的考慮,人們在推動AI醫療系統不斷發展的同時,也在不斷努力地去降低AI醫療系統造價,而這也將促使那些利益相關者(比如政客、保險公司、健康機構、制藥企業、雇主和其他人)把他們的註碼,寄托於大規模的健康數據收集和AI系統的研制上,以此來幫助他們更好地維護他們在模型研發和醫保護理上的經濟利益。
然而,將這些信息技術和AI系統整合到醫院和其它醫療健康體系所需要的關鍵培訓、資源和那些正在進行當中的必要維護,並不總是能夠得到支持,或者說並不總是能處於“不差錢”的狀況。而這種情況其實已經導致了技術資源和技術能力的分配不均。
訓練AI所需的數據收集和病患觀察將如何影響到個人隱私?
AI系統對數據量的極度依賴和對病例觀察的需求也自然而然地催生出了對病人隱私、秘密和安全保護等等急迫的問題。
目前,對AI醫療系統高性能期許的實現依賴於通過各式各樣的設備、平臺和互聯網來源源不斷地獲取到海量的病患數據,而這一過程也不可避免地會涉及到某些人或機構會在利益的驅使下,做出出格的監視行為。、
與此同時,像同態加密(Homomorphic encryption)、差分隱私(differential privacy)和隨機隱私(stochastic privacy)這樣的技術帶給了我們應對這些亂象現象的新的希望,它們可以讓AI系統實現在不“查閱”數據的情況下,直接地去“調用”它們。雖然就目前來說,這些新技術仍處於研發的初步階段,連一個通用應用程序都還沒有被開發出來,但它展現出能令人鼓舞的應用前景。
除此之外,隨著近期美國政府對循證醫學(Evidence ¬based medicine)的推廣和《平價醫保法案》(Affordable Care Act)已由原先的按服務收費轉變至按治療行為收費的這一變化,監管行為背後所涉及到的經濟利益問題和對敏感健康數據消費的問題,都在不斷地加劇惡化當中。
至於那些保險公司,在AI系統入局的情況下,其所需面對的對驗證交叉補貼方案合理性的呼聲的壓力也在與日俱增。
舉個例子,盡管美國政府在2008年就頒布了《基因資訊平等法》(Genetic Information Nondiscrimination Act),但出於對保險分層管理的需求,保險公司對能獲取到遺傳危險率信息的興趣也在日益增長。事實上,差別定價目前已經成為了數據分析供應商的一項業內通用做法,而這反過來也進一步地鞏固和加劇了目前的不平等現象。
此外,“智能設備”和其它能讓AI系統獲取到所需數據的聯網傳感器也已讓追蹤和監視變得無處不在,而這也將目前的那些隱私保護政策的覆蓋範圍不斷地拓寬,像《醫療健康可攜性和責任法案》(Health Insurance Portability and Accountability Act)就是在這一考慮下的產物。
隨著AI系統被越來越多地融入到健康和電子消費產品上,病人因細分數據而被重新定義,或是由代理數據來預測出他們的身份、所患疾病和其它健康信息的風險,正不斷地升高。
除此之外,那些驅動這些數據收集設備的軟件也常常是為私人所持有,而不是開源的(不受外部審查審計的約束)。雖然,美國政府最近簽署的法令對《數字千禧年著作權法案》(Digital Millennium Copyright Act)中的相關條例進行了免除,讓審查外部醫療設施的代碼成為可能,但更為重要的或許是審查那些內部醫療設施,然而這種行為並未被這一豁免權所囊括到。
總的來說,相關業內專家們都已經對在物聯網設備上,布置聯網技術所潛在的重大安全隱患做過警告了,在這些警告中,有很多就是專門針對醫療設備安全問題的。
AI將如何影響患者和醫療保險供應商?
那些已被實現或是有望被實現的AI技術,對健康護理系統的構建有著深遠的意義,對需要照顧的病患,或是那些虛弱體質的人也意義非凡。
人們對於AI系統,進行了許多美好的構想,寄予它們護理工作調解員的角色,並相信它們在未來有可能完全取締了護工的工作。這一轉變前景樂觀、經濟,且高效,很可能會改善患者與醫生或其他護工之間的關系和他們的工作方式。
能展示AI系統具有代替或者協助人工護理工作的潛力的例子非常之多,包括有機器人外科醫生、虛擬管家和陪護機器人等等。這些例子逐漸引發了一些爭論,比如代理照顧和陪同護理的社會意義是否可以讓非人類的機器來代替?當機器替代人工時,它是否能不僅僅只是增強人工的專業性,而能做到真正的獨當一面呢?當我們認為一臺機器有能力“護理”病人時,它具備了哪些“護理”能力呢?我們又是如何定義“護理”這個詞呢?這些我們以為的“以為”是否是站在病人權益的角度上,去考慮的呢?
就目前來說,雖然陪護機器人在取代人工護理工作上,還未取得什麽明顯的效果, 但由AI驅動的APP和聯網設備能讓病人取回對自己健康管理的控制權的前景正在與日俱增,而這也預示著AI醫療系統同病人的直接交互,正處於早期發展階段。。
這種人與AI的直接交互其實也是一把雙刃劍。一方面,它能讓病人康複地更快、對自身病情有更多的了解。另一方面,這種變革也需要他們擔負更多的風險。這些風險包括它可能會誤導病患,影響他們可能會接收到的信息的質量和準確性,而這也是美國聯邦貿易委員會(FTC)在近些年來,所要傳達給我們的擔慮。
除此之外,這些搭載了AI的APP也可以將原先醫療從業者所需要承擔的責任轉移病人本身,但這對病人來說不見得是什麽好消息,因為並不是所有人都有時間、財力和AI技術獲取渠道,來實現對他們自身健康的護理。
那麽,什麽樣的患者能優先享受到這些仍在不斷改進當中的AI醫療技術的紅利呢?對於那些“裝備”不良卻想管理和維護自己個人數據的病患來說,他們所接受到的健康看護是否是不合格的呢?
再者,那些搭載了AI技術的應用的設計者和研發者在這一社會演變過程中,又需要扮演什麽新的角色?需要承擔哪些新的責任?
那些始終處於風口浪尖的醫學道德倫理,又將如何融入到這些與眾不同的,新式工程技術的載體上呢?
4. 道德責任
AI系統的部署不僅將引發新的責任,也將對職業道德、研究道德、甚至公共安全評估等現有領域造成挑戰。
近來,人們對道德和AI系統的討論傾向於優先考慮很久以後可能會出現的AI系統,例如,“奇點”的來臨,或超級智能的發展。
也就是說,這種討論往往並未關註AI系統在短期或中期內會產生的道德影響,例如,當前已投入使用的大量任務型AI系統引發了新挑戰、可能加劇不平等、或從根本上改變權利機制。
當代AI系統上能夠執行各種各樣的活動,這類技術會引發各種隱性和顯性後果,因此可能對傳統倫理框架提出新挑戰。AI系統被部署在人類社會中時或許會引發不可預測的相互作用和後果。
在資源配置以及讓權力和信息集中或重組的潛力方面,我們迫切需要處理一些關鍵問題來確保AI技術不會造成傷害,特別對於已被邊緣化的群體。
我們如何向AI授予權力或委派AI展開決策?
AI系統在社會和經濟領域內的融合需要我們把社會問題轉變為能夠被AI解決的技術問題。這種轉變無法保證AI系統產生的錯誤會少於它將取代的現有系統。瑞安•卡洛(Ryan Calo)指出,人們通常以為,AI系統(如,自主駕駛汽車)犯的錯誤將少於人類。實則不然。複雜程度不高的AI系統無法避免地會犯一些人類不會犯的新錯誤。
在許多領域中,倫理框架往往需要產生記錄,例如,病歷、律師的案卷、或研究人員向機構審查委員會提交的文件。此外,人們還面向患者、客戶或感覺自己遭遇了不公正待遇的對象設立了補救機制。
當代的AI系統往往無法提供此類記錄或補救機制,要麽因為技術上無法實現,要麽因為設計者並未考慮此類記錄或機制。
這意味著,受到影響的特定群體或個人往往無法對AI或其他預測系統的決策進行檢驗或質疑。這會惡化各種形式的權力不對等現象。而權力不對等是一個很重要的倫理議題。
當受到影響的個人無法對這類自動化決策展開檢驗、質疑或上訴時,他們就處在了權力相對缺失的位置上。
這帶來的風險是,AI系統不僅將削弱弱勢群體的質疑權力,而且將賦予設計方更多定義道德行為的權力。這種權力能夠以十分微妙的形式呈現出來。例如,各種自動化系統往往被用來從某種方向來影響或“微調”某些個體,而很大程度上扮演決定或支配角色的是設計部署此類系統並從中獲利的一方。
若要從零開始構建AI系統,以實現糾正上述不平衡現象等目標,這本身就要受到實力差距的限制。打造和維護AI系統需要大量的計算資源和大量數據。而擁有海量數據和計算資源的企業相對缺乏這類資源的企業擁有更多的戰略優勢。
我們如何在現有的各種行業中應對與AI相關的倫理問題?
隨著AI系統在不同行業環境(如,醫學、法律、金融)中的融入愈加深入,我們還將面臨跨越不同行業的新的道德困境。
例如,AI系統在保健環境中的應用將對醫療專業人員道德準則中秉持的核心價值(如,涉及保密、護理的連續性、避免利益沖突以及知情權)造成挑戰。
隨著醫療業的不同利益相關方推出了各種各樣的AI產品和服務。對這些核心價值的挑戰可能會以全新的和意想不到的方式呈現。
當一名醫生使用的AI診斷設備在受訓時使用了一家醫藥公司的藥品試驗數據,而這家公司是某種藥物處方的既得利益者,那麽這位醫生應如何遵守避免利益沖突的誓言?
雖然這是個假想的情況,但這點明了在修訂以及更新職業道德準則的過程中必須解決的棘手問題。
同樣地,負責管理AI研發及維護的專業協會也有必要考慮采取相應的措施。例如,美國人工智能協會(AAAI)應制定相關的道德準則,而美國計算機協會(ACM)以及電氣和電子工程師協會(IEEE)需認真修訂相關的道德準則。ACM和IEEE現有的道德準則已擁有20年以上的歷史,不用說,這些準則不僅無法解決與人類機構、隱私和安全相關的核心問題,而且也無法預防AI和其他自動化決策系統可能產生的危害。隨著AI技術進一步被整合到重要的社會領域中,這一點正變得越來越重要。
盡管更多的高等教育機構在技術和科學專業的教學中已開始強調職業道德的重要性,但這番努力仍處在初期,還有進一步的拓展空間。而民權、公民自由和道德實踐等領域的知識還未成為學生們畢業時必須掌握的要求範圍。此外,有一點是值得註意的,若有人違背醫藥界道德準則,他需承擔的懲罰包括失去行醫權力,這一點並不適用計算機科學或許多其他相關領域。
目前還不清楚大多數計算機科學家是否熟知ACM或IEEE準則中的核心內容。我們也不清楚,企業雇主是否會因為其他鼓勵或壓力因素而選擇不遵守這種不具約束力的法規。因此,從實用角度看,除了僅僅對倫理框架進行改寫和更新外,有必要關註範圍更廣的鼓勵機制,並確保對倫理準則的遵從並不是事後才想起的事項,而是相關專業領域需要關註的核心問題,以及AI領域學習和實踐中不可或缺的組成部分。
闡述建議
下面我們將進一步闡述上面簡要提到的建議背後的基本原理。
1、多元化和拓寬AI開發和部署所必需的資源——如數據集、計算資源、教育和培訓的使用,包括擴大參與這種開發的機會。特別是關註當前缺乏這種訪問的人口。
正如在AI Now Experts研討會期間很多人提到的,這些開發和培訓AI系統的方法費用高昂並只限於少數大公司。或者簡單地說,在沒有大量資源的情況下DIY AI是不可能的。培訓用AI模式要求有大量數據——越多越好。同時還要求有巨大的計算能力,而這費用不菲。這使得即使要進行基礎研究都只能限於能支付這種使用費用的公司,因此限制了民主化開發AI系統服務於不同人群目標的可能性。投資基本的基礎設施和使用合適的培訓數據,有助於公平競爭。同樣,開放現有行業和機構里開發和設計過程,以多元化內部紀律和外部評論,可幫助開發更好服務和反映多元化環境需求的AI系統。
2、升級使公平勞動行為具體化的定義和框架,以適應AI管理部署到工作地時出現的結構性變化。同時研究可替代的收入和資源分布、教育和再培訓模式,以適應未來重複性工作日益自動化和勞動及就業態勢不斷變化。
在AI Now Experts研討會上,奧巴馬總統首席經濟學家賈森·福爾曼(Jason Furman)指出,在美國每小時工資只有不到20美元的工作,83%都將面臨自動化的嚴重壓力。對於每小時工資在20-40美元的中等收入工作,這個比例也高達31%。這是勞動力市場一次巨大轉變,可能導致出現一個永久失業階層。為確保AI系統的效率在勞動力市場不會導致民眾不安,或社會重要機構如教育(有一種可能是教育不再視為就業的更好途徑)的解散,在這種巨大轉變出現,應該徹底研究替代性資源分布方法和其他應對引入自動化的模式,制定的政策應該為組織良好的各種落實測試開路,控制可能導致的災難性後果。
除了“替代工人”外,AI系統也對勞動力市場也有其他多重影響。例如,它們改變了權力關系、就業預期和工作本身的角色。這些變化已經對工人產生深遠影響,因此在引入AI系統時,在考慮如何表述公平和不公平做法上,理解這些影響很重要。例如,如果開發實際作為管理層行事的AI系統的公司,可被視為科技服務公司,與雇主不同的是,職員可能不受現有法律保護。
3、在設計和部署階段,支持研究開發衡量和評估AI系統準確性和公平度的方法。同樣地,也支持研究開發衡量及解決一旦使用出現的AI錯誤和損害的方法,包括涉及通知、矯正和減輕這些因AI系統自動決策導致的錯誤和損害的問責制。這些方法應優先通知受自動決策影響的人們,並開發對錯誤或有害判斷提出異議的方法。
AI和預測性系統日益決定了人們是否能獲得或失去機會。在很多情況下,人們沒有意識到是機器而非人類在做出改變人生的決定。即使他們意識到,也沒有對錯誤界定提出異議或拒絕有害決策的標準流程。我們需要在研究和技術原型化上投資,確保在AI系統日益用於做出重要決策的環境中,確保基本權利和責任受到尊重。
4、澄清無論是反電腦欺詐和濫用法案還是數字千年版權法案不是用於限制對AI責任的研究
為了進行對檢驗、衡量和評估AI系統對公共和私人機構決策的影響所需的研究,特別是有關如公平和歧視的關鍵社會關切,研究人員必須被清楚地允許跨大量域名並通過大量不同方法測試系統。然而,某些美國法律,如反電腦欺詐和濫用法案(CFAA)和數字千年版權法案(DMCA),規定與電腦系統甚至互聯網上公開可訪問的電腦系統“未授權”互動為非法,可能限制或禁止這種研究。這些法律應該澄清或修改,明確允許促進這種重要研究的互動。
5、支持在現實環境中AI系統對社會經濟生活影響的強大評估和評價方法的基礎性研究。與政府機構合作將這些新技術集成到他們的調查、監管和執法能力中。
我們當前缺乏對AI系統社會經濟影響評估和理解的嚴格做法。這意味著AI系統在融合到現有社會經濟領域,部署在新產品和環境中,卻不能衡量或精確計算它們的影響。這種情況類似於進行試驗卻不願記錄結果。為確保AI系統帶來的益處,必須進行協調一致的研究開發嚴格的方法,理解AI系統的影響,當使用這種方法時可幫助形成跨部門和政府內部的標準做法。這種研究及其結果可比作早期預警系統。
6、在與這些人聯合開發和部署這種系統時,與受自動決策應用和AI系統影響的社區代表及成員合作,聯合設計可問責的AI。
在很多情況下,這些受AI系統影響的人將是對AI系統環境和結果最權威性的專家。特別是鑒於當前AI領域缺乏多元化,那些受AI系統部署影響的人實際上從事提供反饋和設計方向,來自反饋機制的這些建議可直接影響AI系統的開發和更廣泛的政策框架。
7、加強行動提高AI開發者和研究者的多元化,拓寬和融合所有觀點、環境和學科背景到AI系統開發中。AI領域應該也結合計算、社會科學和人文學,支持和促進針對AI系統對多個觀點影響的跨學科AI研究。
計算機科學作為一個學科領域缺乏多樣性。特別是嚴重缺乏女性從業者,在AI里這種情況更為糟糕。例如,雖然有些AI學術實驗室由女性掌管,但在最近的神經信息處理系統大會上,與會者只有13.7%是女性,這次大會是該領域最主要的年度大會之一。缺乏多元化的圈子不大可能會考慮這些不在其中人的需求和關註。當這些需求和關註成為部署AI的社會經濟機構的中心時,理解這些需求和關註很重要,AI開發反映了這些重要的觀點。關註開發AI人群多元化是關鍵,除了性別和代表受保護人群外,包括除計算機科學外各種學科的多元化、建立依賴來自相關社會經濟領域學習的專業知識的開發實踐。
在計算機科學之外和計算機科學之內AI子領域的社會經濟領域,進行AI影響的徹底評估將需要多數這種專業知識。由於很多環境下AI被集成和使用——如醫學、勞動力市場或在線廣告——本身是學習的豐富領域。為真正制定AI影響評估的嚴格流程,我們將需要跨學科的協作,建立新的研究方向和領域。
8、與專業組織如美國人工智能進步協會(AAAI)、美國計算機協會(ACM)和電氣及電子工程師協會(IEEE)合作,更新(或制作)專業道德準則,更好地反映在社會經濟領域部署AI和自動化系統的複雜性。為任何想掌握計算機科學的人開設公民權、公民自由權和道德培訓課程,反映了教育中的這些變化。同樣,更新專業道德準則約束引入AI系統的專業人士,如適用於醫生和醫院工作者的道德準則。
在醫學和法律等職業中,專業人士的行為受控制可接受和不可接受行為的道德準則約束。專業組織如ACM和IEEE確實制定了道德準則,然而這些準則過時了,不足以解決複雜社會經濟環境中使用AI系統帶來的具體並常常是微妙的挑戰。雖然醫生確實遵守了約束他們對待病人行為的職業道德,但AI系統的發展,如幫助醫生診療和治療病人,出現了現有職業道德準則不總是能解決的道德挑戰。職業準則和計算機科學培訓必須更新,以反映AI系統建造者對因使用這些系統遭受不同程度不利影響的人所負有的責任。在AI用於增強人類決策時,職業道德準則應該包括在AI系統受到利益沖突左右的時候鑒定責任的保護措施。
搜狐向美國證券交易委員會提交了一份8K文件,它在文件中稱,公司旗下的間接全資子公司“北京搜狐新媒體信息技術有限公司”與暢遊旗下的間接全資子公司“北京暢遊天下網絡技術有限公司”簽署了一項貸款協議。
文件顯示,搜狐新媒體將不定期向暢遊天下借款,借款總額不超過10億元人民幣(約合1.5億美元),年利率為6%。協議規定,搜狐新媒體首次提出借款的要求必須在2016年12月31日或之前提出,之後提出的借款要求必須在首次要求提出後的一年內提出。每筆借款的本金和應付利息的到期日為每筆借款發生之日的一年之後。
據悉,搜狐將把這筆資金用於公司運營,但是不包括暢遊和搜狗業務。
此外,搜狐間接全資子公司、暢遊直接母公司“搜狐遊戲有限公司”還與暢遊達成了股權質押協議。根據協議規定,暢遊遊戲有限公司承諾將其持有的11386228股暢遊B股普通股質押給暢遊,幫助搜狐新媒體獲得貸款。
而搜狐目前單季度的虧損仍在持續擴大。
10月24日,搜狐發布第三季度財報稱,截至9月30日,搜狐第三季度營收為4.11億美元,同比下滑21%,按美國通用會計準則(GAAP)計算,歸屬於搜狐的凈虧損為7500萬美元,較去年同期的凈利潤3900萬美元轉虧。 其中搜狐網絡遊戲營收為9900萬美元,同比下滑35%。暢遊業務凈利潤環比上個季度有所回升,但同比去年也出現下滑。三季度財報顯示,歸屬於暢遊的non-GAAP(非美國通用會計準則)凈利潤為4600萬美元。
【Tech|業界大事件】
6.4寸全屏幕無聽筒!小米首款概念機MIX長什麽樣?
小米公司除了為大家帶來備受關註的雙曲面手機 Note 2,以及小米旗下的第二款 VR 眼鏡之外,小米突然帶來已經量產的概念手機MIX,令人震驚的是該款手機采用了正面幾乎全是屏幕的“全面屏”設計,以及全陶瓷機身。小米 MIX 將屏幕尺寸擴大了 23%,做到了高達 91.3% 的屏占比,整個手機上方因此完全被屏幕占據。
OPPO/vivo超越華為!登頂第三季中國智能機銷量榜前兩位
據CNET報道,市場研究機構Counterpoint Research公布的數據顯示,今年第三季度,中國再次蟬聯世界最大智能手機市場寶座,同時各大廠商的排名也出現了劇烈的變動。此前排行榜首的華為這次被OPPO與vivo全面超越。
三星設備還能用嗎?又發生一起S7 Edge起火事故
Note 7起火事故引發的余波尚未平息,最近又發生一起三星設備起火的事故,只是這一次起火的設備不是Note 7,而是Galaxy S7 Edge。據知情人士稱,美國某無線運營商的一名用戶拿著一部燒壞的S7 Edge來找運營商索賠,他堅稱這部手機是在充電時起火的。
半個美國網絡癱瘓讓中國企業負責?雄邁科技不背這個“鍋”
日前有媒體援引國外網站KerbsonSecurity調查稱,共有超過百萬臺物聯網設備是導致此次“癱瘓”的媒介。而這些設備多是中國“雄邁科技”生產的設備。這家公司生產的攝像模組被許多網絡攝像頭、DVR解決方案廠家采用,在美國大量銷售。雄邁科技公司發布聲明稱,雖然該報道嚴重有悖事實,但雄邁直面問題,堅持客戶利益至上,盡最大努力給客戶提供合理解決方案。
量產車發布前夕 樂視投資工廠因拖款受停工威脅
在樂視和它的合作夥伴Faraday Future即將發布第一輛量產車前夕,後者的工廠陷入停工傳聞。而Faraday Future(法拉第未來)一位工程師對第一財經記者解釋說,公司仍在如往常正常運轉。而樂視方面回應稱,Faraday Future與Aecom的合作關系牢固,仍會共同建立工廠。
新能源汽車搶號熱購車冷:超過70%人拿到指標未購車
根據北京小客車指標辦近日發布的消息,2016年北京市的6萬輛新能源指標已經全部用完,而明年新能源汽車的6萬輛指標中,已經有超過1.5萬輛被提前預訂。盡管新能源車需求看似火爆,但真正拿到指標已經購車的卻僅是少數。
用iPhone自拍可以不修圖了 蘋果iOS 10.1自帶“美顏”模式
蘋果周一正式推送了iOS 10.1更新版本。iPhone 7 Plus的肖像拍照模式“Portrait Mode“終於登場,同時該更新還修複了針對所有兼容iOS系統設備的一些漏洞。所謂的“肖像模式”是借助雙鏡頭和相應算法,在拍照時候虛化背景以突出主體。在拍攝人像的時候,效果會比較突出。
奧巴馬退休後會去矽谷上班嗎? 繡球已拋出
還有不到三個月,美國總統奧巴馬就要退休了。現在大家最關心的問題是:奧巴馬退休後會去幹嘛?對此,矽谷知名創業加速器YC的總裁山姆·阿爾特曼(Sam Altman)已經向奧巴馬拋出了橄欖枝,他開玩笑說:“能聘請到他我們會很高興,我們會給他一個機會。”
國家信息中心將1.98萬家電商列入網購黑名單
隨著電子商務的崛起及當下網購指標的上揚,網購環境的誠信度將在這個11.11再次被考驗。國家信息中心副主任周民披露,截至上周末,電商受懲黑名單家數已達19829家。為整頓網購環境,國家信息中心計劃把這些黑名單推送到各個部門及第三方征信機構,並對名單進行定期更新,供社會各界參考使用。
【Tech|奇點】
厲害了!寶馬出了輛不戴頭盔也能安全駕駛的摩托車
寶馬的Vision 100摩托車有著超強的穩定機制,無論是靜止停在原地,還是高速行駛,它都能保持平衡,而不摔倒在地!去掉頭盔的束縛之後,摩托車的騎行,才能找到真正的愉快。寶馬提供給駕駛者一副能夠實時顯示路況信息的護目鏡,可投影在視野的前方,並不會對駕駛形成幹擾。
曾經轟動一時的“酒鬼酒億元資金失蹤案”再度發酵。近日,一當事人家屬在網絡上貼出浙江米蘭國際假日酒店消費記錄,稱2014年1月19日,“酒鬼酒億元資金失蹤案”專案組負責人、湘西州公安局副局長陳某某、吉首市公安局局長胡某某等公安人員在杭州辦案時,攜“酒鬼酒”財務部負責人常某某等同行,一天消費共計76000余元,其中包括8000元洗桑拿浴費用,所有費用均由酒鬼酒公司買單。此事已引起社會輿論廣泛關註。
(新華社/圖)
此案的大致經過是,3年前的2013年底,酒鬼酒公司以“存款賣酒”的方式,與江蘇、浙江的幾名商人合作,將1億元資金存在千里之外的杭州某銀行。一個月後發現資金被出借,幾方商談無果後,“酒鬼酒”選擇向家鄉湘西州吉首市公安局報案。這場官司的目前進展是,江蘇、浙江的六名當事人均被湘西州中級法院以金融憑證詐騙罪判處無期徒刑至有期徒刑五年不等,而酒鬼酒公司當事高管安然無恙,只是以辭職了事。
“酒鬼酒億元資金失蹤案”發生以來,關於此案性質究竟是資金使用方串通銀行的惡意盜取案件,還是酒鬼酒與資金使用方達成的灰色借款生意,各方一直爭議不止。方振、陳沛銘等當事人家屬一直堅持向中紀委實名舉報湘西方面違法辦案。部分全國人大代表曾就此案提出質詢。中國政法大學終身教授陳光中等7位法學名家也關註此案,認為至少其中一當事人方振的行為不構成金融憑證詐騙罪共犯。
(新華社/圖)
本案說複雜也複雜,說簡單也簡單,連我這局外人稍稍讀了一下一審判決書,了解了一下案情,也發現了這起案件疑竇叢生,令人不解之處甚多。比如,酒鬼酒公司自身資金並不充裕,好不容易從湘西農行以基準利率貸來5000萬元,卻要在千里之外的浙江杭州開設戶頭,轉入1億元巨款,所圖為何?酒鬼酒將1億元分79筆轉入杭州某銀行後,三天內收到中間人匯來的貼息款等高額回報1245萬元,作為正常人,是否應該知道憑銀行正常利息是無法獲得如此豐厚回報的?該案當事人羅光發給酒鬼酒公司法務部負責人的短信已一語道出真情:“存款也是要挪出來用的,否則不可能貼這麽高的息還買這麽多高端酒。若貼息方用不到錢,存在這也沒有意義……”作為正常人,酒鬼酒公司是否應該知道將億元巨款存到杭州試圖獲取高利,是要承擔被“挪出來用的”風險的?如果沒有酒鬼酒公司的主動作為和積極配合,這1億元巨款會自動跑到杭州某銀行的賬戶上嗎?即便真的構成刑事案,案發地在杭州,案件由哪里的司法機關管轄更符合法律規定?如果江浙這6名當事人構成金融憑證詐騙罪,那麽這起案件的另一方重要當事人,即酒鬼酒公司的責任人又該承擔怎樣的法律責任呢?
(新華社/圖)
雖然本案疑點重重,不勝枚舉,但今天我們討論的重點不是案情,我想說的是,既然網絡爆料和社會輿論都在廣泛質疑湘西公安外出辦案攜一方當事人,即酒鬼酒公司經理隨行買單,那麽,作為被質疑的湘西公安機關就有義務出來澄清:此事究竟是真是假?
如果湘西公安認定網絡爆料為假,那麽,只要出示1月19日湘西州公安局副局長陳某某、吉首市公安局局長胡某某等辦案人員並沒去過杭州辦案的證據,或者去過杭州辦案、住宿費用均由公安機關自己買單的報銷憑證,網絡質疑自然會煙消雲散。
如果湘西公安認定網絡爆料為真,那麽,此事的性質則很嚴重,就值得大加質疑和批評了:一是公安部三令五申,公安機關不得以任何借口向報案單位和當事人索要辦案費,不準接受報案單位和當事人的吃請,湘西公安“酒鬼酒”辦案組為何膽敢對中央八項規定與公安部三令五申置若罔聞、“頂風作案”?二是除了1月19日這一天,在辦案過程中,湘西公安還讓酒鬼酒公司承擔了什麽開支?私底下還有其他什麽交易?三是帶著一方當事人隨行買單辦案,又如何保證執法的公平公正?
對網絡爆料和輿論質疑,湘西公安不能再繼續充耳不聞、裝聾作啞了。黨的十八屆四中全會決議指出,“建設法治政府,全面推進政務公開,堅持以公開為常態、不公開為例外原則。”黨的十八屆六中全會決議指出,“必須嚴明黨的紀律,把紀律挺在前面,用鐵的紀律從嚴治黨。”習近平總書記在今年4月19日重要講話中指出:“對互聯網監督,不論是對黨和政府工作提的還是對領導幹部個人提的,不論是和風細雨的還是忠言逆耳的,我們不僅要歡迎,而且要認真研究和吸取。”對照黨中央的這些要求,湘西公安機關作為政府的組成部分,於法與理都必須及時、公開回應網絡質疑。這不是願意不願意的問題,而是湘西公安有法定義務回答:究竟有沒有讓“酒鬼酒”隨行辦案買單?
在我看來,這不僅關系到從嚴治黨及公安機關的作風建設問題,也關系到“酒鬼酒億元資金失蹤案”的正義與否問題。湘西公安以涉嫌合同詐騙罪立案是“酒鬼酒”億元資金案由原來的民間灰色借貸成為刑事案件的刑事訴訟起點。法治的重要內涵是,“未經法律正當程序,不得剝奪任何人的生命、自由或財產。”但如果,一個案件的刑事訴訟起點就是不正當的,那麽,人們就有理由懷疑整個案件的法律正當性。(新華社)