📖 ZKIZ Archives


人工智能是否會危及人類未來?

來源: http://wallstreetcn.com/node/213013

I-Robot-i-robot-10425040-1280-800

包括霍金(Stephen Hawking)和馬斯克(Elon Musk)在內的諸多科學家、企業家和投資者近日在一封聯名公開信中警告稱,在研究和發展人工智能上,應更加關註安全問題和其所帶來的社會福利。

這封發自未來生命研究所(Future of Life Institute,FLI)的公開信還附帶了一篇論文,建議應把研究“強大而有益”的人工智能(AI)放在優先位置。從就業甚至到人類的長期生存,人們對AI的擔憂與日俱增,因為AI產品的智力和能力可能會超過創造它們的人類。

這封公開信這樣寫道:

鑒於AI存在的巨大潛能,研究如何取其好處、避免缺陷就變得十分重要。我們的AI系統必須聽命於我們。

在Skype聯合創始人Jaan Tallinn等誌願者的支持下,FLI於2014年成立,旨在促進人工智能研究著眼於“樂觀的未來”,同時減少AI研究可能給人類帶來的風險。它關註的重點是開發與人類智力水平相當的AI所存在的風險。

與演員Morgan Freeman、物理學家霍金同為FLI科學顧問的特斯拉聯合創始人馬斯克表示,他相信失控的人工智能“所具有的潛力比核武器更危險”。

其他署名者還包括機器智能研究所(Machine Intelligence Research Institute)的執行主管Luke Muehlhauser,麻省理工學院(MIT)物理學教授、諾獎得主Frank Wilczek,來自人工智能企業DeepMind和Vicarious的企業家,以及幾名谷歌(Google)、IBM和微軟(Microsoft)的員工。

據英國《金融時報》,這封信並不是為了兜售恐懼心理。相反,它十分謹慎地呼籲人們關註人工智能的積極面和消極面。

信中寫道:

如今存在的一個廣泛共識是,人工智能研究正在穩步提升,它對社會的影響也很可能會逐漸增加。人類文明所提供的一切都是人類智慧的結晶,其所能帶來的潛在好處是巨大的;但是這種人類智慧可能會被AI所提供的工具放大,屆時會發生什麽是我們無法想象的;當然,根除疾病和貧困將不再是遙不可及的。

那麽AI會不會發展到人類無法駕馭的超級智能階段?研究AI哲學的複旦大學哲學學院教授徐英瑾告訴新華社

霍金警示的風險理論上存在。值得“慶幸”的是,目前,人工智能的全球領先水平與超級人工智能相去甚遠。學術界普遍認為,世界上還沒有機器能通過圖靈測試。

當前,AI研究的部分好處倒是已經成為現實,其中包括語音識別、圖像識別和汽車自動駕駛等。據英國《金融時報》,有人估計如今在矽谷從事人工智能業務的初創企業超過了150家。

鑒於人工智能正吸引越來越多的投資,許多創業家和谷歌等企業都在盼望著能通過建立會自主思考的電腦,獲得巨額回報。對於這種情況,FLI警告稱,人們或許應“及時”將更多註意力集中在人工智能的社會後果上,不僅要從計算機科學的角度開展研究,還要從經濟、法律及信息安全的角度開展研究。

(更多精彩財經資訊,點擊這里下載華爾街見聞App)

PermaLink: https://articles.zkiz.com/?id=127318

Next Page

ZKIZ Archives @ 2019