📖 ZKIZ Archives


谷歌給AI定了七條規則,包括不開發武器AI、納入隱私設計原則等

面對內部數千員工的抗議,以及外部學術界的批評和媒體的曝光,谷歌周四終於發布使用AI的七項原則,承諾不會將其人工智能用於會造成“整體傷害”的武器、技術和非法監視。

涉及AI的七項原則包括對社會有益,避免制造或加強不公平的偏見,提前測試安全性,對人負責,保證隱私,堅持科學高標準以及從主要用途、技術獨特性等方面來考慮。

這七項原則是為了平息外界對谷歌Maven項目(Project Maven)的關註。Maven是美國國防部將人工智能應用於無人機的舉措。

該項目於去年9月開展,根據合同,國防部將使用谷歌AI技術來分析無人機鏡頭。這是谷歌雲業務負責人黛安·格林(Diane Greene)推動的一項重要舉措,即向政府提供雲服務,該業務利潤豐厚,而目前由亞馬遜和微軟公司統治。

但是,該項目在內部開展不久後,便遭到谷歌內部員工的抵制。4000多名員工聯名上書,要求取消Maven項目合同,理由是谷歌有避免軍事工作的歷史,以及對自動武器的擔憂。

隨著事件不斷發酵,以及媒體不斷披露細節,黛安於上周五宣布,一旦該合同失效,將不會繼續合作。黛安稱,“這是一項為期18個月的合同,因此它將於2019年3月結束”,過期將不再續約。

周四,谷歌首席執行官桑達爾·皮查伊(Sundar Pichai)在一篇博客文章稱,谷歌不會在可能造成“整體傷害”的武器、技術和非法監視領域設計或部署AI。他稱,“在存在重大傷害風險的情況下,我們只會在收益遠超風險的情況下繼續,並且會納入適當的安全限制;不會部署故意導致或直接影響人身傷害的武器或其他技術;不會違反國際規範,部署收集或使用信息進行監視的技術,也不會部署違反國際法和人權原則的技術。”

但谷歌並不會放棄政府這塊大蛋糕,谷歌正在雲計算部門投入巨資,皮查伊的聲明也表示,谷歌將繼續追求這些合同。

在劃定七項原則之後,皮查伊表示,將繼續與政府和軍隊合作, “我們希望明確的是,雖然我們不開發用於武器的AI,但我們將繼續與政府和軍隊在諸多領域合作”,包括網絡安全、培訓、軍人招募、退伍軍人醫療、搜索和救援。“這些合作非常重要,我們將積極尋找更多方式以促進這些組織的重要工作,並確保服役人員和平民的安全。”

谷歌的七項原則也是AI發展的分水嶺。谷歌這樣的科技巨頭在開發軟件和服務方面具有領先優勢,計算機成本下降和性能方面的突破使AI在過去幾年擴展到更多的行業,如汽車,醫療保健,但AI在軍事等方面的應用也引起了學術界和谷歌內部員工的擔憂。

據路透社報道,一位谷歌官員周四表示,盡管Maven項目工作重點放在非攻擊性任務上,但(工作性質)太接近武器裝備了。不僅是谷歌,此前,也有公民自由組織聯名向亞馬遜 CEO 貝索斯上書,抗議該公司將人臉識別技術出售給警方。

皮查伊在文中表示,AI如何開發和使用,將會對未來社會產生重大影響。“作為人工智能領域的領導者,我們感到深深的責任感。所以我們宣布了七項原則來指導我們今後的工作。這些不是理論概念;是具體的標準,將積極主導我們的研究和產品開發,並會影響我們的業務決策。”

谷歌大腦( Google Brain)聯合創始人Jeff Dean在推特上轉發該博文稱,除了AI原則,谷歌正在提供技術實踐以實際履行這些原則。

不過,也有評論認為谷歌做的還很不夠,The New School的副教授彼得·阿薩羅(Peter Asaro)在推特上表示,“這些原則是一個好的開始,但希望能夠看到谷歌在AI監控、隱私、安全、不公平偏見,AI和自主武器等領域制定規範方面發揮積極主導作用,而不是僅僅遵循現狀。

附谷歌AI應用的七項原則:

1.對社會有益

新技術的應用範圍越來越廣,越來越影響到整個社會。AI的進步將對包括醫療保健、安全、能源、運輸、制造和娛樂在內的廣泛領域產生重大影響。當我們考慮AI技術的潛在發展和應用時,我們將考慮一系列的社會和經濟因素,並將在我們認為整體收益遠超過可預見的風險和弊端的情況下繼續推進。

AI還增強了我們理解大規模內容含義的能力。我們將努力使用AI來隨時提供高質量和準確的信息,同時繼續尊重所在國家的文化、社會和法律準則。我們將繼續仔細評估何時可以在非商業基礎上讓大家使用我們的技術。

2.避免制造或加強不公平的偏見

AI算法和數據集可以反映、加強或減少不公平的偏見。我們承認,區分公平和不公平的偏見並不總是很簡單,並且在不同的文化和社會中是不同的。我們將努力避免對人們造成不公正的影響,特別是與種族、民族、性別、國籍、收入、性取向、能力以及政治或宗教信仰等敏感特征有關的人。

3.提前測試安全性

我們將繼續開發和應用強大的安全和保障措施,以避免造成引起傷害的意外結果。我們將設計我們的AI系統,使其保持適當的謹慎,並根據人工智能安全研究的最佳實踐開發它們。在適當的情況下,我們將在有限的環境中測試AI技術,並在部署後監控其操作。

4.對人負責

我們將設計能夠提供反饋、相關解釋和說明的AI系統。我們的AI技術將受到人類適當的指導和控制。

5.納入隱私設計原則

我們將在開發和使用AI技術時融入隱私原則。我們將提供通知和同意的機會,鼓勵具有隱私保護措施的架構,並對數據的使用提供適當的透明度和控制。

6.堅持科學卓越的高標準

技術創新植根於科學的方法和開放式調查的承諾,學術嚴謹,誠信和合作。人工智能工具有可能在生物學、化學、醫學和環境科學等關鍵領域開拓科學研究和知識的新領域。我們致力於促進人工智能的發展,追求高標準的科學卓越。

我們將與廣大股東合作,通過科學嚴謹和跨學科的方式來全面促進該領域的發展。我們將通過發布教育材料,以及通過發布可以促進更多人開發AI應用的最佳實踐和研究來分享AI知識。

7.從主要用途、技術獨特性等方面來提供技術

許多技術有多種用途。我們將努力限制可能有害或被濫用的應用程序。在開發和部署AI技術時,我們將根據以下因素評估可能的用途:

主要目的和用途:技術和應用的主要目的和可能的用途,包括解決方案與有害用途的相關性或適用程度

普遍與獨特:我們的技術是獨一無二的還是更普遍適用的

規模:這項技術的使用是否會產生重大影響

谷歌參與的性質:我們是否提供通用工具,為客戶集成工具還是開發定制解決方案

 

PermaLink: https://articles.zkiz.com/?id=265627

Next Page

ZKIZ Archives @ 2019