📖 ZKIZ Archives


人工智能和機器學習值得關註的6個方向和代表公司 ​

來源: http://www.iheima.com/zixun/2017/0224/161461.shtml

人工智能和機器學習值得關註的6個方向和代表公司 ​
IT桔子 IT桔子

人工智能和機器學習值得關註的6個方向和代表公司 ​

能落地的都是NB,不能落地的都是SB。

本文由IT桔子(微信 ID: itjuzi521)授權i黑馬發布。

人工智能在過去的10年當中取得了長足進步,無論是無人駕駛,還是語音識別、語音合成。在這樣的背景下,AI已經成為一個越來越熱門的話題,並且已經開始影響我們的日常生活。

以下是人工智能發展值得關註的六個領域,對電子產品和服務的未來將會產生巨大的影響。我將解釋它們是什麽、為什麽重要、如何被運用,以及列舉相關技術領域的公司。

01 強化學習Reinforcement Learning

強化學習是機器學習中的一個領域,強調如何基於環境而行動,以取得最大化的預期利益。其靈感來源於心理學中的行為主義理論,即有機體如何在環境給予的獎勵或懲罰的刺激下,逐步形成對刺激的預期,產生能獲得最大利益的習慣性行為。增強學習是機器學習中一個非常活躍且有趣的領域,相比其他學習方法,強化學習更接近生物學習的本質,因此有望獲得更高的智能,這一點在棋類遊戲中已經得到體現。

Google DeepMind 的AlphaGo就采用了強化學習,強化學習另一個典型的應用是幫助優化Google數據中心降溫系統的能源效率,強化學習系統可以將原來降溫的能耗降低40%。使用強化學習技術一個重要優勢是,訓練數據的積累的成本會很低。而監督深度學習技術往往需要非常昂貴的訓練數據,並且是很難從實際生活中獲取。

應用:多個智能體(agents)共享同一個模型,各自進行學習;或者與環境中其他智能體交互和學習;學習三維環境導航,比如迷宮、自動駕駛的城市道路;在學習了一系列目標任務後對已觀察過的行為進一步增強重述。(學習駕駛或者在電子遊戲中為NPC賦予類似人類玩家的行為)

公司: Google DeepMind, Prowler.io, Osaro, MicroPSI, Maluuba/Microsoft, NVIDIA, Mobileye

主要研究人員: Pieter Abbeel (OpenAI), David Silver, Nando de Freitas, Raia Hadsell (Google DeepMind), Carl Rasmussen (Cambridge), Rich Sutton (Alberta), John Shawe-Taylor (UCL) 等

02 生成模型Generative Models

判別模型(discriminative models)主要用於分類和回歸任務,生成模型主要用於在樣本訓練中學習概率分布。

應用:時序信息模擬;超分辨率圖像;2D圖像三維重建;基於小樣本的數據生成;單輸入多輸出系統;自然語言交互;半監督學習;藝術風格轉換;音樂和聲音合成;圖像修複

公司:Twitter Cortex, Adobe, Apple, Prisma, Jukedeck*, Creative.ai, Gluru, Mapillary, Unbabel

03 記憶網絡Networks with memory

為了能讓AI系統具有真實世界一樣的多樣性環境,AI必須持續學習新任務並在未來記住如何處理它們。傳統的神經網絡並不能記住這麽多任務,這個缺點被稱為災變性遺忘(Catastrophic Forgetting)。這是由於當神經網絡從解決A問題轉向解決B問題的過程中,神經網絡會隨之變化。也有很多種強大的網絡結構賦予了神經網路不同程度的記憶能力。包括長-短記憶網絡,能夠處理和預測時序;DeepMind的微分神經計算機結合了神經網絡和記憶系統的優點,以便從複雜的數據結構中學習;同時還有彈性權重聯合算法,根據先前問題的重要性來減慢某些權重。

應用:對新環境有舉一反三能力的學習性智能體(agent);機械臂控制、自動駕駛、時序預測(金融、視頻、物聯網);自然語言理解和預測

公司:Google DeepMind, NNaisense, SwiftKey/Microsoft Research

04 從更少的數據中學習、建造更小的模型

眾所周知,深度學習需要龐大的數據來進行訓練,比如ImageNet的視覺識別大賽,每支隊伍需要識別120萬張1000種類別的人工標註的圖像。如果沒有大規模的數據訓練,深度學習模型無法使用,也無法完成語音識別和機器翻譯這類的複雜任務。

在解決端到端的問題時,單一神經網絡訓練所需的數據量只會越來越多,例如從音頻錄音中識別語音文本。

和使用多個不同神經網絡處理不同人物的組合不同(音頻→發音→單詞→文本輸出)。

如果要讓AI解決一個數據有限、數據成本很高或者獲取十分耗時的任務時,能從小樣本中學習最優解決方法的模型十分重要。用小量數據進行訓練有很多挑戰,一個替代的方法把之前機器學習模型知識轉移到新的模型上,這叫做轉移學習(transfer learning)。

應用:訓練淺層網絡來模擬在大規模數據集上訓練好的神經網絡;與深度網絡模型表現相同、但參數更少的模型;機器翻譯。

公司:Geometric Intelligence/Uber, DeepScale.ai, Microsoft Research, Curious AI Company, Google, Bloomsbury AI

05 用於訓練和推理的硬件

AI發展的一個主要催化劑是將GPU用於訓練大規模神經網絡。訓練神經網絡需要大量的運算量,GPU用於訓練遠遠快於CPU。自從2012年首個使用GPU的深度神經網絡AlexNet出現後,GPU 成為了訓練神經網絡的首選。在2017年英偉達繼續領跑這一領域,而英特爾、高通、超微和谷歌緊隨其後。

GPU最初並不是為了機器學習而制作的,而是用於渲染電子遊戲畫面。GPU計算精度很高,並且不會經常遭遇內存帶寬的限制和數據溢出的問題。有一批專為深度學習定制芯片的創業公司,Google又開發了針對高維機器學習應用的芯片。新型的芯片內存寬帶更高、計算能力更強、能耗更低。提高AI系統運算能力為AI公司和用戶帶來的好處是:更快更高效的訓練模型→更好的用戶體驗→用戶更多使用產品→產生更多的數據→數據幫助優化模型。因此,誰能夠更快、更高效的訓練和部署AI模型,就能擁有巨大的優勢。

應用:快速訓練模型(尤其是圖片領域)、進行預測時的能源和數據效率、運行前沿AI系統(物聯網設備)、隨時可進行語音交互的物聯網設備、雲基礎設施服務、自動駕駛汽車、無人機、機器人。

公司:Graphcore, Cerebras, Isocline Engineering, Google (TPU), NVIDIA (DGX-1), Nervana Systems (Intel), Movidius (Intel), Scortex

06 模擬環境

如前文所述,為AI系統生成訓練數據通常是一個挑戰。而且如果要能在現實世界應用,AI需要概括各種情況。因此,開發模擬真實世界物理和行為模型的數字環境需要能夠衡量和訓練AI通用能力的試驗環境。在模擬環境中進行訓練有助於我們更好的理解AI如何學習、如何改善自身,同時為我們提供了潛在的可以轉換為真實應用的模型。

人工智能
贊(...)
文章評論
匿名用戶
發布
PermaLink: https://articles.zkiz.com/?id=236866

Next Page

ZKIZ Archives @ 2019