人工智慧領域在過去十年中取得了巨大進步,從自動駕駛汽車到語音識別及合成,這一點令人驚訝。那文章給學習AI和機器學習的人介紹一下這六個領域。
近期熱門的話題, 人們開始重新討論這一基本定義——什麼是人工智慧(AI)?
有些人將 AI 重新命名為「認知計算」或「機器智能」,而其他人則錯誤地將 AI 與「機器學習」概念進行交換。在某種程度上,這是因為 AI 不是一種技術,它實際上是一個由許多學科組成的廣泛領域,從機器人學到機器學習。
我們大多數人都認為:人工智慧的終極目標是為了建造能夠完成任務和認知功能的機器,否則這些機器只能在人類的智能範圍內從事相關工作。為了實現這一目標,機器必須能夠自主學習這些能力,而不是讓每個功能都被端到端地明確編程。
人工智慧領域在過去十年中取得了巨大進步,從自動駕駛汽車到語音識別及合成,這一點令人驚訝。在這種背景下,人工智慧已經成為越來越多公司和家庭的話題,他們不再將人工智慧視為一種需要 20 年時間開發的技術,而是影響他們今天生活的東西。
事實上,流行的新聞報道幾乎每天都會報道 AI 和技術巨頭,闡述他們重要的長期人工智慧策略。雖然一些投資者和老牌企業都渴望了解如何在這個新世界中攫取價值,但大多數人仍在摸索著想出這一切意味著什麼。與此同時,各國政府正在努力應對自動化在社會中的影響(見奧巴馬的告別演說)。
鑒於 AI 將影響整個經濟,而這些討論中的參與者代表了社會上觀點的整體分佈、理解水平以及構建或使用 AI 系統的經驗程度。因此,對人工智慧的討論至關重要—包括由此產生的問題、結論和建議—必須以數據和現實為基礎,而不是猜想,這點至關重要。
畢竟各種民間大V從公布的研究、科技新聞公告、投機評論和思想實驗中大肆推斷其中的含義,這太容易了(有時令人興奮!)。
尤其值得注意人工智慧的六個領域,在影響數字產品和服務的未來方面產生的作用。我將會闡述它們分別是什麼、為什麼它們很重要、它們今天如何被使用,並列出了從事這些技術的公司和研究人員的清單(並非詳盡無遺)。
1、強化學習(RL)
RL 是一種通過試錯來學習的範例,這種反覆試錯受到人類學習新任務的方式啟發。在典型的 RL 設置中,智能體的任務是在數字環境中觀察其當前狀態,並採取最大化其已設置的長期獎勵的累積的動作。 該智能體接收來自環境的每個動作結果的反饋,以便它知道該動作是否促進或阻礙其進展。
因此,RL 的 智能體必須平衡對其環境的探索,以找到獲得獎勵的最佳策略,並利用其發現的最佳策略來實現預期目標。這種方法在 Google DeepMind 的 Atari 遊戲和 Go 中(https://www.youtube.com/watch?v=Ih8EfvOzBOY)非常流行。
RL 在現實世界中工作的一個例子,是優化能源效率以冷卻 Google 數據中心。在此項目中,RL 使得該系統的冷卻成本降低了 40%。在可以模擬的環境(例如視頻遊戲)中使用 RL 智能體的一個重要的原生優勢是,訓練數據可以以非常低的成本生成。這與監督式的深度學習任務形成鮮明對比,後者通常需要昂貴且難以從現實世界中獲取的訓練數據。
- 應用程序:多個智能體在他們自己的環境實例中學習共享模型,或者通過在同一環境中相互交互和學習,學習在迷宮或城市街道等 3D 環境中進行自動駕駛,通過學習任務目標(例如學習駕駛或賦予非玩家視頻遊戲角色以類似人的行為)反向強化學習以概括觀察到的行為。
- 頂尖專業:Pieter Abbeel(OpenAI),David Silver,Nando de Freitas,Raia Hadsell,Marc Bellemare(谷歌 DeepMind),Carl Rasmussen(劍橋),Rich Sutton(阿爾伯塔大學),John Shawe-Taylor(UCL)等。
- 代表公司:Google DeepMind,Prowler.io,Osaro,MicroPSI,Maluuba / Microsoft,NVIDIA,Mobileye,OpenAI。
2、生成模型
與用於分類或回歸任務的判別模型不同,生成模型學習訓練樣本的概率分佈。通過從這種高維分佈中抽樣,生成模型輸出與訓練數據類似的新例子。這意味著,例如:在面部的真實圖像上訓練的生成模型,可以輸出相似面部的新合成圖像。有關這些模型如何工作的更多詳細信息,請參閱 Ian Goodfellow 的 NIPS 2016 指導手冊(https://arxiv.org/abs/1701.00160)。
他引入的架構,生成對抗網路(GAN),現在在研究領域特別熱門,因為它們為無監督學習提供了一條道路。
對於 GAN,有兩個神經網路:
- 一個生成器,它將隨機雜訊作為輸入,負責合成內容(例如:一個圖像);
- 一個鑒別器,它了解了真實圖像的樣子,並負責識別生成器生成的圖像是真實的還是偽造的。
對抗訓練可以被認為是一種遊戲,其中生成器必須迭代地學習如何從雜訊創建圖像,使得鑒別器不再能夠將生成的圖像與真實的圖像區分開。該框架正在擴展到許多數據模式和任務。
- 應用範圍:模擬時間序列的可能未來(例如:用於強化學習中的規劃任務);超解析度圖像;從 2D 圖像重建 3D 結構; 從小標記數據集推廣;一個輸入可以產生多個正確輸出的任務(例如:預測視頻 0 中的下一幀;在會話界面中運用自然語言處理(例如:機器人);加密;當不是所有標籤都可用時運用半監督學習;藝術風格轉移;合成音樂和聲音;圖像修復。
- 代表公司:Twitter Cortex,Adobe,Apple,Prisma,Jukedeck*,Creative.ai,Gluru*,Mapillary*,Unbabel。
- 頂尖專家:Ian Goodfellow (OpenAI),Yann LeCun and Soumith Chintala (Facebook AI Research),Shakir Mohamed and Aäron van den Oord (Google DeepMind),Alyosha Efros (Berkeley) and 其他的專家。
3、記憶網路
為了讓 AI 系統像我們一樣在不同的環境中都能得到適用,他們必須能夠不斷學習新任務並記住如何在未來完成所有任務。然而,傳統的神經網路通常不能進行這種連續的任務學習,這個缺點被稱為災難性遺忘。
之所以出現這種情況,是因為當網路隨後經過訓練以解決任務 B 時,網路中對於任務 A 來說很重要的權重會發生變化。
然而,有幾種強大的架構可以賦予神經網路不同程度的記憶性。這些包括能夠處理和預測時間序列的長短期記憶網路(遞歸神經網路的一種變體),DeepMind 的可微分神經計算機,它結合了神經網路和記憶系統,以便自己學習和導航複雜的數據結構,彈性權重合併演算法。根據它們對先前看到的任務的重要程度,減慢對某些權重的學習,以及學習特定任務的模型之間的橫向連接的漸進式神經網路,以從先前學習的網路中為新任務提取有用的特徵。
- 應用範圍:可以推廣到新環境的學習智能體;機器人手臂控制系統;自動駕駛汽車;時間序列預測(例如:金融市場、視頻、物聯網);自然語言處理和下一步預測。
- 代表公司:Google DeepMind,NNaisense,SwiftKey/Microsoft Research,Facebook AI Research。
- 頂尖專家:Alex Graves,Raia Hadsell,Koray Kavukcuoglu(Google DeepMind),Jürgen Schmidhuber(IDSIA),Geoffrey Hinton(Google Brain/Toronto),James Weston,Sumit Chopra,Antoine Bordes(FAIR)。
4、從較少數據學習並構建更小的模型
深度學習模型值得注意的是需要大量的訓練數據,才能達到最先進的性能。例如:ImageNet 大規模視覺識別挑戰賽中,每支隊伍需要挑戰他們的圖像識別模型,包含 120 萬個手工標記 1000 個對象類別的訓練圖像。
如果沒有大規模的訓練數據,深度學習模型將無法收斂於其最佳設置,並且在語音識別或機器翻譯等複雜任務上表現不佳。只有當單個神經網路用於端到端解決問題時,此數據要求才會增長。也就是說,將語音的原始錄音作為輸入並輸出語音的文本轉錄。
這與使用多個網路形成對比,每個網路各自提供中間表示(例如:原始語音音頻輸入→音位→單詞→文本轉錄輸出,或來自直接映射到轉向命令的相機的原始圖像)。如果我們希望 AI 系統能夠解決訓練數據特別具有挑戰性、成本高、敏感或耗時的任務,那麼開發能夠從較少的樣本(即一次或零次學習)學習最佳解決方案的模型非常重要。
在對小型數據集進行培訓時,難點包括過度擬合,處理異常值的困難,訓練和測試之間數據分佈的差異。另一種方法是通過使用統稱為遷移學習的過程來遷移從先前任務獲得的機器學習模型的知識來改進新任務的學習。
一個相關的問題是使用類似數量或明顯更少的參數,構建具有最先進性能的較小的深度學習架構。優點包括更高效的分散式培訓,因為數據需要在伺服器之間進行通信,將新模型從雲端導出到外圍設備的帶寬更少,以及部署到內存有限的硬體的可行性得到提高。
- 應用範圍:通過學習模擬最初訓練大型標記訓練數據的深層網路的性能,來訓練淺層網路;具有較少參數但與深度模型具有相同性能的架構(例如:SqueezeNet);機器翻譯。
- 代表企業:Geometric Intelligence/Uber,DeepScale.ai,Microsoft Research,Curious AI Company,Google,Bloomsbury AI。
- 頂尖專家:Zoubin Ghahramani(Cambridge),Yoshua Bengio(Montreal),Josh Tenenbaum(MIT),Brendan Lake(NYU),Oriol Vinyals(Google DeepMind),Sebastian Riedel(UCL)。
原標題:6 areas of AI and machine learning to watch closely
作者:Nathan Benaich。
翻譯:Lamaric
校對:老周
整理:凡江
來源:https://www.leiphone.com/news/201809/vGv3vhFjoLJs5Qba.html
本文來源於人人都是產品經理合作媒體@雷鋒網,作者@雷鋒字幕組
題圖來自Unsplash,基於CC0協議