AI熱點:深度強化學(xué)習
深度強化學(xué)習(DRL)是人工智能研究領(lǐng)域的一個令人興奮的領(lǐng)域,具有潛在的問題領(lǐng)域的適用性。有些人認為DRL是人工智能的一種途徑,因為它通過探索和接收來自環(huán)境的反饋來反映人類的學(xué)習。最近DRL代理的成功打敗了人類的視頻游戲玩家,廣為人知的圍棋大師被人工智能AlphaGo擊敗,以及在模擬中學(xué)習行走的兩足球員的演示,都讓人們對這個領(lǐng)域產(chǎn)生了普遍的熱情。
與監(jiān)督機器學(xué)習不同,在強化學(xué)習中,研究人員通過讓一個代理與環(huán)境交互來訓(xùn)練模型。當代理的行為產(chǎn)生期望的結(jié)果時,它得到正反饋。例如,代理人獲得一個點數(shù)或贏得一場比賽的獎勵。簡單地說,研究人員加強了代理人的良好行為。
將DRL應(yīng)用于非平凡問題的關(guān)鍵挑戰(zhàn)之一是構(gòu)建一個獎勵功能,它鼓勵人們期望的行為而不會產(chǎn)生不良的副作用。當你犯錯時,會發(fā)生各種各樣的壞事,包括欺騙行為。(想想獎勵一個機器人服務(wù)員,在一些視覺上測量房間的清潔程度,只是教機器人打掃家具下面的污垢。)
值得注意的是,深度強化學(xué)習——“deep”指的是底層模型是一個深層的神經(jīng)網(wǎng)絡(luò)——仍然是一個相對較新的領(lǐng)域,強化學(xué)習從20世紀70年代或更早的時候就開始了,這取決于你如何計算。正如Andrej Karpathy在他2016年的博客文章中所指出的,關(guān)鍵的DRL研究,如AlphaGo論文和Atari Deep Q-Learning paper都是基于已經(jīng)存在了一段時間的算法,但是用深度學(xué)習代替了其他方法來近似函數(shù)。他們對深度學(xué)習的使用,當然是在過去20多年里我們看到的廉價計算能力的爆發(fā)。
DRL的承諾,以及谷歌在2014年以5億美元收購DeepMind的承諾,影響了一些希望利用這項技術(shù)的初創(chuàng)公司。本周,我采訪了Bonsai的創(chuàng)始人Mark Hammondfor。該公司提供了一個開發(fā)平臺,用于將深度強化學(xué)習應(yīng)用于各種工業(yè)用例。我還與加州大學(xué)伯克利分校的Pieter Abbeelon討論了這個話題。從那以后,他創(chuàng)立了“實體智能”公司,這是一家依然隱秘的初創(chuàng)公司,打算將VR和DRL應(yīng)用于機器人技術(shù)。
由楊致遠(Jerry Yang)、彼得?蒂爾(Peter Thiel)、肖恩?帕克(Sean Parker)以及其他知名投資者支持的Osaro,也希望在工業(yè)領(lǐng)域應(yīng)用DRL。與此同時,人工智能正在尋找最佳的傳統(tǒng)對沖基金,并將其應(yīng)用于算法交易,而DeepVu正在應(yīng)對管理復(fù)雜企業(yè)供應(yīng)鏈的挑戰(zhàn)。
由于對DRL的興趣增加,我們也看到了新的開源工具包和用于培訓(xùn)DRL代理的環(huán)境。這些框架中的大多數(shù)本質(zhì)上都是專用的仿真工具或接口。這些是目前AI中比較流行的工具:
OpenAI Gym
OpenAI gym是一個流行的開發(fā)和比較增強學(xué)習模型的工具箱。它的模擬器界面支持多種環(huán)境,包括經(jīng)典的Atari游戲,以及像MuJoCo和darpa資助的Gazebo這樣的機器人和物理模擬器。和其他DRL工具包一樣,它提供了api來反饋意見和回報給代理。
DeepMind Lab
DeepMind Labis是一個基于Quake III第一人稱射擊游戲的3D學(xué)習環(huán)境,為學(xué)習代理提供導(dǎo)航和解謎任務(wù)。DeepMind最近添加了dmlab30,一個新級別的集合,并介紹了它的newImpaladistributed agent培訓(xùn)體系結(jié)構(gòu)。
Psychlab
另一個DeepMind工具包,今年早些時候開放源代碼,心理實驗室擴展DeepMind實驗室,以支持認知心理學(xué)實驗,如搜索特定目標的一系列項目或檢測一系列項目中的變化。然后,研究人員可以比較人類和人工智能在這些任務(wù)上的表現(xiàn)。
House3D
加州大學(xué)伯克利分校和Facebook人工智能研究人員之間的合作,在45000個模擬室內(nèi)場景中模擬室內(nèi)場景和家具布局。本文介紹的主要任務(wù)是“概念驅(qū)動的導(dǎo)航”,比如訓(xùn)練一個代理導(dǎo)航到一所房子的房間,只提供一個高級的描述符,比如“餐廳”。
Unity Machine Learning Agents
在AI和MLDanny Lange副總裁的領(lǐng)導(dǎo)下,游戲引擎開發(fā)者Unity正在努力將尖端的人工智能技術(shù)融入其平臺。Unity Machine Learning Agents,于2017年9月發(fā)布,是一個開源Unity插件,可以在平臺上運行游戲和模擬,作為訓(xùn)練智能代理的環(huán)境。
Ray
雖然這里列出的其他工具集中于DRL培訓(xùn)環(huán)境,但Ray更關(guān)注DRL的基礎(chǔ)結(jié)構(gòu)。Ray是在Berkeley RISELab開發(fā)的byIon Stoicaand他的團隊,它是高效運行集群和大型多核機器上的Python代碼的框架,具體目標是為增強學(xué)習提供一個低延遲的分布式執(zhí)行框架。
所有這些工具和平臺的出現(xiàn)將使DRL更易于開發(fā)人員和研究人員使用。但是,他們需要所有的幫助,因為深度強化學(xué)習在實踐中是很有挑戰(zhàn)性的。谷歌工程師亞歷克斯·伊爾潘最近發(fā)表了一篇頗具煽動性的文章,題為“深度強化學(xué)習還不起作用”。Irpan引用了DRL所需要的大量數(shù)據(jù),事實上,DRL的大多數(shù)方法都沒有利用之前關(guān)于系統(tǒng)和環(huán)境的知識,以及前面提到的困難,在其他問題中也有一個有效的獎勵功能。
我希望在未來的一段時間內(nèi),從研究和應(yīng)用的角度來看,深度強化學(xué)習將繼續(xù)成為人工智能領(lǐng)域的熱門話題。它在處理復(fù)雜、多面和順序的決策問題方面表現(xiàn)出了極大的希望,這使得它不僅對工業(yè)系統(tǒng)和游戲有用,而且對市場、廣告、金融、教育、甚至數(shù)據(jù)科學(xué)本身也有很大的用處。

請輸入評論內(nèi)容...
請輸入評論/評論長度6~500個字
最新活動更多
推薦專題
- 1 AI 眼鏡讓百萬 APP「集體失業(yè)」?
- 2 大廠紛紛入局,百度、阿里、字節(jié)搶奪Agent話語權(quán)
- 3 深度報告|中國AI產(chǎn)業(yè)正在崛起成全球力量,市場潛力和關(guān)鍵挑戰(zhàn)有哪些?
- 4 上海跑出80億超級獨角獸:獲上市公司戰(zhàn)投,干人形機器人
- 5 國家數(shù)據(jù)局局長劉烈宏調(diào)研格創(chuàng)東智
- 6 下一代入口之戰(zhàn):大廠為何紛紛押注智能體?
- 7 百億AI芯片訂單,瘋狂傾銷中東?
- 8 Robotaxi新消息密集釋放,量產(chǎn)元年誰在領(lǐng)跑?
- 9 一文看懂視覺語言動作模型(VLA)及其應(yīng)用
- 10 格斗大賽出圈!人形機器人致命短板曝光:頭腦過于簡單