• <dl id="nfvqa"><xmp id="nfvqa"><dl id="nfvqa"></dl>

    • <ruby id="nfvqa"><output id="nfvqa"></output></ruby>
    • <noscript id="nfvqa"></noscript>

    • <abbr id="nfvqa"><noframes id="nfvqa">
    • 故事詞典 精品故事閱讀鑒賞

      加入收藏

      您所在的位置:首頁 > 資訊 > 最新資訊

      最新資訊故事

      你追我趕!英偉達、Meta同日宣布機器人重磅成果

      分類: 最新資訊 故事詞典 編輯 : 故事大全 發(fā)布 : 11-10

      閱讀 :573

      《科創(chuàng)板日報》10月21日訊(編輯 宋子喬) 如今,科技巨頭主動肩負起機器人研發(fā)的重任,正你追我趕奔赴下一場科技盛宴。當?shù)貢r間10月20日,英偉達、Meta各自發(fā)布了重磅機器人訓練工具。英偉達開發(fā)的AI代理Eureka可以教會機器人復雜的運動控制技能,比如轉筆、打開抽屜和柜子、拋球和接球、操作剪刀。英偉達稱這一突破將重新定義機器學習。Meta則推出了Habitat 3.0模擬器,可教授機器人如何與物理世界進行交互,Meta將其稱為“社交智能機器人研發(fā)路上的里程碑”。究竟是什么樣的工具?新成果的意義何在?▌英偉達Eureka——大模型參與訓練機器人Eureka的全稱是Evolution-driven Universal Reward Kit for Agent,本質是一種由大模型驅動的算法生成工具。借助GPT-4寫代碼的能力,Eureka擁有了出色的獎勵函數(shù)設計能力,可以自主編寫獎勵算法來訓練機器人。Eureka的關鍵所在,是通過上下文來實現(xiàn)了人類水平的獎勵算法設計。簡單來說,就是用GPT-4的零樣本生成、代碼編寫以及上下文改進功能,對獎勵執(zhí)行策略進行優(yōu)化,由此通過強化學習來進行復雜的技能。英偉達稱,在29種不同的開源強化學習(RL)環(huán)境中,Eureka獎勵設計的性能達到了人類水平,這些環(huán)境包括10種不同的機器人形態(tài)(四足機器人、四旋翼機器人、雙足機器人、機械手以及幾種靈巧手)。在沒有任何特定任務提示或獎勵模板的情況下,Eureka生成的獎勵程序在超過80%的任務上優(yōu)于專家編寫的獎勵程序。這使得機器人的平均性能提高了50%以上。機器人通過Eureka學會了轉筆、打開柜子、拋接球(注:這些機械手指上下翻飛的場景,暫時僅限于虛擬環(huán)境)人形機器人通過Eureka學習跑步步態(tài)英偉達這項研究由其與賓夕法尼亞大學、加州理工學院、德州大學奧斯汀分校的研究人員合作完成。目前該項目完全開源。在機器人領域,有一個“莫拉維克悖論”——人類所獨有的高階智慧能力只需要非常少的計算能力,但無意識的技能和直覺(如辨識人臉、舉起鉛筆、在房間內走動、回答問題等能力)卻需要極大的運算能力,即越簡單的事情越難,越難的事情越簡單。這也是為什么人類早已創(chuàng)造出打敗世界頂級棋手的AlphaGo,卻仍不能讓機器人擁有像兩三歲小孩一樣的感知力和行動力。英偉達的最新成果展示了大模型在機器人精細化控制方面的作用,在英偉達的推動下,更智能的機器學習方式有望被迅速引入工業(yè)和消費應用領域。▌Meta Habitat——人機交互直指具身智能Meta的Habitat同樣為訓練機器人而生。據(jù)介紹,Habitat 3.0是第一個支持在多樣化、逼真的室內環(huán)境中,就人機交互任務進行大規(guī)模訓練的模擬器。具體來看,Habitat 3.0可以利用紅外捕捉系統(tǒng)精心構建一個虛擬環(huán)境,如辦公空間、住宅和倉庫等,其中物體的形狀和大小完全復制現(xiàn)實世界,該工具還可在外貌和姿勢上對人類進行真實的模擬,支持從簡單(如行走和揮手)到復雜(如與物體交互)等各種類型的動作,還可模擬多種真實的社交場景。虛擬環(huán)境中的人形化身既可由學習到的策略控制,也可由真人通過鍵盤、鼠標以及VR頭顯等進行控制。網(wǎng)上已經有人期待在Meta Quest VR中體驗Habitat 3.0了。Meta的目的很明確——通過Habitat 3.0,讓AI智能體在真實世界和人類互動。值得注意的是,與真實世界進行交互正是實現(xiàn)具身智能的基礎,正如Meta的AI研究部門(FAIR)所說,Habitat 3.0等新產品的發(fā)布代表了他們在具身智能方面的進步。FAIR表示,Habitat 3.0將把機器人AI代理的學習時間從幾個月甚至幾年縮短到幾天。它還能在安全的模擬環(huán)境中更快速地測試新模型,不會有任何風險。在推出Habitat 3.0的同時,Meta還宣布發(fā)布Habitat合成場景數(shù)據(jù)集(Habitat Synthetic Scenes Dataset),這是一個由藝術家撰寫的三維數(shù)據(jù)集,可用于訓練人工智能導航代理;同時還發(fā)布了Home Robot,這是一個機器人助手軟硬件平臺,可在模擬和真實環(huán)境中使用。英偉達深耕運動控制,Meta注重交互能力,這兩大能力正是機器人進入千家萬戶的前提。華為“天才少年”稚暉君離開華為后奔赴機器人創(chuàng)業(yè),他曾在其機器人產品首秀上引用一個網(wǎng)絡段子:我們想讓AI做的事,是做飯、打掃房間、洗衣服、扔垃圾,然而它們實際在做的事,是聊天、繪畫、寫作、作曲、打游戲……工業(yè)機器人已經愈發(fā)普及的當下,如何讓機器人成為普通家庭的助手、日常生活中的伙伴,已經成為新的科技熱點。一個包攬家務活、零碎事的家用機器人,距離我們還有多遠呢?

      下一篇:OpenAI向ChatGPT付費用戶開放DALLE3訪問權限 下一篇 【方向鍵 ( → )下一篇】

      上一篇:疾控專家支招!教您應對兒童秋季過敏 上一篇 【方向鍵 ( ← )上一篇】

      一本色道久久综合狠狠躁篇 | 久久受www免费人成_看片中文| 精品国产婷婷久久久| 久久久久久青草大香综合精品| 亚洲日韩欧美一区久久久久我| 久久久久高潮综合影院| 热re99久久精品国产99热| 一级A毛片免费观看久久精品| 日韩AV无码久久一区二区| 国内精品久久久久久不卡影院 | 伊人久久精品线影院| 久久午夜福利无码1000合集| 久久九九有精品国产23百花影院| 久久99热这里只频精品6| 久久婷婷综合中文字幕| 欧美喷潮久久久XXXXx| 人妻中文久久久久| 久久精品国产久精国产思思| 大香伊人久久精品一区二区| 精品亚洲综合久久中文字幕| 狠狠色婷婷久久一区二区| 久久高清一级毛片| 麻豆精品久久精品色综合| 伊人久久大香线蕉av一区| 日本精品久久久久久久久免费| 国内精品久久久久久99蜜桃| 人妻无码αv中文字幕久久琪琪布| 久久久久国产成人精品亚洲午夜| 国产99久久精品一区二区| 97精品依人久久久大香线蕉97| 亚洲国产视频久久| 久久久久亚洲AV无码专区网站| 国内精品久久久久久麻豆| 美女写真久久影院| 久久青青草原国产精品免费| 久久精品这里热有精品| 99久久精品国产毛片| 国产91久久综合| 久久中文精品无码中文字幕| 久久精品中文字幕一区| 日日狠狠久久偷偷色综合0|