杜克大學:機器人將真正擁有3D視覺
為了讓機器人能夠勝任更復雜的工作,機器人不但要有更好的控制系統(tǒng),還需要能更多地感知環(huán)境的變化。如今的機器人可以深入核電站進行調查、清理海洋石油泄漏、組建無人軍隊、探索火星表面……但神通廣大的它們甚至無法像人類一樣簡單地喝一口茶。 ![]() 左側為提供的3D模型,右側為實際3D模型,中間為機器人預測模型 今年5月,AlphaGo與柯潔對弈時曾在己方一側起手落子,這違反了對弈的禮儀,引發(fā)了激烈爭論。事后據(jù)DeepMind工作人員解釋,計算機無法分清上下左右,那只是無心之失。即使聰明如AlphaGo,它也分不清2D圖像的方位,對于其他機器人來說,擁有能感知到水壺、方糖、牛奶的能力,更是遙不可及。 當人類從一個特定角度看物體時,他們往往能直觀地知道它是什么,甚至可以立即繪出物體的俯視圖、正視圖、側視圖,這里有一種“想象”(聯(lián)系經(jīng)驗)的能力。不同于人眼,機器人利用傳感器和相機,能輕易捕捉到物體的圖像,甚至是3D圖像,但在只有一個角度圖像的情況下,機器人是無法一眼判斷出物體的原型的,這還是目前機器視覺研究的一個難點。 在7月12日召開的“2017機器人:科技和系統(tǒng)大會”上,杜克大學的研究生本·比奇費爾(Ben Burchfiel)和布朗大學教授George Konidaris展示了他們的科研新成果——一種針對機器3D視覺的算法。根據(jù)這個算法,機器人能在只看到物體的一面,甚至是一部分的情況下,準確地推測出它的3D模型。 研究人員選取一些常見的家居物品進行了4000次完整的3D掃描。掃描獲得的3D圖像被切割成一個個體素,像樂高積木一樣堆疊在一起。該算法通過梳理每個對象的示例,并使用一種名為“概率主成分分析”的技術了解它們的變化以及它們如何保持不變。舉個例子,就是當機器人觀察一張床時,它只需根據(jù)特征體素比對就能知道面前的物品是床,而不必從各個方向搜集圖像構建完整模型。 |