セミナー講演と解説論文執筆の機会を頂きました.関係各位に感謝します. コンピュータビジョン (CV), コンピュータグラフィクス (CG), ロボティクスなどで,特に姿勢推定や姿勢制御などを扱う際にリー群,リー代数の知識が必要になることがある. 具体的には,論文などを読んでいると,回転行列,剛体変換行列,射影変換行列などを表す際に当たり前のように行列指数関数が出てきて,何が何だかわからない (AA略),ということがしばしば起きる.これを何とか理解したい. いくつか例を挙げると The matrix $E_\mathcal{CW}$ contains a rotation and a translation component and is a member of the Lie group $SE(3)$, the set of 3D rigid-body transformations.
スタンフォード大学など、単眼カメラから人の動きと物体との相互作用における因果関係を学習する機械学習モデルを発表。行動予測に活用など 2019-02-21 スタンフォード大学やUberATGなどによる研究チームは、単眼カメラから人の動きと物体との相互作用における因果関係を学習する機械学習モデルを発表しました。 論文:Learning a Generative Model for Multi-Step Human-Object Interactions from Videos 著者:He Wang, Sören Pirk, Ersin Yumer, Vladimir G. Kim, Ozan Sener, Srinath Sridhar, Leonidas J. Guibas 所属:Stanford University, Uber ATG, Adobe Research, Intel La
深セン大学ら、RGB-Dカメラ搭載の移動式ロボットに未知の屋内を自律走行させる方法を論文にて発表。リアルタイム更新するテンソル場からロボットの動きを導く 2017-10-31 深セン大学や国防科学技術大学などの研究者らは、RGB-Dカメラを取り付けた移動式ロボットを初めての屋内シーンで自律的に走行させる方法を提示した論文を発表しました。 Autonomous Reconstruction of Unknown Indoor Scenes Guided by Time-varying Tensor Fields 本稿では、移動式ロボットにRGB-Dカメラを取り付け、未知の屋内を連続的にスキャニングしオンライン再構成、自律的に走査させるナビゲーション手法を提案します。 提案では、RGB-Dカメラからデータを取得し、漸進的に再構成した3Dシーンジオメトリを床面に投影、2Dテンソル場を計算すること
Not too long ago, the availability of low cost depth sensors, suitable for mobile robot auto-navigation and SLAM mapping, had become a problem. Apple bought Primesense, and along with it the intellectual property behind the original Microsoft Kinect and Asus Xtion sensors. The excellent Asus Xtion RGBD camera, which was to be the main SLAM sensor for Oculus Prime, was discontinued. The Kinect 1 wa
This video is part of “Escaping from Children’s Abuse of Social Robots,” by Dražen Brščić, Hiroyuki Kidokoro, Yoshitaka Suehiro, and Takayuki Kanda from ATR Intelligent Robotics and Communication Laboratories and Osaka University, and “Why Do Children Abuse Robots?”, by Tatsuya Nomura, Takayuki Uratani, Kazutaka Matsumoto, Takayuki Kanda, Hiroyoshi Kidokoro, Yoshitaka Suehiro, and Sachie Yamad
While general object recognition is still far from being solved, this paper proposes a way for a robot to recognize every object at an almost human-level accuracy. Our key observation is that many robots will stay in a relatively closed environment (e.g. a house or an office). By constraining a robot to stay in a limited territory, we can ensure that the robot has seen most objects before and the
リリース、障害情報などのサービスのお知らせ
最新の人気エントリーの配信
処理を実行中です
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く