东京工业大学开发可以预测 0.5 秒后的动作的“FuturePose”AI 系统

2019年4月26日 5:20 发表评论 阅读评论

东京工业大学的研究团队稍早发表了一套仅用一般 RGB 影片,就能预测画面中人物未来动向的“FuturePose”系统。过去有过类似的预测系统相关的研究,但使用的是本身就自带深度资讯的 Kinect,而东工大这边则是完全靠着画面本身画素的流向,先透过机器学习与 AI 来定位关节,再由定位出来的关节和摆动方向,去推断 3D 环境中的位置,整个过程简直神奇。东京工业大学开发可以预测 0.5 秒后的动作的“FuturePose”AI 系统

靠着 AI 的推断,这套 FuturePose 系统可以大约猜出人类 0.5 秒后的位置,颇有一点小说或漫画里那种“你的行动已经被我看穿啦”的…东京工业大学开发可以预测 0.5 秒后的动作的“FuturePose”AI 系统

本文链接 : 东京工业大学开发可以预测 0.5 秒后的动作的“FuturePose”AI 系统,转载请保留链接

如果你喜欢本文,那么请订阅最新文章,或者收藏本站。当前订阅数 现在订阅最新数码资讯的人数
分类: 酷炫数码 标签:
  1. 还没有评论,欢迎您发表评论