《人工智能AI之计算机视觉:从像素到智能》 · 模块三:核心感知(下)——动态、3D与生成(模型进阶) · 第 12 篇
视觉SLAM与AR:机器的“空间导航”与“虚实融合”
你好,我是你的老朋友。
上一篇我们聊了 3D 重建,学会了如何把几张照片还原成一个静态的三维模型。今天,我们要让这个技能“动”起来。
在开始硬核技术之前,咱们先聊个家里常见的“笨家伙”。 你家里的扫地机器人,是不是总喜欢在那种四条腿的餐桌下面“思考人生”?转过来、撞上去,转过去、又撞上去,仿佛陷入了某种死循环。 再或者,你玩过手机上的 AR 游戏(比如《Pokémon GO》宝可梦GO)吗?在皮卡丘出现之前,游戏总提示让你拿着手机对着地面左右晃动几秒钟。你有没有纳闷过:它到底在晃什么?
这两个看似风马牛不相及的场景,背后其实困扰着同一个“元问题”:一个机器(无论是机器人还是手机),在一个完全陌生、没有 GPS 信号的环境里,它是怎么知道“自己在哪”,又是怎么知道“周围有什么”的?
解决这个问题的技术,就是今天的主角——SLAM。它是机器人的“小脑”,也是 AR(增强现实)的“基石”。今天,我就带你拆解这个让机器拥有“空间感”的幕后功臣。
从“路痴”到“活地图”
一、 破除直觉误区:机器的“盲人摸象”游戏
咱们先打破一个认知误区。
很多人以为,机器人能自动走路,是因为它“看见”了路。