ar眼镜|效仿Project Aria,谷歌将在公共场所测试AR眼镜原型机

ar眼镜|效仿Project Aria,谷歌将在公共场所测试AR眼镜原型机

文章图片

ar眼镜|效仿Project Aria,谷歌将在公共场所测试AR眼镜原型机

谷歌产品经理Juston Payne今天发布博客表示 , 将针对谷歌AR眼镜展开更有效、更有落地价值的测试项目 。
就在不久前的IO开发者大会上 , 谷歌公布了AR眼镜原型 , 并演示了一个实时转录和翻译的系统 。



今天Juston Payne表示 , 这是一个早期的AR眼镜原型 。 而且仅在实验室环境测试条件相当有限 。 为此 , 谷歌将在下个月开始 , 在真实世界中(公共场所)测试AR原型 。

  • 测试设备:谷歌AR眼镜原型
  • 硬件功能:内置AR演示、麦克风、摄像头(工作期间外部LED会亮起);
  • 软件功能:不能拍照和录视频 , 但视频数据会被系统使用;
  • 测试地点:美国部分地区;
  • 测试规模:几十名 , 仅员工和受信任的测试员;
  • 数据存储:图像信息在完成后删除 , 图像内识别出的数据保存30天 , 之后自动删除;
目的就是 , 要了解AR眼镜在日常生活中到底能提供哪些帮助 , 例如基于AR眼镜的导航系统 , 需要根据复杂的路况和天气做判断 , 这在实验室内基本不能完成 。
据悉 , 在公共场所谷歌将有几十名员工佩戴AR眼镜原型机 , 进行小规模测试 。 并且重点强调 , 这些测试员都必须经过设备、协议、隐私和安全培训 , 也是挑选过的、值得信赖的 。
谷歌明确 , 测试期间的AR眼镜原型具备:显示模组、麦克风、摄像头 。 但是部分功能使用将受限 , 例如不支持摄影和拍照 , 但图像数据会被利用到如翻译菜单 , 或者识别环境进行导航等 。
第一人称数据集的重要性我们经常再谈 , AR眼镜的杀手级应用是什么 。 其实 , 包括科技巨头都在探索之中 , 而探索的背景就是基于第一人称视频数据展开研究 。
简单来说 , 谷歌这一测试基本上就是效仿Meta的Project Aria测试项目 。 据青亭网了解 , Project Aria项目最早于2020年开始测试并收集数据 。
早期让部分员工在公司和家庭佩戴收集数据 , 后期逐渐开放给代理商 , 或者有偿的测试员等 。 测试地区也从美国 , 到英国、新加坡等 , 累计到6月份共有超过3000人参与测试 , 规格可谓是足够庞大 。

Meta测试员着装
可能是考虑到是当地法律限制 , Meta在伦敦收集数据集时要求员工穿着醒目的工作服 , 以此提醒周围观众 。 当然 , 拍摄的视频自动模糊人脸等信息 。
不仅如此 , Meta在6月份还将部分在美国拍摄的Project Aria第一人称数据集进行开源 , 目的就是面向AI、ML科研人员 , 推动第一人称计算机视觉、场景感知、AI、ML算法的发展 。
该数据集名为Project Aria Pilot , 包含了159段第一人称视频 , 累计时长7小时 , 分别拍摄于每个5个地点 , 包含各种日常生活场景 , 比如洗碗、开门、做饭、在客厅使用手机、玩游戏、锻炼等等 。 详细阅读:《Meta开放Project Aria Pilot数据集 , 未来将开发实时3D地图》
从Meta Quest 2上我们已经看到 , VR技术的发展中计算机视觉已经成为重要组成部分 , 从最初SLAM定位追踪 , 光学手柄追踪 , 到后续的手势追踪 , 桌面和沙发追踪等 。 而在AR/MR场景中更是如此 , 对于第一人称视觉数据的收集、场景感知已经展开 。
谷歌AR眼镜原型测试细节1 , 测试地点
当时Meta测试环境是办公室、被允许的住宅等私人场所 , 而公共场所列出了部分明确禁止的场所 , 例如泳池、更衣室 。