vivo|天玑9200+自研芯片V2,vivo下代“双芯影像”解析( 二 )



当然 , 对于旗舰机型来说 , 光注重“性能”和“帧率”显然是不够的 , 还需要关怀用户的健康使用情况 。 为此 , vivo与联发科共同开发了基于天玑9200的智能降蓝光技术 , 通过硬件级别的算法实现了实时侦测和自动降低屏幕蓝光占比 , 并通过了SGS的智能低蓝光认证 。

最后 , 对于商务人士的出行需求 , vivo还与联发科合作开发了“AI机场模式” , 可以自动感知用户进入机场 , 以及飞机的起飞降落瞬间 , 再结合搜网AI引擎自动识别目的地来调控搜网策略 。 如此一来 , 手机既能够在飞行过程中自动暂停搜网 , 起到省电和降低干扰的作用 , 同时在飞机落地后 , 最快仅需1.52秒就能重新连上网络 , 比应用“AI机场模式”前足足快了79%之多 。
自研芯片V2登场 , 这一次不只是影像
就在今天的这场活动中 , vivo还端出了他们的新一代自研芯片V2 。
有些朋友可能已经注意到了 , vivo此次并没有用“影像芯片”来称呼V2 , 而仅仅称其为“自研芯片V2” 。 这是因为V2这颗芯片从硬件架构上来说 , 就已经不只是为影像服务了 。

让我们来看看官方公布的V2架构图 。 可以看到 , V2这一次一共包含了三大自研功能单元 , 分别是vivo自研的图像处理单元(ISP)、vivo自研的AI计算单元(NPU)、以及vivo自研的片上内存单元(SRAM) 。

首先针对AI计算场景 , vivo此次研发了FIT(Frame Info Tunneling)双芯互联技术 。 它可以将手机日常遇到的AI计算任务进行算法模块拆分 , 让算力密度小、但结构复杂的小模型在天玑9200上运行 , 充分发挥SoC的异构优势;而算力密度大、数据吞吐量大 , 但结构简单的大模型则在V2上运行 , 以利用其超高的能效比与吞吐量优势 。

其次 , 针对影像、特别是视频处理的需求 , V2首次加入了近存DLA(深度学习加速器)组件 。 它采用全硬化MAC设计 , 同时拥有配套的、等效容量高达45MB、带宽高达1.3Gbps的片上SRAM缓存 。 与传统的NPU相比 , 近存DLA的内存延迟要小得多 , 同时它的计算架构也是专为8bit、10bit两种拍照和视频里最常用的数据格式设计 , 所以能够做到近乎100%的硬件利用率 , 从而大幅提升效率 , 同时也变相降低了能耗 。

不仅如此 , 在FIT互联技术的加持下 , V2内置的ISP单元、DLA单元以及天玑9200内置的ISP单元和NPU单元 , 在处理拍照、视频拍摄时可实现“四单元联动工作” , 更大程度地提升处理速度 , 从而实现诸如4K、60帧逐帧AI视频处理这类 , 以往完全是可望而不可即的高效AI影像算法 。
更多影像技术登场 , 补齐短板、更加专业
在今天的这场活动最后 , vivo方面还简单预告了即将在下一代双芯影像旗舰机型中采用的影像算法方案 。
首先 , vivo专门提及了全新的长焦解决方案 。 其包含两个主要组成部分 , 一是“超清画质引擎”、二是“Ultra Zoom EIS”技术 。

“超清画质引擎”所解决的 , 主要是长焦放大倍率提高后的画面模糊问题 。 其充分利用了前文中提及的V2芯片与AI-ISP结构 , 通过AI驱动的Denoise降噪、Demosaic细节恢复、Deblur去模糊三大算法模块 , 高效地实现大变焦倍率下的AI图像增强能力 。

不仅如此 , “超清画质引擎”还包括一个很特别的组件 , 那就是来自蔡司的“光学超分算法” 。 这是一种直接基于蔡司镜头数据的补偿、还原算法 , 可以修正每个镜头的光学缺陷 , 实现光学信息的“算法补偿” 。 根据官方公布的测试数据显示 , 在蔡司光学超分算法的加持下 , 可恢复5倍以上焦段约35%的清晰度信息 。