计算创意学系列(三):组合性创造力的计算实现( 五 )


近几年深度学习的爆火 , 将一个不一样的“特征”概念摆在了世人面前 。
深度学习是机器学习的一个分支 , 像大多数机器学习方法那样 , 用一个数学统计模型去拟合给定的训练数据中的输入-输出关系 。 深度学习的特点在于使用一种叫作深度神经网络(DeepNeuralNetwork)的特殊统计模型 , 是由多层的“神经元”计算模块组成的复杂数学计算函数 , 包含了数量庞大的参数用于拟合数据 。 与传统的机器学习不同 , 深度学习不仅要用统计模型去“学习”输入中的特征和输出中的特征之间的关系 , 还要“学习”这些特征本身 。 也就是说 , 深度学习的输入往往是原始对象的数据表示(比如一张图片 , 一段文字) , 一个深度神经网络要首先从原始对象中提取出对计算任务有用的特征 , 才能去完成计算任务 。 而能够自动发现特征 , 避免了手工去设计特征的编码表示 , 也正是深度学习优于传统的机器学习很重要的一点 。
深度神经网络是一种统计模型 , 本质上是一个数学函数 , 对高维空间中的向量和矩阵进行运算 。 因此深度神经网络能够“学习”到的特征 , 也自然是表示为高维空间中的向量或矩阵 。
于是人们发现 , 一个“特征”可能不是任何能用现有的语言简单优雅地描述出来的属性(比如“长着角”或者“会飞”) , 而可能是某个向量空间(EmbeddingSpace)中一个很难找出意义的坐标 , 通常代表了我们能够理解的那种“特征”的意味不明的线性或非线性的组合 。 尽管人类很难理解这些特征 , 但至少从深度神经网络的种种成功应用来看 , 基于这些特征所进行的思考是有可能导出现实世界中合理的(人类能够理解的)结论的 。
于是一个自然的问题就是 , 如果人脑中的那些“特征”能够进行概念整合 , 使用这些向量空间进行思考的深度神经网络是不是也能整合它们脑子里的那些“特征”?
答案是肯定的 , 从这种视角来看 , 谷歌著名的DeepDream , 以及2015年由LAGatys等人发表的NeuralStyleTransfer(神经风格迁移器) , 都能看做是向量空间上进行概念整合的例子 。
图像处理一种常用的方法是采用一系列不同的过滤器去分析一个图像各种各样不同方面的特征 。 这些过滤器的本质是一些小的数学矩阵 。 精心设计的数学矩阵 , 与输入图像的各个局部的像素窗口的RGB值组成的矩阵相乘之后 , 得到的结果就反映了这个图像某个方面的特征 。 比如说 , 下面的这两个过滤器矩阵:
计算创意学系列(三):组合性创造力的计算实现
文章图片
分别能够用于检测出输入图像的垂直和水平的边缘线 。 用同样的方法 , 通过精心设计这些矩阵每个位置上的数值 , 还能够对图像进行色彩分析、形状分析、对比度分析等等等 。 将这些分析得到的结果收集起来 , 进一步进行稍微宏观一些的分析 , 得到图像更具总体性的结论 , 比如图像中刻画了一些什么物体之类 。
而卷积神经网络 , 实际上就是用一个深度神经网络来模拟上述过程 。 在传统的图像处理中 , 这些过滤器都是手工精心设计的矩阵 , 由过滤器得到的信息如何收集和整合来得到更宏观的信息 , 也是在手工设计的计算公式下进行 。 根据图像分析最后的目的不同 , 往往需要设计不同的过滤器和计算公式 。 而在卷积神经网络这里 , 开发者不再需要去手工设计这些过滤器和计算公式 。 过滤器和计算公式反映在卷积神经网络的参数中 , 通过拟合训练数据 , 卷积神经网络能够自动地找到可以达到图像分析目的的过滤器和过滤器信息整合计算公式 。