计算创意学系列(三):组合性创造力的计算实现( 四 )


有了这样简单粗暴地构建起来的知识库 , 当MetaphorEyes的用户在文本框中输入"AisB"的暗喻句子时 , MetaphorEyes就会在在这个知识库中找到可信度排名靠前的A的特征 , 将这些特征代入搜索关键词“WhydoBX”中的X , 去查询B也符合这些特征的可信度 。 可信度较高的那些特征 , 就作为A和B共有的特征之一返回给用户 。
通过进行大量这样的搜索 , MetaphorEyes慢慢建立起关于许多概念的大规模知识库 。 有了这样的知识库之后 , MetaphorEyes就能只接受一个名词作为输入(比如“哲学家”) , 而返回可能适用于这个名词的一系列比喻(比如“哲学家像政治家一样撒谎” , “哲学家像诗人一样擅长打比方”等等) 。
但是 , 以这种方式从互联网上获取的信息 , 是缺乏结构性和语义一致性的 。 每条搜索结果都来自不同的网站、不同的作者 。 信息的可信度不能保证 , 文本的内容也是断章取义的;由于缺乏文本的上下文信息 , 也无法去解读文本内容的准确含义 。 这注定了MetaphorEyes不可能像DIVAGO那样对整合概念网络的候选做任何语义上的处理 。 MetaphorEyes构建的知识库也不可能被DIVAGO这样的系统利用 。
跟DIVAGO不同 , MetaphorEyes不考虑返回的特征列表的前后一致性 , 不会对特征列表做任何推论 , 也不会考虑整合网络对Fauconnier和Turner的最优原则的符合程度 , 更不会去考虑整合概念网络的价值或者效用 。 这些简化可以看作是为了自动化构建知识库以及计算效率而进行的妥协 。 这种妥协之下的简化版概念整合 , 被TonyVaele称作是“概念混搭(ConceptualMash-ups)” 。 “概念混搭(Mash-up)”和“概念整合(Blending)”的最重要区别 , 就在于“概念整合(Blending)”是考虑到概念之间含义上的兼容性 , 将多个概念逻辑前后一致地组合在一起 , 而“概念混搭(Mash-up)”则完全不去考虑概念的含义和逻辑一致性 , “无脑”地将多个概念扔在一起形成的 。
可以看出 , MetaphorEyes所提出的这个“概念混搭(ConceptualMash-up)”的概念 , 同时解决了以DIVAGO为代表的早期概念整合系统的知识库构建问题和运行效率问题 , 但为此完全牺牲了对概念语义层面上的计算 。 DIVAGO系统能够告诉用户自己产生的新概念有什么合理逻辑推论 , 能够告诉用户新概念在每条最优原则上的得分是多少 , 在这种意义上可以说能够对自己产生的新概念的价值给出一定程度的辩护 。 而MetaphorEyes是不具备任何这种解释能力的 , 它更像是个启发系统 , 能够抛出一些大概的内容给用户提示可能的思考方向 , 但真正的“概念整合”还是要在用户自己的头脑中进行 。
但以此为代价 , MetaphorEyes的使用非常简单直接 , 并且一秒钟就能得到运行结果 。
MetaphorEyes只是自动化构建概念整合所需的知识库的一种方法 , 它依赖于谷歌搜索返回的文本搜索结果 。 也由于谷歌搜索结果是缺乏结构性和语义的非常杂乱的文本信息 , MetaphorEyes难以对知识库进行任何语义上的处理 。 实际上 , 也有其他方法能够从互联网上自动获取到有一定结构性和语义的文本 , 包括ConceptNet(http://conceptnet.io/) , dbpedia(https://www.dbpedia.org/)和谷歌的KnowledgeGraph(https://developers.google.com/knowledge-graph/)等等 , 都是在互联网上建立结构化的知识库的例子 。
DeepDream和NeuralStyleTransfer:深度神经网络“脑海”中的“概念整合”?
概念整合的理论 , 严格来说只定义了在已有的概念网络上进行操作的过程 , 而没有对这些被操作的概念网络提出任何要求 , 它本质上说只是将几组特征按一定规则整合到一起成为一组新的特征的过程 。 当概念整合的主体是人时 , 我们很容易想象这些特征和它们被整合的典型过程是什么样子的(比如“长着角的独角兽”和“长着翅膀的鸟”整合成为某种“长着角和翅膀”的虚构生物) , 因为这些被组合的特征都是人脑从一开始就理解的 。