ChatGPT万亿美元商业化狂想( 三 )


ChatGPT万亿美元商业化狂想
文章图片
谷歌直面OpenAI的挑战
其实 , 谷歌和ChatGPT有着深刻的渊源 。 2015年12月 , OpenAI公司于美国旧金山成立 , 据OpenAICEO萨姆·奥特曼介绍 , 公司成立的一个原因就是避免谷歌在AI领域的垄断 。 那时 , 谷歌刚刚收购了总部位于伦敦的人工智能公司DeepMind , 后者因研发了击败围棋世界冠军的AlphaGo而名声大噪 。 不仅如此 , GPT中的“T”(Transformer) , 也是OpenAI在谷歌的Transformer语言模型框架的基础上构建的 。
如今 , OpenAI的ChatGPT和谷歌的ApprenticeBard已经开始“正面刚” 。 拥有1370亿参数的LaMDA模型 , 跟ChatGPT类似 , 可以使回答合情合理 , 让对话更自然地进行 , 但与ChatGPT不一样的是 , 它可以利用外部知识源展开对话 。 但直到现在 , 谷歌仍不愿向公众发布LaMDA 。 有业内专家猜测 , LaMDA存在较高的误差 , 且容易对用户造成伤害 , 此类瑕疵被谷歌称为有“毒性” 。 “谷歌其实完全有能力拿出类似ChatGPT的成果 。 只是一旦出了纰漏 , 谷歌这样的巨头企业无疑需要承担更高的经济和声誉成本 。 ”皮查伊坦言 。
最近 , AI创业公司Anthropic号称推出了ChatGPT的最强竞品——Claude聊天机器人 。 有趣的是 , 该公司由OpenAI前研究副总裁、GPT-3开发者等人在2021年共同创立 。 和ChatGPT类似 , Claude通过从网络上获得的大量文本示例进行训练 , 根据语义上下文等了解单词出现的可能性 。 不同的是 , Claude使用了自行开发的constitutionalAI机制 , 让其模型基于一组原则 , 指导Claude回答问题 , 使AI系统与人类意图保持一致 。 斯坦福大学AI实验室博士雅恩·迪布瓦对Claude和ChatGPT进行了比较 , 他认为Claude的回复通常更接近需求 , 但不太简洁 , 因为它倾向于解释它所说的内容并询问如何进一步提供帮助 。
国内AI企业云从科技称 , 一直以来企业都在布局人机协同领域 , 2020起陆续在NLP、OCR、语音等多个领域开展预训练大模型的实践 , 不仅要像ChatGPT那样在文本领域实现超级智能 , 还要彻底打通数字世界和物理世界 。
比拼开启 , 竞争的核心是什么?
“未来5年 , 会思考的计算机程序将能够读取法律文件 , 提供医疗建议 。 未来10年 , 它们将执行流水线工作 , 甚至成为必备品 。 再之后数十年 , 它们能够做几乎所有事情 , 包括提出新的科学发现 , 进而拓展人类对‘everything’的定义 。 ”奥特曼对ChatGPT等AI生成类产品雄心勃勃 。
要想改变行业、成为新的生产方式 , ChatGPT一类的工具不但需要不断提升技术本身的可靠性和安全性 , 也要分阶段找对合适的应用场景 。
模型是AI的灵魂 , 参数量越大 , 模型越复杂 , 做出来的预测就越准确 。 目前业界主流的AI生成类工具的大模型都是千亿级、万亿级参数量的水平 , 这也是ChatGPT等工具让人眼前一亮的原因 。 通过学习各行各业的各类数据 , 除了能给出相较于小模型更准确的预测结果之外 , 它也展现出了惊人的泛化能力、迁移能力 , 产出内容质量更高、更智能 。
训练和运行模型都需要庞大的算力 , 会带来巨大的资金消耗 。 有研究估测 , 训练1750亿参数语言大模型GPT-3 , 需要有上万个CPU/GPU24小时不间输入数据 , 所需能耗相当于开车往返地球和月球 , 且一次运算就要花费450万美元 。 这样高的研发门槛 , 注定目前主流的大模型多由大企业、或是背靠大企业的研究机构掌握 。 大模型 , 也成了企业的“护城河” 。
“现在没有一个模型的准确度可以达到100% , 能达到90%以上 , 我认为就已经很好了 , 这是一个边用边进化的过程 。 ”潘伟说 , “只有模型的准确度不断提升 , 才可能让现在的AI生成类工具从封闭、确定性空间 , 走向动态、开放的语言环境中 , 提升其可靠程度 , 因为现在这些内容生成工具的生成效率非常高 , 几乎1秒就能产生用户想要的大量信息 , 不准确将带来错误信息的广泛传播 , 是很可怕的 。 ”