OpenAI 拾回初心?总爱乱讲话的GPT-3终于懂事了( 三 )


OpenAI 拾回初心?总爱乱讲话的GPT-3终于懂事了
文章图片
批评者普遍认为 , 生成类模型出现这种问题的背后原因就是它们所采用的方法——无监督或自监督学习 。 这种训练方式的好处 , 在于一些领域普遍缺乏标注数据集 , 而无监督学习在缺乏标注数据的条件下表现仍然比较优秀;然而它的坏处 , 就在于它会不可避免地“学会”数据集当中所隐含的歧视思维 。
与此同时 , OpenAI也在加大、加快GPT-3的商业化 。 比如在2020年OpenAI正式公布GPT-3不久后 , 微软就宣布和该机构展开深度合作 , 独家获得GPT-3授权 , 将其应用到微软用户使用的各种产品和AI解决方案中 。
而这样的问题得不到解决 , 意味着更多人可能会在使用科技产品时 , 受到歧视和偏见的“二次伤害”……
OpenAI 拾回初心?总爱乱讲话的GPT-3终于懂事了
文章图片
去年 , 一家名为Anthropic的AI科研机构宣布成立 。 该机构的非营利运作模式和初期的OpenAI十分相似 , 而实际上其创始团队正是从OpenAI出走的:
创始人Dario&DanielaAmodei兄妹都是OpenAI早期员工 。 Dario曾在百度研究院工作 , 在吴恩达手下干过 , 发表过多篇可解释AI、AI安全方面的论文 , 离职前在OpenAI担任研究VP;Daniela离职前担任OpenAI安全和政策VP;其它创始成员如ChrisOlah、JaredKaplan、SamMcCandlish、GabrielGoh等 , 均为OpenAI核心人员 。
而在当时 , 硅星人曾经独家报道 , 这些人从OpenAI出走并创立Anthropic , 正是因为不认可OpenAI的方向改变和某些做法 。
OpenAI 拾回初心?总爱乱讲话的GPT-3终于懂事了
文章图片
Anthropic成员认为 , 人们正在疯狂地把某些“一知半解”的知识用于开发神经网络 , 并且又把这样开发出来的AI系统用于越来越高风险的场景 , 同时却又缺额发对于AI可解释性和安全的思考——这就是深度学习领域的现状 。
DarioAmodei接受媒体采访时就曾直言 , AI研究人员应该开发更安全的系统 , 而不是执迷于“放卫星”似的 , 盲目开发参数量越来越大的神经网络 。
——这基本就是在对OpenAI隔空喊话:你们已经忘记了初心 。
今天的OpenAI已经不再是一家纯粹的非营利研究机构了 , 而是基本成为了商业公司 。 但好在 , 它似乎也已痛定思痛 , 认清了模型越大偏见越大的问题 , 并且也看到了这种超大模型应用于商业场景时带来的极大社会风险 , 所以加紧对GPT-3进行可控、可解释 , 以及安全方面的优化 , 带来了今天的InstructGPT模型 。
OpenAI首席科学家 , AI大神IlyaSutskever表示:“我们很兴奋地看到客户也更青睐这些对齐模型(即InstructGPT) , 这意味着我们有更多的激励来开发和完善此类模型 。 ”
OpenAI 拾回初心?总爱乱讲话的GPT-3终于懂事了】*注:题图来自于Pixabay/Protocol , 版权属于原作者 。 如果不同意使用 , 请尽快联系我们 , 我们会立即删除 。