程序员用AI来写AI代码,“卷死”其他程序员?( 二 )


简单来说就是 , 我是开源软件、开源代码你随便用没问题 , 但你只要用了就也得支持开源 , 其它任何人也可以免费使用你的代码或软件 。 Copilot引起GitHub社区人们公愤的关键就是其把开源代码洗成商业产品 , 无视了早期促进程序语言世界丰富、开放的开源精神 , 已有不少程序员在社交媒体上公开表示未来将不再使用GitHub来托管自己的代码 。
程序员用AI来写AI代码,“卷死”其他程序员?
文章图片
GitHub官方则解释Copilot“通常不会精确复制代码块” , 也有人认为Copilot通过海量代码AI训练最后得出来的结果就如同人类一样 , 人类前期也需要通过学习其他人的相关知识来内化成为自己的 , 很难把AI模型训练出来的代码简单的理解为复制粘贴 。
然而已有不少人否定了这个说法 , 在通过Copilot解决程序中的一些经典问题时 , 会发现Copilot几乎一字不差的复制粘贴了GitHub上的某段经典代码 。 这意味着在Copilot成为商业产品后 , 使用Copilot的用户在把其代码应用到自家产品时一不小心就会中招违反GPL协议 , 面临被人起诉的风险 , 因此 , 已有一些科技公司已明确要求禁止员工使用Copilot 。
Copilot在实际应用中面临的问题不止如此 , 随着程序员们对Copilot了解的逐步加深 , 他们发现Copilot并不完美 , 仍然存在着不少缺陷 。 Copilot背后的Codex既经过大量文本语言训练 , 也吸收了网络世界中鱼龙混杂的海量代码 , 因此Copilot输出的部分代码或许看出去没有那么美好 , 有着隐私泄露、安全风险等问题 。 B站大佬陈睿就躺枪了一次 , 虽然立刻有网友表示其中出生年月日信息有误 。
程序员用AI来写AI代码,“卷死”其他程序员?
文章图片
也有网友表示“Copilot一时爽 , 调试火葬场” , 因为想要清楚、清晰的描述出目标函数想要实现的功能并不简单 , 同时在使用Copilot的过程中 , 需要不断去回顾检查AI生成的代码是否正确 , 这反而容易干扰到编程时的原有思路 。
目前 , GitHubCopilot还处于未收取任何费用的申请试用阶段 , 互联网上关于它的争论也还在继续 , 随着AI工具日益强大 , 人类将来面对的类似问题只会越来越多 。