AI编程的流行,可能正在破坏程序员之间的信任? 程序员Jay在一篇博客当中发表了自己的看法,他认为:LLM提高了代码产出效率,但却破坏了程序员间的信任基础。 此话一出,大家纷纷表示赞同,更是有网友直言:不知道该如何建立对大模型的信任!【图2】 这篇博客具体讲了什么呢?让我们一起看看它的几个要点: 1、信任是工程团队的核心 工程师之间的合作依赖信任。无论是代码审查,还是设计项目架构,大家都是基于信任来合作的。你相信队友有经验、有真知灼见,才能一起把项目做好。 现实生活中,大家自然更信任团队里的老手,新人需要慢慢地通过自己的表现来建立口碑。 在开源社区更是这样,需要有长期贡献,才能积累起“江湖地位”,让大家信服你。 2、LLM增强工程师的“虚假能力”问题 但是LLM可能会让经验不足的工程师产生一种“虚假能力”,能够让他们在短时间内快速生成大量代码,但这些代码可能超出其真实理解范围。 传统上,能写出对的代码,就说明对问题理解得很透彻,但现在AI把这个规律给打破了。AI生成的代码可能是“近似正确”的,但它很可能在某个关键时刻突然掉链子。 3、信任机制被破坏 过去,判断一个工程师牛不牛,主要看他写的代码质量和做的设计决定。但现在,AI让这些判断依据变得不那么靠谱了。 如果代码都是AI生成的,审查者必须更严格检查,增加了审查负担,尤其是对开源社区和团队成员水平参差不齐的团队。 团队可能无法再依赖“默认信任”,必须采取额外措施确保代码质量。 4、可能的应对措施 面对这个问题,大家也在想办法。Jay的博客里提出了一些可能的应对措施: 开源社区可能要求在贡献者协议(CLA)中加入条款,声明代码并非由LLM生成。 开源项目可能会更加依赖线上贡献者会议来建立信任基础。 团队可能制定规则,限制或监管LLM的使用,尤其是新人。 业界可能会形成一套标准化的元数据格式,用于明确标记代码是由大语言模型生成还是人工编写。 对这个话题感兴趣的朋友,可以收看原文:
AI编程的流行,可能正在破坏程序员之间的信任? 程序员Jay在一篇博客当中发表了
量子位来谈科技
2025-06-27 21:28:35
0
阅读:0