获取有关最重要且最有趣的 AI 新闻的精选洞察分析。订阅我们的每周 Think 时事通讯。请参阅 IBM 隐私声明。
无论贵公司、产品或员工的细节如何,每个高效开发环境都存在某些原则——并且每种 DevEx 方法都应避免某些陷阱。
最佳的开发者体验使团队和个体开发者能够:
减少花在不增值任务上的时间,增加花在增值任务上的时间。花在更新工单、记录工时、参加会议、寻找访问凭证或翻阅过时文档上的时间,就是没有真正花在编写代码上的时间。
加速软件开发生命周期 (SDLC) 并缩短上市时间。自动执行繁琐任务、为人才配备针对开发者特定需求定制的工具以及减少操作摩擦,可以加快生产周期。
尽量减少上下文切换。不断在不同任务、工具、会议和项目之间来回切换会增加认知负荷。理想的开发环境有助于保持心流状态,在此期间,不受分心和干扰使工程师能够建立动力、编写更高质量的代码并达到最佳生产力。
简化和集中资源。尽量减少摩擦和上下文切换的一个重要方法是将所有工具、API 文档和基础设施集中到一个自助服务枢纽中。内部开发者门户 (IDP) 通常对于流畅的开发者体验至关重要。
保持凝聚力和减少集成问题。成熟的持续集成/持续交付 (CI/CD) 流水线减少了花在测试、合并和部署等繁琐手动步骤上的时间。版本控制问题、合并冲突以及由于沟通或协调不畅导致的代码损坏非常令人沮丧,尤其是当它们导致开发者的劳动基本上被浪费时。
受益于清晰高效的反馈循环。优秀的开发者体验是自我强化的:当反馈循环快速、准确且易于解释时,开发者会更热切地运行它们。这反过来又会加快迭代速度、提高代码质量,并使工程师能够专注于构建功能。
对于许多组织来说,实现这些理想所需的工作量将需要一个专门的开发者体验团队来领导这些工作。专门的 DevEx 团队有助于避免让开发者或工程领导者致力于改进 DevEx 而非编写高质量代码,从而产生降低开发者体验的悖论效应。
然而,需要注意的是,提高开发者生产力和改善开发者体验并不总是同义词。在为期八个月的研究中,《哈佛商业评论》(HBR) 发现,即使 AI 的使用是完全可选的,“员工的工作节奏更快,承担的任务范围更广,并将工作延伸到一天中更多的时间,通常并非被要求这样做。”AI 有助于提高生产力,但这种生产力提升的后续影响可能变得不可持续,导致认知疲劳和职业倦怠。2
AI 对开发者体验的影响可能超出开发者直接使用它的范围。特别是,HBR 的研究观察到,非工程师使用 AI 生成代码的频率增加,导致工程师花费更多时间审查和纠正同事由 AI 生成的工作。HBR 指出,“这些需求超出了正式的代码审查范围。工程师越来越多地发现自己需要指导那些‘氛围编程’的同事,并完成部分完成的拉取请求。”
此外,快速发展的 AI 领域可能导致碎片化的 DevEx。模型和 AI 智能体框架不断扩展和改进,这给开发者带来了压力,要求他们不断了解最新的产品,并跟上不断演变的协议和实践。增强的 AI 功能显然是有用的,但如果没有 DevEx 团队深思熟虑的调解和指导,它们可能变成一把双刃剑。
人工智能驱动开发者工具的最佳实施始终取决于行业、组织和用例的具体性质,但在开发者体验的背景下,有一些通用的最佳实践值得考虑。
遏制碎片化。更多的模型、更多的智能体和更多的工具意味着需要跟踪更多的事情。显然,必须确保管理人工智能驱动工具所花费的时间不超过不使用 AI 手动编写代码所花费的时间。
警惕认知负担的增加。许多 AI 工具需要开发者提供明确的提示,这要求开发者花费精力构思精确的查询并提供足够的上下文,从而增加了认知负荷。频繁地从编码切换到提示、再到解释和整合输出所导致的上下文切换可能会加剧这种情况,使开发者无法保持心流状态。3
考虑时机。鉴于手动提示带来的认知负荷增加,许多 AI 工具提供主动帮助(例如自动补全建议或自动代码审查)。最近一项研究探讨了时机对主动 AI 帮助的影响,发现工程师最常拒绝任务进行中的干预,但对自然工作流边界(如提交后阶段)出现的建议参与度最高。
倾听开发者的意见。有些 AI 编码工具准确且非常有用,而另一些则不可靠,带来的麻烦多于价值。有时,这两种可能性之间的区别并非 AI 工具本身固有,而是取决于它在多大程度上满足了开发者的特定需求及其被委派的工作。
《哈佛商业评论》的研究人员在反思他们的发现时建议,“组织可以从刻意规定工作何时推进(而不仅仅是推进速度)的规范中受益。”将较小的建议分批处理,并允许开发者等到工作流自然暂停时再审查,有助于避免代价高昂的中断并保持心流。
与上一代现代编码助手平台可用的数据相比,下一代平台很可能受益于开发者反馈数据的大幅增加,这要归功于 2025 年 AI 编码工具采用率的指数级增长。IBM Bob 于 2026 年春季发布,能在工程师工作时在后台主动执行代码审查,并将其“Bob 发现”面板中的复杂问题和重构机会记录下来。您可以选择一键内联处理它们,否则可以灵活地在最方便的时候查看任何发现。
充分且准确地衡量开发者体验需要合理结合定量和定性反馈。
用于评估开发者体验的定量指标应超越原始生产力,这既因为没有完美的生产力指标,也因为生产力本身无法完整描绘 DevEx。
通过统计代码行数或发布的功能数量来衡量 DevEx 是理解运营健康状况的一种短视方式。并非越多越好。高质量的代码本质上比高数量的代码更有价值,而激励原始数量可能导致开发者行为投机取巧,并使代码库臃肿。
对于衡量组织开发者体验实力的定量、整体指标,没有通用的标准,但有一些备受推崇的框架可以帮助您入门。其中最著名的框架之一是 DORA 指标集,最初由 Google 的 DevOps 研究与评估 (DORA) 团队开发,包含 4 个核心指标:
部署频率:团队部署代码的频率。
变更前置时间:从代码完成到生产通常所需的时间。
变更失败率:部署失败的百分比。
平均恢复时间 (MTTR):解决故障的平均速度。
值得注意的是,DORA 指标是滞后指标:它们只能追溯性地捕捉已发生的事情,而不能预测未来可能发生的事情。确定哪些领先指标与其对应的滞后指标高度相关,有助于您的开发者体验团队在 DevEx 问题严重干扰生产力之前主动发现它们。
大多数 DevEx 衡量框架都早于生成式 AI 工具的广泛采用,因此并未直接捕捉其影响。为了评估 AI 编码解决方案的采用情况和效果,请考虑以下定量指标:
提交代码中由 AI 生成的百分比
拉取请求 (PR) 中由 AI 生成的百分比
AI 工具活跃使用的频率
对 DORA 指标的前后影响(注意控制混杂变量)
AI 生成的代码和 PR 相对于人类生成代码的失败率
其他基本衡量指标,例如开发者对 AI 生成的代码和建议质量的信心,或 AI 工具在各种任务上为他们节省的时间量,只能通过直接的开发者反馈获得。
数字只能反映部分情况。真正体验您 DevEx 的是您的开发者,因此也只有您的开发者能够直接反映您组织开发环境中某些要素的情况。试图以静态、数字化的术语来理解开发者满意度——例如要求开发者按 1-10 分打分——会扭曲甚至完全忽略关键信息。
归根结底,良好的 DevEx 能提供开发者所需的东西——而您只有询问他们才能知道他们需要什么。精心设计的开发者体验调查需要在两方面取得平衡:一是能够很好地转化为对普遍趋势分析的标准化反馈,二是获得细致入微的见解和个性化反馈的机会。
来自定性开发者体验调查的反馈通常有助于推导出适合组织实时情境需求的定制化定量指标。例如,如果调查显示新员工在您的开发环境中难以快速上手,那么跟踪新开发者完成首次贡献所需的时间,可以帮助您评估为解决该问题所采取措施的成功程度。
借助您的 AI 合作伙伴 Bob,加速软件交付,实现安全的意图感知型开发。
利用可信的 AI 驱动型工具优化软件开发工作,最大限度地减少编写代码、调试、代码重构或代码补全的时间,从而拓展创新空间。
通过增加 AI 重塑关键工作流程和运营,最大限度提升体验、实时决策能力和商业价值。
1. “劳动力市场中的 AI 影响:新衡量标准与早期证据”,Anthropic,2026 年 3 月 5 日
2. “AI 不会减少工作——反而会加剧它”, 《哈佛商业评论》,2026 年 2 月 9 日
3. “开发者与主动 AI 的交互模式:一项为期五天的实地研究”,arXiv,2026 年 1 月 15 日