CI+GPT双引擎驱动,开启AI代码评审新纪元

京东科技开发者

共 4416字,需浏览 9分钟

 ·

2024-06-06 13:31

一. 现状问题

代码评审 Code Review 是提高代码质量、促进团队合作、知识间共享的关键环节,对于系统代码质量和稳定性都至关重要。

【人为代码评审(Code Review)】存在很多弊端
时间消耗大:代码评审是一个耗时的过程,特别对于大型项目和复杂的代码更是如此。
无档期:评审者无时间会造成研发卡点。
一致性缺乏:不同的审查者可能会有不同的编码标准和偏好,这可能导致代码审查的反馈缺乏一致性,给开发者带来混淆
可能遗漏错误:人为审查的过程中可能会因为疲劳、疏忽或知识限制而遗漏一些错误,尤其是对于难察觉的逻辑错误和性能问题。
主观性:代码审查很容易受到审查者个人偏好和情绪的影响,有时可能会导致不必要的争议。

二. 分析原因

人为代码评审存在的弊端主要源于人力的局限性(如疲劳、无时间、主观偏见、认知局限等)。这些因素共同作用导致审查过程中可能出现的时间效率低、一致性差、错误遗漏和主观性问题。

用五个词语总结:  易疲劳   主观偏见   规范少   沟通难   知识缺

三. 采取措施

利用AI大模型进行代码评审,可以显著提高效率、减少人为错误,通过自动化分析和建议,弥补人为评审的局限性。同时还能促进代码一致性和质量,但需要适当的人机协作模式以充分发挥其潜力。

将GPT嵌入到CI实时code review 助研发一臂之力。
提高效率:自动化审查过程大大减少了人工审查所需的时间,加快了开发周期。
增强准确性:AI模型可以持续学习,减少人为疏漏,提高代码审查的准确性和质量。
一致性保障:确保代码遵循最佳实践和项目规范,整体一致性。
即时反馈:开发者可以即时获得反馈,快速修正问题,不卡点。
知识共享:AI评审过程中的建议可以作为学习资源,帮助开发团队提升编码水平。

底层依赖:京东言犀大模型、行云流水线(云原生)、单元测试脚本、coding 代码评审机制(webhook)

四. 实践步骤

4.1 接入京东言犀大模型(行业内类ChatGPT大模型均可)

4.2 内置AI Review脚本(Git代码库API打通)

1、调用coding API(获取MR的commit起止点)2、调用coding API(获取本次代码diff)3、调用GPT- API(京东大模型)
脚本链接汇总(评论区加群 or 私信我 获取):目前支持的模型有Chatrhino-14B(最新版本-选择此模型)、Chatrhino、Chatrhino-JingYan 其它模型持续集成中。

AiCodeReview.java 脚本案例(java语言-junit5版本)粘贴到自己代码库中即可

📢注意:不必须依赖junit5,可以自行切换junit4,demo只是提供框架思路,落地后可根据代码库场景优化脚本!

替换2个变量:

① API Token

② PROJECT_ID:替换为您的Git 应用id(如下查看)

③ 大模型api-key:替换为您的key(查看4.1部分)

核心脚本逻辑步骤 如下示例:

void aiCodeReviewByChatrhino() {    //1、get mr    String mergeRequest = System.getProperty("mergeRequest");    if (mergeRequest == null) return;
System.out.println("【流水线触发MergeRequest】------------------------------------------------ " + mergeRequest);
//2、get coding diff String codeDiff = getCodingDiff(mergeRequest); System.out.println("【coding的diff内容】------------------------------------------------" + codeDiff);
//3、gpt code review String result = gptReview(codeDiff); System.out.println("【京东言犀大模型评论】------------------------------------------------" + result);
//4、output review content note(objectMapper.readTree(result).get("choices").get(0).get("message").get("content").asText(), mergeRequest); System.out.println("【coding评审note记录】------------------------------------------------" + noteContent + "-----------------------------------------------");}
✋脚本内设定AI人设 (content字段) :根据自己需求定义prompt

比如你想用于分析本次改动业务语义、或者专注于找bug、亦或者代码写法是否规范等

4.3 搭建CI流水线(持续集成)

① 新建流水线:导入AI流水线脚本模版yaml 创建AI Code Review机制

流水线原子:【下载代码】+【java编译】+【咚咚通知】

② 原子参数配置修改:【下载代码原子】+【maven编译原子】改为自己代码库和脚本路径

【咚咚通知原子】默认配置即可,📢 提交代码研发

✍️ 同部门下建议独立脚本代码库,projectID动态传入,不同应用可实现《一键式接入》(只需导入流水线即可实现AI评审)-DprojectId=${globalParams.user.WEBHOOK_ATTR_PROJECT_ID}





分支:${globalParams.user.BRANCH}    相对目录(脚本放置位置):${globalParams.system.APP_IDENTIFIER}

mvn test -Dtest=com.jdwl.wms.common.AiCodeReview -DmergeRequest=${globalParams.user.WEBHOOK_ATTR_MERGE_REQUEST_ID} -DfailIfNoTests=false -Dmaven.test.failure.ignore=true

③【触发设置】绑定自己代码库,MR Create/Updated 事件(原因:coding的push操作统一触发mr create/update操作)

4.4 配置coding(Webhook联合CI)

① 增加【持续集成】账号 master权限

② webhook:流水线生成的webhook链接(Push + Merge Resuest)



③ 代码评审机制:* 所有分支push时 自动创建MR 阻塞合入

五. 达成效果

5.1 Coding AI评审记录

👉 不同系统根据自己需求来设定AI人设:有的可能用于分析本次改动业务语义、有的专注于找bug、有的看代码写法规范度等

1.代码push稍等片刻 收到咚咚通知:AI代码评审完成

自动创建Merge Request触发code review流水线,自动AI架构师-代码评审记录!





👉 可以针对代码中【潜在bug】和【不规范写法】可以指出优化建议!

👉 可以分析代码变动,警示研发一些注意事项!

5.2流水线运行



六. 效能提升

6.1 人效提升,降低研发人力成本,减少研发阶段占比

自动替代人为评审,每次push都会自动评审,活跃代码库 评审需求量>10次/天,减少了 提交人和评审人的沟通 时间成本总和。

自动2024-13周落地实践后,开发阶段占比阶段性降低,从需求周期的 62% 降低至 52%,大约降低了10%的比例(多数为代码push后评审的耗时,评审时间、沟通时间、返工时间、修复时间 ......

6.2 需求交付提升,缩短需求交付周期

自从2024-13周落地实践后,研发节省大量人力成本在每一次push的代码评审,只是辅助评审,则更多精力在需求研发设计交付上,需求交付周期之前的 26.57天 缩短至目前 17.14天

6.3 过程质量提升,有效减少BUG数

自从2024-13周落地实践后,AI评审代码后,新增bug数呈现下降趋势,从之前的14个/人减少到目前 6个/人

七. 简要总结

🤖AI Code Review 机制通过CI流水线自动化评审代码,显著提升了 研发效率代码质量,使研发能够更专注于创新和核心业务的开发,进而 优化用户体验 提升需求交付速率

浏览 34
点赞
评论
收藏
分享

手机扫一扫分享

分享
举报
评论
图片
表情
推荐
点赞
评论
收藏
分享

手机扫一扫分享

分享
举报