2025年可以说是大语言模型(LLM)增强型产品爆发的一年。从笔者的实际经验来看,无论是自动化测试平台,还是云服务稳定性保障系统,许多已有基础设施的平台都在原有架构之上,结合LLM驱动的AIGC能力,陆续推出了具备实际业务价值的新功能。例如自动生成XMind格式的测试用例、实现测试步骤的自主探索、RCA故障根因分析,以及对服务发布风险进行实时解读等能力。
要构建这类高度集成的产品,背后往往需要大量研发资源的投入。而在如此复杂的协作体系中,如何合理分配不同技术角色的职责,既保证各模块研发人员能专注自身领域的深度建设,又能实现跨团队的有机协同,确保整体产品流畅运转,是产品架构持续演进过程中必须不断思考的核心问题。本文将简要探讨,在重点推进此类LLM增强型产品研发时,可能涉及的关键角色及其协作模式。
[此处为图片1]
从纯技术视角出发,整个研发体系大致可划分为以下几类角色:
平台工程:包含前端与后端开发角色,主要负责平台整体架构的设计与迭代,主导需求交付流程,并持续关注产品的业务表现和系统稳定性指标。
业务域工程:针对具体业务场景,如自动化测试、SRE稳定性保障或任务调度平台等,相关领域的工程师需深入参与功能设计与实现,确保技术方案贴合实际业务逻辑。
Agent工程:在当前LLM增强产品普遍依赖Chat-Agent架构的背景下,该角色专注于Agent平台本身的开发与优化,同时关注其在具体业务场景中的应用效果与关键指标。
智能化工程:作为LLM/AIGC能力的技术支撑方,通常位于产品、Agent及业务域工程的下游,聚焦于通用智能能力的研发,重点关注功能实现的效果与稳定性。
知识库工程:作为智能化能力的重要基础支持,负责知识库的增删改查(CRUD)、知识内容生产、RAG(检索增强生成)等功能开发,为上层智能模块提供上下文数据支撑。
智能化算法:主要承担面向特定业务目标的模型调优工作,致力于提升智能化能力与Agent的实际表现,重点关注效果类指标的优化。
在上述分工基础上,各技术角色的职责边界更为清晰,针对某一具体功能模块,也能明确识别出不同团队之间的技术对接点与协作路径。
[此处为图片2]
进一步从产品全局角度考量,除了技术研发团队外,还需配备产品经理、业务运营、业务BP以及质量QA等非技术角色,以保障产品的全链路闭环运作。在实际项目中,通常由产品经理统筹功能规划、排期与版本定容;业务运营负责市场推广与用户触达;业务BP聚焦于ToB客户的定点落地支持;而质量QA则承担产品质量把关的责任,包括功能验证与效果评估等工作。通过这种多角色协同机制,整套研发体系得以高效运转。
特别值得强调的是质量QA这一角色的作用。在当前普遍追求降本增效的大环境下,不少团队会削减QA岗位的人力配置,但这往往会带来潜在的质量隐患。当质量保障的责任被分散至多个角色时,由于各方均无足够精力深入细节,容易导致交付过程中出现“各自为政”的局面。因此,若条件允许,建议仍应保留或引入专职的质量把控角色,重点承接P0级核心功能的验证、复杂场景的效果评测等高风险、高难度任务。这类角色能够有效补位其他团队难以兼顾的部分,协同推动效果指标与业务指标的双重提升。
最后,如果你正身处这样的研发环境中,不妨跳出日常执行层面,尝试从更高维度审视所在项目的运作机制:你在当前体系中处于哪个位置?是否有可能在完成本职工作之外,更多地理解上下游协作逻辑?除了精进技术本身,掌握如何打通复杂链路、协调多方资源,并将所负责的功能与效果打磨到极致的能力,或许正是当下最值得积累的成长方向。