信息技术持续进步,法律行业数字化趋势显著增强。在知识库管理方面,鉴于卷宗、文书的繁杂处理流程,包括分类、存档、检索及研究,迫切需要信息化与智能化技术的深度融入。因此,探索如何升级该领域以提升工作效率,已成为法律行业研究的热点。
凭借在法律行业多年深耕的经验,威科集团敏锐捕捉到知识库领域中,大模型技术的应用能够有效帮助判例整理场景。威科集团与火山引擎携手合作,基于字节跳动自研豆包大模型以及火山方舟平台丰富的推理算力资源与完整工具链,通过生成式 AI 的模型能力,实现对法律判例进行批量精准维度抽取,大幅度提高了法律行业客户的工作效率。
威科集团是全球卓越的专业信息服务提供商,为临床医生、护士、会计师、律师以及税务、金融、审计、风险、合规和监管部门提供专业信息、软件解决方案和服务。
借助大模型技术,
实现法律行业应用智能化升级
在法律行业中,由于判决往往建立在对过往判例分析、理解的基础上,法律从业者希望获得高效、便捷的判例研究途径,以便更好地为客户提供服务。
研究判例不仅可以为律师找到支持案件论点的法律依据,评估案件走向与潜在风险,制定出更加有力的诉讼与辩护策略。还可以深入理解法律的适用范围和限制,为客户提供更专业的法律咨询服务。此外,企业法务部门还能够通过对过往判例研究,在起草和审查合同时减少法律歧义和风险,确保企业业务操作和政策符合现行法律标准,甚至能基于判例中的法律阐释,参与或影响企业战略的制定。
然而在强需求的背后,由于判例往往涉及广泛范围内的多个不同对象客体,相关检索字段数量如法条、金额、地点等,可能达到数十甚至上百个,给判例整理工作带来了极大的难度。因而,高效解析判例内容并抽取这些关键字段,进行分类与整理,构建出一个结构清晰、易检索易查询易使用的信息库,成为众多法律行业从业者的核心诉求。
威科打造的威科先行法律信息库、威科先行人力资源信息库等工具,集法规、案例、解读、工具、问答等模块为一体,帮助法律行业客户加深对判例的理解和认识,提升业务能力。在构建信息库过程中,威科发现以人工标记、机器抽取等方式对判例进行打标、分类,存在效率低、错误率高、成本居高不下等问题。因此,威科决定与火山引擎合作,借助大模型能力加速构建更精准的法律信息库。
更强模型、更低价格、更易落地,
高效精准实现判例抽取
火山引擎仔细研判威科对于构建高效精准的法律信息库的需求后,通过一站式大模型服务平台火山方舟,提供了具备优秀语义理解能力的豆包大模型,帮助威科实现法律判例的多维度自动抽取,代替过往人工标记的方式,有效降低成本同时又保障了准确性。
豆包大模型经过字节跳动内部50+业务的场景实践验证,目前已覆盖20个以上细分行业,尤其在文本分类、总结摘要、信息抽取、角色扮演、文案创作等多个方面表现出优势,更强的模型效果让威科判例内容抽取精度达到了95%以上。
此外,依托于火山方舟在平台层面的算法和工程优化、豆包大模型自身的成本优势,通过技术驱动的极致性价比,威科能够以更低价格完成大规模的批量数据处理,实现了效率与成本的双向优化。
火山方舟拥有一站式大模型服务能力,模型团队快速响应客户需求,为客户提供模型训练、推理、评测、精调等全方位功能与服务,以及丰富的插件生态和 AI 原生应用开发服务,帮助威科便捷地将豆包大模型作用于判例分析与抽取的生产场景,快速将大模型技术转化为生产力,让大模型的使用更易落地。
字节跳动自研豆包大模型通过火山引擎对外提供服务,用更强模型、更低价格、更易落地的方案助力企业做好 AI 转型。未来,双方将在更多法律行业应用场景对大模型能力的落地与应用做进一步探索与尝试,为法律行业从业者及各类企业提供多元化智能服务。