当前位置:主页 > 行业资讯 > 数据治理 >

数据治理中的“少数关键”原则:用20%的投入解

发布时间:2026-05-04 17:52   浏览次数:次   作者:admin

数据治理的投入产出困局

数据治理经常被认为是一件“投入大、见效慢”的事。清理历史数据要花几个月,统一编码规则要跨部门协调,建立数据质量标准要反复讨论。很多企业做着做着就没耐心了。

但这个印象可能来自一个错误的前提:数据治理要全面铺开。这个前提本身值得商榷。

不是所有数据都需要同等力度的治理。一家企业的数据资产中,往往存在一个规律:少数核心数据决定了大部分业务结果。这部分数据如果治理好了,80%的数据问题就解决了。剩下的20%即使暂时不管,对业务的影响也有限。

这就是数据治理中的“少数关键”原则。把有限的资源集中在最关键的数据上,用最小的投入获得最大的回报。

哪些数据属于“关键少数”

关键数据有几个特征。

被多个系统、多个部门重复使用的数据,属于关键数据。客户信息同时被销售、财务、客服、物流使用。物料信息同时被采购、仓储、生产、质检使用。这类数据的混乱会传导到多个业务环节,影响面广。治理这类数据的回报最高。

直接影响核心业务流程的数据,属于关键数据。订单数据直接影响履约,库存数据直接影响采购和销售,财务数据直接影响报表和决策。这类数据出错会导致业务直接受损。治理这类数据的紧迫性最强。

出错后修复成本最高的数据,属于关键数据。客户编码一旦混乱,所有关联的订单、合同、服务记录都会错位,修复需要对账、清洗、重新关联,成本极高。物料编码一旦重复,库存会被分割、采购会重复下单、成本核算会失真,修复需要合并数据、调整BOM、重新计算成本。这类数据在源头就管住,比事后清理划算得多。

对外披露或对客户可见的数据,属于关键数据。客户看到自己的订单状态错了,供应商看到自己的付款记录不对,监管机构看到报送的数据有问题。这类数据的错误会直接影响企业声誉和合规性。这类数据不仅要准,还要及时。

把数据按这四个标准排个序,前20%就是应该优先治理的“关键少数”。

用关键数据倒推治理优先级

确定了关键数据之后,治理的优先级就清晰了。

分析哪些上游数据影响了关键数据的质量。关键数据不准,通常是因为上游源头出了问题。客户信息不准,可能是销售建档时没有规范,也可能是老系统迁移时留下了重复。物料信息不准,可能是技术部改了规格没有通知其他部门,也可能是多个部门各自维护自己的物料表。找到污染的源头,在源头治理,比在下游反复清洗更有效。

识别关键数据的使用场景和频率。客户信息每天被查询多少次,用在哪些业务流程中。物料信息被哪些系统依赖,在哪些关键操作中被使用。使用频率越高、涉及场景越多的数据,治理的回报也越高。资源应该向高频、高影响的数据倾斜。

建立关键数据的质量基线。当前客户信息的完整率是多少,重复率是多少,异常率是多少。设定可接受的目标值。不是追求100%完美,而是追求达到业务可接受的水平。目标值根据业务容忍度来定,不需要跟风行业标杆。

持续监控关键数据的质量变化。完整率是否稳定,重复率是否在上升,异常率是否超标。指标异常时及时介入,小问题快速修复,避免积累成大问题。关键数据的质量要有问责机制,谁的数据谁负责。

编码类数据的“关键少数”

物料编码、客户编码、产品编码这类数据,本身就属于“关键少数”。它们是数据的“身份证”,几乎所有业务操作都依赖它们。编码乱,一切数据都跟着乱。编码和数据的关系,就像门牌号和住户的关系。门牌号乱了,信送不到,人找不到,外卖点不了。门牌号本身不产生价值,但没有它,一切依赖地址的服务都没法正常运转。

编码的治理可以从几个角度切入。

先治理被引用最多的编码。哪些物料编码在BOM中出现次数最多,哪些客户编码关联的订单金额最大,哪些产品编码在促销活动中最常被使用。这些编码即使只占总量的5%,也可能影响了80%的业务。把它们优先治理好,效果最明显。

建立编码的新增和变更流程,但不应对所有编码一视同仁。对于高频使用的核心编码,新增需要审核,变更需要审批,作废需要确认没有未完成的引用。对于低频使用的辅助编码,流程可以简化,降低管理成本。不是所有编码都需要同样的管理力度。

清理编码数据时也一样,按引用频率排序,高频的优先清理。把使用最多的前20%物料编码清理干净,库存准确率可能就从70%提升到了90%。剩下80%的编码即使暂时不管,对业务的影响也不大。这就是“少数关键”原则的应用。

新易编码在“关键少数”治理中的支持

新易编码本身不判断哪些编码是关键数据,但它提供了识别关键数据的工具。

引用频率分析。系统可以统计每个编码在BOM、订单、库存中的被引用次数。引用次数排在前面的,就是应该优先治理的关键编码。不是凭感觉判断哪个重要,而是用数据说话。

依赖关系分析。系统可以展示一个编码被哪些系统、哪些模块、哪些业务流程所依赖。更改这个编码会影响哪些范围。影响范围越广,治理的优先级越高。编码管理员在做变更决策时,需要有这个信息。

质量监控的差异化配置。对于关键编码,可以设置更严格的质量规则、更频繁的检查周期、更及时的预警通知。对于非关键编码,检查频率可以降低。把监控资源集中在关键处,而不是对所有数据一视同仁。

变更影响的评估。关键编码的变更需要走正式审批流程,变更前要评估影响范围,变更后要通知相关系统。非关键编码的变更可以简化。新易编码的流程配置支持这种差异化管理。

几个具体的优先级判断方法

用金额排序。把所有物料按采购金额或库存金额排序,前20%的物料贡献了80%的采购额或库存成本。这些物料的编码必须准。金额排在后80%的物料,即使编码有些问题,对成本的影响也有限,可以先放一放。

用频率排序。把所有客户按订单频率或访问频率排序,前20%的客户贡献了80%的交易次数或页面访问量。这些客户的编码和信息必须准。低频客户的数据质量可以先从宽要求。

用影响范围排序。某个编码出错了,会影响多少个系统、多少个业务流程、多少个下游操作。影响范围越大,治理优先级越高。一个编码影响了ERP、MES、WMS三个系统,比只影响一个系统的编码更需要优先治理。

用修复成本排序。同类问题,修复成本高的优先在源头防范。客户编码一旦重复,修复成本很高,需要在申请环节做强制查重。物料描述不规范,修复成本较低,可以定期批量清洗。源头治理的成本和事后修复的成本对比,决定治理的策略。

不要追求100%的数据质量

数据治理容易陷入“完美主义”陷阱。要求所有字段都完整、所有编码都不重复、所有格式都统一。这个目标本身没有错,但达到这个目标的成本很高,而且往往没有必要。

业务不需要100%的数据质量。库存准确率98%就够用了,追求100%的成本是98%的几倍。客户信息完整率95%就够用了,剩下5%的缺失字段不影响大部分业务操作。数据质量的目标应该是“够用”,不是“完美”。

数据治理的资源是有限的。把资源集中在前20%的关键数据上,可能用20%的投入解决80%的问题。剩下的20%问题,可能要用80%的投入才能解决。投入产出比值得认真算一算。

数据质量的持续投入应该遵循边际收益递减规律。第一阶段的投入回报最高,第二阶段开始递减,第三阶段可能已经得不偿失。知道什么时候停下来,和知道什么时候开始同样重要。

结语

数据治理不需要对所有数据一视同仁。用20%的投入解决80%的问题,比试图用100%的投入解决100%的问题更现实、更可持续。

找对那20%的关键数据,把治理资源集中上去。编码类数据本身就是关键数据,而在编码类数据内部,引用频率高的、影响范围广的、修复成本高的,又是关键中的关键。找准了,投入产出比就上来了。

新易编码的核心功能是辅助企业识别哪些编码是关键数据,依赖关系在哪里,影响范围有多大。这些信息是资源分配的依据,是优先级排序的依据,是决策的依据。有了依据,治理工作就不是凭感觉、拍脑袋,而是可以量化、可以衡量、可以追踪结果的工作。