文档库 最新最全的文档下载
当前位置:文档库 › CHFS数据质量控制

CHFS数据质量控制

CHFS数据质量控制
CHFS数据质量控制

CHFS数据质量控制

注意:为得出更准确结论,我们强烈建议数据使用者在分析时使用抽样权重变量“swgt”!

数据质量控制是CHFS调查实施中最重要的环节,所有工作都围绕数据质量展开。归纳来看,CHFS与数据质量相关的工作主要包括三个方面:访员培训与社区联络、访问流程控制以及数据核查。

1. 人员培训与社区联络

在对绘图抽样员和访员进行培训时,CHFS项目组设计了严格的培训流程,包括课堂讲授、案例模拟、实地操作、考核评价等,以使他们牢固地掌握抽样和访问中的各种原理、方法和技巧,最大程度地减少实地调查时错误的发生。

(1)人员培训

绘图抽样是一项技术性较强的工作,需要较强的方向感、制图技术、电脑操作能力和吃苦耐劳的精神。CHFS项目组从西南财大的高年级本科生和研究生中选拨了一批优秀的绘图抽样员来开展末端抽样的工作,并且对他们进行了读图、绘图、抽样以及软件使用等多方面的严格培训。在进行实地绘图时,绘图抽样员将根据实际情况对参考底图进行实地核查,将参考底图不准确的地理信息加以修改;并且根据本项目的需要,在底图上添加住宅与非住宅的区分、住宅的数量、空宅与空户的确认等必要的信息。

图1 绘图员手绘地图

图2 绘图员电子绘图

CHFS的访员以财经大学的本科生和研究生作为访员主体,由于所有访员均接受过良好的经济知识教育,因此能够更好地理解问题涵义并更好地向受访者传达和解释。在正式“入户访问”之前,项目组对选拔出的学生访员进行系统培训,培训内容包括:第一,访问技巧。在访问前如何确定合格的受访对象,如何取得受访者的信任和配合;在访问时如何向受访者准确、中立地传递问题的含义,并记录访问中遇到的特殊问题;在访问后如何将数据传回并遵守保密性准则。

第二,问卷内容。以小班授课的方式对问卷内容进行熟悉和理解;通过幻灯片、视频等多媒体手段更生动地进行讲解;以课堂模拟访问的形式加深印象并发现不足。

第三,CAPI电子问卷系统和访问管理系统。在课堂上给学员发放上网本。上网本上已经安装CAPI电子问卷系统和中心自主研发的访问管理系统。通过实际操作,引导访员熟悉系统操作,尤其是访问过程中备注信息的使用和各种快捷操作。

第四,田野(Field)试访。课堂培训结束之后,组织学生进行田野(field)试访,即小范围地入户访问,以考核学生对访问技巧和问卷内容的掌握情况,查漏补缺。

CHFS的绘图员培训历经5轮,培训学员232人次,人均培训学时为42小时;访员培训分为两轮,培训学员343人次,人均培训学时为80小时。在培训完成后,CHFS还对访员进行严格的考核评分,对考核表现不理想的访员进行再培训或取消其访问资格。而作为访问管理环节具体实践者的博士生督导,中心工作人员对其进行了更加严格的培训。人均培训时间超过30小时,要求其熟练掌握督导管理系统、样本分配系统和CAPI问卷系统。

上述严格的培训和考核保证了CHFS的访问督导质量和访员质量,为高质量调查访问数据的收集奠定了坚实基础。

(2)社区联络

入户访问的一大困难是取得受访者的信任和理解,因此通过熟悉当地情况的社区或村委工作人员带领,向受访者说明项目的背景和目的,在受访者合作程度不高时进行解释和说服,能够从很大程度上降低项目的拒访率。在CHFS项目中,人民银行分支机构的工作人员协助完成了这一工作,从而使CHFS项目的调查访问工作顺利开展。

2. 访问流程控制

CHFS项目汲取了国际上通用成熟的计算机辅助面访系统(Computer-assisted Personal Interviewing,简称CAPI)框架和设计理念,研发了具有自主知识产权的面访系统和配套管理平台。通过该系统,能够全面实现以计算机为载体的电子化入户访问。通过这种方式,能够有效减少因人为因素所造成的非抽样误差,例如对问题的值域进行预设,减少人为数据录入错误、减少逻辑跳转错误等,并能较好的满足数据的保密性要求和实时性获取的要求,从而能显著提高调查数据的质量。

图3 CAPI问卷系统截图

除了采用电子化的访问系统(CAPI)外,本项目还设计了较为完善的质量监控系统,以期尽可能地降低人为因素导致的误差,具体包括:

(1)严格的样本管理

对拟访问的样本将由电脑进行样本信息的管理、分发和调配,访问员不能为减少访问难度而随意更换样本,从而最大限度地保证样本的随机性和代表性。与CAPI系统相伴随的样本管理系统是该工作顺利进行的关键因素。

该系统主要功能包括样本建立、样本发放、样本调配、样本维护、样本发放、样本追踪、访员、督导的管理、核查样本的发放情况和执行情况,其具体处理流程如下:第一,根据第三阶段抽样得到的抽样结果(房屋编号、底图编号、住宅地址信息等)建立样本数据。

第二,输入访员、实地督导等人员数据信息,并建立访员与督导的对应关联。

第三,根据样本投放目标,建立样本发放规则,样本发放给督导或访员。

第四,实时接收各客户端传回的数据,按既定规则,做数据呈现。

该部分采集的数据主要包括:样本的接收时段数据、样本投放时段的数据、样本的变更历史数据等。

图4 访问管理系统

(2)详细的访问管理系统

访问管理该系统的主要功能包括四个方面:一是接收样本管理与追踪系统发放的样本数据;二是与受访户联系,对接触信息进行采集;三是通过Blaise问卷,进行调查数据采集;四是回传采集数据

该部分采集的数据主要包括:调查数据、接触信息数据(接触时间、接触结果、接触方式、接触环境、预约时段、预约方式等)、访员的行为数据(答题时间、答题间隔、答题次序、键盘鼠标操作记录等)、样本的回传时段数据等。

上述数据通过数据同步,在客户端用户以VPN方式接入服务器,在通信链路稳定的前提下,利用服务器与工作主机的分发与订阅模式进行数据同步,以满足后台工作人员对访问数据进行准实时分析与质量核查的要求。

3. 数据核查

在访问的接触阶段,我们要求访员详细记录每次接触的相关信息,例如敲门时间、陪同人员、受访者的反应等,这些信息有助于分析拒访的原因,并为进一步的应对方案提供依据,还可以防止访员随意更换样本的行为。

借助CAPI系统的数据记录功能,从访谈的录音至访员的每一个鼠标键盘操作的记录,访员在访问过程中的所有“行为数据”(paradata)均被如实详细记录。在网络条件允许的区域,该记录能及时传回项目中服务器,从而实现准实时监控。具体工作包括:(1)对所有完成的样本,按一定比例进行录音核查和电话核查

(2)通过对数据清理后的数据进行统计分析,利用统计学的方法对数据质量进行检验。对明显出现异常的样本数据,通过回放录音、屏幕重现的方式进行数据核查,直至电话核查、实地核查。

(3)事后对所有受访者进行(电话)回访

上述工作保证了CHFS项目在整个访问过程中的顺利推进,没有出现数据质量问题。

浅谈统计数据质量控制.

浅谈统计数据质量控制 论文关键词:统计统计数据统计资料统计人员质量控制 前言;随着市场经济的不断发展,统计失实的现象日渐严重,统计工作者应当本着对本职工作高度负责的精神,进行全过程的、全员参加的、以预防为主的统计数据质量控制。要尽可能采用计算机处理统计资料,最大限度的减少人工参与,加强对统计人员的职业道德和专业水平的培训以及加大统计执法力度等,以保证源头数据的准确性,使我们的统计工作更好的为企业服务。 正文:随着经济快速发展,企业快速成长、扩长信息获取、识别、处理、转换、传递的准确性、效率与速度。在企业经营管理中的重要作用也将愈来愈显著。企业要能在市场竞争中求得生存与此同时发展,一个重要的条件就是——必须要有一个健全的高效的信息系统,一支能提供准确数据的素质过硬的统计队伍,以满足企业经营管理决策所需的各种信息。因此,作为提供信息的企业统计必将在其中扮演重要的角色,发挥重要作用。 从总体上看,现有的统计数据基本上还是能够反映客观实际的。但是,随着市场经济的不断发展,经济结构复杂化,利益主体多元化,再加上体制转化过程中经济秩序混乱,人为干扰增多,因而搞准统计数据的难度也就日益增大,统计失实的潜在危险性也就日渐严重,并将逐步暴露。对此,我们必须需要清醒的认识,要始终不渝地把提高统计数据质量问题,摆到统计工作的首要位置,并才却综合治理措施,切实抓紧抓好,下面就统计数据质量问题谈谈自己一些粗浅的看法。 1 统计数据质量控制的意义 企业统计的目的是为企业经营决策管理提供统计信息。在市场经济条件下,企业经营决策极具风险性,风险产生于不确定性并由不确定性程度决定风险的大小,而不确定性又与信息的准确和及时程度直接相关,信息愈准确及时,不确定性愈低;反之,信息不准确及时,不确定性愈高。所以,准确可靠的统计数据,便于决策和管理者正确地把握形势,客观地剖析问题,从而作出科学的决策。反之,有水分的、失实的统计数

数据管控规范标准[详]

1数据管理架构 1.1数据管理平台功能蓝图 数据管理就是对交易中心现有的业务支撑系统的数据进行统一的数据管理、质量管控、并且通过标准的共享模式,实现核心数据统一存储,维护和使用的问题,提升交易中心现有数据的安全存储和高效使用等能力,并更加深入地进行数据挖掘等工作,为中心创造更多的价值。未来的数据管理平台将对中心现有系统的数据进行统一的数据的整合、数据的管控,并运用数据进行统一的服务管控来提升服务共享的水平,为中心的服务提供全方面的数据支撑。数据管理平台的功能蓝图如图所示: ●数据整合域,是对现有业务系统的数据进行采集和清洗转换,并对采集过程中的数 据进行质量检测,来确保整合数据的准确性和可靠性。 ●数据管控域,对采集到数据按照其不同的属性进行分类存储管控,对数据的质量、 数据的安全以及信息的生命周期进行统一的管理,并对数据在使用过程的各种信息 进行统计分析。 ●服务共享域,利用数据管理平台已有的数据资源,进行自定义的数据服务配置, 定制出符合要求的服务,进行相关服务流程的编排,通过数据中心将服务进行发布。

●服务管理域,主要是对提供的服务进行管理,包括服务应用的管理,服务流程的管 理以及服务监控。 1.2数据集成 数据整合就是将离散于各个业务系统中的数据进行集中化。数据整合阶段主要分为以下三个步骤执行: ●数据类型识别 根据业务使用情况分析目前各个系统中的数据实体,其中哪些是主数据,哪些是非主数据但需要共享的数据,哪些是私有数据。数据类型会作为制定同步规则和清洗规则的重要依据。 ●数据同步规则确定 分析采集的各种数据需要达到的同步频率,从实时、准实时到天、月不等,针对不同的同步频率需求结合每次同步的数据量来选择同步方式,ETL(抽取-转化-加载)和ESB(企业服务总线)分别适用于不同场景。ETL本身也有多种具体的技术手段来实现各种情况下的同步,如Hotplug、全表对比、时间戳等。在这里,将根据不同的数据类别和数据使用频度和需求频度等情况,制定出相应的数据同步的机制,采用实时数据整合和批量数据整合两种方式进行数据的整合。 ●数据清洗规则确定 在进行数据整合过程中,由于不同系统中可能重复出现的数据,以及数据本身的缺失和错误等问题,为了避免由于不同系统中相同数据由于编码规则、格式之间的差异,在清洗过程中需要制定统一的数据清洗规则,对数据进行清洗和转换,确保数据管理平台中的数据能够保持一致性。 同时,在数据清洗的过程中,需要对采集数据的质量以及清洗后数据的质量进行检测。其中,在数据采集过程中,对采集的数据进行整合,确保采集的数据都能满足质量要求,能够通过正确的清洗和转换;对于转换完成的数据,通过再次的检测,保证转换数据的一致性和正确性,从而确保数据的准确行和权威性。

银行监管统计数据质量管理良好标准试行银监发

银行监管统计数据质量管理良好标准试行银监 发 SANY标准化小组 #QS8QHH-HHGX8Q8-GNHHJ8-HHMHGN#

附件一: 银行监管统计数据质量管理良好标准 (试行) 本标准适用范围为根据《银行业监管统计管理暂行办法》(2004年第6号主席令)开展监管统计工作的全部银行业金融机构(下文简称“银行”)。标准的总体框架包含5方面要素,分别为:组织机构及人员,制度建设,系统保障和数据标准,数据质量的监控、检查与评价,数据的报送、应用和存储。5方面要素下共有15项原则,每项原则下有若干具体标准,共61条标准。 (一)组织机构及人员 原则1 组织领导 银行董事会和高级管理层高度重视并积极推动本行数据质量管理和监管统计工作,明确政策和目标,建立机制和流程,落实各环节责任。 具体标准: 银行董事会制定明确的政策,将本行数据质量管理纳入内控合规体系和战略规划之中,并定期对其有效性和执行情况进行评估。

银行高级管理层确立数据质量管理的目标,建立机制和流程,明确职权和责任,定期对本行数据质量管理水平进行评估,并有效落实数据质量问责制。 银行法定代表人或主要负责人对本行监管统计数据的真实性负责,亲自或委派领导班子成员(以下简称“主管领导”)组织领导监管统计工作,对制度性变革等重大监管统计事项能够及时研究部署,在资源调配方面予以充分支持和保障。 原则2 归口管理 银行对监管统计工作实行统一管理、分级负责的管理体制,确定归口管理部门组织管理本机构的监管统计工作。 具体标准: 银行总行确定监管统计归口管理部门,授权其负责全行监管统计领导、组织、协调和管理工作。 总行归口管理部门根据授权负责制定全行监管统计工作制度和流程,提出监管统计数据质量管理措施,协调和督促其他相关业务部门,共同做好监管统计工作,定期检查并发现监管统计数据质量存在的问题,提出合理化建议,向主管领导报告。 银行各级分支机构确定相应的归口管理部门,负责本级机构监管统计工作,在总行归口管理部门统一领导下,有效履行监管统计相关职责。 原则3 岗位设置

浅析统计数据质量控制问题

浅析统计数据质量控制问题 统计数据质量控制统计 统计数据质量是对整个统计工作最为公正的评价,是统计工作核心的内容。保证统计数据的质量,确保统计数据的有效、准确,能够更好地满足政府和社会公众多方的需求。综合来看,我国统计数据质量问题表现为……,需要有效的控制措施加以解决。 一、当前的统计数据质量主要问题表现 (一)质量控制规范缺位 由于质量控制的规范缺位,导致统计机构与用户及社会之间很难实现有效沟通,很多数据用户和社会各界对于统计工作的复杂性和不可避免的统计误差没有认识,关于统计对数据的质量采取的控制方法、控制的程度以及控制结果缺乏了解。因此,即使我国的统计一直非常重视统计数据的质量,也为此做了大量工作,但是统计数据的用户和社会各界对统计数据的质量仍然非常不满。 (二)统计数据质量控制工作片面化 统计数据的全过程控制取得较大成功的经验和措施往往集中在几个项目领域,应用范围狭窄。多数统计数据质量缺少全程控制,很多环节出现疏漏。对调查环节的质量控制要求较高,但是在设计环节对数据需求考虑较少,数据的相关性得不到控制。而在人员方面,对于统计系统内部人员控制比较到位,但是对于统计系统以外的,占统计工作人员的基层人员却缺少控制。 (三)统计数据的质量控制系统不完善 统计数据的质量控制技术在统计工作和研究实践中应用并不广泛,而经常性的数据质量控制在实际的操作中也偏于事后分析评估,事前工作做得不到位,分类预防控制措施不足,对误差模型的应用也很少。统计调查制度上对于事先控制措施,比如将填表要求中的逻辑审核关系、平衡关系应用于质量设计等内容比较少,而在统计数据的质量评估工作中,对于将评估的结果或者结论应用在下一次调查方案的设计和改进方面,也没有充分的体现,事后的质量控制技术和数据的质量控制组织活动不能实现较好的结合。数据质量控制评估方法虽然已经制定,但是缺少具体的支持措施,比如部门职责划分不明确,职权、义务不清晰,数据质量控制评估方法的具体应用不规范等。

银行监管统计数据质量管理良好标准(DOC版)

银行监管统计数据质量管理良好标准 (试行DOC版) 本标准适用范围为根据《银行业监管统计管理暂行办法》(2004年第6号主席令)开展监管统计工作的全部银行业金融机构(下文简称“银行”)。标准的总体框架包含5方面要素,分别为:组织机构及人员,制度建设,系统保障和数据标准,数据质量的监控、检查与评价,数据的报送、应用和存储。5方面要素下共有15项原则,每项原则下有若干具体标准,共61条标准。 (一)组织机构及人员 原则1 组织领导 银行董事会和高级管理层高度重视并积极推动本行数据质量管理和监管统计工作,明确政策和目标,建立机制和流程,落实各环节责任。 具体标准: 1.1银行董事会制定明确的政策,将本行数据质量管理纳入内控合规体系和战略规划之中,并定期对其有效性和执行情况进行评估。 1.2银行高级管理层确立数据质量管理的目标,建立机制和流程,明确职权和责任,定期对本行数据质量管理水平进行评估,并有效落实数据质量问责制。

1.3银行法定代表人或主要负责人对本行监管统计数据的真实性负责,亲自或委派领导班子成员(以下简称“主管领导”)组织领导监管统计工作,对制度性变革等重大监管统计事项能够及时研究部署,在资源调配方面予以充分支持和保障。 原则2 归口管理 银行对监管统计工作实行统一管理、分级负责的管理体制,确定归口管理部门组织管理本机构的监管统计工作。 具体标准: 2.1银行总行确定监管统计归口管理部门,授权其负责全行监管统计领导、组织、协调和管理工作。 2.2总行归口管理部门根据授权负责制定全行监管统计工作制度和流程,提出监管统计数据质量管理措施,协调和督促其他相关业务部门,共同做好监管统计工作,定期检查并发现监管统计数据质量存在的问题,提出合理化建议,向主管领导报告。 2.3银行各级分支机构确定相应的归口管理部门,负责本级机构监管统计工作,在总行归口管理部门统一领导下,有效履行监管统计相关职责。 原则3 岗位设置 银行在监管统计归口管理部门和其他相关业务部门设立相应的监管统计岗位,岗位职责明确,并配备能满足岗位履职所需的资源。 具体标准: 3.1银行在监管统计归口管理部门设立与本行业务规模和复

空间数据质量特性与质量控制.

空间数据质量特性与质量控制 范志坚1,2,方源敏1,汪虹2 (1.昆明理工大学国土资源工程学院昆明 650093;2.云南省基础地理信息中心昆明 650034) 摘要:本文主要讨论空间数据质量特性、质量控制所涉及的内容。结合笔者最近从事空间数 据库建库的具体实践和工作体会,探讨从位置精度、属性精度、时间精度、数据完整性和逻辑一致性等方面对数据质量进行全面控制,最终建成一个质量可靠的空间数据库。 关键词:地理信息系统;空间数据库;空间数据;质量特性;质量控制 Quality characteristic and Quality control of Spatial data Fan Zhi-jian1,2,Fang Yuan-min1,Wang-Hong2 (1.Faculty of Land Resources Engineering,Kunming University of Science and Technology,Kunming 650093,China;2.Yunnan Provincial Geomatics center,Kunming 650034,China) Abstract:This paper mainly talks over contents which are involved with quality characteristic and quality control of spatial data.Integrating with concrete practice and work experience which the writer has recently been engaged in establishing spatial database,a very comprehensive control of data quality should be discussed from aspects of positional accuracy、attribute accuracy、temporal accuracy、data compression、as well as logic conformance and so on.Finally,a dependable spatial database should be set up. Key words:GIS;spatial database;spatial data;quality characteristic;quality control 0 引言 空间数据库是随着地理信息系统(GIS)的开发和应用而发展起来的数据库新技术,它是地理信息系统的重要组成部份,是地理信息系统应用部份的前题和基础。空间数据库为此建立了如实体、关系、数据独立性、完整性、数据操作、资源共享等一系列基本概念。以空间数据存储和操作为对象的空间数据库,把被管理的数据从一维推向了二维、三维甚至更高维。空间数据库是一种应用于空间数据处理与信息分析领域的具有工程性质的数据库,它所管理的对象主要是空间实体。在空间数据库中,空间数据质量的好坏,直接影响到空间数据库的经济效益和社会效益。 要得到高质量的空间数据,最重要的是在空间数据生产和使用过程中进行质量管理和质量控制。通过质量管理和质量控制,可以分析影响产品质量的原因,进而提高空间数据的质量。空间数据的质量是空间数据库生存和发展的保障,缺少质量指标的空间数据将无法得到用户的信任,且直接影响到地理信息系统应用、分析、决策的正确性和可靠性。由此可知,空间数据质量是空间数据库的生

关于统计数据质量问题的研究

关于统计数据质量问题的研究

【摘要】我国政府于2002年4月15日正式加入了数据公布通用系统。统计虽然“入世”了,但不论是与社会各界对统计信息的需求相比,还是对统计核算和统计数据公布的国际准则的运作要求相比,我国的统计数据质量目前都还有一定差距。为了更好地满足社会经济发展过程中社会各界对统计数据的需求,使我国统计进一步与国际接轨,有必要对我国统计数据质量管理进行研究。 【关键词】统计数据;质量问题;国家统计局 统计数据质量问题是衡量统计工作的核心指标。尤其是我国加入WTO,与世界经济接轨的今天,社会各界对统计信息的需求量越来越大,对统计信息质量的要求也越来越高。统计信息质量的高低直接影响和决定着统计信息的可利用性。统计数据质量低下将会直接导致错误的决策。因此,努力提高统计数据的质量,实现统计信息的准确、有效、全面、有着重要的意义。 一、统计数据质量的含义 传统的统计数据质量仅仅指其准确性,通常

用统计估计中的误差来衡量。但如今“质量”的概念被拓宽了,“统计数据质量”的概念也有必要拓宽。目前各国统计机构和有关国际组织对统计数据质量含义的解释和理解仍存在一定的分歧,对统计数据质量应涵盖哪几个方面,还没有统一的标准。各国从本国的实际情况以及对数据质量含义的理解出发,确定了不同的数据质量标准。如英国政府统计数据质量标准是准确性、时效性、有效性、客观性;韩国的质量标准则是适用性、准确性、时效性、可索取性、可比性、有效性。在我国,统计数据质量主要包括统计数据的核心质量、形式质量及延伸质量三大方面。 二、我国统计数据质量管理现状及存在问题 改革开放以来,我国统计人员大胆探索,辛勤实践,在指标体系、调查方法、统计标准、技术手段、数据报送与处理方式等方面进行改革,较好地满足了社会各界对统计信息的需求,推动了统计事业的发展。但是,浮夸风以及片面追求假、大、空现象仍然存在,这些都违背了统计工作的基本要求,阻碍了统计工作的发展。目前我国统计数据质量管理上存在的问题主要有: 1. 统计数据失真。统计制度不够完善是造

从统计流程谈统计数据质量控制

从统计流程谈统计数据质量控制 作为一名基层统计工作者,自己从事规模工业统计2年多的时间不算长,但是这两年却是规模工业统计发生深刻变革的两年,统计范围的变化,计算方法的变更,能源统计的变革。每一次制度改革,都关乎统计数据的质量,改革的好坏对于统计数据质量有着至关重要的影响。作为一名统计改革的亲历者,抱着抛砖引玉态度,提几点自己对数据质量控制的思考,希望引起大家的共鸣,甚至引出前辈、专家的大思考,对以后规模工业统计改革也能有所裨益。 统计数据质量是统计事业的生命,我想从基层统计工作的流程入手,只有每个流程的质量都得到保证,统计数据质量才会有保障,通过流程解剖统计数据质量存在的问题,寻求解决问题的办法。 笔者从事的是规模工业统计,就以规模工业统计为例。就规模工业来说,一张报表的完成基本上要经历报表收集—录入审核—反馈修改—汇总上报四个流程,规模工业最重要和最常态的报表是产值报表和财务报表,也就是我们行业通常所称的201表和202表,我就以此为例谈谈报表的四个流程,以此来揭示工作中存在的问题。 第一个流程是报表收集。201表省统计局要求的上报时间是下个月的4号中午12点之前,为了能够顺利收集各区

县和企业报表,我们市统计局要求他们分别在2号和1号之前上报,县统计局收集报表就更加靠前了,通常都安排在月底之前上报。然而企业断帐的时间却不尽一致,部分企业要到下个月的上旬才能出初步数据,有些集团公司或总厂由于要收集下面分公司或分厂的数据,就难免还要晚一点。这里问题就暴露出来了,一方面催着要报表,另一方面数据出不来,企业怎么办?要么先报个预计数应付一下,要么迟报或者拒报,但是迟报或拒报就会违犯《统计法》,面临处罚,所以通常企业都选择预计上报。众所周知,企业上报数据是我们统计数据的源头,源头上的数据把握不准,势必影响统计数据质量。但是如果要保证数据质量就要牺牲一些时效性,如何既保证准确性又不失时效性呢?这是当前基层统计工作面临的两难抉择。 统计报表的第二个流程是录入审核。这是保证统计数据质量的重要一环,县市和企业上报的数据准不准确,报表内有没有逻辑错误,报表与报表之间有没有互相匹配和验证,都要靠我们这个流程来发现和纠正。这个流程的数据质量如何控制?就要靠我们的基层统计工作者的业务素养和工作责任心。有些人认为,现在的报表处理都是通过电脑软件来进行,有电脑审核还会有什么错误审核不出来吗?统计工作者只要根据审核错误修改就是了,不需要太高的业务素养。其实不然,电脑并不是万能的,它只能根据程序中的公式来

数据质量管理

数据质量管理 定义: 是指对数据从计划、获取、存储、共享、维护、应用、消亡生命周期的每个阶段里可能引发的各类数据质量问题,进行识别、度量、监控、预警等一系列管理活动,并通过改善和提高组织的管理水平使得数据质量获得进一步提高。 目录 1数据质量管理 2数据质量管理评估维度 3分析影响数据质量的因素 4MTC-DQM 数据质量管理的方法与步骤 一数据质量管理 数据质量管理是循环管理过程,其终极目标是通过可靠的数据提升数据在使用中的价值,并最终为企业赢得经济效益。 二数据质量管理评估维度 由于数据清洗(DataCleaning)工具通常简单地被称为数据质量(Data Quality)工具,因此很多人认为数据质量管理,就是修改数据中的错误、是对错误数据和垃圾数据进行清理。 这个理解是片面的,其实数据清洗只是数据质量管理中的一步。数据质量管理(DQM),不仅包含了对数据质量的改善,同时还包含了对组织的改善。针对数据的改善和管理,主要包括数据分析、数据评估、数据清洗、数据监控、错误预警等内容;针对组织的改善和管理,主要包括确立组织数据质量改进目标、评估组织流程、制定组织流程改善计划、制定组织监督审核机制、实施改进、评估改善效果等多个环节。 任何改善都是建立在评估的基础上,知道问题在哪才能实施改进。通常数据质量评估和管理评估需通过以下几个维度衡量。

1 数据质量评估维度 完整性Completeness:完整性用于度量哪些数据丢失了或者哪些数据不可用。 规范性Conformity:规范性用于度量哪些数据未按统一格式存储。 一致性Consistency:一致性用于度量哪些数据的值在信息含义上是冲突的。 准确性Accuracy:准确性用于度量哪些数据和信息是不正确的,或者数据是超期的。 唯一性Uniqueness:唯一性用于度量哪些数据是重复数据或者数据的哪些属性是重复的。 关联性Integration:关联性用于度量哪些关联的数据缺失或者未建立索引。 2 管理质量评估维度 配置管理Config Management:此维度用于度量数据在其生命周期内的一切资源是否得到了控制和规范,即数据的计划、产生、变更直至消亡的过程中,与数据相关的计划、规范、描述是否收到控制。评估指标包括:评估配置项的细化粒度、评估基线准确度和频度以及变更流程是否合理完善等。 培训 Training:此维度用于度量数据的生产和使用者在数据生命周期内的一切活动中是否经过了知识和技能的培训、培训效果是否满足岗位需要;受训的知识和技能是否经过审核和确认,受训的内容是否与企业文化和价值观一致;培训流程是否合理完善等; 验证和确认Verify & Validation:此维度用于度量数据在其生命周期内是否得到验证和确认。评估内容包括是否通过验证流程确保工作产品(数据)满足指定的要求、是否通过“确认”流程保证工作产品(数据)在计划的环境中满足使用的要求;“验证”和“确认”的流程是否完善; 监督和监控Monitoring:此维度用于度量产生和使用数据的流程在数据的整个生命周期内是否真正受控。脱离监控的信息、技术、计划、流程、制度,会导致数据质量低下。监督和监控的流程是否完善。 三分析影响数据质量的因素 影响数据质量的因素主要来源于四方面:信息因素、技术因素、流程因素和管理因素

统计数据质量控制问题研究-最新范文

统计数据质量控制问题研究 摘要:随着社会主义市场经济的不断发展,统计失实的的现象日渐严重,统计工作者应当本着对本职工作高度负责的精神,进行全过程的、全员参加的、以预防为主的统计数据质量控制。要尽可能采用计算机处理统计资料,最大限度的减少人工参与,加强对统计人员的职业道德和专业水平培训以及加大统计执法力度等,以保证源头数据的准确性,使我们的统计工作更好的地为现代社会经济服务。 正文 现代经济正步入以世界统一市场为标志的世界经济一体化轨道,企业的成败,取决于信息获取、识别、处理、转换、传递的准确性、效率与速度。因此,信息在企业经营管理中的重要作用也将愈来愈显著。随着我国改革开放,确立市场经济体制,和加入WTO,企业要能在国际国内激烈的市场竞争中求得生存与此同时发展,一个重要的条件就是--必须要有一个健全的高效的信息系统,以满足企业经营管理决策所需的各种内外信息。因此,作为提供信息的企业统计必将在其中扮演重要角色,发挥重要作用。特别是对我们***系统来说,随着”大企业、大市场、大品牌”的形成,以行政区划为单一的卷烟市场割据将很快被打破,搬掉门槛推倒墙是大势所趋。再下一步就有可能是***专卖法的取消,所有这些都告诉我们,***行业也将马上面临着国际国内激烈的市场竞争。想在这种激烈的竞争中生存发展,必须要有一支能够为企业的决策和管理者提供准确数据的素质过硬的统计队伍。

近年来,我国统计工作取得了比较显著的成绩。从总体上来看,我国现有的统计数据,基本上还是能够反映客观实际的。但是,随着社会主义市场经济的不断发展,经济结构复杂化,利益主体多元化,再加上体制转化过程中经济秩序混乱,人为干扰增多,因而搞准统计数据的难度也就日益增大,统计失实的潜在危险性也就日渐严重,并将逐步暴露。对此,我们必须要有清醒的认识,要始终不渝地把提高统计数据质量问题,摆到统计工作的首要位置,并采取综合治理措施,切实抓紧抓好。下面就统计数据质量问题谈谈自己一些粗浅的看法。 一、统计数据质量控制的意义 企业统计的目的是为企业经营决策管理提供统计信息。在市场经济条件下,企业经营决策极具风险性,风险产生于不确定性并由不确定性程度决定风险的大小,而不确定性又与信息的准确和及时程度直接相关,信息愈准确及时,不确定性愈低,反之,亦然。所以,准确性和及时性是对统计资料的两项基本要求。其中,准确性的要求是第一位的,是统计工作的生命。它确定着统计资料是否有效和价值的高低,是衡量统计数据质量的根本标志。准确可靠的统计数据,便于决策和管理者正确地把握形势,客观地剖析问题,从而作出科学的决策。反之,有水分的、失实的统计数据,相互矛盾的统计数据,给决策者以错误的信号,将会误导决策和调控,对企业的发展将会造成重大损失。因此,统计工作者必须以对本职工作高度负责的精神,以统计数据为对象,以消除统计数据的差错为目标,千方百计搞准统计数据,达到强化统计数据质量控制的目的。

数据质量检查与质量控制讲

数据质量检查与质量控制 要想清楚并深层次的了解数据质量检查与质量控制的原理,首先应该知道数据质量的基本概念以及数据误差的来源。因为在某些情况下,数据质量问题在很大程度上可以看作是数据误差问题。下面我就详细的为大家介绍数据质量的基本概念和误差来源及其分析,并就其误差,我们再结合相应的检查方法进行精度分析的探讨。 一、数据质量的基本概念 1、准确性(Accuracy) 即一个记录值(测量或观察值)与它的真实值之间的接近程度。这个概念是相当抽象的,似乎人们已经知道存在这样的事实。在实际中,测量的知识可能依赖于测量的类型和比例尺。一般而言,单个的观察或测量的准确性的估价仅仅是通过与可获得的最准确的测量或公认的分类进行比较。空间数据的准确性经常是根据所指的位置、拓扑或非空间属性来分类的。它可用误差(Error)来衡量。 2、精度(Precision) 即对现象描述的详细程度。如对同样的两点,精度低的数据并不一定准确度也低。精度要求测量能以最好的准确性来记录,但是这可能误导提供了较大的精度,因为超出一个测量仪器的已知准确度的数字在效率上是冗于的。因此,如果手工操作的数字化板所返回的坐标不可能依赖于比0.1mm还要准确的一个“真正的”数值,那么就不存在任何的点,在十分之一的地方是以mm表示的。 3、空间分辨率(Spatial Resolution) 分辨率是两个可测量数值之间最小的可辩识的差异。那么空间分辨率可以看作记录变化的最小距离。在一张用肉眼可读的地图上,假设一条线用来记录一个边界,分辨率通常由最小线的宽度来确定。地图上的线很少以小于0.1mm的宽度来画。在一个图形扫描仪中最细的物理分辨率从理论上讲是由设施的像元之间的分离来确定的。在一个激光打印机上这是一英寸的300分之一,而且在高质量的激光扫描仪上,这会细化十倍。如果没有放大,最细的激光扫描仪的线是看不到的,尽管这依赖于背景颜色的对照。因此,在人的视觉分辨率和设备物理分辨率之间存在着一个差异。一个相似的区别可以存在于两个最小距离之间,即当人操作者操作数字化仪时所区别的最小距离和数字化仪硬件可以不断地报告的最小距离。 4、比例尺(Scale) 比例尺是地图上一个记录的距离和它所表现的“真实世界的”距离之间的一个比例。地图的比例尺将决定地图上一条线的宽度所表现的地面的距离。例如,在一个1:10000比例

数据管控规范

1数据管理架构 1.1 数据管理平台功能蓝图 数据管理就是对交易中心现有的业务支撑系统的数据进行统一的数据管理、质量管控、并且通过标准的共享模式,实现核心数据统一存储,维护和使用的问题,提升交易中心现有数据的安全存储和高效使用等能力,并更加深入地进行数据挖掘等工作,为中心创造更多的价值。未来的数据管理平台将对中心现有系统的数据进行统一的数据的整合、数据的管控,并运用数据进行统一的服务管控来提升服务共享的水平,为中心的服务提供全方面的数据支撑。数据管理平台的功能蓝图如图所示: ●数据整合域,是对现有业务系统的数据进行采集和清洗转换,并对采集过程中的数 据进行质量检测,来确保整合数据的准确性和可靠性。 ●数据管控域,对采集到数据按照其不同的属性进行分类存储管控,对数据的质量、 数据的安全以及信息的生命周期进行统一的管理,并对数据在使用过程的各种信息 进行统计分析。 ●服务共享域,利用数据管理平台已有的数据资源,进行自定义的数据服务配置, 定制出符合要求的服务,进行相关服务流程的编排,通过数据中心将服务进行发布。

●服务管理域,主要是对提供的服务进行管理,包括服务应用的管理,服务流程的管 理以及服务监控。 1.2 数据集成 数据整合就是将离散于各个业务系统中的数据进行集中化。数据整合阶段主要分为以下三个步骤执行: ●数据类型识别 根据业务使用情况分析目前各个系统中的数据实体,其中哪些是主数据,哪些是非主数据但需要共享的数据,哪些是私有数据。数据类型会作为制定同步规则和清洗规则的重要依据。 ●数据同步规则确定 分析采集的各种数据需要达到的同步频率,从实时、准实时到天、月不等,针对不同的同步频率需求结合每次同步的数据量来选择同步方式,ETL(抽取-转化-加载)和ESB(企业服务总线)分别适用于不同场景。ETL本身也有多种具体的技术手段来实现各种情况下的同步,如Hotplug、全表对比、时间戳等。在这里,将根据不同的数据类别和数据使用频度和需求频度等情况,制定出相应的数据同步的机制,采用实时数据整合和批量数据整合两种方式进行数据的整合。 ●数据清洗规则确定 在进行数据整合过程中,由于不同系统中可能重复出现的数据,以及数据本身的缺失和错误等问题,为了避免由于不同系统中相同数据由于编码规则、格式之间的差异,在清洗过程中需要制定统一的数据清洗规则,对数据进行清洗和转换,确保数据管理平台中的数据能够保持一致性。 同时,在数据清洗的过程中,需要对采集数据的质量以及清洗后数据的质量进行检测。其中,在数据采集过程中,对采集的数据进行整合,确保采集的数据都能满足质量要求,能够通过正确的清洗和转换;对于转换完成的数据,通过再次的检测,保证转换数据的一致性和正确性,从而确保数据的准确行和权威性。 1.3 数据管控 数据管控就是对于进行整合后的数据进行相关的管控,使其能够满足交易中心管理对于

经典常用质量控制方法

经典常用质量控制方法 一、质量管理方法(QC的七大手法) 1)检查表; 2)分层法 ; 3)散布图; 4)排列图; 5)直方图 ; 6)因果图; 7)控制图; 1. 查检表 以简单的数据或容易了解的方式,作成图形或表格,只要记上检查记号,并加以统计整理,作为进一步分析或核对检查用。 2. 柏拉图 根据所搜集之数据,以不良原因、不良状况、不良发生或客户抱怨的种类、安全事故等,项目别加以分类,找出比率最大的项目或原因并按照大小顺序排列,再加上累积值的图形。用以判断问题症结之所。 3. 特性要因图 一个问题的特性(结果)受一些要因(原因)的影响时,将这些要因加以整理,而成为有相互关系而且有条且有系统的图形。其主要目的在阐明因果关系,亦称『因果图』,因其形状与鱼骨图相似故又常被称作『鱼骨图』。 4. 散布图

把互相有关连的对应数据,在方格上以纵轴表示结果,以横轴表示原因,然后用点表示分布形态,根据分析的形态未研判对应数据之间的相互关系。 5. 管制图 一种用於调查制造程序是否在稳定状态下,或者维持制造程序在稳定状态下所用的图。管制纵轴表产品品质特性,以制程变化数据为分度;横轴代表产品的群体号码、制造曰期,依照时间顺序将点画在图上,再与管制界限比较,以判别产品品质是否安定的一种图形。 6. 直方图 将搜集的数据特性值或结果值,在一定的范围横轴上加以区分成几个相等区间,将各区间内的测定值所出现的次数累积起来的面积用柱形画出的图形。因此也叫柱形图。 7. 层别法 针对部门别、人别、工作方法别、设备、地点等所搜集的数据,按照它们共同特徵加以分类、统计的一种分析方法 区别: 1.QA偏重于质量管理体系的建立和维护,客户和认证机构质量体系审核工 作,质量培训工作等;QC主要集中在质量检验和控制方面。 QA的工作涉及公司的全局,各个相关职能,覆盖面比较宽广,而QC主要集中在产品质量检查方面,只是质量工作的其中一个方面。 2.QA并不是立法机构 立法机构应该是R&D,或工艺工程部门 QA主要是保证生产过程受控或保证产品合格,着重于维护, 而QC一般是实际质量控制,如检验,抽检,确认,很多公司只有质量部只包括QA的职责,把QC的工作放入生产部门 二、过程质量管理方法 (一)、原材料检验 原进厂检验包括三个方面:

关于提高统计数据质量的思考

关于提高统计数据质量的思考 随着社会主义市场经济体制的逐步完善和社会经济的不断发展,各级党委、政府和社会各界对统计信息的需求与日俱增,对统计数据质量的要求越来越高。统计数据能否取信于社会、能否得到社会的承认,关键取决于数据质量。从总体上看,政府统计部门公布的主要宏观统计数据能反映经济社会发展实际情况。但是,在一些地区、部门和单位,统计数据不实的现象也确实存在,有的甚至与实际情况还相差很远,导致社会各界包括国际上对统计数据质量问题的看法比较多。在经济社会的迅速发展的新形势下,统计工作的难度不断加大,统计工作面临新的挑战。统计数据质量是统计工作的生命,统计数据不准作为统计部门来说责无旁贷,但究其根本原因并不仅仅是统计方法制度技术问题,它涉及到社会的各个层面,要彻底根治,必须从制度着手,从源头抓起。如何提高统计数据的质量,确保统计数据准确、真实、可靠,是摆在各级统计机构和统计工作者面前的突出问题,提高统计数据的质量是统计工作永恒的主题,各级统计机构和统计人员责任重大,任重道远。 一、统计数据质量的现状 近年来,统计工作越来越得到各级党委政府的重视,统计地位不断提高,统计方法技术日趋先进,统计工作条件不

断改善,各级统计机构为提高统计数据质量,采取了一系列措施,并取得了比较显著的成绩。总体上来看,现有的统计数据,基本上能够客观地反映经济社会事业发展的实际情况。但是,随着社会主义市场经济的不断发展,经济结构复杂化,利益主体多元化,再加上体制转化过程中经济秩序混乱,人为干扰增多,统计调查对象的法制观念淡泊,统计执法不严、部分统计人员的业务素质较差等多种因素的影响,使搞准统计数据的难度也就日益增大,统计数据失真的潜在危险性已逐渐暴露,并日渐严重。现行的统计制度、传统的统计方式与日益增长的统计信息需求已经成为统计工作的主要矛盾。在一些企业、部门、基层单位还存在虚报、瞒报,甚至伪造、篡改统计数据的违法行为,对此,必须引起高度重视,采取有效措施加以纠正处理,尽量减少和避免统计违法行为的发生,进一步净化统计环境,提高统计数据质量,确保统计数据真实可信。 二、影响统计数据质量的主要因素 影响统计数据质量的因素很多,主要其因素有: 1、统计法制意识淡薄。在一些地方,从主管部门到基层单位,从领导到群众,很大一部分都没有充分认识到虚报、瞒报、伪造、篡改统计资料与其他触犯刑律的行为一样,也是一种违法行为,也要承担法律责任。在当前这种统计法制意识淡薄的社会环境中,对不据实填报统计数据者不仅法律

数据质量管理规范-new-v0.1

数据质量管理规范

1 范围 本标准规定了国网数据质量管理内容、管理机制和工作流程。 本标准适用于国网项目整个生命周期的数据质量管理,非项目可参照使用。 2 术语和定义 下列术语和定义适用于本文件。 2.1数据质量data quality 客观反映业务数据固有特性的程度。 注:“固有的”(其反义是“赋予的”)就是指在某事或某物中本来就有的,尤其是永久的特性。 2.2数据质量管理data quality management 对数据从计划、获取、存储、共享、维护、应用、消亡生命周期的每个阶段里可能引发的各类数据质量问题,进行识别、监控、预警、处理等一系列管理活动,并通过改善和提高管理水平使得数据质量获得进一步提高。 2.3技术评估technology assessment 科技主管部门对已审批的业务需求,组织相关部门和人员进行技

术可行性评估,并作出评估结论的活动。 2.4数据质量监控data quality control 获取业务各环节的数据质量信息,结合有关检查规则和采集规则,对数据质量情况进行诊断,并及时向数据质量管理实施部门报告的活动。 2.5数据质量评估data quality assessment 由数据质量管理实施部门根据需要发起,得到评估结果并作为依据评估指标和评估方法进行评价,数据质量改进的参考和依据。2.6数据质量报告data quality report 对数据质量日常监控以及质量评估等过程累积的各种信息进行汇总、梳理、统计和分析,形成统计报告的过程。 2.7数据质量知识data quality knowledge 在数据质量管理活动中获取的有关数据质量问题处理的经验和成果。

银行监管统计数据质量管理良好标准(试行)

附件一: 银行监管统计数据质量管理良好标准 (试行) 本标准适用范围为根据《银行业监管统计管理暂行办法》(2004年第6号主席令)开展监管统计工作的全部银行业金融机构(下文简称“银行”)。标准的总体框架包含5方面要素,分别为:组织机构及人员,制度建设,系统保障和数据标准,数据质量的监控、检查与评价,数据的报送、应用和存储。5方面要素下共有15项原则,每项原则下有若干具体标准,共61条标准。 (一)组织机构及人员 原则1 组织领导 银行董事会和高级管理层高度重视并积极推动本行数据质量管理和监管统计工作,明确政策和目标,建立机制和流程,落实各环节责任。 具体标准: 1.1银行董事会制定明确的政策,将本行数据质量管理纳入内控合规体系和战略规划之中,并定期对其有效性和执行情况进行评估。 1.2银行高级管理层确立数据质量管理的目标,建立机制和流程,明确职权和责任,定期对本行数据质量管理水平进行评估,

并有效落实数据质量问责制。 1.3银行法定代表人或主要负责人对本行监管统计数据的真实性负责,亲自或委派领导班子成员(以下简称“主管领导”)组织领导监管统计工作,对制度性变革等重大监管统计事项能够及时研究部署,在资源调配方面予以充分支持和保障。 原则2 归口管理 银行对监管统计工作实行统一管理、分级负责的管理体制,确定归口管理部门组织管理本机构的监管统计工作。 具体标准: 2.1银行总行确定监管统计归口管理部门,授权其负责全行监管统计领导、组织、协调和管理工作。 2.2总行归口管理部门根据授权负责制定全行监管统计工作制度和流程,提出监管统计数据质量管理措施,协调和督促其他相关业务部门,共同做好监管统计工作,定期检查并发现监管统计数据质量存在的问题,提出合理化建议,向主管领导报告。 2.3银行各级分支机构确定相应的归口管理部门,负责本级机构监管统计工作,在总行归口管理部门统一领导下,有效履行监管统计相关职责。 原则3 岗位设置 银行在监管统计归口管理部门和其他相关业务部门设立相应的监管统计岗位,岗位职责明确,并配备能满足岗位履职所需的资源。 具体标准:

质量控制方法

质量控制方法 质量控制方法是保证产品质量并使产品质量不断提高的一种质量管理方法。它通过研究、分析产品质量数据的分布,揭示质量差异的规律,找出影响质量差异的原因,采取技术组织措施,消除或控制产生次品或不合格品的因素,使产品在生产的全过程中每一个环节都能正常的、理想的进行,最终使产品能够达到人们需要所具备的自然属性和特性,即产品的适用性、可靠性及经济性。 特点与作用 本法是由美国贝尔电话研究所休哈特在1924年首先提出,后于1931年由他与同一研究所的道奇和罗米格两人一起研究进一步发展,成为创始人。它有3个特点:一是运用数量统计方法;二是着重于对生产全过程中的质量控制;三是广泛运用各种质量数据 图。 本法的主要作用是:可以使设计、制造和检验3方面的人员在质量管理中得到协调和配合;可以使质量管理从单纯的事后检验发展成为对生产全过程中产品质量的控制;可以观察记录在管理图上的数据,及时分析生产过程中的质量问题,以便迅速采取措施,消除造成质量问题的隐患,使生产处于稳定状态。 步骤 运用本方法控制产品质量的全过程分为以下3个步骤:

(1)订立质量标准。这是进行质量控制的首要条件。质量标准,一般分为质量基础标准、成品质量标准、工艺质量标准、工艺装备质量标准、零部件质量标准、原材料和毛坯质量标准6类。 (2)收集质量数据。这是进行质量控制的基础。任何质量都表现为一定的数量,同时任何质量的特性、差异性都必须用数据来说明。进行质量控制离不开数据,质量的数据分两大类,即计量数据和计件数据。计量数据是可以连续取值的,或者可以用测量工具具体测量出来,通常可以获得在小数点以下的数值数据;计件数据则是不能连续取值的,或者即使用测量工具也得不到小数点以下的数据,而只能得到0一、1一、2一、3一、4……的自然数的数据。 (3)运用质量图表进行质量控制。这是控制生产过程中产品质量变化的有效手段。控制质量的图表有以下几种,即:分层图表法、排列图法、因果分析图法、散布图法、直方图法、控制图法,以及关系图法、KJ图法、系统图法、矩阵图法、矩阵数据分析法。PDPC 法、网络图法。这些图表,在控制产品质量的过程中相互交错,应灵活运用。 控制方法 1.分层法 分层法又名层别法,是将不同类型的数据按照同一性质或同一条件进行分类,从而找出其内在的统计规律的统计方法。常用分类

质量数据分析和质量信息管理办法

内部资料 注意保存宝山钢铁股份有限公司特殊钢分公司 管理文件 文件编号:SWZ07016 第 1 版签发:王治政质量数据分析和质量信息管理办法 1 总则 1.1为了收集、分析各类质量数据和信息并及时传递和处理,更好地为质量管理体系的持续改进和预防措施提供机会,特制订本办法。 1.2本办法适用于宝山钢铁股份有限公司特殊钢分公司(以下简称:分公司)质量数据和质量信息的收集、分析等管理。 2管理职责分工 2.1 质量保证部负责质量数据和质量信息的归口管理,并负责质量指标、质量体系运行等方面数据和信息的收集、分析和传递。 2.2 制造管理部、特殊钢技术中心负责关键质量特性等方面的数据和信息收集、分析和传递。 2.3特殊钢销售部负责顾客满意度及忠诚度方面的数据和信息收集、分析和传递。 2.4 采购供应部负责原料、资材备件、设备工程供方数据和信息收集、分析和传递。 2.5 各有关生产厂、部负责本部门或本专业数据和信息收集、分析和传递。 3质量数据、信息收集的范围 3.1 需收集的质量数据、信息应能反映分公司产品实物质量和质量管理体系的运行状况,能反映分公司技术质量水平,并能为持续改进和预防措施提供机会。 3.2 数据、信息收集范围包括: 3.2.1质量合格率、不合格品分类、废品分类、质量损失等; 3.2.2关键质量特性、工艺参数等; 3.2.3体系审核中不合格项的性质和分布等; 3.2.4顾客反馈、顾客需求、顾客满意程度、顾客忠诚程度等;2006年1月12日发布 2006年1月12日实施

3.2.5供方产品、过程及体系的状况等。 4 数据分析的方法 4.1数据分析中应采用适用的数理统计方法。常用统计方法有:分层法、排列图法、因果图法、对策表、检查表、直方图法、过程能力分析、控制图法、相关及回归分析、实验设计、显著性检验、方差分析等。 4.2 产品开发设计阶段可使用实验设计和析因分析、方差分析、回归分析等,以优化参数。 4.3 在质量先期策划中确定过程控制适用的统计技术,并在控制计划中明确。 4.4 生产过程可使用控制图对过程变量进行控制以保持过程稳定;并可利用分层法、直方图法、过程能力分析、相关及回归分析等对过程进行分析,明确过程变差及影响过程因素的相关性,以改进过程;使用排列图法、因果图法等确定生产中的主要问题及其产生原因;使用对策表来确定纠正和预防措施。 4.5 产品验证中可使用检查表,并在检测中使用显著性检验,方差分析、测量系统分析等来进行检测精度管理,防止不合格品流入下道工序。 4.6 在质量分析、质量改进和自主管理活动中可使用分层法、排列图法、因果图法、对策表、直方图法、控制图法、相关和回归分析等。 5质量数据、信息的利用 5.1按规定定期向有关部门传递数据分析的结果,包括销售部每月应将用户异议情况反馈到质量保证部等部门,财务部每月将质量损失情况反馈质量保证部等部门,质量保证部通过编制质量信息日报,每天将实物质量情况向制造管理部、特殊钢技术中心或分公司主管领导传递。 5.2 应通过报告、汇报等形式及时向分公司领导报告数据、信息分析的有关文件,为分公司领导决策提供依据。 5.3 各部门应充分利用数据分析的结果,以寻求持续改进和预防措施的机会。 5.5经过汇总、整理和分析的数据和信息可通过管理评审、技术质量等有关专业工作会议和分公司局域网与相关部门进行沟通。 6质量信息(异常信息)管理

相关文档
相关文档 最新文档