决策树及应用(共17页).docx
精选优质文档-倾情为你奉上第5章 决策树及应用5.1 问题概述各个领域的人工智能实现,常常要涉及这样的问题:从实际问题中提取数据,并从数据中提炼一组数据规则,以支持知识推理实现智能的功能。知识规则一般以“原因结果”形式表示。一般地,获取知识规则可以通过样本集x1k,x2k,xnk,ykk=1,2,m,建模实现。由于推理结果是有限个,即y的取值是有限的,所以这样的建模属于分类问题。利用神经网络可以实现分类问题建模,但当影响因素变量xi的个数较大时,建模后的知识规则不易表示,特别地,当默写变量xi的取值缺失时,即使神经网络具有容错性,也会在一定程度上影响分类结果的不确定性。实际应用中,决定分类结果可能只是几个主要影响因素取值,不依赖全部因素变量,因此,知识规则的提取,可以转换为这样的问题:某一分类下哪些变量是主要的影响因素,这些主要影响因素与分类结果的因素规则表示如何获取?决策树就是解决这些问题的方法之一。5.2 决策树概述决策树学习算法是一组样本数据集(一个样本数据也可以称为实例)为基础的一种归纳学习算法,它着眼于从一组无次序、无规则的样本数据(概念)中推理出决策树表示形式的分类规则。假设这里的样本数据应该能够用“属性结论”。决策时是一个可以自动对数据进行分类的树形结构,是树形结构的知识表示,可以直接转换为分类规则。它能被看做基于属性的预测模型,树的根节点是整个数据集空间,每个分结点对应一个分裂问题,它是对某个单一变量的测试,该测试将数据集合空间分割成两个或更多数据块,每个叶结点是带有分类结果的数据分割。决策树算法主要针对“以离散型变量作为属性类型进行分类”的学习方法。对于连续性变量,必须被离散化才能被学习和分类。基于决策树的决策算法的最大的有点就在于它在学习过程中不需要了解很多的背景知识,只从样本数据及提供的信息就能够产生一颗决策树,通过树结点的分叉判别可以使某一分类问题仅与主要的树结点对应的变量属性取值相关,即不需要全部变量取值来判别对应的范类。5.2.1 决策树基本算法一颗决策树的内部结点是属性或属性的集合,儿叶结点就是学习划分的类别或结论,内部结点的属性称为测试属性或分裂属性。当通过一组样本数据集的学习产生了一颗决策树之后,就可以对一组新的未知数据进行分类。使用决策树对数据进行分类的时候,采用自顶向下的递归方法,对决策树内部结点进行属性值的判断比较并根据不同的属性值决定走向哪一条分支,在叶节点处就得到了新数据的类别或结论。从上面的描述可以看出从根结点到叶结点的一条路径对应着一条合取规则,而整棵决策树对应着一组合取规则。Cc2c1b2b1a2a1 4321AB图 5.1 简单决策树根据决策树内部结点的各种不同的属性,可以将决策树分为以下几种:(1)当决策树的每一个内部结点都只包含一个属性时,称为单变量决策树;当决策树存在包含多个变量的内部结点时,称为多变量决策树。(2)根据测试属性的不同属性值的个数,可能使得每一个内部结点有两个或者是多个分支,如果每一个内部结点只有两个分支则称之为二叉树决策。(3)分类结果可能是两类也可能是多类,二叉树决策的分类结果只能有两类,股也称之为布尔决策树。5.2.2 CLS算法CLS学习算法是1966年有Hunt等人提出的。它是最早的决策树学习算法。后来的许多决策树算法都可以看作是CLS学习算法的改进与更新。CLS的算法的思想就是从一个空的决策出发,根据样本数据不断增加新的分支结点,直到产生的决策树能够正确地将样本数据分类为止。CLS算法的步骤如下:(1)令决策树T的初始状态只含有一个树根(X,Q),其中X是全体样本数据的集合,Q是全体测试属性的集合。(2)如果T中所有叶结点(X',Q)都有如下状态:或者X'中的样本数据都是属于同一个类,或者Q为空,则停止执行学习算法,学习的结果为T。(3)否则,选择一个不具有(2)所描述状态的叶节点(X',Q).(4)对于Q,按照一定规则选取属性bQ,设X'被b的不同取值分为m个不同的子集X',1im,从(X',Q)伸出m个分支,每个分支代表属性b的一个不同取值,从而形成m个新的叶结点(X',Q-b),1im。(5)转(2)。在算法步骤(4)中,并没有明确地说明按照怎样的规则来选取测试属性,所以CLS有很大的改进空间,而后来很多的决策树学习算法都是采取了各种各样的规则和标准来选取测试属性,所以说后来的各种决策树学习算法都是CLS学习算法的改进。5.2.3 信息熵Shannon在1948年提出并发展了信息论的观点,主张用数学方法度量和研究信息,提出了以下的一些概念。决策树学习算法是以信息熵为基础的,这些概念将有助于理解后续的算法。(1)自信息量:在收到ai之前,接收者对信源发出ai的不确定性定义为信息符号ai的自信息量Iai=-log2pai,其中pai是取值为ai的概率。自信息量反映了接收ai的不确定性,自信息量越大,不确定性越大。(2)信息熵:自信息量只能反映符号的不确定性,而信息上可以用来度量整个信源X整体的不确定性。HX=-pa1log2pa1+-panlog2pan =-i=1npailog2pai (5.1)式中:n是信源X所有可能的符号数;ai是可能取到的值;pai是取值为ai的概率;信息熵是各个自信息量的期望。(3)条件熵:如果信源X与随机变量Y不是相互独立的,接收者收到信息Y,那么用条件熵HX|Y来度量接信者收到随机变量Y之后,对随机变量X仍然存在的不确定性。X对应信源符号aii=1,2,n,Y对应信源符号bii=1,2,s,pai|bj为当Y为bj时X为ai的概率,则有HX|Y=j=1spbjHX|bj =j=1spbj-i=1npai|bjlog2pai|bj =-j=1si=1npbj pai|bjlog2pai|bj =-j=1si=1n pai,bjlog2paibj即条件熵是各种不同条件下的信息熵期望。(4)平均互信息量:用来表示信号Y所能提供的关于X的信息量的大小,用下式表示,即IX|Y=HX-HX|Y5.3 ID3算法上一节已经提到的CLS算法并没有明确地说明按照怎样的规则和标准来确定不同层次的树结点(即测试属性),Quinlan于1979年提出的以信息熵的下降速度作为选取测试属性的标准。ID3算法是各种决策树学习算法中最有影响力、使用最广泛的一种决策树学习算法。5.3.1 基本思想设样本数据集为X,目的是要把样本数据集分为n类。设属于第i类的样本数据个数是Ci,X 中总的样本数据个数是X,则一个样本数据属于第i类的概率pCi=CiX。此时决策树对划分C的不确定程度(即信息熵)为 HX,C=HX=-i=1npCilog2pCi 若选择属性a(设属性a有m个不同的取值)进行测试,其不确定程度(即条件熵)为HX|a=-i=1nj=1mpCi,a=aj log2pCi|a=aj =-i=1nj=1mpa=aj pCi|a=aj log2pCi|a=aj =j=1mpa=aj i=1npCi|a=aj log2pCi|a=aj 则属性a对于分类提供的信息量为IX,a=HX-HX|a式中:IX,a表示选择了属性a作为分类属性之后信息熵的下降程度,亦即不确定性下降的程度,所以应该选择时的IX,a最大的属性作为分类的属性,这样得到的决策树的确定性最大。可见ID3算法继承了CLS算法,并且根据信息论选择时的IX,a最大的属性作为分类属性的测试属性选择标准。另外,ID3算法除了引入信息论作为选择测试属性的标准之外,并且引入窗口的方法进行增量学习。ID3算法的步骤如下:(1)选出整个样本数据集X的规模为W的随机子集X1(W称为窗口规模,子集称为窗口)。(2)以IX,a=HX-HX|a的值最大,即HX|a的值最小为标准,选取每次的测试属性,形成 当前窗口的决策树。(3)顺序扫描所有样本数据,找出当前的决策树的例外,如果没有例外则结束。(4)组合当前窗口的一些样本数据与某些(3)中找到的李哇哦形成新的窗口,转(2)。5.3.2 ID3算法应用实例表5.1是有关天气的数据样本集合。每一样本有4个属性变量:Outlook,Temperature,Humidity和Windy。样本被分为两类,P和N,分别表示正例和反例。表5.1 天气样本数据首先计算信息熵HX,由表5.1可知,一共有24条记录,其中P类的记录和N类的记录都是12条,则根据上面介绍的信息熵和条件熵的算法,可以得到信息熵值为HX=-1224log21224-1224log21224=1如果选取Outlook属性作为测试属性,则计算条件熵值HX|Outlook。有表5.1可知,Outlook属性共有3个属性值,分别是Overcast、Sunny和Rain。Outlook属性取Overcast属性值的记录共有9条,其中P类的记录和N类的记录分别是4条和5条,因此有Overcast引起的熵值为-92449log249+59log259。而Outlook属性取Sunny属性值的记录共有7条,其中P类的记录和N类的记录分别是7条和0条,因此有Sunny引起的熵值为-72477log277。同理,Outlook属性取Rain属性值的记录共有8条,其中P类的记录和N类的记录分别是1条和7条,因此有Rain引起的熵值为-82418log218+78log278。因此条件熵值HX|Outlook应为上述三个式子之和,得到HX|Outlook=-92449log249+59log259 -72477log277 -82418log218+78log278=0.5528仿照上面条件熵值HX|Outlook的计算方法,可以得到,如果选取Temperature属性为测试属性,则条件熵值为HX|Temperature=-82448log248+48log248 -log2411+711log2711 -52445log245+15log215=0.9172如果选取Humidity属性为测试属性,则条件熵值为HX|Humidity=-log2412+812log2812 -log2412+812log2812=0.9172如果选取Windy属性为测试属性,则条件熵值为HX|Windy=-82448log248+48log248 -62436log236+36log236 -log2510+510log2510=1可见HX|Outlook的值最小,所以应该选择Outlook属性作为测试属性,得到根据结点为Outlook属性,根据不同记录的Outlook属性取值的不同,向下引出三条分支,如图5.2所示,其中的数字代表第几条记录。RainSunnyOutlookOvercast(6,7,8,9,10,17,18,24)(1,2,3,13,14,15,16,19,20)(4,5,11,12,21,22,23)图5.2 ID3算法第一次分类的决策树综合表5.1和图5.2可以看出,由Sunny引出的分支包括(4,5,11,12,21,22,23)共7条记录,这7条记录都是属于P类的,因此由Sunny音粗的分支得到的是P类。由Overcast引出的分支包括(1,2,3,13,14,15,16,19,20)共9条记录,类似上面的做法,可以求得 HX|Temperature=-3933log233 -4924log224+24log224 -2922log222=0.4444HX|Humidity=-5955log255-4944log244=0 HX|Windy=-3913log213+23log223 -2912log212+12log212 -4924log224+24log224=0.9728可见HX|Humidity的值最小,因此,对于由Overcast引出的分支包括的9条记录(1,2,3,13,14,15,16,19,20)应该选择Humidity作为测试属性。重复上面的做法,直到每一个分支的记录的都是属于同一类,算法结束。最后得到的决策树如图5.3所示。RainSunnyOutlookNotVeryCoolMildHotHighNormalOvercastNNNPPPPWindyNPTemperaturePPPHumidityPP图5.3 ID3算法下的决策树5.4 C4.5算法C4.5算法(信息比算法)是由Quinlan自己扩充ID3算法提出来的,是ID3算法的改进,它在ID3的基础上增加了对连续属性、属性空缺情况的处理,对树剪枝也有了较成熟的方法。5.4.1 基本思想与ID3算法不同,C4.5算法挑选具有最高信息增益率的属性最为测试属性。对样本集T,假设变量a有n个属性,属性取值a1,a2,ak,对应a取值为ai出席那的样本个数分别为ni,若n是样本的总数,则应有n1+n2+nk=n。Quinlan利用属性a的熵值HX,a来定义为了获取样本关于属性a的信息所需要付出的代价,即HX,a=-i=1kPailog2Pai-i=1kninlog2nin信息增益率定义为平均互信息与获取a信息所付出代价的比值,即EX,a=IX,aHX,a即信息增益率是单位代价所获得的信息量,是一种相对的信息量不确定性度量。一信息增益率作为测试属性的选择标准,是选择EX,a最大的属性a作为测试属性。算法C4.5在如下几个方面改进ID3算法:(1)一些样本的某些属性取值可能为空,字啊构建决策树时,可以简单地忽略确实的属性,即再计算增益率时,即考虑具有属性值的记录。为了对一个具有缺失属性值的记录进行分类,可以基于已知属性值的其他记录来预测缺失的属性值。(2)C4.5算法不仅可以处理离散属性,而且可以处理连续属性。基本思想是基于训练样本中元祖的属性值将数据划分为一些区域。(3)增加了剪枝算法。在C4.5中,有两种基本的剪枝策略:子树替代法剪枝是指用就叶结点替代子树。仅当替代后的误差率与原始树的误差率接近时才替代。子树替代是从树枝向树根方向进行的。子树上升法剪枝是指用一颗子树中最常用的子树来代替这颗子树。子树从当前位置上升到树中较高的结点处。对于这种替代也需要确定误差率的增加量。(4)分裂时ID3算法偏袒具有较多值得属性,因而可能导致过拟合,而信息增益率函数可以弥补这个缺陷。但是这个算法同样存在缺点,它偏向于选择对统一属性取值比较集中的属性(即熵值最小的属性),而并不一定是对分类贡献最大、最重要的属性。5.4.2 基于信息增益率建模的决策树数据仍按表5.1所列,为了计算Outlook属性作为测试属性的增益比率,首先要计算在忽略类别情况下该测试属性的熵,即HX,Outlook=-924log2924-724log2724-824log2824=1.5774又根据上一节有HX=-1224log21224-1224log21224=1因此,对于Outlook属性增益比率值为EX,Outlook=IX,OutlookHX,Outlook=1-0.=0.2835仍照上面熵值HX,Outlook的计算方法,可以得到,如果选取Temperature属性为测试属性,则有HX|Temperature=-824log2824-1124log21124-524log2524=1.5156EX,Temperature=1-0.91831=0.0817如果选取Humidity属性为测试属性,则有HX|Humidity=-1224log21224-1224log21224=1EX,Humidity=1-0.91721.5156=0.0546如果选取Windy属性为测试属性,则有HX|Windy=-824log2824-624log2624-1024log21024=1.5546EX,Windy=1-11.5546=0可见EX,Outlook的值最大,所以应该选择Outlook属性作为测试属性。在该例中,ID3算法与信息增益率法建模得到的决策树没有区别,即以获取信息量确定性的绝对定义与相对定义在该例建数中没有区别。这里去下的信息增益率的递归算法略去。5.5 CART算法5.5.1 基本思想在ID3与C4.5算法中,当确定作为某层树结点的变量属性取值较多时,按每一属性值引出一分支进行递归算法,就会出现引出的分支较多,对应算法次数也多,使决策树算法速度缓慢,是否可以是每一树结点引出分支尽可能少,以提高算法速度?分类与回归算法(Classification and Regression Trees,CART)是一种产生二叉决策树的技术,即每个树结点(即测试属性)与ID3算法一样,以平均互信息作为分裂属性的度量,对于取定的测试属性变量t,若t有n个属性值s1,s2,sn,应选取哪个属性值si作为分裂点引出两个分支以使分类结果是尽可能合理正确?“最佳”分裂属性值s0被定义为满足条件s0t=maxisit其中st=2PLPRj=1mPCi|tL-PCj|tRst主要度量在结点t的s属性值引出的两个分支时,两只分支的出现的可能性以及两分支每个分类结果出现的可能性差异大小。当st较大时,表示两分支分类结果出现的可能性差异大,即分类不均匀,特别地,当一分支完全含有同一类别结果的样本而另一分支不含有时,差异最大,这种情况越早出现,表示利用越少结点,可以越快获得分类结果。st中的L和R是指树中当前结点的左子树和右子树。PL和PR分别指在训练集(样本集)中的样本在树的左边和右边的概率,具体定义为PL=左子树中的样本数样本总数右分支的定义为PR=右子树中的样本数样本总数PCi|tL和PCi|tL分别指在左子树和右子树中的样本属于类别Ci的概率,定义为PCi|tL=左子树属于Ci 类的样本数tL结点样本数PCi|tR=右子树属于Ci 类的样本数tR结点样本数5.5.2 基于CART算法建模的决策树表5.2给出了一个光宇身高的数据集合。它有两个属性:性别和身高,被分为三类,分别是矮、中和高。表5.2 身高样本数据设应用平均互信获得当前树结点是身高属性t,t的取值s被划分为6个自区间:(0,1.6),1.6,1.7),1.7,1.8),1.8,1.9),1.9,2.0),2.0,)。利用这些区间,可得到潜在的分裂值1.6,1.7,1.8,1.9,2.0。因此,一句上述分裂点定义,需要从6个可能的属性值中选择一个分裂点,CART算法如下:(1)当S=1.6时,由于PL身高<1.6=015=0,所以1.6|身高=0。(2)当S=1.7时,设C1代表矮类,C2代表中类,C3代表高类,为了选择分裂属性,对于C1:样本身高<1.7时,PC1|tL=215,样本身高1.7时,PC1|tR=215,PC1|tL-PC1|tR=0;对于C2:样本身高<1.7时,PC2|tL=0,样本身高1.7时,PC2|tR=815,PC2|tL-PC2|tR=815;对于C3:样本身高<1.7时,PC3|tL=0,样本身高1.7时,PC3|tR=315,PC3|tL-PC3|tR=315;P L=P L<1.7=215,PR=PR1.7=1315所以,1.7|身高=+815+315=0.169。同理,可以计算1.8|身高,1.9|身高,2.0|身高,综合有1.6=01.7=+815+315=0.1691.8=+615+315=0.3851.9=+215+315=0.2562.0=+815+315=0.32可见在分裂点1.8处取得最大值,所以应该选择身高属性作为第一个测试属性,1.8作为第一个分裂点,如图5.4所示,其中3中的数字代表第几条记录。身高 1.8 <1.8 (1,5,7,8,15)(2,3,4,6,9,10,11,12,13,14)图5.4 CART算法第一次分裂决策树从图5.4可以看到有由身高1.8引出的分支(2,3,4,6,9,10,11,12,13,14)包括共10条记录。为了能够区别最终的分类,可以继续对分支子集应用平均互信息确定测试属性,根据测试属性在确定二叉树的最佳分裂属性值,直至能够分出每一类,停止树生长。5.7 决策树的评价标准决策树的优劣有许多评价标准,包括正确性(正确率)、过学习、有效性(错误率)、复杂性等。决策树的复杂程度也是度量决策树学习效果的一个很重要的标准,一般有以下三种评价标准:(1)最优覆盖问题(),即生成最少数目叶结点的决策树。(2)最简公式问题(),即生成每个叶节点深度最小的决策树。( 1一 月二 月三 月产品名称数量金额利润产品名称数量金额利润产品名称数量金额利润合 计合 计合 计四 月五 月六 月产品名称数量金额利润产品名称数量金额利润产品名称数量金额利润合 计合 计合 计下午13:0017:00B实行不定时工作制的员工,在保证完成甲方工作任务情况下,经公司同意,可自行安排工作和休息时间。312打卡制度3.1.2.1公司实行上、下班指纹录入打卡制度。全体员工都必须自觉遵守工作时间,实行不定时工作制的员工不必打卡。3.1.2.2打卡次数:一日两次,即早上上班打卡一次,下午下班打卡一次。3.1.2.3打卡时间:打卡时间为上班到岗时间和下班离岗时间; 3.1.2.4因公外出不能打卡:因公外出不能打卡应填写外勤登记表,注明外出日期、事由、外勤起止时间。因公外出需事先申请,如因特殊情况不能事先申请,应在事毕到岗当日完成申请、审批手续,否则按旷工处理。因停电、卡钟(工卡)故障未打卡的员工,上班前、下班后要及时到部门考勤员处填写未打卡补签申请表,由直接主管签字证明当日的出勤状况,报部门经理、人力资源部批准后,月底由部门考勤员据此上报考勤。上述情况考勤由各部门或分公司和项目文员协助人力资源部进行管理。3.1.2.5手工考勤制度3.1.2.6手工考勤制申请:由于工作性质,员工无法正常打卡(如外围人员、出差),可由各部门提出人员名单,经主管副总批准后,报人力资源部审批备案。3.1.2.7参与手工考勤的员工,需由其主管部门的部门考勤员(文员)或部门指定人员进行考勤管理,并于每月26日前向人力资源部递交考勤报表。3.1.2.8参与手工考勤的员工如有请假情况发生,应遵守相关请、休假制度,如实填报相关表单。3.1.2.9 外派员工在外派工作期间的考勤,需在外派公司打卡记录;如遇中途出差,持出差证明,出差期间的考勤在出差地所在公司打卡记录;3.2加班管理3.2.1定义加班是指员工在节假日或公司规定的休息日仍照常工作的情况。A现场管理人员和劳务人员的加班应严格控制,各部门应按月工时标准,合理安排工作班次。部门经理要严格审批员工排班表,保证员工有效工时达到要求。凡是达到月工时标准的,应扣减员工本人的存休或工资;对超出月工时标准的,应说明理由,报主管副总和人力资源部审批。 B因员工月薪工资中的补贴已包括延时工作补贴,所以延时工作在4小时(不含)以下的,不再另计加班工资。因工作需要,一般员工延时工作4小时至8小时可申报加班半天,超过8小时可申报加班1天。对主管(含)以上管理人员,一般情况下延时工作不计加班,因特殊情况经总经理以上领导批准的延时工作,可按以上标准计加班。3.2.2.2员工加班应提前申请,事先填写加班申请表,因无法确定加班工时的,应在本次加班完成后3个工作日内补填加班申请表。加班申请表经部门经理同意,主管副总经理审核报总经理批准后有效。加班申请表必须事前当月内上报有效,如遇特殊情况,也必须在一周内上报至总经理批准。如未履行上述程序,视为乙方自愿加班。3.2.2.3员工加班,也应按规定打卡,没有打卡记录的加班,公司不予承认;有打卡记录但无公司总经理批准的加班,公司不予承认加班。3.2.2.4原则上,参加公司组织的各种培训、集体活动不计加班。3.2.2.5加班工资的补偿:员工在排班休息日的加班,可以以倒休形式安排补休。原则上,员工加班以倒休形式补休的,公司将根据工作需要统一安排在春节前后补休。加班可按1:1的比例冲抵病、事假。3.2.3加班的申请、审批、确认流程3.2.3.1加班申请表在各部门文员处领取,加班统计周期为上月26日至本月25日。3.2.3.2员工加班也要按规定打卡,没有打卡记录的加班,公司不予承认。各部门的考勤员(文员)负责加班申请表的保管及加班申报。员工加班应提前申请,事先填写加班申请表加班前到部门考勤员(文员)处领取加班申请表,加班申请表经项目管理中心或部门经理同意,主管副总审核,总经理签字批准后有效。填写并履行完审批手续后交由部门考勤员(文员)保管。3.2.3.3部门考勤员(文员)负责检查、复核确认考勤记录的真实有效性并在每月27日汇总交人力资源部,逾期未交的加班记录公司不予承认。下午13:0017:00度。全体员工都必须自觉遵守工作时间,实行不定时工作制的员工不必打卡。3.1.2.2打卡次数:一日两次,即早上上班打卡一次,下午下班打卡一次。3.1.2.3打卡时间:打卡时间为上班到岗时间和下班离岗时间; 3.1.2.4因公外出不能打卡:因公外出不能打卡应填写外勤登记表,注明外出日期、事由、外勤起止时间。因公外出需事先申请,如因特殊情况不能事先申请,应在事毕到岗当日完成申请、审批手续,否则按旷工处理。因停电、卡钟(工卡)故障未打卡的员工,上班前、下班后要及时到部门考勤员处填写未打卡补签申请表,由直接主管签字证明当日的出勤状况,报部门经理、人力资源部批准后,月底由部门考勤员据此上报考勤。上述情况考勤由各部门或分公司和项目文员协助人力资源部进行管理。3.1.2.5手工考勤制度3.1.2.6手工考勤制申请:由于工作性质,员工无法正常打卡(如外围人员、出差),可由各部门提出人员名单,经主管副总批准后,报人力资源部审批备案。3.1.2.7参与手工考勤的员工,需由其主管部门的部门考勤员(文员)或部门指定人员进行考勤管理,并于每月26日前向人力资源部递交考勤报表。3.1.2.8参与手工考勤的员工如有请假情况发生,应遵守相关请、休假制度,如实填报相关表单。3.1.2.9 外派员工在外派工作期间的考勤,需在外派公司打卡记录;如遇中途出差,持出差证明,出差期间的考勤在出差地所在公司打卡记录;3.2加班管理3.2.1定义加班是指员工在节假日或公司规定的休息日仍照常工作的情况。A现场管理人员和劳务人员的加班应严格控制,各部门应按月工时标准,合理安排工作班次。部门经理要严格审批员工排班表,保证员工有效工时达到要求。凡是达到月工时标准的,应扣减员工本人的存休或工资;对超出月工时标准的,应说明理由,报主管副总和人力资源部审批。 B因员工月薪工资中的补贴已包括延时工作补贴,所以延时工作在4小时(不含)以下的,不再另计加班工资。因工作需要,一般员工延时工作4小时至8小时可申报加班半天,超过8小时可申报加班1天。对主管(含)以上管理人员,一般情况下延时工作不计加班,因特殊情况经总经理以上领导批准的延时工作,可按以上标准计加班。3.2.2.2员工加班应提前申请,事先填写加班申请表,因无法确定加班工时的,应在本次加班完成后3个工作日内补填加班申请表。加班申请表经部门经理同意,主管副总经理审核报总经理批准后有效。加班申请表必须事前当月内上报有效,如遇特殊情况,也必须在一周内上报至总经理批准。如未履行上述程序,视为乙方自愿加班。3.2.2.3员工加班,也应按规定打卡,没有打卡记录的加班,公司不予承认;有打卡记录但无公司总经理批准的加班,公司不予承认加班。3.2.2.4原则上,参加公司组织的各种培训、集体活动不计加班。3.2.2.5加班工资的补偿:员工在排班休息日的加班,可以以倒休形式安排补休。原则上,员工加班以倒休形式补休的,公司将根据工作需要统一安排在春节前后补休。加班可按1:1的比例冲抵病、事假。3.2.3加班的申请、审批、确认流程3.2.3.1加班申请表在各部门文员处领取,加班统计周期为上月26日至本月25日。3.2.3.2员工加班也要按规定打卡,没有打卡记录的加班,公司不予承认。各部门的考勤员(文员)负责加班申请表的保管及加班申报。员工加班应提前申请,事先填写加班申请表加班前到部门考勤员(文员)处领取加班申请表,加班申请表经项目管理中心或部门经理同意,主管副总审核,总经理签字批准后有效。填写并履行完审批手续后交由部门考勤员(文员)保管。3.2.3.3部门考勤员(文员)负责检查、复核确认考勤记录的真实有效性并在每月27日汇总交人力资源部,逾期未交的加班记录公司不予承认。下午13:0017:00度。全体员工都必须自觉遵守工作时间,实行不定时工作制的员工不必打卡。3.1.2.2打卡次数:一日两次,即早上上班打卡一次,下午下班打卡一次。3.1.2.3打卡时间:打卡时间为上班到岗时间和下班离岗时间; 3.1.2.4因公外出不能打卡:因公外出不能打卡应填写外勤登记表,注明外出日期、事由、外勤起止时间。因公外出需事先申请,如因特殊情况不能事先申请,应在事毕到岗当日完成申请、审批手续,否则按旷工处理。因停电、卡钟(工卡)故障未打卡的员工,上班前、下班后要及时到部门考勤员处填写未打卡补签申请表,由直接主管签字证明当日的出勤状况,报部门经理、人力资源部批准后,月底由部门考勤员据此上报考勤。上述情况考勤由各部门或分公司和项目文员协助人力资源部进行管理。3.1.2.5手工考勤制度3.1.2.6手工考勤制申请:由于工作性质,员工无法正常打卡(如外围人员、出差),可由各部门提出人员名单,经主管副总批准后,报人力资源部审批备案。3.1.2.7参与手工考勤的员工,需由其主管部门的部门考勤员(文员)或部门指定人员进行考勤管理,并于每月26日前向人力资源部递交考勤报表。3.1.2.8参与手工考勤的员工如有请假情况发生,应遵守相关请、休假制度,如实填报相关表单。3.1.2.9 外派员工在外派工作期间的考勤,需在外派公司打卡记录;如遇中途出差,持出差证明,出差期间的考勤在出差地所在公司打卡记录;3.2加班管理3.2.1定义加班是指员工在节假日或公司规定的休息日仍照常工作的情况。A现场管理人员和劳务人员的加班应严格控制,各部门应按月工时标准,合理安排工作班次。部门经理要严格审批员工排班表,保证员工有效工时达到要求。凡是达到月工时标准的,应扣减员工本人的存休或工资;对超出月工时标准的,应说明理由,报主管副总和人力资源部审批。 B因员工月薪工资中的补贴已包括延时工作补贴,所以延时工作在4小时(不含)以下的,不再另计加班工资。因工作需要,一般员工延时工作4小时至8小时可申报加班半天,超过8小时可申报加班1天。对主管(含)以上管理人员,一般情况下延时工作不计加班,因特殊情况经总经理以上领导批准的延时工作,可按以上标准计加班。3.2.2.2员工加班应提前申请,事先填写加班申请表,因无法确定加班工时的,应在本次加班完成后3个工作日内补填加班申请表。加班申请表经部门经理同意,主管副总经理审核报总经理批准后有效。加班申请表必须事前当月内上报有效,如遇特殊情况,也必须在一周内上报至总经理批准。如未履行上述程序,视为乙方自愿加班。3.2.2.3员工加班,也应按规定打卡,没有打卡记录的加班,