- 相關(guān)推薦
粗決策樹動(dòng)態(tài)規(guī)則提取算法研究及應(yīng)用
摘要:針對(duì)靜態(tài)算法對(duì)大數(shù)據(jù)和增量數(shù)據(jù)處理不足的問題,構(gòu)造了基于粗決策樹的動(dòng)態(tài)規(guī)則提取算法,并將其應(yīng)用于旋轉(zhuǎn)機(jī)械故障診斷中。將粗集與決策樹結(jié)合,用增量方式實(shí)現(xiàn)樣本抽取;經(jīng)過動(dòng)態(tài)約簡(jiǎn)、決策樹構(gòu)造、規(guī)則提取與選擇、匹配4個(gè)步驟的循環(huán)迭代過程,實(shí)現(xiàn)了數(shù)據(jù)的動(dòng)態(tài)規(guī)則提取,使得提取的規(guī)則具有更高的可信度;同時(shí),將算法應(yīng)用于旋轉(zhuǎn)機(jī)械故障診斷這一動(dòng)態(tài)問題中,驗(yàn)證了算法的有效性;最后,將所提算法分別與靜態(tài)算法和增量式動(dòng)態(tài)算法進(jìn)行了效率對(duì)比分析,實(shí)驗(yàn)結(jié)果表明,所提算法能夠以最精簡(jiǎn)的規(guī)則獲得更多數(shù)據(jù)隱含信息。
關(guān)鍵詞:粗集;靜態(tài)算法;動(dòng)態(tài)約簡(jiǎn);動(dòng)態(tài)規(guī)則;決策樹
引言
粗集理論[1]主要用來(lái)處理模糊和不確定性知識(shí),對(duì)數(shù)據(jù)進(jìn)行約簡(jiǎn)、去除冗余,在保持分類能力不變的前提下,通過知識(shí)約簡(jiǎn)導(dǎo)出問題的決策和分類規(guī)則。近年來(lái),吳順祥等[2]利用粗集進(jìn)行規(guī)則提取,提出了一種基于粗集理論的規(guī)則提取方法;譚俊璐等[3]利用決策樹(decision tree)提取規(guī)則實(shí)現(xiàn)分類計(jì)算;丁春榮等[4]將粗集與決策樹結(jié)合構(gòu)造規(guī)則提取算法。石凱[5]將粗集理論中的屬性約簡(jiǎn)與決策樹算法相結(jié)合,提出了改進(jìn)算法;胡煜等[6]從ID3算法的缺點(diǎn)出發(fā),根據(jù)粗集理論完成了對(duì)ID3算法的改進(jìn),為建立決策樹分析模型奠定了基礎(chǔ)。
以上這些算法均是在靜態(tài)數(shù)據(jù)研究背景下提出的,可以從海量數(shù)據(jù)中提取相對(duì)精確的知識(shí),但這種規(guī)則提取方法只能針對(duì)靜態(tài)數(shù)據(jù),對(duì)于現(xiàn)實(shí)生活中的大量動(dòng)態(tài)數(shù)據(jù),以往的基于靜態(tài)數(shù)據(jù)的規(guī)則提取算法很難得到正確的規(guī)則。而目前我們處于大數(shù)據(jù)時(shí)代,網(wǎng)絡(luò)數(shù)據(jù)、股票數(shù)據(jù)、機(jī)械故障診斷收集數(shù)據(jù)等均具有明顯的動(dòng)態(tài)特征,直接應(yīng)用靜態(tài)數(shù)據(jù)下的算法,勢(shì)必會(huì)使提取的規(guī)則產(chǎn)生很大的誤差,因此,研究適合動(dòng)態(tài)數(shù)據(jù)的規(guī)則提取算法顯得尤為重要。
目前,關(guān)于動(dòng)態(tài)規(guī)則提取算法的研究也有相關(guān)報(bào)道:如余峰林等[7]提出的基于差別矩陣的動(dòng)態(tài)約簡(jiǎn)及規(guī)則提取和尹阿東等[8]提出的動(dòng)態(tài)決策樹算法研究等,但這些算法存在著求解速度慢、約簡(jiǎn)程度不夠等缺陷。王楊等[9]提出的基于粗集和決策樹的增量式規(guī)則約簡(jiǎn)算法比傳統(tǒng)算法和粗集決策樹增量知識(shí)獲取算法(Rough setRule tree Incremental knowledge acquisition Algorithm, RRIA)在效率方面有所提高,但仍存在著提取的規(guī)則集不夠精簡(jiǎn)等缺陷。因此,本文提出將粗集與決策樹相結(jié)合,設(shè)計(jì)動(dòng)態(tài)規(guī)則提取算法,同時(shí)兼顧約簡(jiǎn)精確程度和約簡(jiǎn)時(shí)間兩方面,從而更有效地實(shí)現(xiàn)決策規(guī)則的提取。
本文算法的基本思想:抽取樣本進(jìn)行屬性約簡(jiǎn);按約簡(jiǎn)結(jié)果建立決策樹;通過規(guī)則的準(zhǔn)確度和覆蓋度進(jìn)行規(guī)則提取;用未抽取樣本進(jìn)行規(guī)則匹配,確定規(guī)則的有效性,并判斷屬性約簡(jiǎn)是否穩(wěn)定(若得到穩(wěn)定約簡(jiǎn),即匹配成功;若沒有匹配成功,則增大抽取樣本,直到達(dá)到要求為止)。
一、基本理論
1.1不可區(qū)分關(guān)系
信息系統(tǒng)S=(U,A,V, f),其中U為論域;A=C∪D,C為條件屬性,D為決策屬性;V是屬性的值域; f是信息函數(shù),a∈A,x∈U, f(x,a)∈V。當(dāng)RC,IND(R)={(x,y)∈(U,U)|a∈B, f(x,a)=f(y,a)},表示是屬性R不可區(qū)分的。
U/IND(R)為U的等價(jià)類[10]。
1.2屬性約簡(jiǎn)和屬性依賴度
R為一族等價(jià)類,當(dāng)a∈R,若IND(R)=IND(R-{a}),則稱a為R中不必要的;否則a為必要的。如果a∈A 都是R中必要的,稱R獨(dú)立;否則稱R為依賴的。
若QP,如果Q是獨(dú)立的,且IND(Q)=IND(P),稱Q為P的一個(gè)約簡(jiǎn)。CORE(P)=∩RED(P),其中CORE(P)為P的核,RED(P)為P的約簡(jiǎn)。
屬性依賴度:K=max{|XiYj|/|Yj|},K表示決策分類對(duì)條件屬性集的依賴度。
1.3動(dòng)態(tài)約簡(jiǎn)
S=(U,CU371fxlpdd5n)為一決策表,S′=(U′,C∪371fxlpdd5n) 為決策表的子決策表,U′U。F是決策表S的子決策表集合,簡(jiǎn)稱F族。將F族中所有子決策表約簡(jiǎn)的交集稱為決策表S的F動(dòng)態(tài)約簡(jiǎn)[11],即為DR(S,F(xiàn))。表達(dá)式為:
DR(S,F(xiàn))=RED(S,d)∩∩S′∈FRED(S′,d
此方法限制太大,所以選擇更為普遍的(F,ε)的約簡(jiǎn):
DR(S,F(xiàn))={C∈RED(S,d):
|S′∈F:C∈RED(S′,d)||F|≥1-ε}
其中ε∈[0,1],記為DRε(S,F(xiàn))。
1.4區(qū)分矩陣與區(qū)分函數(shù)
決策表S=(U,C∪D,V, f)的區(qū)分矩陣是一個(gè)n×n矩陣,矩陣中的任一元素用以下公式計(jì)算:
α(x,y)={a∈C|f(x,a)≠f(y,a)}
區(qū)分函數(shù)可定義為Δ=∏(x,y)∈U×U∑α(x,y),函數(shù)Δ的極小析取范式中的所有合取式是C的所有D約簡(jiǎn)[12]。
1.5決策規(guī)則及可信度與覆蓋度
決策表S=(U,C∪D,V, f),令Xi表示U/C的等價(jià)類,Yj表示U/D的等價(jià)類,則決策規(guī)則定義為:Xi →Yj。其中Xi,Yj分別為前件和后件,當(dāng)前件相同時(shí),后件也相同,則稱決策是一致的;否則為不一致[11]。
對(duì)于不一致性,用可信度進(jìn)行度量,可信度定義為:
μ(Xi,Yj)=|Xi∩Yj||Xi|
規(guī)則對(duì)數(shù)據(jù)的代表性不夠,從而表現(xiàn)出一定的隨機(jī)性。在極端情況下,每個(gè)規(guī)則僅僅代表數(shù)據(jù)表中的一個(gè)數(shù)據(jù)對(duì)象,這種規(guī)則顯然很難使用于新的數(shù)據(jù)對(duì)象上。
對(duì)于隨機(jī)性,用覆蓋度來(lái)表示,覆蓋度定義為:
φ(Xi,Yj)=|Xi∩Yj||Yj|
1.6決策樹技術(shù)
決策樹是一個(gè)樹結(jié)構(gòu)(可以是二叉樹或非二叉樹)。其每個(gè)非葉子節(jié)點(diǎn)表示一個(gè)特征屬性上的測(cè)試,每個(gè)分支代表這個(gè)特征屬性在某個(gè)值域上的輸出,而每個(gè)葉子節(jié)點(diǎn)存放一個(gè)類別。使用決策樹進(jìn)行決策的過程就是從根節(jié)點(diǎn)開始,測(cè)試待分類項(xiàng)中相應(yīng)的特征屬性,并按照其值選擇輸出分支,直到到達(dá)葉子節(jié)點(diǎn),將葉子節(jié)點(diǎn)存放的類別作為決策結(jié)果。
決策樹是實(shí)現(xiàn)數(shù)據(jù)挖掘的一種重要的分類技術(shù)。該技術(shù)分兩步:一是決策樹的構(gòu)造;二是決策樹的剪枝。決策樹的構(gòu)造是生成決策樹的過程;決策樹的剪枝是指用測(cè)試數(shù)據(jù)對(duì)生成的決策樹進(jìn)行驗(yàn)證,減去影響預(yù)測(cè)精度的分支,從而簡(jiǎn)化決策樹。
二、算法設(shè)計(jì)
粗決策樹動(dòng)態(tài)規(guī)則提取是利用數(shù)據(jù)的動(dòng)態(tài)約簡(jiǎn)構(gòu)造決策樹,從而得到規(guī)則。首先對(duì)數(shù)據(jù)進(jìn)行預(yù)處理,當(dāng)數(shù)據(jù)為連續(xù)型數(shù)據(jù),對(duì)數(shù)據(jù)進(jìn)行離散化處理;然后隨機(jī)抽取樣本,進(jìn)行約簡(jiǎn)構(gòu)造決策樹;最后根據(jù)可信度和覆蓋度提取規(guī)則,用未抽取樣本進(jìn)行規(guī)則匹配,以判斷約簡(jiǎn)是否穩(wěn)定,若匹配不成功,說明約簡(jiǎn)不穩(wěn)定,則增大抽取樣本并循環(huán)上述過程,反之停止。粗決策樹的動(dòng)態(tài)規(guī)則提取,利用動(dòng)態(tài)約簡(jiǎn)既能匹配已知數(shù)據(jù),又能匹配未知數(shù)據(jù)的優(yōu)勢(shì),解決了在線數(shù)據(jù)規(guī)則提取的難題,更有利于數(shù)據(jù)挖掘。具體步驟如下:
步驟1從總體樣本中抽取部分樣本,構(gòu)造區(qū)分矩陣,計(jì)算區(qū)分函數(shù),進(jìn)行屬性約簡(jiǎn)。
步驟2建立決策樹。以屬性約簡(jiǎn)計(jì)算出的核屬性作為根節(jié)點(diǎn),然后計(jì)算除核屬性之外的屬性約簡(jiǎn)的屬性依賴度,將屬性依賴度大的作為節(jié)點(diǎn)的分支,當(dāng)依賴度相同時(shí),將序號(hào)小的作為節(jié)點(diǎn)的分支。建立的決策樹的個(gè)數(shù)與屬性約簡(jiǎn)的個(gè)數(shù)相同。
步驟3規(guī)則提取與選擇。計(jì)算可信度和覆蓋度,從上到下、從左到右遍歷決策樹,當(dāng)可信度和覆蓋度達(dá)到設(shè)定的閾值時(shí),提取規(guī)則。當(dāng)有不一致的信息時(shí),提取可信度高、覆蓋度大的作為規(guī)則。
步驟4規(guī)則匹配。將提取的規(guī)則,與樣本中未抽取的樣本進(jìn)行匹配,測(cè)試得出的規(guī)則是否有效,同時(shí)判斷屬性約簡(jiǎn)的穩(wěn)定性。當(dāng)匹配不成功,轉(zhuǎn)步驟5;否則轉(zhuǎn)步驟6。
步驟5增大隨機(jī)抽取的樣本。增大樣本后再重復(fù)進(jìn)行步驟1~4的操作,直到提取樣本規(guī)則匹配已知樣本中未抽取的樣本為止。其穩(wěn)定的屬性就是匹配成功的屬性與增量樣本屬性通過交運(yùn)算得到的,滿足動(dòng)態(tài)約簡(jiǎn)的規(guī)則提取方法。
步驟6獲得最終規(guī)則。停止抽取樣本,將最后得到的規(guī)則進(jìn)行整合,得到最終的規(guī)則。
三、算法應(yīng)用
以旋轉(zhuǎn)機(jī)械故障診斷數(shù)字化后的決策表(表1)為案例[14]驗(yàn)證算法。
表1中,U={X1,X2,…,X6}為對(duì)象的故障征兆有限集;k為樣本個(gè)數(shù);C={C1,C2,…,C5}為故障條件屬性集合,C1表示振動(dòng)烈度,C2為振動(dòng)一倍頻幅值,C3為振動(dòng)二倍頻幅值,C4為振動(dòng)高頻幅值,C5為振動(dòng)的相位變化;D為決策屬性,0表示無(wú)故障,1表示有故障;C1、C2、C3、C4的值為0表示無(wú),1表示有;C5的值為0表示相位穩(wěn)定,1表示相位不符合穩(wěn)定要求。具體計(jì)算過程如下:
步驟1抽取50%以上樣本,本例中抽取X3、X4、X5、X6。抽取之后的決策表如表1后4行所示,計(jì)算得到區(qū)分矩陣:
000C2C3C1C2C40C1C3C4C5C500
將其按長(zhǎng)度依次排序,得出區(qū)分函數(shù):
Δ=C5∧(C2∨C3)∧(C1∨C2∨C4)∧(C1∨C3∨C4∨C5
將析取的合取表達(dá)式轉(zhuǎn)化為合取的析取表達(dá)式,得出結(jié)果:Δ=(C2∧C5)∨(C1∧C3∧C5)∨(C3∧C4∧C5)。
所以得到3個(gè)約簡(jiǎn){C2,C5}、 {C1,C3,C5}、 {C3,C4,C5},并且CORE(Δ)=C5。
步驟2建立決策樹。屬性依賴度K(C1)=0,K(C2)=0.644,K(C3)=0.658,K(C4)=0。
根據(jù)屬性依賴度可以計(jì)算出決策樹的構(gòu)造過程。以C1、C3、C5為例給出構(gòu)造過程:由于C5是核屬性,因此將C5作為根節(jié)點(diǎn);比較屬性依賴度K(C3)>K(C1),所以選擇屬性依賴度大的C3為根節(jié)點(diǎn)的分支;最后將C1作為C3的分支節(jié)點(diǎn)。這樣可以得到約簡(jiǎn){C1,C3,C5}的決策樹,如圖1(c)所示。圖1(a)為約簡(jiǎn){C2,C5}建立的決策樹;圖1(b)為約簡(jiǎn){C3,C4,C5}建立的決策樹,具體計(jì)算過程不再重復(fù)。利用屬性依賴度構(gòu)造的決策樹,簡(jiǎn)單易懂,又能很好地進(jìn)行分類。
步驟3計(jì)算可信度和覆蓋度。
規(guī)則的不確定主要包括不一致性和隨機(jī)性。規(guī)則的不一致性可以通過可信度來(lái)檢驗(yàn);規(guī)則的隨機(jī)性可以通過覆蓋度來(lái)檢驗(yàn),最后提取出有效的規(guī)則。
以C3、C5為例計(jì)算,U/IND(R)={{X3},{X4,X5},{X6}}, U/D={{X3,X4},{X5,X6}}。
設(shè):X1={X3},X2={X4,X5},X3={X6},Y1={X3,X4},Y2={X5,X6},計(jì)算可信度和覆蓋度:
μ(X1,Y1)=|X1∩Y1||X1|=2525=1
φ(X1,Y1)=|X1∩Y1||Y1|=2525+13=0.66
計(jì)算結(jié)果如表2所示。
根據(jù)表2進(jìn)行規(guī)則提取,分別設(shè)定可信度和覆蓋度的閾值,選擇可信度和覆蓋度大于閾值的進(jìn)行規(guī)則提取。當(dāng)有不一致的信息時(shí),提取可信度高、覆蓋度大的作為規(guī)則?梢栽O(shè)定可信度的閾值為0.5,覆蓋度的閾值為0.3。此例中C5=0,出現(xiàn)不一致的信息,取可信度和覆蓋度大的,即if C5=0,then D=1; if C3=0,C5=0,then D=0。利用可信度和覆蓋度對(duì)決策樹進(jìn)行剪枝得到規(guī)則,取滿足設(shè)定閾值的規(guī)則,即去掉表2中第2條和第8條規(guī)則。步驟4規(guī)則匹配。將得到的規(guī)則匹配樣本X1,規(guī)則匹配后由表2第3條規(guī)則得出的決策屬性D=0,而實(shí)際上D=1。即得出的規(guī)則無(wú)效,規(guī)則匹配失敗,可以判斷屬性約簡(jiǎn)不穩(wěn)定,轉(zhuǎn)步驟5。步驟5增加抽取樣本的數(shù)量。可以增加樣本X2,根據(jù)數(shù)據(jù)X2,X3,X4,X5,X6得出屬性約簡(jiǎn)的結(jié)果為:{C1,C2,C5},{C1,C3,C5},{C3,C4,C5},{C2,C3,C5},{C2,C4,C5}。按照步驟2的方法構(gòu)造得到5棵決策樹,提取可信度達(dá)到閾值的規(guī)則,當(dāng)出現(xiàn)不一致信息時(shí),提取可信度和覆蓋度大的作為規(guī)則。增大樣本的規(guī)則集見表3。用樣本X1進(jìn)行匹配,規(guī)則1和規(guī)則4可以匹配,規(guī)則15不能匹配,所以根據(jù)匹配與否進(jìn)行規(guī)則刪除,即提取有效規(guī)則。由于存在有效規(guī)則,所以將其屬性約簡(jiǎn)與匹配成功的屬性進(jìn)行交運(yùn)算,得到穩(wěn)定的屬性約簡(jiǎn)。步驟6得到最終規(guī)則。算法結(jié)束,獲得最終23條規(guī)則(如表3所示,27條規(guī)則中刪除序號(hào)為12~15的四條規(guī)則),這些規(guī)則代表與其匹配成功,得到穩(wěn)定屬性約簡(jiǎn)提取出的有效規(guī)則。用本文的動(dòng)態(tài)規(guī)則提取算法,得到穩(wěn)定的約簡(jiǎn)為{C1,C2,C5},{C1,C3,C5},{C3,C4,C5},{C2,C3,C5},而本例通過靜態(tài)算法得到的約簡(jiǎn)為{C1,C3,C5},{C2,C3,C5},{C3,C4,C5},由此可見,動(dòng)態(tài)約簡(jiǎn)包含了更多的隱含信息,對(duì)于增量的旋轉(zhuǎn)機(jī)械故障問題能夠更好地進(jìn)行診斷。
四、算法效率分析
4.1與靜態(tài)算法對(duì)比分析
通過與靜態(tài)算法基于粗集和決策樹的規(guī)則提取方法[14]進(jìn)行比較,當(dāng)振動(dòng)二倍頻幅值、相位不穩(wěn)定,對(duì)應(yīng)的數(shù)字形式化為C3=1,C5=1,進(jìn)行規(guī)則匹配,通過表3第4條規(guī)則可以得到D=1,推出旋轉(zhuǎn)機(jī)械有轉(zhuǎn)子不對(duì)中故障,相應(yīng)的可信度為1,覆蓋度為0.46,相應(yīng)的覆蓋度高于文獻(xiàn)[14]中覆蓋度,如表4所示,說明動(dòng)態(tài)算法比靜態(tài)算法診斷精度更高。
當(dāng)旋轉(zhuǎn)機(jī)械中沒有振動(dòng)烈度,相位也不穩(wěn)定,數(shù)字化為C1=0,C5=1,通過表3的第16條和第19條規(guī)則可以得到D=1,推出旋轉(zhuǎn)機(jī)械有轉(zhuǎn)子不對(duì)中故障。而在文獻(xiàn)[14]中不能找到相應(yīng)的規(guī)則去匹配,而是通過減少條件來(lái)匹配,結(jié)果往往帶來(lái)誤差。靜態(tài)算法在面對(duì)海量決策表和動(dòng)態(tài)變化決策表的約簡(jiǎn)時(shí),所得的約簡(jiǎn)不夠穩(wěn)定,無(wú)法描述決策表局部變化的規(guī)律,會(huì)出現(xiàn)較大決策誤差。由此可見,本文設(shè)計(jì)的粗決策樹動(dòng)態(tài)規(guī)則提取算法能夠更好地挖掘出數(shù)據(jù)本身潛在的信息,從而獲得更精確的決策規(guī)則。
4.2與增量式約簡(jiǎn)算法對(duì)比分析
將本文算法與文獻(xiàn)[9]的基于粗集和決策樹的增量式規(guī)則約簡(jiǎn)算法進(jìn)行對(duì)比分析如下:
1)文獻(xiàn)[9]中規(guī)則樹構(gòu)造算法第2步中,構(gòu)造的決策樹是通過條件屬性的取值個(gè)數(shù)從小到大排列條件屬性構(gòu)造的決策樹,傾向于選擇取值較多的屬性作為分支決策,但在有些情況下這類屬性可能不會(huì)提供太多有價(jià)值的信息,從而導(dǎo)致決策出現(xiàn)偏差;而本文算法根據(jù)屬性依賴度的大小作為決策樹的分支屬性來(lái)構(gòu)造決策樹,決策分類對(duì)條件屬性集的依賴度程度越大說明屬性對(duì)于決策越重要,這樣構(gòu)造的決策樹更有利于正確決策。
2)文獻(xiàn)[9]中基于粗集和決策樹的增量式規(guī)則約簡(jiǎn)算法,當(dāng)新對(duì)象與規(guī)則集不一致時(shí),增加屬性值來(lái)辨別規(guī)則,沒有考慮規(guī)則數(shù)據(jù)的隨機(jī)性,從而出現(xiàn)噪聲;而本文算法針對(duì)規(guī)則的不一致性和隨機(jī)性分別通過可信度和覆蓋度來(lái)進(jìn)行決策,當(dāng)可信度和覆蓋度達(dá)到設(shè)定閾值時(shí)對(duì)規(guī)則進(jìn)行提取,既能對(duì)不一致規(guī)則進(jìn)行正確決策,又能夠有效過濾數(shù)據(jù)的隨機(jī)性產(chǎn)生的噪聲,得到最精簡(jiǎn)的規(guī)則集,提高規(guī)則集匹配效率。
3)針對(duì)本案例,將文獻(xiàn)[9]中的算法與本文算法規(guī)則約簡(jiǎn)結(jié)果作對(duì)比。當(dāng)增加樣本X1,X2時(shí),即增加新對(duì)象C11C20C31C40C51→D1,C10C20C31C41C51→D1,用本文算法和文獻(xiàn)[9]算法得出的約簡(jiǎn)分別如表5和表6所示(x表示此處可取0或1)。經(jīng)約簡(jiǎn)結(jié)果對(duì)比,本文算法提取的規(guī)則要比文獻(xiàn)[9]中提取的規(guī)則集更精簡(jiǎn),提高了規(guī)則集匹配效率,凸顯了本文算法的優(yōu)越性。
綜上所述,通過與其他算法的比較,粗決策樹動(dòng)態(tài)規(guī)則提取算法能夠以最精簡(jiǎn)的規(guī)則挖掘出數(shù)據(jù)本身潛在的信息,從而提高決策效率。
五、結(jié)語(yǔ)
本文提出了基于粗決策樹的動(dòng)態(tài)規(guī)則提取算法,并將其應(yīng)用于旋轉(zhuǎn)機(jī)械故障診斷。該算法利用粗集動(dòng)態(tài)約簡(jiǎn)與決策樹規(guī)則提取的優(yōu)勢(shì),采用增量式的樣本抽取,用得到的動(dòng)態(tài)約簡(jiǎn)進(jìn)行匹配,以便提取更為有效的規(guī)則,彌補(bǔ)了靜態(tài)約簡(jiǎn)無(wú)法描述決策表局部變化規(guī)律的缺陷。最后,用旋轉(zhuǎn)機(jī)械故障診斷問題為應(yīng)用背景,驗(yàn)證了算法的有效性,并分別與靜態(tài)算法和基于粗集和決策樹的增量式規(guī)則約簡(jiǎn)算法進(jìn)行了對(duì)比分析。本文算法能夠以最精簡(jiǎn)的規(guī)則獲得更多數(shù)據(jù)隱含信息,為實(shí)時(shí)、動(dòng)態(tài)數(shù)據(jù)的處理提供了一種解決思路,具有一定的理論價(jià)值和推廣價(jià)值。
參考文獻(xiàn):
[1] ZHANG W, WU W, LIANG J, et al. Rough set theory and method [M]. Beijing: Science Press, 2001:1-39.(張文修,吳偉志,梁吉業(yè),等.粗集理論與方法[M].北京:科學(xué)出版社,2001:1-39.)
[2] WU S, LIU S, GU J. A rule extraction method based on rough sets theory [J]. Journal of Xiamen University:Natural Science, 2004,43(5):605-608.(吳順祥,劉思峰,辜建德.基于粗集理論的一種規(guī)則提取方法[J].廈門大學(xué)學(xué)報(bào):自然科學(xué)版,2004,43(5): 605-608.)
[3] TAN J, WU J. Study of classification algorithm based on the decision tree rules [J]. Computer Engineering and Design, 2010, 31 (5) : 1017-1019.(譚俊璐,吳建華.基于決策樹規(guī)則的分類算法研究[J].計(jì)算機(jī)工程與設(shè)計(jì),2010,31(5):1017-1019.)
[4] DING C, LI L. A decision tree rule extraction algorithm based on rough set [J]. Computer Technology and Development, 2007, 17(11):111-113.(丁春榮,李龍.一個(gè)基于粗集的決策樹規(guī)則提取算法[J].計(jì)算機(jī)技術(shù)與發(fā)展,2007,17(11):111-113.)
[5] SHI K. Attribute reduction based on rough set theory and decision tree classification algorithm research [D]. Dalian: Dalian Maritime University, 2014.(石凱.基于粗集理論的屬性約簡(jiǎn)與決策樹分類算法研究[D]. 大連: 大連海事大學(xué),2014.)
[6] HU Y, ZHENG J. Improved ID3 algorithm based on rough set theory and application [J]. Journal of Guiyang College, 2015, 10 (1): 16-20.(胡煜,鄭娟.基于粗集理論的ID3算法的改進(jìn)與應(yīng)用[J].貴陽(yáng)學(xué)院學(xué)報(bào),2015,10(1):16-20.) [7] YU F, WANG R, ZHU X, et al. Dynamic reduction and rule extraction based on discernibility matrix algorithm[J]. Automation and Instrumentation, 2007,22(6):1-4.(余峰林,王儒敬,朱學(xué)昊,等.基于差別矩陣的動(dòng)態(tài)約簡(jiǎn)及規(guī)則提取算法[J].自動(dòng)化與儀表,2007,22(6):1-4.)
[8] YIN A, XIE L, LONG Y, et al. Dynamic decision tree algorithm study[J]. Computer Engineering and Applications, 2004,40(33):103-105.(尹阿東,謝林銓,龍譽(yù),等.動(dòng)態(tài)決策樹算法研究[J]. 計(jì)算機(jī)工程與應(yīng)用,2004,40(33):103-105.)
[9] WANG Y, YAN D, ZHANG F. Based on rough set and decision tree rules of incremental reduction algorithm [J]. Computer Engineering and Application, 2007,43(1): 170-172.(王楊,閆得勤,張鳳梅.基于粗集和決策樹的增量式規(guī)則約簡(jiǎn)算法[J].計(jì)算機(jī)工程與應(yīng)用,2007,43(1):170-172.)
[10] ZHOU H. Dynamic reduction based on rough set theory research [D]. Changsha: Central South University, 2004.(周化.基于粗集理論的動(dòng)態(tài)約簡(jiǎn)研究[D].長(zhǎng)沙:中南大學(xué),2004.)
[11] SHU W, SHEN H. Incremental feature selection based on rough set in dynamic incomplete data [J]. Pattern Recognition, 2014, 47(12):3890-3906.
[12] SON C, KIM Y, KIM H, et al. Decisionmaking model for early diagnosis of congestive heart failure using rough set and decision tree approaches [J]. Journal of Biomedical Informatics, 2012, 45(5):999-1008.
[13] LIAO Q, HAO Z, CHEN Z. Data mining and mathematical modeling [M]. Beijing: National Defense Industry Press, 2010:126-138.(廖芹,郝志峰,陳志宏.數(shù)據(jù)挖掘與數(shù)學(xué)建模[M].北京: 國(guó)防工業(yè)出版社,2010:126-138.)
[14] XIA Y. Extracting rules based on rough set and decision tree method research [D]. Nanchang: Nanchang University, 2008.(夏葉娟.基于粗集和決策樹的規(guī)則提取方法研究[D]. 南昌: 南昌大學(xué),2008.)
【粗決策樹動(dòng)態(tài)規(guī)則提取算法研究及應(yīng)用】相關(guān)文章:
會(huì)計(jì)審計(jì)研究若干國(guó)際動(dòng)態(tài)06-03
基于BP網(wǎng)遙感影像分類研究與應(yīng)用08-10
超硬材料薄膜涂層研究進(jìn)展及應(yīng)用05-03
司法裁判中法官如何應(yīng)用經(jīng)驗(yàn)法則和邏輯規(guī)則07-31
多網(wǎng)融合應(yīng)用于通信工程的研究08-15
旅游購(gòu)物連鎖經(jīng)營(yíng)方式框架及應(yīng)用研究06-11
電氣自動(dòng)化節(jié)能設(shè)計(jì)技術(shù)應(yīng)用研究06-12