亚洲国产日韩欧美在线a乱码,国产精品路线1路线2路线,亚洲视频一区,精品国产自,www狠狠,国产情侣激情在线视频免费看,亚洲成年网站在线观看

統(tǒng)計學習方法李航

時間:2020-12-08 10:03:05 學習方法 我要投稿

統(tǒng)計學習方法李航

  李航的《統(tǒng)計學習方法》絕對是干貨十足的書,可惜實在是太干了,字字珠璣,幾乎每段話都能當作筆記進行整理。讀起來仿佛在吃加強版的壓縮餅干,雖然能量十足但未免太難吃了。接下來小編為你帶來統(tǒng)計學習方法李航,希望對你有幫助。

統(tǒng)計學習方法李航

  統(tǒng)計學習方法的三要素

  (1)模型

 。2)策略

 。3)算法

  實現(xiàn)統(tǒng)計學習的步驟:

 。1)得到用來訓練模型和測試模型的數(shù)據集(輸入和輸出(實際值)+需要進行預測的輸入數(shù)據)

 。2)確定包含所有可能的模型的假設空間(模型的假設空間就是確定的帶參的函數(shù)族,之所以說是有無數(shù)個是因為參數(shù)的選取相對來說是任意的),就是學習模型的集合

 。3)確定怎么樣在假設空間中的帶參的無限多個函數(shù)中間來選取最終模型的準則(就是說應該給予什么約束來確定最終模型),這種準則就是學習的策略。

  一般是用代價函數(shù)最為準則(策略)來確定最終模型的。代價函數(shù)指的就是帶參的模型的估計值和實際值之間的差距(一般用以度量的代價函數(shù)就是平方損失,概率估計等),代價函數(shù)的選取就是確定學習的策略,還要加上規(guī)范化項(正則項)來約束這個模型(中的權重系數(shù),使得權重系數(shù)不至于過大,因為權重系數(shù)過大可能會出現(xiàn)模型的過擬合,過擬合就是模型在訓練樣本中的估計情況比較好但是在測試樣本中的表現(xiàn)就不行了)

 。4)有上述第三步確定了是由代價函數(shù)和規(guī)范化項來約束模型參數(shù)的選取的,最優(yōu)模型當然是約束下的代價函數(shù)和規(guī)范化項取得最小值時候的參數(shù)了,這里如何求得代價函數(shù)和規(guī)范化項的最小值的算法就是學習的算法了(學習的意思就是通過算法求解模型的參數(shù))

  學習的算法有梯度下降法,正規(guī)矩陣求解等多元函數(shù)求導方法

 。5)通過學習方法(求解系數(shù)的算法)來求解最優(yōu)模型

 。6)利用求得的最優(yōu)模型來對新數(shù)據(測試數(shù)據或者是需要進行預測的數(shù)據)進行模型的檢驗或者是用模型進行預判

  監(jiān)督學習(重點):具有輸出數(shù)據(標簽)(可以根據輸入數(shù)據和輸出數(shù)據的離散還是連續(xù)來分為分類,回歸和標注)

  無監(jiān)督學習:不具有輸出數(shù)據,僅具有輸入數(shù)據(一般是聚類分析)

  半監(jiān)督學習:由于標簽的成本比較高,只能給一部分的數(shù)據進行標簽操作。

  強化學習:是一種自主學習的模式

  監(jiān)督學習:將數(shù)據集(輸入數(shù)據和輸出標簽)通過統(tǒng)計機器學習來得到輸入數(shù)據和輸出數(shù)據之間的函數(shù)映射(不知道的實際的f是黑盒子,我們要用學習得到的模型去逼近/近似模擬f黑盒子)關系,得到這個模型之后再將這個模型去應用于其他未知標簽的數(shù)據的標簽的預測。

  監(jiān)督學習中的一些基本概念:

  1)輸入空間,特征空間和輸出空間

  輸入空間:輸入變量xi(x1,x2,...)的所有i對應的x的取值構建起來的集合叫做輸入空間(從形式上來看輸入空間是矩陣形式的

  輸出空間:輸出變量yi的所有可能的情況構建起來的集合就叫做輸出空間(從形式上來看輸出空間應該是列向量形式的)

  輸入空間和輸出空間可以在同一個空間中,也可以在不同的空間中,通常輸出空間要比輸入空間來的小(就是輸出的情況比輸入的情況來的少)

  特征空間:輸入變量xi(x1,x2,...)中的各個x1,x2,...來表征xi,這些x1,x2,...就是輸入變量xi對應的屬性/特征,這些不同的屬性/特征構建起來的空間就是特征空間(從形式上來看特征空間是列向量形式的)

  輸入空間就是在特征空間中的不同取值的集合,列向量(特征空間)的轉置的列向量組合就是輸入空間的矩陣

  一些約定:

  1.輸入,輸出變量的所有情況用大寫X,Y表示;

  2.輸入,輸出變量的某一種取值狀況用小寫x,y表示;

  3.變量可以是標量(如輸出變量y)也可以是向量(如輸入向量x)

  4.xi表示的是輸入空間中的第i個輸入變量,但是這個輸入變量是一個具有多屬性的向量;而x(i)表示的是輸入空間中的第i個屬性/特征,就是輸入空間的某個屬性列

  監(jiān)督學習的一些細分:

  輸入變量x和輸出變量y都是連續(xù)的模型叫做回歸分析

  輸入變量為連續(xù)的,輸出變量時離散的情形叫做分類問題

  輸入變量和輸出變量都為離散的叫做標注

  2)聯(lián)合概率分布

  1.什么是概率分布?什么是聯(lián)合概率分布?

  概率分布p(y|x):指的是練習樣本數(shù)據中的一條數(shù)據(一個樣本點)的模型估計和實際值之間的取值相等的概率(模型在這個樣本點之上的準確度)

  概率分布指的就是在一定條件下面出現(xiàn)的不同情況的概率的情況

  形式有如p(y|x)表示的是在x的情形下發(fā)生y的概率。

  其中的y|x指的是在隨機變量x(輸入的一個數(shù)據)的情形下面發(fā)生y的概率

  聯(lián)合概率分布P(Y|X):指的是練習樣本數(shù)據中的所有數(shù)據根據模型計算的估計值和實際值全部相等的概率(練習樣本數(shù)據集中所有數(shù)據輸入后的估計值和實際值一樣的概率當然就是所有的單條數(shù)據經過模型估計后的估計值和實際值相等的概率的乘積,當然是將單個的概率分布做連乘處理,就是采用似然函數(shù)來估計總體的情況)(模型在練習數(shù)據集上面的準確度)

  聯(lián)合概率分布指的是在X的條件下面事件Y發(fā)生的概率。

  其中的X指的是隨機變量x在輸入空間中的集合,就是在這些輸入空間中的隨機變量共同輸入的情況下事件Y發(fā)生的'概率。

  似然估計:(總體概率的估計(聯(lián)合概率分布),就是將單個個體的概率的估計(概率分布)做連乘處理)

  由上面可知聯(lián)合概率分布(總體)可以采用似然估計來將概率分布(個體)相乘的前提就是各個個體服從獨立同分布(各個個體是相互獨立的而且這些個體的概率分布是相同的)

  獨立同分布:

  對象是練習數(shù)據集中的單條數(shù)據

  因為數(shù)據集中的元素(一條條的數(shù)據)的數(shù)據結構是相同的,所以應該是滿足同分布的,但是這些數(shù)據獨立嗎???

  3)假設空間

  假設空間是帶參的模型,是對練習數(shù)據集上面的輸入到輸出的映射關系,假設空間的確定意味著模型范圍的確定,就是確定了帶參的函數(shù),接下去的任務就是計算出最優(yōu)的模型

  假設空間中帶參的模型函數(shù)的建立

  這個模型的對象是練習數(shù)據集中的樣本點。因此這個帶參的函數(shù)模型如果是概率的話就是概率分布了

  學習的三要素:

  模型,策略,算法

  模型就是選取合適的帶參的函數(shù)(假設空間),有可能是條件概率分布函數(shù)p(y|x)也有可能是決策函數(shù)

 。1)由決策函數(shù)定義的模型叫做非概率模型

  (2)由條件概率分布函數(shù)定義的模型叫做概率模型。

  策略就是采取何種約束(規(guī)則)來計算帶參的函數(shù)(模型)(代價函數(shù),規(guī)則化項來制約,代價函數(shù)和規(guī)則化項的選取的不同就是策略的不同(對整體模型的準確性的一種約束,最小二乘法,聯(lián)合概率分布)

  非概率模型的損失函數(shù)一般是平方損失函數(shù)(估計值和實際值之間的差距的平方):對應于損失最小

  概率模型的損失函數(shù)一般考慮用聯(lián)合概率分布(對條件概率分布函數(shù)來構造似然函數(shù)):對應于聯(lián)合概率分布最大

  算法就是對策略產生的代價函數(shù)和正則項的綜合函數(shù)進行最值的計算來使得這個模型的參數(shù)最優(yōu)化(使得代價最小或者是模型的估計值和實際值相等的概率最大),用梯度下降法或者正規(guī)矩陣的方法來計算得到最佳參數(shù)。

【統(tǒng)計學習方法李航】相關文章:

關于夏航面試經驗11-27

航拍構圖技巧方法08-12

航拍方法技巧流程11-13

無人機航拍影視技巧10-08

影視制作的航拍要求10-06

機場助航燈基本知識08-14

基于統(tǒng)計學的李賀詩歌色彩詞的語言學分析08-05

影視制作中的航拍技巧10-07

航拍方法技巧及注意事項11-07

航材資源管理論文10-08