<label id="jgr5k"></label>
    <legend id="jgr5k"><track id="jgr5k"></track></legend>

    <sub id="jgr5k"></sub>
  1. <u id="jgr5k"></u>
      久草国产视频,91资源总站,在线免费看AV,丁香婷婷社区,久久精品99久久久久久久久,色天使av,无码探花,香蕉av在线
      您正在使用IE低版瀏覽器,為了您的雷峰網賬號安全和更好的產品體驗,強烈建議使用更快更安全的瀏覽器
      此為臨時鏈接,僅用于文章預覽,將在時失效
      人工智能開發者 正文
      發私信給汪思穎
      發送

      0

      模式識別與機器學習第一講(下)

      本文作者: 汪思穎 2017-09-30 17:48
      導語:本文主要涉及到一些概率論的內容。

      雷鋒網 AI科技評論按,本文作者Frankenstein,首發于知乎專欄閑敲棋子落燈花,雷鋒網 AI科技評論獲其授權轉載。

      本文接模式識別與機器學習第一講(上)。關鍵詞:隨機變量、條件概率、邊際概率、sum rule、product rule、貝葉斯公式、先驗概率、后驗概率、獨立、概率質量函數、概率密度函數、累計分布函數、多元分布、換元、期望、條件期望、方差、協方差。

      1.2 Probability Theory

      動機:模式識別里的一個關鍵概念是不確定性。不確定性的來源有兩個:測量的噪聲以及數據集大小有限。概率論提供了一種量化和操作不確定性的工具,是模式識別的根基之一。當我們同時運用概率論和決策論,我們可以基于給定信息做出最優預測,無論信息是否完整、明確。

      如沒有特別強調,以下模式識別與機器學習第一講(下)均表示隨機變量。嚴格地說一個隨機變量模式識別與機器學習第一講(下)是一個從樣本空間(sample space, 潛在結果的集合)模式識別與機器學習第一講(下)到可測空間(measurable space)模式識別與機器學習第一講(下)的可測函數(measurable function)。這涉及到測度論的知識,遠遠超出了本書對讀者數學知識的假設。鑒于我們這里不追求嚴格的定義,可以認為一個隨機變量是一個可以從一個集合中取不同值的變量。


      條件概率模式識別與機器學習第一講(下)表示已知模式識別與機器學習第一講(下)的情況下,模式識別與機器學習第一講(下)發生的概率,被稱為給定模式識別與機器學習第一講(下),模式識別與機器學習第一講(下)的條件概率。我們可以把這一定義拓展到給定多于一個條件的情況下如模式識別與機器學習第一講(下)


      sum rule: 模式識別與機器學習第一講(下), 這里的模式識別與機器學習第一講(下)常被稱為邊際概率(marginal probability),因為它可經由取便其它變量(如模式識別與機器學習第一講(下))的所有可能值時,計算模式識別與機器學習第一講(下)與它們的聯合分布的概率的總和來得到。

      product rule: 模式識別與機器學習第一講(下)


      symmetry property: 模式識別與機器學習第一講(下)

      基于product rule和symmetry property,我們可以得到大名鼎鼎的貝葉斯定理/公式(Bayes' theorem):模式識別與機器學習第一講(下)。由sum rule, product rule和symmetry property可得模式識別與機器學習第一講(下)模式識別與機器學習第一講(下)。因此上式中模式識別與機器學習第一講(下)可被看做使左邊取所有可能模式識別與機器學習第一講(下)值的條件概率之和為1 的歸一化常數。

      sum rule,product rule以及symmetry property像條件概率一樣可以被拓展到多于兩個隨機變量的情況。

      貝葉斯定理的一個重要解釋涉及先驗概率(prior probability)和后驗概率(posterior probability)。通俗地講,先驗概率是我們一無所知的情況下根據經驗、常規情況計算的,后驗概率是在我們得到了新的信息情況下對先驗概率進行的修正,更加準確。我們可以考慮模式識別與機器學習第一講(下)模式識別與機器學習第一講(下)的先驗概率而模式識別與機器學習第一講(下)為知道模式識別與機器學習第一講(下)模式識別與機器學習第一講(下)的后驗概率。


      獨立模式識別與機器學習第一講(下)為兩個隨機變量,如果模式識別與機器學習第一講(下),我們稱模式識別與機器學習第一講(下)獨立于模式識別與機器學習第一講(下)模式識別與機器學習第一講(下)獨立于模式識別與機器學習第一講(下)或者模式識別與機器學習第一講(下)彼此獨立。注意這種情況下模式識別與機器學習第一講(下)。我們還會經常見到兩兩獨立(pairwise independence,一個隨機變量的集合中任取兩個隨機變量都彼此獨立)和彼此獨立(mutually independence,對于一個隨機變量的集合模式識別與機器學習第一講(下),它們一起的聯合分布概率等于它們各自的分布概率之積: 模式識別與機器學習第一講(下))。


      1.2.1 Probability densities

      隨機變量有離散型和連續性兩種。離散型隨機變量定義在事件的離散集合上(如篩子的點數,硬幣的正反等等),連續型隨機變量定義在事件的連續集合上(如區間)。就像離散型隨機變量與概率質量函數(probability mass function)相關聯一樣,連續型隨機變量與概率密度函數(probability density function)相關聯。

      a. 概率密度函數模式識別與機器學習第一講(下)具有以下特點:

      • 模式識別與機器學習第一講(下);

      • 模式識別與機器學習第一講(下);

      • 模式識別與機器學習第一講(下)模式識別與機器學習第一講(下)的概率為模式識別與機器學習第一講(下)


      b. 換元/變量選擇

      給定模式識別與機器學習第一講(下)的概率密度函數模式識別與機器學習第一講(下),令模式識別與機器學習第一講(下),則有模式識別與機器學習第一講(下)。一個相關的結果是概率密度函數的最大值取決于變量的選擇。


      c. 累積分布函數(cumulative distribution function)

      模式識別與機器學習第一講(下)的概率為模式識別與機器學習第一講(下),模式識別與機器學習第一講(下)被稱為累積分布函數。模式識別與機器學習第一講(下)


      d.多元分布

      考慮多個連續型隨機變量的聯合分布。假設我們有模式識別與機器學習第一講(下)個連續型隨機變量模式識別與機器學習第一講(下),我們可以用一個向量把它們“封裝”起來:模式識別與機器學習第一講(下)使得模式識別與機器學習第一講(下)。如此得到的概率密度函數仍然要滿足 a 部分的特點。我們同樣也可以考慮離散型隨機變量和連續型隨機變量的聯合分布。


      1.2.2 期望(expectation)和協方差(covariance)

      期望:函數模式識別與機器學習第一講(下)在概率分布模式識別與機器學習第一講(下)下的平均值被稱為模式識別與機器學習第一講(下)的期望,用模式識別與機器學習第一講(下)表示。

      • 對于離散型隨機變量,模式識別與機器學習第一講(下)

      • 對于連續型隨機變量,模式識別與機器學習第一講(下)


      給定概率分布采集到的模式識別與機器學習第一講(下)個數據點: 模式識別與機器學習第一講(下),我們可以近似計算模式識別與機器學習第一講(下)的值為模式識別與機器學習第一講(下)。由大數定理可知,隨著模式識別與機器學習第一講(下),這一近似逼近模式識別與機器學習第一講(下)


      當我們考慮多變量函數的期望時,我們可以在模式識別與機器學習第一講(下)右下角加一個下標表示關于哪個隨機變量取期望,如模式識別與機器學習第一講(下)表示模式識別與機器學習第一講(下)關于模式識別與機器學習第一講(下)的期望。


      條件期望(conditional expectation)模式識別與機器學習第一講(下)在條件概率分布模式識別與機器學習第一講(下)下的平均值被稱為模式識別與機器學習第一講(下)的條件期望,用模式識別與機器學習第一講(下)表示。

      • 對于離散型隨機變量,模式識別與機器學習第一講(下)

      • 對于連續型隨機變量,模式識別與機器學習第一講(下)


      方差(variance)模式識別與機器學習第一講(下)的方差為模式識別與機器學習第一講(下)。可以認為方差衡量了模式識別與機器學習第一講(下)模式識別與機器學習第一講(下)附近的變化性。


      協方差(covariance):對于任意兩個隨機變量模式識別與機器學習第一講(下),它們之間的協方差定義為模式識別與機器學習第一講(下),它反映了模式識別與機器學習第一講(下)一起變化的程度。

      • 一個隨機變量與其本身之間的協方差等于其方差。

      • 模式識別與機器學習第一講(下)彼此獨立時,模式識別與機器學習第一講(下)

      • 模式識別與機器學習第一講(下)為兩個隨機變量的向量時,設模式識別與機器學習第一講(下)含有模式識別與機器學習第一講(下)個元素,模式識別與機器學習第一講(下)含有模式識別與機器學習第一講(下)個元素模式識別與機器學習第一講(下),此時模式識別與機器學習第一講(下)實際上是一個模式識別與機器學習第一講(下)的矩陣,并且矩陣中第模式識別與機器學習第一講(下)行的第模式識別與機器學習第一講(下)個元素代表了模式識別與機器學習第一講(下)模式識別與機器學習第一講(下)之間的協方差。

      • 對于任意一個隨機變量的向量模式識別與機器學習第一講(下)模式識別與機器學習第一講(下)

      1.2.3 Bayesian probabilities

      這一節可以用一個問題來概括:什么是概率?之前知乎上也有類似的討論:概率(Probability)的本質是什么? - 知乎

      • 龐加萊說,“概率僅僅是我們無知程度的度量,據定義,我們不曉得其定律的現象,都是偶然現象”。

      • 不少數學家說,概率是定義在模式識別與機器學習第一講(下)-代數上,值域為[0, 1]的測度。

      • 頻率論者(frequentist古典統計學者)說,概率是隨機、可重復事件的出現頻率。

      • 貝葉斯論者(Bayesian)說,概率提供了一種對不確定性的量化。

      其它參考內容:

      DS-GA 1003關于L1, L2正則化的slides:https://davidrosenberg.github.io/mlcourse/Lectures/2b.L1L2-regularization.pdf

      雷峰網版權文章,未經授權禁止轉載。詳情見轉載須知

      模式識別與機器學習第一講(下)

      分享:
      相關文章

      編輯

      關注AI學術,例如論文
      當月熱門文章
      最新文章
      請填寫申請人資料
      姓名
      電話
      郵箱
      微信號
      作品鏈接
      個人簡介
      為了您的賬戶安全,請驗證郵箱
      您的郵箱還未驗證,完成可獲20積分喲!
      請驗證您的郵箱
      立即驗證
      完善賬號信息
      您的賬號已經綁定,現在您可以設置密碼以方便用郵箱登錄
      立即設置 以后再說
      主站蜘蛛池模板: 玩成熟老熟女视频| 日韩乱码人妻无码中文字幕视频| 91亚洲精品国偷拍自产在线观看| 精品国产一卡2卡3卡4卡新区| 夜夜嗨AV| 在线A级毛片无码免费真人| 亚洲综合激情另类专区| 亚洲人成在线播放网站| 亚洲中文字幕2019| 欧美亚洲一区二区三区在线| 亚洲爆乳无码专区www| 伊人成人社区| 一本色道精品| 老司机精品影院一区二区三区| 久久一级国产黄色精品| 永久免费观看美女裸体的网站| 国产稚嫩高中生呻吟激情在线视频 | 中文字幕日韩精品人妻| 亚洲av日韩aⅴ永久无码| 亚洲精品成人a在线观看| 亚韩精品中文字幕无码视频| 中国极品少妇videossexhd| 久久精品| 日韩吃奶摸下aa片免费观看| 欧美老熟妇喷水| 伊人大杳焦在线| 国产91精选在线观看| 国产成人成网站在线播放青青| 亚洲色成人一区二区三区小说| 久久精品区| 综合久久国产九一剧情麻豆 | 欧美视频网站www色| 日本成人有码在线视频| 亚洲免费三区| 日区中文字幕一区二区| 清纯校花的被脔日常h动漫| 精品黑人一区二区三区久久| 岛国熟女一区二区三区| 国产精品特级毛片一区二区三区| 男人的天堂av一二三区| 国产三区二区|