人工智能之數據挖掘與機器學習
2025-06-04 06:44:48
講師:葉(xie)梓 瀏覽次數:3026
課(ke)程描述INTRODUCTION
數(shu)據挖掘(jue)與機器學習課(ke)程
日程安排(pai)SCHEDULE
課程大(da)綱Syllabus
數據挖掘與機器學習課程
課(ke)程(cheng)大綱
一、概述
1、 概念與術語(人(ren)工智能、數據(ju)挖掘、機器學習…)
2、 數據(ju)挖掘的(de)對(dui)象
3、 數據挖(wa)掘的關(guan)鍵技術
4、 知(zhi)識(shi)的表(biao)達
二(er)、數據預(yu)處理
1、 變量類(lei)型
2、 數據(ju)清理(li)
3、 數據集(ji)成和(he)變換
4、 數(shu)據倉庫與(yu)數(shu)據方(OLAP)
5、 規(gui)范(fan)化
6、 數據壓縮(DCT、小(xiao)波(bo)變(bian)換)
三、降維與維度歸(gui)約
1、 無(wu)標(biao)簽時:PCA
2、 有(you)標簽時:Fisher線性判別(第一(yi)個“LDA”)
3、 知識的約簡
4、 決策表的約簡
5、 粗糙集
四、回歸與時序分(fen)析
1、 線性(xing)回歸
2、 非線性回歸
3、 logistics回歸
4、 平穩性、截尾與拖尾
5、 ARIMA
五、決策樹
1、 分類(lei)和(he)預(yu)測
2、 熵減過程與貪心法
3、 ID3
4、 C4.5
5、 其他(ta)改進方(fang)法
6、 決策(ce)樹(shu)剪(jian)枝
7、 歸(gui)納學(xue)習
六、聚類(lei)
1、 監督學習與(yu)無監督學習
2、 K-means與k-medoids
3、 層(ceng)次的方法
4、 基于(yu)密度的方法
5、 基于網(wang)格的方法
6、 孤立(li)點分析(xi)
7、 案例:鳶(yuan)尾花數(shu)據的聚類
七、關(guan)聯規則與序(xu)列(lie)挖掘(jue)
1、 頻繁項(xiang)集
2、 支持度與置信度
3、 Apriori性質
4、 連接與剪(jian)枝
5、 總有“啤酒(jiu)與尿布”以外的案例吧?
6、 序列挖掘
八、惰(duo)性學習
1、 迫切學習與惰性學習
2、 K-NN分類算法
3、 基于案例的推理
九、機器學習中性(xing)能評價(jia)指標
1、 準確率(lv);*率(lv)、召回率(lv);F1
2、 真陽(yang)性(xing)(xing)率(lv)、假陽(yang)性(xing)(xing)率(lv)
3、 混淆矩陣
4、 ROC與AUC
5、 對數損失
6、 Kappa系數
7、 回歸:平(ping)(ping)均(jun)*誤(wu)(wu)差(cha)、平(ping)(ping)均(jun)平(ping)(ping)方誤(wu)(wu)差(cha)
8、 聚類(lei):蘭(lan)德(de)指(zhi)數、互信息
十、樸素(su)貝葉(xie)斯(si)與(yu)貝葉(xie)斯(si)網(wang)絡
1、 概(gai)率(lv)(lv)論(lun)基(ji)礎:條件概(gai)率(lv)(lv)、聯(lian)合概(gai)率(lv)(lv)、分布、共軛先驗。
2、 “概率派”與“貝葉斯(si)派”
3、 樸素貝葉斯模型
4、 貝(bei)葉斯信念網絡
5、 應用案例介紹(shao)
十一、 極大似然估計與EM算法
1、 極大似然估計
2、 半監督(du)學習(xi)
3、 EM算法
4、 EM算法(fa)應用:貝葉斯線性回(hui)歸
十二、 支持向(xiang)量機
1、 統計學習問(wen)題
2、 結構風險最小歸納原理
3、 支(zhi)持向量機
4、 核函數
5、 多分類的支持向量機
6、 用于連續值預測的支持向(xiang)量機
7、 小案(an)例:“拆蚊香”
十三、 BP神經網絡
1、 人工神經(jing)元及(ji)感知機模(mo)型
2、 前向神(shen)經網(wang)絡
3、 sigmoid
4、 徑向(xiang)基函數神經網絡
5、 誤差反向(xiang)傳播
十(shi)四(si)、 其他神(shen)經網絡(luo)
1、 hopfield網絡
2、 自組織(zhi)特征映射神經網絡
3、 受限布爾茲曼(man)機
4、 神經(jing)網絡的應(ying)用案例介紹
十五(wu)、 機器學(xue)習(xi)中的最優(you)化方法
1、 參數學習方法
2、 損失(shi)函數(shu)(或目標函數(shu))
3、 梯度(du)下(xia)降(jiang)
4、 隨機(ji)梯(ti)度下降
5、 牛頓法
6、 擬牛(niu)頓法
7、 蠻力法也算嗎?
十(shi)六、 遺(yi)傳算(suan)法
1、 交叉、選(xuan)擇(ze)、變異
2、 基本算法
3、 神經網絡與遺(yi)傳算法結合(he)的案例:井字棋
十七(qi)、 隱馬(ma)爾科夫(fu)模型
1、 馬爾(er)科夫過程
2、 隱馬(ma)爾科夫模型
3、 三個(ge)基(ji)本問題(評估、解碼、學習)
4、 前向(xiang)-后向(xiang)算(suan)法
5、 Viterbi算法
6、 Baum-Welch算法(fa)
十(shi)八、 條件隨機場
1、 *熵(shang)理論
2、 無向(xiang)圖模型與MRF
3、 CRF與MRF的關系
4、 *團與勢函數
5、 CRF的(de)三個問題(概率(lv)計算(suan)、參數學(xue)習、預測)
6、 CRF進行詞(ci)性標注的案(an)例(li)
十九、 文本挖掘
1、文本(ben)分析功能
2、文本特征的提取
4、文本分類
5、文本聚(ju)類
6、文本摘(zhai)要
二十、 Monte-Carlo法
1、 扔飛鏢計算圓周率(lv)
2、 Monte-Carlo積分
3、 接受-拒絕采樣
4、 重(zhong)要性采樣
5、 MCMC方法的基本思路(lu)
6、 Metropolis-Hastings算法
7、 Gibbs采樣(yang)
二(er)十(shi)一、從LSA到LDA
1、 LSA(潛在語義(yi)分析)
2、 pLSA
3、 第二個“LDA”(潛在狄(di)利克雷分布)
二(er)(er)十二(er)(er)、網頁排序與商品推薦
1、 page rank
2、 基于人口統(tong)計(ji)學的推(tui)薦
3、 基于(yu)內容的推薦
4、 協(xie)同過濾
5、 基于關(guan)聯規則推薦
6、 組合推薦
二十三、組合的模型
1、 bagging
2、 co-training
3、 adaboost
4、 隨機森林
5、 GBDT
二十四(si)、強化學習
1、 MDPs中(zhong)的(de)agent的(de)屬性
2、 exploration and exploitation
3、 Bellman期望(wang)方程(cheng)
4、 最優策略
5、 策略(lve)迭代(dai)與價值迭代(dai)
6、 Q學習算(suan)法
7、 DQN
二十(shi)五、綜合案例
1、 如何(he)教(jiao)電腦玩“flappy
bird”
2、 待定
數據挖掘與機器學習課程
轉載://bamboo-vinegar.cn/gkk_detail/65681.html
已開課時間(jian)Have start time
- 葉梓
[僅限會員]
人工智能公開培訓班
- 工業4.0 智能制造 張小(xiao)強
- 企業數字化運營變革 汪老(lao)師
- MES項目經理 講師團(tuan)
- 數字化工廠規劃師 講師(shi)團
- 中國制造2025和工業4. 辛玉軍
- Python-機器學習、深 講(jiang)師團
- 企業智能化工廠導入之中國制 沈懷(huai)金
- 數字制造技術在工廠的應用 李東
- 咨詢式人力資源管理的五定- 葛(ge)老師
- 經典實驗設計與大數據建模 講師(shi)團
- 企業數據化管理--大數據人 趙(zhao)翰文(wen)
- “互聯網+”時代下的工業4 齊振宏
人工智能內訓
- DeepSeek+AI賦能 趙(zhao)保恒
- 運用DeepSeek與 A 張(zhang)曉如
- 運用DeepSeek與 A 張曉如
- AI前沿趨勢.實戰工具和應 李家貴
- DeepSeek與 AIG 張曉(xiao)如
- DeepSeek+HR應用 蘇運
- 運用DeepSeek與 A 張曉如
- 運用DeepSeek與 A 張曉如
- AI全場景實戰應用:AI高 張曉(xiao)如
- 運用DeepSeek與 A 張(zhang)曉如
- DeepSeek賦能增效十 柯雨金(jin)
- DeepSeek辦公效能提 柯雨(yu)金