国产蜜臀AV在线一区尤物_久久精品国产亚洲av麻豆甜_成人免费午夜无码视频在线播放_狠狠色噜噜狠狠狠888米奇视频

全國 [城市選擇] [會員登錄] [講師注冊] [機構注冊] [助教注冊]  
中國企業培訓講師
人工智能之數據挖掘與機器學習
2025-06-04 06:44:48
 
講師:葉(xie)梓 瀏覽次數:3026

課(ke)程描述INTRODUCTION

數(shu)據挖掘(jue)與機器學習課(ke)程

· IT人士· 其他人員

培訓講師:葉(xie)梓    課程價格:¥元(yuan)/人    培訓天數:2天   

日程安排(pai)SCHEDULE



課程大(da)綱Syllabus

數據挖掘與機器學習課程

課(ke)程(cheng)大綱
一、概述
1、  概念與術語(人(ren)工智能、數據(ju)挖掘、機器學習…)
2、  數據(ju)挖掘的(de)對(dui)象
3、  數據挖(wa)掘的關(guan)鍵技術
4、  知(zhi)識(shi)的表(biao)達
二(er)、數據預(yu)處理
1、  變量類(lei)型
2、  數據(ju)清理(li)
3、  數據集(ji)成和(he)變換
4、  數(shu)據倉庫與(yu)數(shu)據方(OLAP)
5、  規(gui)范(fan)化
6、  數據壓縮(DCT、小(xiao)波(bo)變(bian)換)
三、降維與維度歸(gui)約
1、  無(wu)標(biao)簽時:PCA
2、  有(you)標簽時:Fisher線性判別(第一(yi)個“LDA”)
3、  知識的約簡
4、  決策表的約簡
5、  粗糙集
四、回歸與時序分(fen)析
1、  線性(xing)回歸
2、  非線性回歸
3、  logistics回歸
4、  平穩性、截尾與拖尾
5、  ARIMA
 
五、決策樹
1、  分類(lei)和(he)預(yu)測
2、  熵減過程與貪心法
3、  ID3
4、  C4.5
5、  其他(ta)改進方(fang)法
6、  決策(ce)樹(shu)剪(jian)枝
7、  歸(gui)納學(xue)習
六、聚類(lei)
1、  監督學習與(yu)無監督學習
2、  K-means與k-medoids
3、  層(ceng)次的方法
4、  基于(yu)密度的方法
5、  基于網(wang)格的方法
6、  孤立(li)點分析(xi)
7、  案例:鳶(yuan)尾花數(shu)據的聚類
七、關(guan)聯規則與序(xu)列(lie)挖掘(jue)
1、  頻繁項(xiang)集
2、  支持度與置信度
3、  Apriori性質
4、  連接與剪(jian)枝
5、  總有“啤酒(jiu)與尿布”以外的案例吧?
6、  序列挖掘
八、惰(duo)性學習
1、  迫切學習與惰性學習
2、  K-NN分類算法
3、  基于案例的推理
 
九、機器學習中性(xing)能評價(jia)指標
1、  準確率(lv);*率(lv)、召回率(lv);F1
2、  真陽(yang)性(xing)(xing)率(lv)、假陽(yang)性(xing)(xing)率(lv)
3、  混淆矩陣
4、  ROC與AUC
5、  對數損失
6、  Kappa系數
7、  回歸:平(ping)(ping)均(jun)*誤(wu)(wu)差(cha)、平(ping)(ping)均(jun)平(ping)(ping)方誤(wu)(wu)差(cha)
8、  聚類(lei):蘭(lan)德(de)指(zhi)數、互信息
十、樸素(su)貝葉(xie)斯(si)與(yu)貝葉(xie)斯(si)網(wang)絡
1、  概(gai)率(lv)(lv)論(lun)基(ji)礎:條件概(gai)率(lv)(lv)、聯(lian)合概(gai)率(lv)(lv)、分布、共軛先驗。
2、  “概率派”與“貝葉斯(si)派”
3、  樸素貝葉斯模型
4、  貝(bei)葉斯信念網絡
5、  應用案例介紹(shao)
十一、       極大似然估計與EM算法
1、  極大似然估計
2、  半監督(du)學習(xi)
3、  EM算法
4、  EM算法(fa)應用:貝葉斯線性回(hui)歸
十二、       支持向(xiang)量機
1、  統計學習問(wen)題
2、  結構風險最小歸納原理
3、  支(zhi)持向量機
4、  核函數
5、  多分類的支持向量機
6、  用于連續值預測的支持向(xiang)量機
7、  小案(an)例:“拆蚊香”
 
十三、       BP神經網絡
1、  人工神經(jing)元及(ji)感知機模(mo)型
2、  前向神(shen)經網(wang)絡
3、  sigmoid
4、  徑向(xiang)基函數神經網絡
5、  誤差反向(xiang)傳播
十(shi)四(si)、       其他神(shen)經網絡(luo)
1、  hopfield網絡
2、  自組織(zhi)特征映射神經網絡
3、  受限布爾茲曼(man)機
4、  神經(jing)網絡的應(ying)用案例介紹
十五(wu)、       機器學(xue)習(xi)中的最優(you)化方法
1、  參數學習方法
2、  損失(shi)函數(shu)(或目標函數(shu))
3、  梯度(du)下(xia)降(jiang)
4、  隨機(ji)梯(ti)度下降
5、  牛頓法
6、  擬牛(niu)頓法
7、  蠻力法也算嗎?
十(shi)六、       遺(yi)傳算(suan)法
1、  交叉、選(xuan)擇(ze)、變異
2、  基本算法
3、  神經網絡與遺(yi)傳算法結合(he)的案例:井字棋
 
十七(qi)、       隱馬(ma)爾科夫(fu)模型
1、  馬爾(er)科夫過程
2、  隱馬(ma)爾科夫模型
3、  三個(ge)基(ji)本問題(評估、解碼、學習)
4、  前向(xiang)-后向(xiang)算(suan)法
5、  Viterbi算法
6、  Baum-Welch算法(fa)
十(shi)八、       條件隨機場
1、  *熵(shang)理論
2、  無向(xiang)圖模型與MRF
3、  CRF與MRF的關系
4、  *團與勢函數
5、  CRF的(de)三個問題(概率(lv)計算(suan)、參數學(xue)習、預測)
6、  CRF進行詞(ci)性標注的案(an)例(li)
十九、       文本挖掘
1、文本(ben)分析功能
2、文本特征的提取
4、文本分類
5、文本聚(ju)類
6、文本摘(zhai)要
二十、       Monte-Carlo法
1、  扔飛鏢計算圓周率(lv)
2、  Monte-Carlo積分
3、  接受-拒絕采樣
4、  重(zhong)要性采樣
5、  MCMC方法的基本思路(lu)
6、  Metropolis-Hastings算法
7、  Gibbs采樣(yang)
 
二(er)十(shi)一、從LSA到LDA
1、  LSA(潛在語義(yi)分析)
2、  pLSA
3、  第二個“LDA”(潛在狄(di)利克雷分布)
二(er)(er)十二(er)(er)、網頁排序與商品推薦
1、  page rank
2、  基于人口統(tong)計(ji)學的推(tui)薦
3、  基于(yu)內容的推薦
4、  協(xie)同過濾
5、  基于關(guan)聯規則推薦
6、  組合推薦
二十三、組合的模型
1、  bagging
2、  co-training
3、  adaboost
4、  隨機森林
5、  GBDT
二十四(si)、強化學習
1、  MDPs中(zhong)的(de)agent的(de)屬性
2、  exploration and exploitation
3、  Bellman期望(wang)方程(cheng)
4、  最優策略
5、  策略(lve)迭代(dai)與價值迭代(dai)
6、  Q學習算(suan)法
7、  DQN
二十(shi)五、綜合案例
1、  如何(he)教(jiao)電腦玩“flappy
bird”
2、  待定

數據挖掘與機器學習課程


轉載://bamboo-vinegar.cn/gkk_detail/65681.html

已開課時間(jian)Have start time

在線(xian)報(bao)名Online registration

    參加課程:人工智能之數據挖掘與機器學習

    單位名(ming)稱:

  • 參加日(ri)期:
  • 聯系人:
  • 手機號碼:
  • 座機電話(hua):
  • QQ或微信:
  • 參加(jia)人數:
  • 開票信息:
  • 輸(shu)入驗證:  看不清楚?點擊驗證碼刷新
付款信息:
開戶名:上海投智企業管理咨詢有限公司
開戶行:中國銀行股份有限公司上海市長壽支行
帳號:454 665 731 584
葉梓
[僅限會員]

預約1小時微咨詢式培訓