課程簡(jiǎn)介
【課程時(shí)長(zhǎng)】:6天(6小時(shí)/天)
【培訓(xùn)費(fèi)用】:9800元/人
【課程簡(jiǎn)介】
人工智能的浪潮正在席卷全球,各種培訓(xùn)課程應(yīng)運(yùn)而生,但真正能讓學(xué)員系統(tǒng)、全面掌握知識(shí)點(diǎn),并且能學(xué)以致用的實(shí)戰(zhàn)課程并不多見。本課程包含機(jī)器學(xué)習(xí)、深度學(xué)習(xí)的重要概念及常用算法(決策樹、關(guān)聯(lián)規(guī)則、聚類、貝葉斯網(wǎng)絡(luò)、神經(jīng)網(wǎng)絡(luò)、支持向量機(jī)、隱馬爾科夫模型、遺傳算法、CNN、RNN、GAN等),以及人工智能領(lǐng)域當(dāng)前的熱點(diǎn)。通過6天的系統(tǒng)學(xué)習(xí)、案例講解和動(dòng)手實(shí)踐,讓學(xué)員能初步邁入機(jī)器學(xué)習(xí)和深度學(xué)習(xí)的知識(shí)殿堂。
【課程特點(diǎn)】
本課程力圖理論結(jié)合實(shí)踐,強(qiáng)調(diào)從零開始,重視動(dòng)手實(shí)踐;課程內(nèi)容以原理講解為根本,以應(yīng)用落地為目標(biāo)。課程通過大量形象的比喻和手算示例來解釋復(fù)雜的機(jī)器學(xué)習(xí)理論,既能將原理充分講懂講透,也避免了繁復(fù)而枯燥的公式推導(dǎo)。
【課程大綱】(培訓(xùn)內(nèi)容可根據(jù)客戶需求調(diào)整)
時(shí)間 |
內(nèi)容 |
案例實(shí)踐與練習(xí) |
Day1初識(shí)機(jī)器學(xué)習(xí) 上午 概述入門 數(shù)據(jù)預(yù)處理 |
概述(第 一天——1) 1、 概念與術(shù)語(人工智能、數(shù)據(jù)挖掘、機(jī)器學(xué)習(xí)) 2、 數(shù)據(jù)挖掘的對(duì)象 3、 數(shù)據(jù)挖掘的關(guān)鍵技術(shù) 4、 知識(shí)的表達(dá) 5、 Python的安裝
數(shù)據(jù)預(yù)處理(第 一天——2) 1、 數(shù)據(jù)清理 2、 規(guī)范化 3、 模糊集 4、 粗糙集 5、 無標(biāo)簽時(shí):PCA 6、 有標(biāo)簽時(shí):Fisher線性判別 數(shù)據(jù)壓縮(DFT、小波變換) |
案例實(shí)踐: 1、 python安裝 2、 Tensorflow安裝 3、 PCA的實(shí)驗(yàn) 4、 DFT的實(shí)驗(yàn) |
Day1初識(shí)機(jī)器學(xué)習(xí) 下午 回歸與時(shí)序分析 決策樹 |
回歸與時(shí)序分析 (第 一天——3) 1、 線性回歸 2、 非線性回歸 3、 logistics回歸 4、 平穩(wěn)性、截尾與拖尾 5、 ARIMA
決策樹(第 一天——4) 1、 分類和預(yù)測(cè) 2、 熵減過程與貪心法 3、 ID3 4、 C4.5 5、 其他改進(jìn)方法 決策樹剪枝 |
案例實(shí)踐: 1、 回歸的實(shí)驗(yàn) 2、 ARIMA預(yù)測(cè)實(shí)驗(yàn) 3、 決策樹的實(shí)驗(yàn)
|
Day2機(jī)器學(xué)習(xí)中的典型算法 上午 聚類 關(guān)聯(lián)規(guī)則 樸素貝葉斯與KNN |
聚類(第二天——1) 1、 監(jiān)督學(xué)習(xí)與無監(jiān)督學(xué)習(xí) 2、 K-means與k-medoids 3、 層次的方法 4、 基于密度的方法 5、 基于網(wǎng)格的方法 6、 孤立點(diǎn)分析
關(guān)聯(lián)規(guī)則(第二天——2) 1、 頻繁項(xiàng)集 2、 支持度與置信度 3、 提升度 4、 Apriori性質(zhì) 5、 連接與剪枝
樸素貝葉斯與KNN(第二天——3) 1、 KNN 2、 概率論基礎(chǔ):條件概率、聯(lián)合概率、分布、共軛先驗(yàn)。 3、 “概率派”與“貝葉斯派” 4、 樸素貝葉斯模型
|
案例實(shí)踐: 1、 鳶尾花數(shù)據(jù)的聚類 2、 超市購(gòu)物籃——關(guān)聯(lián)規(guī)則分析 3、 樸素貝葉斯案例:皮馬印第安人患糖尿病的風(fēng)險(xiǎn) |
Day2機(jī)器學(xué)習(xí)中的典型算法 下午 極大似然估計(jì)與EM算法 性能評(píng)價(jià)指標(biāo) |
極大似然估計(jì)與EM算法(第二天——4) 1、 極大似然估計(jì) 2、 對(duì)數(shù)似然函數(shù) 3、 EM算法
性能評(píng)價(jià)指標(biāo)(第二天——5) 1、 準(zhǔn)確率;精確率、召回率;F1 2、 真陽性率、假陽性率 3、 混淆矩陣 4、 ROC與AUC 5、 對(duì)數(shù)損失 6、 Kappa系數(shù) 7、 回歸:平均絕 對(duì)誤差、平均平方誤差 8、 聚類:蘭德指數(shù)、互信息 9、 k折驗(yàn)證 |
案例實(shí)踐: 1、 正態(tài)分析的參數(shù)估計(jì) 2、 EM算法應(yīng)用案例:雙正態(tài)分布的參數(shù)估計(jì) 3、 繪制ROC并計(jì)算AUC、F1 4、 繪制擬合曲線,計(jì)算擬合優(yōu)度 |
Day3神經(jīng)網(wǎng)絡(luò)專題 上午 BP神經(jīng)網(wǎng)絡(luò) 模擬退火算法與其他神經(jīng)網(wǎng)絡(luò) |
BP神經(jīng)網(wǎng)絡(luò) (第三天——1) 1、 人工神經(jīng)元及感知機(jī)模型 2、 前向神經(jīng)網(wǎng)絡(luò) 3、 sigmoid 4、 徑向基函數(shù)神經(jīng)網(wǎng)絡(luò) 5、 誤差反向傳播
模擬退火算法與其他神經(jīng)網(wǎng)絡(luò) (第三天——2) 1、 模擬退火算法 2、 Hopfield網(wǎng)絡(luò) 3、 自組織特征映射神經(jīng)網(wǎng)絡(luò)(SOM) 4、 受限布爾茲曼機(jī) |
案例實(shí)踐: 1、 可以手算的神經(jīng)網(wǎng)絡(luò) 2、 神經(jīng)網(wǎng)絡(luò)模擬一個(gè)圓錐曲面 3、 “貨郎擔(dān)”問題(模擬退火算法) 4、 識(shí)別破損的字母(Hopfield網(wǎng)絡(luò)) 5、 聚類的另一種解法(SOM) |
Day3神經(jīng)網(wǎng)絡(luò)專題
下午 機(jī)器學(xué)習(xí)中的優(yōu)化方法 遺傳算法 |
機(jī)器學(xué)習(xí)中的優(yōu)化方法(第三天——3) 1、 參數(shù)學(xué)習(xí)方法 2、 損失函數(shù)(或目標(biāo)函數(shù)) 3、 梯度下降 4、 隨機(jī)梯度下降 5、 牛頓法 6、 擬牛頓法
遺傳算法 (第三天——4) 1、 種群、適應(yīng)性度量 2、 交叉、選擇、變異 3、 基本算法 |
案例實(shí)踐: 1、 隨機(jī)梯度下降的例子 2、 牛頓法求Rosenbrock(香蕉函數(shù))的極值 3、 “同宿舍”問題:遺傳算法
|
Day4機(jī)器學(xué)習(xí)進(jìn)階 上午 支持向量機(jī) 隱馬爾科夫模型 |
支持向量機(jī) (第四天——1) 1、 統(tǒng)計(jì)學(xué)習(xí)問題 2、 支持向量機(jī) 3、 核函數(shù) 4、 多分類的支持向量機(jī) 5、 用于連續(xù)值預(yù)測(cè)的支持向量機(jī)
隱馬爾科夫模型(第四天——2) 1、 馬爾科夫過程 2、 隱馬爾科夫模型 3、 三個(gè)基本問題(評(píng)估、解碼、學(xué)習(xí)) 4、 前向-后向算法 5、 Viterbi算法 6、 Baum-Welch算法
|
案例實(shí)踐: 1、 SVM:iris的三個(gè)分類 2、 HMM示例:天氣與地表積水、罐中的彩球 3、 HMM之前向算法:擲骰子的序列 4、 HMM之viterbi算法:是否生病了? |
Day4機(jī)器學(xué)習(xí)進(jìn)階 下午 文本挖掘 從LSA到LDA |
文本挖掘(第四天——3) 1、文本分析功能 2、文本特征的提取 4、TF-IDF 5、文本分類 5、文本聚類
從LSA到LDA(第四天——3) 1、 LSA 2、 pLSA 3、 LDA
|
案例實(shí)踐: 1、 英文文本分析; 2、 中文文本分析:《絕代雙驕》 3、 中文語句情感分析 4、 LSA和LDA的比較
|
Day5機(jī)器學(xué)習(xí)進(jìn)階與深度學(xué)習(xí)初步 上午 利用無標(biāo)簽的樣本 集成學(xué)習(xí) |
利用無標(biāo)簽的樣本(第五天——1) 1、 半監(jiān)督學(xué)習(xí) 2、 直推式學(xué)習(xí) 3、 主動(dòng)學(xué)習(xí)
集成學(xué)習(xí)(第五天——2) 1、 bagging 2、 co-training 3、 adaboost 4、 隨機(jī)森林 5、 GBDT |
案例實(shí)踐: 1、 半監(jiān)督學(xué)習(xí):SVM標(biāo)簽擴(kuò)展; 2、 主動(dòng)學(xué)習(xí):手寫數(shù)字 3、bagging、adaboost、RF、GBDT的例子 |
Day5機(jī)器學(xué)習(xí)進(jìn)階與深度學(xué)習(xí)初步 下午 強(qiáng)化學(xué)習(xí) 深度學(xué)習(xí)-1 |
強(qiáng)化學(xué)習(xí)(第五天——3) 1、 agent的屬性 2、 exploration and exploitation 3、 Bellman期望方程 4、 優(yōu)策略 5、 策略迭代與價(jià)值迭代 6、 Q學(xué)習(xí)算法
深度學(xué)習(xí)-1(第五天——4) 1、 連接主義的興衰 2、 深度學(xué)習(xí)與神經(jīng)網(wǎng)絡(luò)的區(qū)別與聯(lián)系 3、 目標(biāo)函數(shù) 4、 激勵(lì)函數(shù) 學(xué)習(xí)步長(zhǎng) |
案例實(shí)踐: 1、 強(qiáng)化學(xué)習(xí)示例:走迷宮 2、 強(qiáng)化學(xué)習(xí):谷底的小車 3、 深度學(xué)習(xí)示例:模式識(shí)別 |
Day6深度學(xué)習(xí) 上午 深度學(xué)習(xí)-2 深度學(xué)習(xí)-3 |
深度學(xué)習(xí)-2(第六天——1) 1、 優(yōu)化算法 2、 Adagrad 3、 RMSprop 4、 Adam 5、 避免過適應(yīng)
深度學(xué)習(xí)-3(第六天——2) 1、 典型應(yīng)用場(chǎng)景 2、 CNN 3、 各種CNN 4、 RNN LSTM、GRU |
案例實(shí)踐: 1、 CNN的準(zhǔn)備示例 2、 CNN處理MNIST手寫數(shù)字?jǐn)?shù)據(jù)集 3、 RNN準(zhǔn)備示例 4、 RNN分析股票趨勢(shì) 5、 LSTM的準(zhǔn)備示例
|
Day6深度學(xué)習(xí) 下午 深度學(xué)習(xí)-4 |
1、 GAN 2、 DQN
|
案例實(shí)踐: 1、 DQN結(jié)合CNN:“flappy bird” |