? ? ?

百戰(zhàn)程序員-AI算法工程師就業(yè)班2022年價值18980元重磅首發(fā)

【IT2區(qū)上新】【大課】006.千峰-HTML5大前端面授2022年9月完結版價值14999元Vue3.0重磅首發(fā)完結無秘

【IT2區(qū)上新】【大課】006.千峰-HTML5大前端面授2022年9月完結版價值14999元Vue3.0重磅首發(fā)完結無秘

百戰(zhàn)程序員-AI算法工程師就業(yè)班2022年價值18980元重磅首發(fā)

【IT2區(qū)上新】【大課】007.百戰(zhàn)程序員-AI算法工程師就業(yè)班2022年價值18980元重磅首發(fā)沖擊百萬年薪完結無秘 ●加入IT會員免費/IT2/新課/2022/11月 ●需要私聊。百戰(zhàn)程序員-AI算法工程師就業(yè)班2022年價值18980元重磅首發(fā)插圖,百戰(zhàn)程序員-AI算法工程師就業(yè)班2022年價值18980元重磅首發(fā)插圖1,百戰(zhàn)程序員-AI算法工程師就業(yè)班2022年價值18980元重磅首發(fā)插圖2

 

網(wǎng)盤截圖:

目錄:

百戰(zhàn)-人工智能2022/
├──1–人工智能基礎-快速入門
| ├──1–人工智能就業(yè)、薪資、各行業(yè)應用
| | ├──1-人工智能就業(yè)前景與薪資.mp4 52.07M
| | ├──2-人工智能適合人群與必備技能.mp4 44.57M
| | ├──3-人工智能時代是發(fā)展的必然.mp4 23.22M
| | └──4-人工智能在各領域的應用.mp4 57.73M
| └──2–機器學習和深度學習、有監(jiān)督和無監(jiān)督
| | ├──1-人工智能常見流程.mp4 89.62M
| | ├──2-機器學習不同的學習方式.mp4 83.51M
| | ├──3-深度學習比傳統(tǒng)機器學習有優(yōu)勢.mp4 84.81M
| | ├──4-有監(jiān)督機器學習任務與本質.mp4 37.50M
| | └──5-無監(jiān)督機器學習任務與本質.mp4 50.15M
├──10–機器學習與大數(shù)據(jù)-Kaggle競賽實戰(zhàn)
| ├──1–藥店銷量預測案例
| | ├──1-Rossmann藥店銷量預測_kaggle的介紹.mp4 36.33M
| | ├──2-對數(shù)據(jù)字段的介紹_導包.mp4 19.90M
| | ├──3-自定義損失函數(shù).mp4 21.12M
| | ├──4-對數(shù)據(jù)里面的目標變量sales的一個分析.mp4 44.88M
| | ├──5-數(shù)據(jù)的預處理.mp4 111.81M
| | ├──6-模型的訓練_評估.mp4 66.64M
| | └──7-kaggle競賽網(wǎng)站學習.mp4 172.16M
| └──2–網(wǎng)頁分類案例
| | ├──1-Kaggle網(wǎng)頁分類競賽介紹.mp4 25.08M
| | ├──10-使用SparkML對網(wǎng)頁分類競賽數(shù)據(jù)預處理_模型訓練_交叉驗證調參_02.mp4 85.63M
| | ├──11-使用SparkML對網(wǎng)頁分類競賽數(shù)據(jù)預處理_模型訓練_交叉驗證調參_03.mp4 68.80M
| | ├──12-使用SparkML對網(wǎng)頁分類競賽數(shù)據(jù)預處理_模型訓練_交叉驗證調參_04.mp4 74.74M
| | ├──2-評估指標ROC和AUC.mp4 56.19M
| | ├──3-評估指標ROC和AUC.mp4 49.03M
| | ├──4-競賽其他相關提交成績排行榜.mp4 40.19M
| | ├──5-數(shù)據(jù)導入.mp4 68.41M
| | ├──6-MLlib對網(wǎng)頁分類競賽數(shù)據(jù)預處理.mp4 102.96M
| | ├──7-MLlib對網(wǎng)頁分類競賽數(shù)據(jù)預處理_模型訓練.mp4 71.27M
| | ├──8-MLlib對網(wǎng)頁分類競賽模型訓練_模型訓練評估_搜索最佳超參數(shù).mp4 62.48M
| | └──9-使用SparkML對網(wǎng)頁分類競賽數(shù)據(jù)預處理_模型訓練_交叉驗證調參_01.mp4 87.47M
├──11–機器學習與大數(shù)據(jù)-海量數(shù)據(jù)挖掘工具
| ├──1–Spark計算框架基礎
| | ├──1-Spark特性_01.mp4 41.68M
| | ├──10-分布式計算所需進程.mp4 26.30M
| | ├──11-兩種算子操作本質區(qū)別.mp4 56.31M
| | ├──12-Spark算子操作實戰(zhàn)講解_代碼實戰(zhàn)WordCount_01.mp4 69.39M
| | ├──13-Spark算子操作實戰(zhàn)講解_代碼實戰(zhàn)WordCount_02.mp4 56.06M
| | ├──14-Spark算子操作實戰(zhàn)講解_代碼實戰(zhàn)WordCount_03.mp4 44.12M
| | ├──15-Spark算子操作實戰(zhàn)講解_代碼實戰(zhàn)WordCount_04.mp4 41.91M
| | ├──2-Spark特性_02.mp4 35.15M
| | ├──3-Spark對比hadoop優(yōu)勢.mp4 19.34M
| | ├──4-回顧hadoop講解shuffle.mp4 35.80M
| | ├──5-分布式計算框架Shuffle的原理_01.mp4 46.22M
| | ├──6-分布式計算框架Shuffle的原理_02.mp4 44.94M
| | ├──7-分布式計算框架Shuffle的原理_03.mp4 29.26M
| | ├──8-Spark的RDD特性_01.mp4 33.08M
| | └──9-Spark的RDD特性_02.mp4 33.41M
| ├──2–Spark計算框架深入
| | ├──1-Spark數(shù)據(jù)緩存機制.mp4 54.43M
| | ├──10-講解構建稀疏和稠密向量_01.mp4 80.62M
| | ├──11-講解構建稀疏和稠密向量_01.mp4 101.76M
| | ├──12-構建LabeledPoint.mp4 111.08M
| | ├──13-介紹SparkMLlib模塊中實現(xiàn)的算法和調用.mp4 91.18M
| | ├──2-Spark寬依賴和窄依賴_01.mp4 39.74M
| | ├──3-Spark寬依賴和窄依賴_02.mp4 38.86M
| | ├──4-Spark寬依賴和窄依賴_03.mp4 28.03M
| | ├──5-Spark術語總結.mp4 89.66M
| | ├──6-分布式文件系統(tǒng)Block塊的大小配置.mp4 114.54M
| | ├──7-Spark程序啟動運行流程詳解_01.mp4 49.37M
| | ├──8-Spark程序啟動運行流程詳解_02.mp4 71.40M
| | └──9-Spark程序啟動運行流程詳解_03.mp4 47.28M
| └──3–Spark機器學習MLlib和ML模塊
| | ├──1-SparkMLlib對于邏輯回歸算法的調用.mp4 170.37M
| | ├──10-SparkMLlib調用KMeans聚類_調用決策樹(1)_3.mp4 104.55M
| | ├──11-使用邏輯回歸和隨機森林對股票Stock預測案例實戰(zhàn)_1.mp4 89.72M
| | ├──12-使用邏輯回歸和隨機森林對股票Stock預測案例實戰(zhàn)_2.mp4 92.22M
| | ├──13-使用邏輯回歸和隨機森林對股票Stock預測案例實戰(zhàn)_3.mp4 84.20M
| | ├──14-從數(shù)據(jù)轉化到訓練集的構建.mp4 146.40M
| | ├──15-模型的訓練以及評估和調超參_1.mp4 84.62M
| | ├──16-模型的訓練以及評估和調超參_2.mp4 88.90M
| | ├──17-模型的訓練以及評估和調超參_3.mp4 161.69M
| | ├──18-SparkML機器學習庫概念講解_1.mp4 146.78M
| | ├──19-SparkML機器學習庫概念講解_2.mp4 121.35M
| | ├──2-SparkMLlib調用邏輯回歸_自定義閾值_1.mp4 120.62M
| | ├──20-SparkML機器學習庫代碼實戰(zhàn)講解_1.mp4 146.48M
| | ├──21-SparkML機器學習庫代碼實戰(zhàn)講解_2.mp4 169.53M
| | ├──22-SparkML網(wǎng)頁分類案例代碼實戰(zhàn)續(xù)(1)_1.mp4 143.99M
| | ├──23-SparkML網(wǎng)頁分類案例代碼實戰(zhàn)續(xù)(1)_2.mp4 143.95M
| | ├──24-SparkML網(wǎng)頁分類案例代碼實戰(zhàn)續(xù)(2)_1.mp4 177.12M
| | ├──25-SparkML網(wǎng)頁分類案例代碼實戰(zhàn)續(xù)(2)_2.mp4 99.25M
| | ├──26-SparkML網(wǎng)頁分類案例代碼實戰(zhàn)續(xù)(3).mp4 9.82M
| | ├──3-SparkMLlib調用邏輯回歸_自定義閾值_2.mp4 109.35M
| | ├──4-SparkMLlib調用邏輯回歸_使用標準歸一化_1.mp4 105.05M
| | ├──5-SparkMLlib調用邏輯回歸_使用標準歸一化_2.mp4 255.32M
| | ├──6-SparkMLlib調用邏輯回歸_使用標準歸一化_3.mp4 63.11M
| | ├──7-SparkMLlib調用邏輯回歸_使用標準歸一化_4.mp4 140.87M
| | ├──8-SparkMLlib調用KMeans聚類_調用決策樹(1)_1.mp4 80.22M
| | └──9-SparkMLlib調用KMeans聚類_調用決策樹(1)_2.mp4 145.67M
├──12–機器學習與大數(shù)據(jù)-推薦系統(tǒng)項目實戰(zhàn)
| ├──1–推薦系統(tǒng)–流程與架構
| | ├──1-推薦系統(tǒng)_隱式用戶反饋_1.mp4 88.31M
| | ├──10-推薦系統(tǒng)列表_關聯(lián)特征權重_基本特征權重的計算_2.mp4 112.85M
| | ├──11-推薦系統(tǒng)列表_關聯(lián)特征權重_基本特征權重的計算_3.mp4 103.28M
| | ├──12-推薦系統(tǒng)_數(shù)據(jù)源_1.mp4 79.07M
| | ├──13-推薦系統(tǒng)_數(shù)據(jù)源_2.mp4 82.90M
| | ├──2-推薦系統(tǒng)_隱式用戶反饋_2.mp4 119.78M
| | ├──3-推薦系統(tǒng)_協(xié)同過濾_1.mp4 60.31M
| | ├──4-推薦系統(tǒng)_協(xié)同過濾_2.mp4 61.36M
| | ├──5-推薦系統(tǒng)_協(xié)同過濾_3.mp4 60.51M
| | ├──6-推薦系統(tǒng)_協(xié)同過濾_4.mp4 56.16M
| | ├──7-推薦系統(tǒng)架構_實時_離線_1.mp4 100.65M
| | ├──8-推薦系統(tǒng)架構_實時_離線_2.mp4 104.74M
| | └──9-推薦系統(tǒng)列表_關聯(lián)特征權重_基本特征權重的計算_1.mp4 77.80M
| ├──2–推薦系統(tǒng)–數(shù)據(jù)預處理和模型構建評估實戰(zhàn)
| | ├──1-HQL語句_python腳本構建中間結果_1.mp4 155.76M
| | ├──10-MLlib調用算法計算模型文件并存儲_2.mp4 93.65M
| | ├──11-MLlib調用算法計算模型文件并存儲_3.mp4 107.32M
| | ├──12-ACC準確率和AUC面積的計算以及意義.mp4 214.40M
| | ├──2-HQL語句_python腳本構建中間結果_2.mp4 122.28M
| | ├──3-HQL語句_python腳本構建中間結果_3.mp4 123.74M
| | ├──4-HQL語句_python腳本構建中間結果_4.mp4 111.87M
| | ├──5-推薦系統(tǒng)_數(shù)據(jù)預處理_spark構建特征索引_標簽列_1.mp4 116.88M
| | ├──6-spark構建特征索引_標簽列_2.mp4 91.86M
| | ├──7-spark構建特征索引_標簽列_3.mp4 97.86M
| | ├──8-spark構建特征索引_標簽列_4.mp4 98.61M
| | └──9-MLlib調用算法計算模型文件并存儲_1.mp4 99.64M
| └──3–推薦系統(tǒng)–模型使用和推薦服務
| | ├──1-推薦模型文件使用思路.mp4 61.89M
| | ├──10-Dubbo推薦服務演示_SparkMLlib介紹_1.mp4 110.16M
| | ├──11-Dubbo推薦服務演示_SparkMLlib介紹_2.mp4 140.10M
| | ├──12-Dubbo推薦服務演示_SparkMLlib介紹_3.mp4 157.45M
| | ├──2-Redis數(shù)據(jù)庫安裝及其使用.mp4 47.93M
| | ├──3-實時在線推薦列表計算邏輯代碼講解_1.mp4 165.06M
| | ├──4-實時在線推薦列表計算邏輯代碼講解_2.mp4 98.49M
| | ├──5-實時在線推薦列表計算邏輯代碼講解_3.mp4 90.57M
| | ├──6-實時在線推薦列表計算邏輯代碼講解_4.mp4 94.68M
| | ├──7-使用Dubbo將推薦系統(tǒng)做成服務_1.mp4 82.21M
| | ├──8-使用Dubbo將推薦系統(tǒng)做成服務_2.mp4 103.88M
| | └──9-使用Dubbo將推薦系統(tǒng)做成服務_3.mp4 119.95M
├──13–深度學習-原理和進階
| ├──1–神經(jīng)網(wǎng)絡算法
| | ├──1-神經(jīng)網(wǎng)絡是有監(jiān)督的算法_生物神經(jīng)元到人工神經(jīng)元.mp4 94.41M
| | ├──2-三種常見的激活函數(shù)_網(wǎng)絡拓撲介紹_優(yōu)化算法.mp4 53.63M
| | ├──3-單層神經(jīng)網(wǎng)絡正向傳播計算過程_用神經(jīng)網(wǎng)絡理解邏輯回歸做多分類.mp4 67.67M
| | ├──4-用神經(jīng)網(wǎng)絡理解Softmax回歸.mp4 67.20M
| | ├──5-隱藏層的意義_隱藏層相當于去做預處理_升維降維.mp4 117.52M
| | ├──6-多節(jié)點網(wǎng)絡輸出_sklearn中NN模塊的介紹.mp4 90.57M
| | ├──7-sklearn中NN模型的代碼使用.mp4 123.62M
| | ├──8-隱藏層激活函數(shù)必須是非線性的.mp4 21.95M
| | └──9-tensorflow概要_conda創(chuàng)建虛擬環(huán)境_CPU版本的tensorflow安裝.mp4 155.50M
| ├──2–TensorFlow深度學習工具
| | ├──1-CUDA分享地址_CUDA顯卡白名單地址.mp4 68.65M
| | ├──2-CUDA安裝_cudnn安裝_環(huán)境變量配置_檢驗是否安裝成功.mp4 74.12M
| | ├──3-Tensorflow代碼運行機制_TF基礎的代碼.mp4 120.73M
| | ├──4-TF實現(xiàn)線性回歸解析解的方式_TF實現(xiàn)線性回歸梯度下降的方式.mp4 173.47M
| | ├──5-TF實現(xiàn)線性回歸BGD的方式_使用Optimizer_每輪打亂數(shù)據(jù).mp4 233.26M
| | ├──6-TF實現(xiàn)Softmax回歸來識別MNIST手寫數(shù)字.mp4 137.04M
| | └──7-TF實現(xiàn)DNN來識別MNIST手寫數(shù)字.mp4 132.73M
| └──3–反向傳播推導_Python代碼實現(xiàn)神經(jīng)網(wǎng)絡
| | ├──1-反向傳播_鏈式求導法則.mp4 86.47M
| | ├──2-反向傳播推導(一).mp4 127.90M
| | ├──3-反向傳播推導(二)從輸出層到最后一個隱藏層.mp4 121.37M
| | ├──4-反向傳播推導(三)從輸出層到最后一個隱藏層Softmax多分類為例.mp4 81.20M
| | ├──5-反向傳播推導(四)關于Δ和a還有梯度的更新事宜.mp4 34.57M
| | ├──6-python實現(xiàn)神經(jīng)網(wǎng)絡訓練代碼講解(一).mp4 84.17M
| | └──7-python實現(xiàn)神經(jīng)網(wǎng)絡正向反向傳播訓練.mp4 112.23M
├──14–深度學習-圖像識別原理
| ├──1–卷積神經(jīng)網(wǎng)絡原理
| | ├──1-回顧深度神經(jīng)網(wǎng)絡_卷積層是局部連接.mp4 131.17M
| | ├──2-單通道卷積的計算.mp4 104.01M
| | ├──3-彩色圖片卷積的計算.mp4 52.79M
| | ├──4-卷積層權值共享.mp4 63.93M
| | ├──5-卷積的補充與Padding填充模式.mp4 97.00M
| | ├──6-卷積的計算TF中的API操作與參數(shù).mp4 93.50M
| | ├──7-池化的概念和TF中的API的操作與參數(shù).mp4 64.09M
| | └──8-經(jīng)典的CNN架構和LeNet5.mp4 137.21M
| ├──2–卷積神經(jīng)網(wǎng)絡優(yōu)化
| | ├──1-AlexNet網(wǎng)絡結構_連續(xù)使用小的卷積核好處.mp4 109.38M
| | ├──10-Optimizer_Adagrad_Adadelta_RMSprop.mp4 121.41M
| | ├──11-Optimizer_Adam.mp4 141.12M
| | ├──2-Dropout技術點思想和運用.mp4 113.94M
| | ├──3-數(shù)據(jù)增強技術點_CNN對MNIST數(shù)據(jù)集分類_卷積池化代碼.mp4 77.55M
| | ├──4-CNN對MNIST數(shù)據(jù)集分類_全連接層以及訓練代碼.mp4 125.88M
| | ├──5-深度學習網(wǎng)絡對應ACC準確率忽然下降的思考點.mp4 104.08M
| | ├──6-減輕梯度消失問題中激活函數(shù)發(fā)揮的作用.mp4 42.02M
| | ├──7-減輕梯度消失問題中參數(shù)初始化發(fā)揮的作用.mp4 66.51M
| | ├──8-VGG網(wǎng)絡結構_以及1乘1的卷積核的作用和好處.mp4 123.25M
| | └──9-Optimizer_SGD_Momentum.mp4 89.70M
| ├──3–經(jīng)典卷積網(wǎng)絡算法
| | ├──1-Keras介紹_以及不同項目調用不同的python環(huán)境和CUDA環(huán)境.mp4 141.12M
| | ├──2-VGG16_Fine-tuning_對MNIST做手寫數(shù)字識別.mp4 116.63M
| | ├──3-InceptionV1_V2.mp4 165.86M
| | ├──4-InceptionV3_以及InceptionV3對皮膚癌圖片識別.mp4 166.97M
| | ├──5-ResNet殘差單元_BottlenetBlocK.mp4 121.51M
| | ├──6-DenseNet和Keras里面的實現(xiàn).mp4 150.61M
| | ├──7-DenseNet在Keras里面的代碼實現(xiàn).mp4 66.75M
| | ├──8-BatchNormalization.mp4 99.23M
| | └──9-Mobilenet網(wǎng)絡架構.mp4 150.05M
| ├──4–古典目標檢測
| | ├──1-圖像識別任務_古典目標檢測.mp4 196.48M
| | ├──2-使用OpenCV調用分類器找到目標框.mp4 98.21M
| | ├──3-IOU以及python計算的代碼.mp4 23.56M
| | ├──4-R-CNN和SPP-net.mp4 124.06M
| | └──5-從FastRCNN引入FasterRCNN.mp4 120.81M
| └──5–現(xiàn)代目標檢測之FasterRCNN
| | ├──1-回顧RCNN_SPPnet_Fast-RCNN.mp4 121.18M
| | ├──2-FasterRNN的核心RPN_正向傳播的框過濾_NMS.mp4 214.14M
| | ├──3-NMS代碼實現(xiàn)流程_mAP目標檢測平均指標.mp4 157.18M
| | ├──4-FasterRCNN論文講解_從介紹到RPN的loss.mp4 210.02M
| | └──5-FasterRCNN論文講解_從RPN損失到評估指標對比.mp4 247.99M
├──15–深度學習-圖像識別項目實戰(zhàn)
| ├──1–車牌識別
| | ├──1-基于CascadeClassifier來提取目標框做車牌識別代碼詳解_01.mp4 83.16M
| | ├──2-基于CascadeClassifier來提取目標框做車牌識別代碼詳解_02.mp4 86.40M
| | ├──3-基于CascadeClassifier來提取目標框做車牌識別代碼詳解_03.mp4 48.80M
| | ├──4-基于CascadeClassifier來提取目標框做車牌識別代碼詳解_04.mp4 73.07M
| | └──5-車牌識別項目關于目標檢測的問題.mp4 39.48M
| ├──2–自然場景下的目標檢測及源碼分析
| | ├──1-FasterRCNN項目代碼_環(huán)境說明_數(shù)據(jù)集詳解_項目結構說明.mp4 116.49M
| | ├──10-FasterRCNN代碼_構建head.mp4 67.56M
| | ├──11-FasterRCNN代碼_構建RPN網(wǎng)絡_01.mp4 124.40M
| | ├──12-FasterRCNN代碼_構建RPN網(wǎng)絡_02.mp4 88.47M
| | ├──13-FasterRCNN代碼_根據(jù)RPN網(wǎng)絡得到校正后的預測的框_01.mp4 83.97M
| | ├──14-FasterRCNN代碼_根據(jù)RPN網(wǎng)絡得到校正后的預測的框_02.mp4 119.92M
| | ├──15-FasterRCNN代碼_bbox剪裁_NMS非極大值抑制.mp4 91.40M
| | ├──16-FasterRCNN代碼_給RPN準備正負例樣本_01.mp4 100.30M
| | ├──17-FasterRCNN代碼_給RPN準備正負例樣本_02.mp4 165.71M
| | ├──18-FasterRCNN代碼_給RPN準備正負例樣本_03.mp4 43.58M
| | ├──19-FasterRCNN代碼_給RPN準備正負例樣本_04.mp4 46.68M
| | ├──2-FasterRCNN項目代碼_數(shù)據(jù)加載.mp4 96.17M
| | ├──20-FasterRCNN代碼_給RPN準備正負例樣本_05.mp4 78.02M
| | ├──21-FasterRCNN代碼_給RPN準備正負例樣本_06.mp4 114.63M
| | ├──22-FasterRCNN代碼_給RPN準備正負例樣本_07.mp4 100.02M
| | ├──23-FasterRCNN代碼_給RPN準備正負例樣本_08.mp4 57.32M
| | ├──24-FasterRCNN代碼_給最終RCNN準備正負例樣本_ROI池化_01.mp4 53.41M
| | ├──25-FasterRCNN代碼_給最終RCNN準備正負例樣本_ROI池化_02.mp4 74.40M
| | ├──26-FasterRCNN代碼_添加Loss損失_smoothL1loss.mp4 76.44M
| | ├──3-FasterRCNN項目代碼_數(shù)據(jù)增強.mp4 71.78M
| | ├──4-FasterRCNN項目代碼_數(shù)據(jù)初始化.mp4 73.27M
| | ├──5-FasterRCNN項目代碼_模型的訓練.mp4 39.33M
| | ├──6-回歸整體訓練流程_詳解讀取數(shù)據(jù)blob_01.mp4 81.18M
| | ├──7-回歸整體訓練流程_詳解讀取數(shù)據(jù)blob_02.mp4 75.71M
| | ├──8-回歸整體訓練流程_詳解讀取數(shù)據(jù)blob_03.mp4 39.22M
| | └──9-回歸整體訓練流程_詳解讀取數(shù)據(jù)blob_04.mp4 64.48M
| └──3–圖像風格遷移
| | ├──1-圖片風格融合項目_架構_代碼實現(xiàn)要點_1.mp4 81.07M
| | ├──2-圖片風格融合項目_架構_代碼實現(xiàn)要點_2.mp4 85.15M
| | ├──3-圖片風格融合項目_架構_代碼實現(xiàn)要點_3.mp4 75.40M
| | └──4-圖片風格融合項目_架構_代碼實現(xiàn)要點_4.mp4 86.94M
├──16–深度學習-目標檢測YOLO(V1-V4全版本)實戰(zhàn)
| ├──1–YOLOv1詳解
| | ├──1-YOLOv1論文詳解_算法特點介紹.mp4 179.69M
| | ├──2-YOLOv1論文詳解_網(wǎng)絡架構_思想.mp4 215.92M
| | ├──3-YOLOv1論文詳解_訓練中的技巧_Loss損失函數(shù).mp4 253.21M
| | └──4-YOLOv1論文詳解_NMS_局限性.mp4 82.07M
| ├──2–YOLOv2詳解
| | ├──1-YOLOv2論文詳解_BN_高分辨率_引入AnchorBoxes.mp4 158.76M
| | ├──2-YOLOv2論文詳解_mAP更better的一些點.mp4 257.43M
| | ├──3-YOLOv2論文詳解_Darknet19_分類數(shù)據(jù)和檢測數(shù)據(jù)集融合_多標簽.mp4 141.41M
| | └──4-YOLOv2論文詳解_層級分類_層級分類用于目標檢測.mp4 183.51M
| ├──3–YOLOv3詳解
| | ├──1-YOLOv3論文詳解_每個框都要預測多個類別概率.mp4 86.51M
| | ├──2-YOLOv3論文詳解_引入了FPN的思想特征融合_多路輸出_DarkNet53.mp4 158.58M
| | ├──3-YOLOv3論文詳解_總結_FocalLoss.mp4 147.48M
| | ├──4-YOLOv4論文概述_介紹.mp4 139.49M
| | └──5-YOLOv4論文概述_BOS_BOF.mp4 297.31M
| ├──4–YOLOv3代碼實戰(zhàn)
| | ├──1-YOLOv3代碼剖析_項目介紹.mp4 157.02M
| | ├──2-YOLOv3代碼剖析_聚類anchors_構建backbone主干網(wǎng)絡.mp4 238.06M
| | ├──3-YOLOv3代碼剖析_model輸出之后的預測框的計算.mp4 223.57M
| | ├──4-YOLOv3代碼剖析_使用model預測的其余代碼.mp4 86.53M
| | ├──5-YOLOv3代碼剖析_weights到h5模型的轉換.mp4 144.69M
| | └──6-YOLOv3代碼剖析_模型的訓練部分詳解.mp4 316.56M
| └──5–YOLOv4詳解
| | ├──1-YOLOv4_BOF_DropBlock_FocalLoss.mp4 207.14M
| | ├──2-YOLOv4_BOF_GIoU_DIoU_CIoU.mp4 90.48M
| | ├──3-YOLOv4_BOS_ASPP_SAM_SoftNMS_Mish.mp4 216.07M
| | └──4-YOLOv4_BOS_SAM_PAN_CSP_CmBN.mp4 220.91M
├──17–深度學習-語義分割原理和實戰(zhàn)
| ├──1–上采樣_雙線性插值_轉置卷積
| | ├──1-前言.mp4 19.46M
| | ├──2-上采樣_repeat.mp4 23.90M
| | ├──3-線性插值.mp4 34.48M
| | ├──4-雙線性插值.mp4 125.71M
| | ├──5-轉置卷積_以及TF的API.mp4 114.25M
| | ├──6-雙線性插值作為轉置卷積核的初始參數(shù).mp4 145.01M
| | ├──7-ROI Align.mp4 58.38M
| | ├──8-FPN思想與網(wǎng)絡結構.mp4 92.14M
| | └──9-FPN應用于FasterRCNN_ResNetFPN.mp4 95.52M
| ├──2–醫(yī)療圖像UNet語義分割
| | ├──1-語義分割的基本概念.mp4 18.33M
| | ├──2-FCN全卷積網(wǎng)絡做語義分割.mp4 36.54M
| | ├──3-UNet網(wǎng)絡結構.mp4 30.41M
| | └──4-UNet網(wǎng)絡醫(yī)療圖像的語義分割.mp4 81.21M
| └──3–蒙版彈幕MaskRCNN語義分割
| | ├──1-MaskRCNN網(wǎng)絡結構.mp4 106.38M
| | ├──2-MaskRCNN的項目展示.mp4 250.54M
| | ├──3-MaskRCNN網(wǎng)絡架構回顧.mp4 151.34M
| | ├──4-MaskRCNN根據(jù)文檔和論文總結重要的知識點.mp4 239.08M
| | ├──5-MaskRCNN項目關于運行代碼環(huán)境的說明.mp4 44.16M
| | └──6-MaskRCNN源碼config和model.mp4 244.48M
├──18–深度學習-人臉識別項目實戰(zhàn)
| ├──1-人臉識別任務種類_具體做法思路.mp4 40.67M
| ├──10-人臉識別項目代碼_加載MTCNN模型.mp4 72.07M
| ├──11-人臉識別項目代碼_讀取圖片帶入MTCNN網(wǎng)絡給出人臉候選框.mp4 66.61M
| ├──12-FaceNet論文_摘要和前情介紹.mp4 71.54M
| ├──13-FaceNet論文_相關的介紹.mp4 39.55M
| ├──14-FaceNet論文_TripleLoss思路來源和目標.mp4 44.25M
| ├──15-FaceNet論文_TripleLoss損失函數(shù).mp4 63.78M
| ├──16-FaceNet論文_TripleSelection很至關重要.mp4 131.75M
| ├──17-FaceNet論文_ZF和Inception對比_總結.mp4 59.21M
| ├──18-人臉識別項目代碼_FaceNet模型加載和使用.mp4 42.82M
| ├──19-人臉識別項目代碼_人臉匹配以及最后的繪圖展示.mp4 40.37M
| ├──2-開源的FaceNet項目介紹.mp4 38.07M
| ├──3-人臉識別項目代碼整體結構.mp4 30.40M
| ├──4-MTCNN論文_摘要和介紹.mp4 68.50M
| ├──5-MTCNN論文_網(wǎng)絡整體架構.mp4 76.57M
| ├──6-PRelu_每階段輸出多分支意義.mp4 56.12M
| ├──7-每一個階段每個分支的Loss損失_整合每個分支的Loss.mp4 69.95M
| ├──8-訓練數(shù)據(jù)的準備_每一階段訓練的流程.mp4 98.08M
| └──9-總結MTCNN_縮放因子_注意3階段網(wǎng)絡里面的全連接.mp4 54.79M
├──19–深度學習-NLP自然語言處理原理和進階
| ├──1–詞向量與詞嵌入
| | ├──1-N-gram語言模型.mp4 116.32M
| | ├──2-NPLM神經(jīng)網(wǎng)絡語言模型.mp4 155.81M
| | ├──3-詞向量的作用.mp4 58.00M
| | ├──4-CBOW模型思想和計算過程.mp4 196.59M
| | ├──5-Skip-gram模型思想和計算過程.mp4 44.35M
| | ├──6-Huffman樹_分層Softmax的思想.mp4 113.79M
| | ├──7-分層Softmax應用到CBOW模型上.mp4 64.28M
| | └──8-負采樣和負采樣應用到CBOW模型上.mp4 66.07M
| ├──2–循環(huán)神經(jīng)網(wǎng)絡原理與優(yōu)化
| | ├──1-理解RNN循環(huán)神經(jīng)網(wǎng)絡拓撲結構.mp4 122.64M
| | ├──2-理解RNN循環(huán)神經(jīng)網(wǎng)絡計算流程.mp4 55.91M
| | ├──3-利用RNN循環(huán)神經(jīng)網(wǎng)絡對MNIST手寫數(shù)字識別.mp4 127.75M
| | ├──4-理解LSTM長短時記憶_記住Topo和公式.mp4 185.30M
| | ├──5-VanillaRNN的回顧復習.mp4 123.51M
| | ├──6-補充講一下為什么RNN中鏈越長越容易梯度消失.mp4 44.24M
| | ├──7-LSTM的回顧復習_LSTM手寫數(shù)字識別.mp4 35.32M
| | ├──8-雙向RNN_LSTM.mp4 52.01M
| | └──9-RNN里面應用的Topology結構.mp4 23.04M
| ├──3–從Attention機制到Transformer
| | ├──1-Seq2Seq中Attention注意力機制.mp4 87.67M
| | ├──2-Transformer_Self-Attention_Multi-head.mp4 100.40M
| | └──3-Transformer_Positional_使用邏輯_網(wǎng)絡結構總結.mp4 102.40M
| └──4–ELMO_BERT_GPT
| | ├──1-ELMO.mp4 62.44M
| | ├──2-BERT理論.mp4 99.73M
| | └──3-ERNIE_GPT.mp4 56.34M
├──2–人工智能基礎-Python基礎
| ├──1–Python開發(fā)環(huán)境搭建
| | ├──1-分享Miniconda運行環(huán)境.mp4 100.75M
| | ├──2-Miniconda安裝和測試.mp4 57.12M
| | ├──3-Pycharm安裝和代碼運行.mp4 71.57M
| | ├──4-Jupyter安裝和代碼運行.mp4 37.10M
| | ├──5-Jupyter常用快捷鍵.mp4 32.23M
| | ├──6-Conda虛擬環(huán)境創(chuàng)建與Python模塊安裝.mp4 73.12M
| | └──7-關聯(lián)虛擬環(huán)境運行代碼.mp4 38.14M
| └──2–Python基礎語法
| | ├──1-Python是強類型的動態(tài)腳本語言.mp4 44.15M
| | ├──10-Python_集合操作_列表.mp4 34.71M
| | ├──11-Python_集合操作_列表的基本操作.mp4 49.44M
| | ├──12-Python_集合操作_列表的常用方法.mp4 37.35M
| | ├──13-Python_集合操作_元組.mp4 43.46M
| | ├──14-Python_集合操作_字典和常見操作.mp4 38.01M
| | ├──15-Python_集合操作_字典keys方法_enumerate函數(shù).mp4 22.40M
| | ├──16-Python_os模塊_shutil模塊.mp4 51.54M
| | ├──17-Python_打開并讀取文件_中文編碼問題.mp4 58.82M
| | ├──18-Python_函數(shù)_定義_調用_返回值_注釋.mp4 23.77M
| | ├──19-Python_函數(shù)_局部變量_全局變量.mp4 31.20M
| | ├──2-Python_控制語句_單雙分支.mp4 50.66M
| | ├──20-Python_函數(shù)_默認參數(shù)_可變參數(shù).mp4 24.47M
| | ├──21-Python_函數(shù)_遞歸.mp4 23.46M
| | ├──22-Python_函數(shù)式編程_高階函數(shù).mp4 24.65M
| | ├──23-Python_函數(shù)式編程_map_reduce_filter_匿名函數(shù).mp4 37.86M
| | ├──24-Python_函數(shù)_閉包.mp4 41.61M
| | ├──25-Python_函數(shù)_裝飾器.mp4 30.35M
| | ├──26-Python_類對象_定義與實例化對象.mp4 44.21M
| | ├──27-Python_類對象_實例屬性和方法_類屬性和方法.mp4 38.35M
| | ├──28-Python_類對象_內置方法.mp4 29.17M
| | ├──29-Python_類對象_運算符重載_私有對象方法_isinstance函數(shù).mp4 38.46M
| | ├──3-Python_控制語句_多分支_三元條件運算符.mp4 31.02M
| | ├──30-Python_類對象_面向對象三大特性_類的繼承.mp4 24.66M
| | ├──31-Python_類對象_子類復用父類構造器和方法_方法重寫.mp4 32.00M
| | ├──4-Python_控制語句_while循環(huán).mp4 25.02M
| | ├──5-Python_控制語句_for循環(huán).mp4 22.82M
| | ├──6-Python_控制語句_嵌套循環(huán).mp4 36.15M
| | ├──7-Python_控制語句_break_continue.mp4 25.23M
| | ├──8-Python_切片操作.mp4 40.20M
| | └──9-Python_數(shù)據(jù)類型.mp4 25.38M
├──20–深度學習-NLP自然語言處理項目實戰(zhàn)
| ├──1–詞向量
| | ├──1-回顧了詞向量里面訓練的Topology.mp4 121.72M
| | ├──2-Word2Vec項目代碼_加載數(shù)據(jù)_構建字典.mp4 96.76M
| | ├──3-Word2Vec項目代碼_構建一個個批次數(shù)據(jù).mp4 82.29M
| | ├──4-Word2Vec項目代碼_正向傳播的Graph構建_NCE損失的計算本質.mp4 102.84M
| | ├──5-Word2Vec項目代碼_評估比較相似度_最后的訓練繪圖.mp4 83.28M
| | └──6-Word2Vec項目代碼_總結串講.mp4 22.52M
| ├──2–自然語言處理–情感分析
| | ├──1-Keras實戰(zhàn)RNN以及詞嵌入來做情感分析.mp4 71.10M
| | ├──2-數(shù)據(jù)預處理_01.mp4 79.65M
| | ├──3-數(shù)據(jù)預處理_02.mp4 45.68M
| | ├──4-代碼講解_01.mp4 52.29M
| | ├──5-代碼講解_02.mp4 60.85M
| | ├──6-代碼講解_03.mp4 53.89M
| | ├──7-代碼講解_04.mp4 57.19M
| | └──8-代碼講解_05.mp4 35.88M
| ├──3–AI寫唐詩
| | ├──1-AI寫唐詩_數(shù)據(jù)的讀取_字典的構建_文本的索引化.mp4 114.96M
| | ├──2-AI寫唐詩_訓練數(shù)據(jù)的構建.mp4 69.75M
| | ├──3-MultiRNNCell單元.mp4 38.93M
| | ├──4-AI寫唐詩_從詞嵌入到構建RNN再到輸出層概率輸出.mp4 67.03M
| | ├──5-AI寫唐詩_損失的計算_梯度的求解截斷和更新_最終的訓練代碼.mp4 61.73M
| | └──6-AI寫唐詩_模型的使用_增加隨機性.mp4 93.87M
| ├──4–Seq2Seq聊天機器人
| | ├──1-從AI寫唐詩到Seq2Seq再到Encoder-Decoder.mp4 118.79M
| | ├──2-Seq2Seq版Chatbot的數(shù)據(jù)預處理.mp4 93.85M
| | └──3-Seq2Seq版Chatbot訓練和模型使用.mp4 133.29M
| ├──5–實戰(zhàn)NER命名實體識別項目
| | ├──1-回顧了一下CRF訓練和使用過程.mp4 73.72M
| | ├──2-介紹了代碼目錄結構.mp4 23.44M
| | ├──3-NER代碼讀取數(shù)據(jù)和預處理.mp4 97.61M
| | ├──4-feature進入BiLSTM進行正向傳播的過程.mp4 70.91M
| | ├──5-通過CRF層來計算Loss損失以及訓練.mp4 80.51M
| | ├──6-BiLSTM-CRF模型的預測代碼.mp4 64.10M
| | ├──7-CRF中的特征函數(shù)們.mp4 125.97M
| | ├──8-對比邏輯回歸_相比HMM優(yōu)勢.mp4 143.56M
| | └──9-補充標注偏置問題_HMM做分詞代碼結構.mp4 141.43M
| ├──6–BERT新浪新聞10分類項目
| | └──1-BERT新浪新聞10分類項目.mp4 104.54M
| └──7–GPT2聊天機器人
| | └──1-GPT2閑聊機器人.mp4 62.28M
├──21–深度學習-OCR文本識別
| ├──1-傳統(tǒng)OCR識別_深度學習OCR識別.mp4 369.94M
| ├──10-CRNN項目代碼剖析.mp4 306.48M
| ├──2-OCR識別本質就是文字檢測和文字識別.mp4 253.34M
| ├──3-OCR識別的CTC損失思想.mp4 327.69M
| ├──4-總結理解深度學習文字識別架構.mp4 121.59M
| ├──5-CTC損失函數(shù)的理解.mp4 330.64M
| ├──6-CTC損失函數(shù)前向后向算法推導_梯度求導公式推導.mp4 200.52M
| ├──7-CTC前向后向算法代碼.mp4 225.41M
| ├──8-GreedySearch和BeamSearch解碼的方式與代碼邏輯.mp4 308.23M
| └──9-CPTN項目代碼剖析.mp4 491.69M
├──24–【加課】Pytorch項目實戰(zhàn)
| ├──1–PyTorch運行環(huán)境安裝_運行環(huán)境測試
| | ├──1-PyTorch概述.mp4 29.29M
| | ├──2-PyTorch的安裝.mp4 76.45M
| | ├──3-Pycharm關聯(lián)PyTorch運行環(huán)境.mp4 37.96M
| | └──4-Jupyter關聯(lián)PyTorch運行環(huán)境.mp4 31.22M
| ├──2–PyTorch基礎_Tensor張量運算
| | ├──1-Tensor的創(chuàng)建.mp4 55.14M
| | ├──2-修改Tensor的形狀_索引操作.mp4 76.51M
| | ├──3-廣播機制_逐元素操作.mp4 44.46M
| | └──4-歸并操作_比較操作_矩陣操作.mp4 59.39M
| ├──3–PyTorch卷積神經(jīng)網(wǎng)絡_實戰(zhàn)CIFAR10
| | ├──1-PyTorch實戰(zhàn)CIFAR10數(shù)據(jù)_讀取和展示.mp4 83.93M
| | ├──10-PyTorch代碼實戰(zhàn)加入數(shù)據(jù)增強.mp4 34.15M
| | ├──2-PyTorch實戰(zhàn)CIFAR10_構建網(wǎng)絡_打印網(wǎng)絡層次.mp4 58.61M
| | ├──3-PyTorch實戰(zhàn)CIFAR10_訓練模型_測試模型.mp4 51.47M
| | ├──4-PyTorch實戰(zhàn)CIFAR10_分類別打印模型準確率.mp4 30.60M
| | ├──5-使用全局平均池化_使用LeNet模型.mp4 40.97M
| | ├──6-使用集成學習思想訓練識別模型.mp4 86.96M
| | ├──7-使用VGG16模型提供準確率.mp4 52.90M
| | ├──8-torchvision里面的預訓練模型.mp4 29.84M
| | └──9-遷移學習_PyTorch代碼實戰(zhàn)凍結預訓練模型參數(shù).mp4 67.71M
| ├──4–PyTorch循環(huán)神經(jīng)網(wǎng)絡_詞性標注
| | ├──1-PyTorch詞性標注_構建數(shù)據(jù)和詞索引號.mp4 28.07M
| | ├──2-PyTorch詞性標注_構建詞嵌入層LSTM層和詞性輸出層.mp4 47.01M
| | ├──3-PyTorch詞性標注_構建數(shù)據(jù)索引化和訓練模型代碼.mp4 44.59M
| | └──4-PyTorch詞性標注_測試模型效果.mp4 11.67M
| └──5–PyTorch編碼器解碼器_機器翻譯
| | ├──1-PyTorch中英文翻譯_規(guī)范化語料庫_構建中英文詞典索引.mp4 50.41M
| | ├──2-PyTorch中英文翻譯_數(shù)據(jù)預處理.mp4 42.68M
| | ├──3-PyTorch中英文翻譯_索引化數(shù)據(jù)_轉化成Tensor張量_構建Encoder編碼器.mp4 57.69M
| | ├──4-PyTorch中英文翻譯_構建訓練函數(shù)之Encoder計算.mp4 50.92M
| | ├──5-PyTorch中英文翻譯_構建帶Attention注意力機制的Decoder解碼器.mp4 79.33M
| | ├──6-PyTorch中英文翻譯_構建訓練函數(shù)之Decoder計算.mp4 59.08M
| | ├──7-PyTorch中英文翻譯_評估模型函數(shù).mp4 56.52M
| | └──8-PyTorch中英文翻譯_繪制Attentions注意力權重.mp4 33.74M
├──25–【加課】百度飛槳PaddlePaddle實戰(zhàn)【新增】
| ├──1–PaddlePaddle框架安裝_波士頓房價預測
| | ├──1-安裝PaddlePaddle.mp4 87.34M
| | ├──2-Pycharm運行出現(xiàn)mkl-service或DLL找不到的問題.mp4 45.21M
| | ├──3-PaddlePaddle求解線性模型.mp4 50.63M
| | ├──4-預測波士頓房價_數(shù)據(jù)讀取_正向傳播.mp4 60.49M
| | └──5-預測波士頓房價_反向傳播_模型保存_模型測試.mp4 43.72M
| ├──2–PaddlePaddle卷積網(wǎng)絡_病理性近視識別
| | ├──1-預測病理性近視_圖片數(shù)據(jù)讀取.mp4 97.18M
| | ├──2-預測病理性近視_模型訓練.mp4 86.66M
| | ├──3-預測病理性近視_定義模型結構_評估模型.mp4 84.10M
| | └──4-預測病理性近視_調用經(jīng)典卷積神經(jīng)網(wǎng)絡.mp4 91.83M
| ├──3–PaddleDetection工具_PCB電路板缺陷檢測
| | ├──1-PaddleDetection_項目配置.mp4 82.88M
| | ├──2-安裝配置VisualStudio_解決安裝模塊pycocotools或cython_bbox編譯報錯問題.mp4 65.48M
| | ├──3-PCB電路板缺陷檢測_Images和Annotations.mp4 83.10M
| | ├──4-PCB電路板缺陷檢測_前期數(shù)據(jù)的分析.mp4 133.78M
| | ├──5-PCB電路板缺陷檢測_項目配置文件.mp4 42.77M
| | ├──6-PCB電路板缺陷檢測_模型訓練.mp4 64.62M
| | └──7-PCB電路板缺陷檢測_模型預測.mp4 51.73M
| ├──4–PaddleOCR工具_車牌識別(目標檢測+CRNN+CTCLoss)
| | ├──1-PaddleOCR_項目配置_CCPD數(shù)據(jù)集介紹.mp4 69.65M
| | ├──2-車牌識別項目_詳解數(shù)據(jù)準備階段代碼.mp4 42.93M
| | ├──3-車牌識別項目_運行保存標簽和剪切出的車牌圖片.mp4 57.48M
| | ├──4-車牌識別項目_車牌目標框檢測模型訓練.mp4 61.62M
| | ├──5-車牌識別項目_車牌字符識別模型訓練.mp4 61.89M
| | └──6-車牌識別項目_車牌識別模型導出及預測.mp4 75.61M
| ├──5–PaddleNLP模塊_物流信息提?。˙iGRU+CRF)
| | ├──1-PaddleNLP_項目配置.mp4 49.37M
| | ├──2-PaddleNLP_物流信息提取項目介紹.mp4 48.01M
| | ├──3-物流信息提取項目_解決導包顯示找不到nul問題.mp4 106.19M
| | ├──4-PaddleNLP_物流信息提取項目_加載數(shù)據(jù)構建DataSet.mp4 55.51M
| | ├──5-PaddleNLP_物流信息提取項目_進一步通過DataSet構建出DataLoader.mp4 51.88M
| | ├──6-PaddleNLP_物流信息提取項目_構建網(wǎng)絡模型.mp4 48.53M
| | ├──7-PaddleNLP_物流信息提取項目_模型訓練.mp4 47.34M
| | └──8-PaddleNLP_物流信息提取項目_合并結果并展示_使用預訓練的詞向量提升效果.mp4 80.58M
| └──6–PaddleNLP模塊_物流信息提?。‥RNIE版)
| | ├──1-PaddleNLP_物流信息提取項目_ERNIE實戰(zhàn)_加載數(shù)據(jù)集構建Dataset.mp4 49.47M
| | ├──2-PaddleNLP_物流信息提取項目_ERNIE實戰(zhàn)_詳解Tokenizer作用.mp4 57.44M
| | ├──3-PaddleNLP_物流信息提取項目_ERNIE實戰(zhàn)_講解模型訓練和評估代碼.mp4 47.78M
| | └──4-PaddleNLP_物流信息提取項目_ERNIE實戰(zhàn)_講解ChunkEvaluator和輸出預測結果.mp4 57.88M
├──26–【加課】Linux 環(huán)境編程基礎
| └──1–Linux
| | ├──1-Linux_課程介紹.mp4 3.72M
| | ├──10-Linux_常用命令_clear、touch、cat命令.mp4 10.13M
| | ├──11-Linux_常用命令more、head、tail命令.mp4 16.32M
| | ├──12-Linux_常用命令_mkdir命令.mp4 10.57M
| | ├──13-Linux_常用命令_cp命令.mp4 16.08M
| | ├──14-Linux_常用命令_rm、mv命令.mp4 31.83M
| | ├──15-Linux_常用命令_vi、vim.mp4 30.63M
| | ├──16-Linux_常用命令_reboot、halt.mp4 4.75M
| | ├──17-Linux_常用配置_設置時區(qū).mp4 28.84M
| | ├──18-Linux_常用配置_啟動網(wǎng)絡.mp4 15.64M
| | ├──19-Linux_常用配置_修改網(wǎng)段.mp4 12.83M
| | ├──2-Linux_Linux簡介.mp4 17.59M
| | ├──20-Linux_常用配置_設置網(wǎng)絡類型.mp4 25.66M
| | ├──21-Linux_常用配置_快照與克隆.mp4 16.47M
| | ├──22-Linux_Xshell的安裝與使用.mp4 19.51M
| | ├──23-Linux_上傳與分享_Xftp的使用.mp4 20.33M
| | ├──24-Linux_上傳與分享_lrzsz工具.mp4 43.32M
| | ├──25-Linux_文件的壓縮與解壓縮處理.mp4 43.12M
| | ├──26-Linux_安裝MySQL.mp4 79.02M
| | ├──3-Linux_VMWare安裝及使用.mp4 20.92M
| | ├──4-Linux_安裝Linux.mp4 41.97M
| | ├──5-Linux_目錄介紹.mp4 20.31M
| | ├──6-Linux_Linux中的路徑.mp4 18.65M
| | ├──7-Linux_常用命令_pwd命令.mp4 5.79M
| | ├──8-Linux_常用命令_cd命令.mp4 8.15M
| | └──9-Linux_常用命令_ls與ll命令.mp4 34.39M
├──27–【加課】算法與數(shù)據(jù)結構
| └──1–算法與數(shù)據(jù)結構
| | ├──1-數(shù)據(jù)結構與算法簡介.mp4 35.68M
| | ├──10-哈希表的基本結構.mp4 54.34M
| | ├──11-哈希表沖突問題.mp4 75.92M
| | ├──12-哈希表沖突問題2.mp4 72.30M
| | ├──13-哈希擴容.mp4 111.03M
| | ├──14-遞歸與棧.mp4 50.77M
| | ├──15-線性查找.mp4 57.80M
| | ├──16-二分查找.mp4 52.32M
| | ├──17-冒泡排序.mp4 53.19M
| | ├──18-選擇排序.mp4 43.29M
| | ├──19-插入排序.mp4 31.39M
| | ├──2-大O表示法.mp4 25.59M
| | ├──20-歸并排序.mp4 84.48M
| | ├──21-快速排序.mp4 36.63M
| | ├──22-樹結構.mp4 96.85M
| | ├──23-樹結構的遍歷.mp4 61.05M
| | ├──24-最大堆的增加操作.mp4 45.43M
| | ├──25-最大堆的刪除操作.mp4 45.63M
| | ├──26-二叉樹的查找.mp4 100.24M
| | ├──27-二叉樹獲取最小值.mp4 25.21M
| | ├──28-二叉樹的添加.mp4 72.66M
| | ├──29-二叉樹的刪除.mp4 120.06M
| | ├──3-線性結構.mp4 53.14M
| | ├──4-單線鏈表1.mp4 68.36M
| | ├──5-單鏈表2.mp4 221.69M
| | ├──6-雙鏈表.mp4 103.57M
| | ├──7-隊列(鏈式).mp4 74.12M
| | ├──8-隊列(線式).mp4 30.99M
| | └──9-棧與雙端隊列.mp4 28.12M
├──3–人工智能基礎-Python科學計算和可視化
| ├──1–科學計算模型Numpy
| | ├──1-Numpy_概述_安裝_創(chuàng)建數(shù)組_獲取shape形狀.mp4 39.89M
| | ├──2-Numpy_array_arange.mp4 35.45M
| | ├──3-Numpy_random隨機數(shù)生成.mp4 50.54M
| | ├──4-Numpy_ndarray屬性_zeros_ones_like等創(chuàng)建數(shù)組函數(shù).mp4 45.37M
| | ├──5-NumPy_reshape_切片操作_copy函數(shù).mp4 34.47M
| | ├──6-Numpy_改變數(shù)組維度_數(shù)組的拼接.mp4 46.50M
| | ├──7-Numpy_數(shù)組的切分和轉置.mp4 28.34M
| | ├──8-Numpy_算術運算_向上向下取整.mp4 34.59M
| | └──9-Numpy_聚合函數(shù).mp4 23.68M
| ├──2–數(shù)據(jù)可視化模塊
| | ├──1-Matplotlib_概述_繪制直線圖.mp4 40.79M
| | ├──2-Matplotlib_繪制正余弦曲線_散點圖_添加圖例.mp4 37.73M
| | ├──3-Matplotlib_繪制柱狀圖_畫布切分多個子畫布_柱狀圖對比.mp4 52.15M
| | ├──4-Matplotlib_繪制餅圖_直方圖_同時繪制多組數(shù)據(jù)分布.mp4 29.54M
| | └──5-Matplotlib_繪制等高線圖_繪制三維圖像.mp4 34.90M
| └──3–數(shù)據(jù)處理分析模塊Pandas
| | ├──1-Python_Pandas_Series對象創(chuàng)建.mp4 33.35M
| | ├──2-Python_Pandas_DataFrame對象創(chuàng)建.mp4 37.19M
| | ├──3-Python_Pandas_獲取Series對象的值.mp4 22.41M
| | ├──4-Python_Pandas_獲取DataFrame對象的值.mp4 28.31M
| | ├──5-Python_Pandas_條件過濾.mp4 24.66M
| | ├──6-Python_Pandas_空值的刪除與填充.mp4 46.66M
| | └──7-Python_Pandas_拼接和合并.mp4 44.84M
├──31–【加課】 強化學習【新增】
| ├──1–Q-Learning與SARSA算法
| | ├──1-強化學習通過智能體與環(huán)境交互進行學習.mp4 81.83M
| | ├──10-代碼實戰(zhàn)Q-Learning智能體訓練模型.mp4 40.30M
| | ├──11-代碼實戰(zhàn)Sarsa_Agent和Env整體交互.mp4 45.38M
| | ├──12-代碼實戰(zhàn)Sarsa_Agent選擇行為和訓練模型.mp4 42.69M
| | ├──13-代碼實戰(zhàn)SarsaLambda_訓練模型.mp4 42.49M
| | ├──2-引入馬爾科夫鏈和價值評估的Q值與V值.mp4 59.84M
| | ├──3-詳解Q值和V值以及它們之間關系.mp4 82.69M
| | ├──4-蒙特卡洛采樣回溯計算V值.mp4 74.25M
| | ├──5-蒙特卡洛和時序差分估算狀態(tài)V值.mp4 82.14M
| | ├──6-SARSA算法和Q-learning算法.mp4 76.34M
| | ├──7-理解Q-table_創(chuàng)建maze交互環(huán)境.mp4 78.55M
| | ├──8-代碼實戰(zhàn)Q-Learning_Agent和Env整體交互.mp4 34.23M
| | └──9-代碼實戰(zhàn)Q-Learning智能體選擇行為.mp4 38.39M
| ├──2–Deep Q-Learning Network
| | ├──1-DQN算法思想.mp4 59.24M
| | ├──10-DoubleDQN緩解over-estimate.mp4 44.14M
| | ├──11-DoubleDQN代碼實戰(zhàn).mp4 44.49M
| | ├──12-DuelingDQN.mp4 88.12M
| | ├──13-困難樣本挖掘_Multi-step_NoiseyNet系統(tǒng)的探索.mp4 91.00M
| | ├──14-計算Action的方差避免風險.mp4 54.23M
| | ├──15-Rainbow_DQN如何計算連續(xù)型的Actions.mp4 65.35M
| | ├──2-DQN算法具體流程.mp4 56.17M
| | ├──3-ε-greedy_ReplayBuffer_FixedQ-targets.mp4 96.70M
| | ├──4-代碼實戰(zhàn)DQN_Agent和Env整體交互.mp4 52.25M
| | ├──5-代碼實戰(zhàn)DQN_構建Q網(wǎng)絡.mp4 70.52M
| | ├──6-代碼實戰(zhàn)DQN_定義損失函數(shù)_構建Target網(wǎng)絡更新邏輯.mp4 85.79M
| | ├──7-代碼實戰(zhàn)DQN_訓練階段得到Q網(wǎng)絡的預測值和真實值.mp4 53.49M
| | ├──8-代碼實戰(zhàn)DQN_訓練階段最小化損失_記錄loss方便展示_隨著learn的越多選擇action隨機性減小.mp4 58.93M
| | └──9-DQN會over-estimate的本質原因.mp4 44.92M
| ├──3–Policy Gradient 策略梯度
| | ├──1-策略梯度PG_對比基于值和基于策略網(wǎng)絡的區(qū)別.mp4 68.21M
| | ├──10-策略梯度PG_同一個回合中不同的action回溯不同的TotalReward_代碼實戰(zhàn).mp4 34.22M
| | ├──2-策略梯度PG_明確目標函數(shù)和導函數(shù).mp4 62.20M
| | ├──3-策略梯度PG_簡化導函數(shù)的公式推導.mp4 36.66M
| | ├──4-策略梯度PG_總結整體流程_對比交叉熵損失函數(shù)求導.mp4 33.38M
| | ├──5-策略梯度PG_講解CartPole環(huán)境.mp4 55.59M
| | ├──6-代碼實戰(zhàn)_策略梯度PG和CartPole交互.mp4 75.57M
| | ├──7-代碼實戰(zhàn)_策略梯度PG網(wǎng)絡構建.mp4 48.86M
| | ├──8-代碼實戰(zhàn)_策略梯度PG選擇行為和參數(shù)訓練.mp4 54.67M
| | └──9-策略梯度PG_對TotalReward進行均值歸一化.mp4 33.07M
| ├──4–Actor Critic (A3C)
| | ├──1-ActorCritic原理_把PG和QLearning結合起來.mp4 55.33M
| | ├──10-代碼實戰(zhàn)_A3C_增加actor探索性用到熵_定義worker正太分布抽樣和求梯度的邏輯.mp4 36.14M
| | ├──11-代碼實戰(zhàn)_A3C_定義AC網(wǎng)絡結構_定義worker拉取參數(shù)和更新全局網(wǎng)絡參數(shù)的邏輯.mp4 40.24M
| | ├──12-代碼實戰(zhàn)_A3C_結合流程圖分三點總結前面講的代碼.mp4 39.73M
| | ├──13-代碼實戰(zhàn)_A3C_講解線程中worker和環(huán)境交互.mp4 51.55M
| | ├──14-代碼實戰(zhàn)_A3C_講解線程中worker和GlobalNet交互_代碼運行效果展示.mp4 47.18M
| | ├──2-AdvantageActorCritic_共享參數(shù)和修改reward技巧.mp4 86.42M
| | ├──3-代碼實戰(zhàn)_ActorCritic與環(huán)境交互.mp4 82.51M
| | ├──4-代碼實戰(zhàn)_Actor網(wǎng)絡構建及訓練.mp4 58.07M
| | ├──5-代碼實戰(zhàn)_詳解Critic網(wǎng)絡構建及訓練.mp4 87.92M
| | ├──6-A3C架構和訓練流程.mp4 74.66M
| | ├──7-Pendulum環(huán)境_根據(jù)網(wǎng)絡預測的μ和σ得到連續(xù)型的action值.mp4 77.58M
| | ├──8-代碼實戰(zhàn)_A3C_講解Coordinator調度多線程運算.mp4 32.03M
| | └──9-代碼實戰(zhàn)_A3C_定義Worker計算loss的邏輯_針對連續(xù)型的action提高actor探索性.mp4 36.62M
| └──5–DDPG、PPO、DPPO算法
| | ├──1-DDPG解決DQN不能輸出連續(xù)型動作的問題_DDPG如何訓練Actor和Critic.mp4 81.92M
| | ├──10-代碼實戰(zhàn)_PPO與環(huán)境整體交互_Actor與Critic網(wǎng)絡構建.mp4 32.54M
| | ├──11-代碼實戰(zhàn)_定義PPO1和PPO2不同版本Actor的Loss計算邏輯.mp4 41.02M
| | ├──12-代碼實戰(zhàn)_剖析PPO代碼中如何體現(xiàn)Off-Policy的學習方式_效果展示.mp4 42.12M
| | ├──13-DPPO分布式PPO.mp4 63.81M
| | ├──14-代碼實戰(zhàn)_DPPO_創(chuàng)建一個PPO和多個Worker_創(chuàng)建多線程.mp4 37.79M
| | ├──15-代碼實戰(zhàn)_DPPO_GlobalPPO和Workers交替執(zhí)行.mp4 54.72M
| | ├──2-代碼實戰(zhàn)_DDPG_構建Actor和Critic四個網(wǎng)絡_定義Critic求loss和求梯度的邏輯.mp4 51.45M
| | ├──3-代碼實戰(zhàn)_DDPG_Critic網(wǎng)絡構建_Actor網(wǎng)絡鏈式求導.mp4 57.06M
| | ├──4-代碼實戰(zhàn)_DDPG_與環(huán)境之間的互動_AC訓練調整參數(shù)_效果展示.mp4 44.17M
| | ├──5-TD3_使用DoubleNetwork優(yōu)化DDPG.mp4 63.92M
| | ├──6-PPO_強調AC如何輸出連續(xù)型動作_區(qū)分On-Policy與Off-Policy.mp4 38.45M
| | ├──7-PPO_通過重要性采樣使得PPO可以做Off-Policy學習.mp4 35.49M
| | ├──8-PPO_重要性采樣的問題_期望矯正但是方差還是不同帶來的問題.mp4 38.09M
| | └──9-PPO_PPO1、TRPO、PPO2三種不同的方式解決兩個分布不同的問題.mp4 61.79M
├──4–人工智能基礎-高等數(shù)學知識強化
| ├──1–數(shù)學內容概述
| | ├──1-人工智能學習數(shù)學的必要性_微積分知識點.mp4 28.76M
| | ├──2-線性代數(shù)_概率論知識點.mp4 26.81M
| | └──3-最優(yōu)化知識_數(shù)學內容學習重點.mp4 40.43M
| ├──2–一元函數(shù)微分學
| | ├──1-導數(shù)的定義_左導數(shù)和右導數(shù).mp4 28.39M
| | ├──2-導數(shù)的幾何意義和物理意義.mp4 14.49M
| | ├──3-常見函數(shù)的求導公式.mp4 22.76M
| | ├──4-導數(shù)求解的四則運算法則.mp4 26.52M
| | ├──5-復合函數(shù)求導法則.mp4 19.68M
| | ├──6-推導激活函數(shù)的導函數(shù).mp4 33.40M
| | ├──7-高階導數(shù)_導數(shù)判斷單調性_導數(shù)與極值.mp4 21.95M
| | └──8-導數(shù)判斷凹凸性_導數(shù)用于泰勒展開.mp4 44.22M
| ├──3–線性代數(shù)基礎
| | ├──1-向量的意義_n維歐式空間空間.mp4 20.82M
| | ├──10-矩陣的逆矩陣.mp4 38.54M
| | ├──11-矩陣的行列式.mp4 20.13M
| | ├──2-行向量列向量_轉置_數(shù)乘_加減乘除.mp4 19.28M
| | ├──3-向量的內積_向量運算法則.mp4 19.78M
| | ├──4-學習向量計算的用途舉例.mp4 20.32M
| | ├──5-向量的范數(shù)_范數(shù)與正則項的關系.mp4 32.40M
| | ├──6-特殊的向量.mp4 26.45M
| | ├──7-矩陣_方陣_對稱陣_單位陣_對角陣.mp4 18.06M
| | ├──8-矩陣的運算_加減法_轉置.mp4 22.76M
| | └──9-矩陣相乘.mp4 20.02M
| ├──4–多元函數(shù)微分學
| | ├──1-多元函數(shù)求偏導.mp4 22.61M
| | ├──2-高階偏導數(shù)_梯度.mp4 27.15M
| | ├──3-雅可比矩陣_在神經(jīng)網(wǎng)絡中應用.mp4 37.65M
| | └──4-Hessian矩陣.mp4 32.93M
| ├──5–線性代數(shù)高級
| | ├──1-二次型.mp4 27.70M
| | ├──10-SVD用于PCA降維.mp4 24.90M
| | ├──11-SVD用于協(xié)同過濾_求逆矩陣.mp4 35.85M
| | ├──2-補充關于正定負定的理解.mp4 23.48M
| | ├──3-特征值和特征向量(1).mp4 29.83M
| | ├──4-特征值和特征向量(2).mp4 30.07M
| | ├──5-特征值分解.mp4 38.68M
| | ├──6-多元函數(shù)的泰勒展開_矩陣和向量的求導.mp4 44.77M
| | ├──7-奇異值分解定義.mp4 22.58M
| | ├──8-求解奇異值分解中的UΣV矩陣.mp4 49.47M
| | └──9-奇異值分解性質_數(shù)據(jù)壓縮.mp4 38.70M
| ├──6–概率論
| | ├──1-概率論_隨機事件與隨機事件概率.mp4 21.71M
| | ├──2-條件概率_貝葉斯公式.mp4 32.64M
| | ├──3-隨機變量.mp4 22.57M
| | ├──4-數(shù)學期望和方差.mp4 22.96M
| | ├──5-常用隨機變量服從的分布.mp4 22.48M
| | ├──6-隨機向量_獨立性_協(xié)方差_隨機向量的正太分布.mp4 32.48M
| | └──7-最大似然估計思想.mp4 23.42M
| └──7–最優(yōu)化
| | ├──1-最優(yōu)化的基本概念.mp4 35.14M
| | ├──10-拉格朗日函數(shù).mp4 27.46M
| | ├──2-迭代求解的原因.mp4 20.15M
| | ├──3-梯度下降法思路.mp4 26.33M
| | ├──4-梯度下降法的推導.mp4 43.56M
| | ├──5-牛頓法公式推導以及優(yōu)缺點.mp4 45.83M
| | ├──6-坐標下降法_數(shù)值優(yōu)化面臨的問題.mp4 23.90M
| | ├──7-凸集.mp4 21.90M
| | ├──8-凸函數(shù).mp4 16.93M
| | └──9-凸優(yōu)化的性質_一般表達形式.mp4 20.81M
├──5–機器學習-線性回歸
| ├──1–多元線性回歸
| | ├──1-理解簡單線性回歸.mp4 51.11M
| | ├──10-對數(shù)似然函數(shù)_推導出損失函數(shù)MSE.mp4 41.92M
| | ├──11-把目標函數(shù)按照線性代數(shù)的方式去表達.mp4 27.00M
| | ├──12-推導出目標函數(shù)的導函數(shù)形式.mp4 46.38M
| | ├──13-θ解析解的公式_是否要考慮損失函數(shù)是凸函數(shù).mp4 59.19M
| | ├──14-Python開發(fā)環(huán)境版本的選擇及分享.mp4 54.07M
| | ├──15-Anaconda環(huán)境安裝_Pycharm環(huán)境安裝.mp4 61.07M
| | ├──16-Pycharm創(chuàng)建腳本并測試python開發(fā)環(huán)境.mp4 40.51M
| | ├──17-解析解的方式求解多元線性回歸_數(shù)據(jù)Xy.mp4 40.41M
| | ├──18-解析解的方式求解多元線性回歸_求解模型_使用模型_繪制圖形.mp4 48.31M
| | ├──19-解析解的方式求解多元線性回歸_擴展隨機種子概念_增加維度代碼的變換.mp4 34.67M
| | ├──2-最優(yōu)解_損失函數(shù)_MSE.mp4 39.58M
| | ├──20-Scikit-learn模塊的介紹.mp4 29.18M
| | ├──21-調用Scikit-learn中的多元線性回歸求解模型(上).mp4 25.20M
| | ├──22-調用Scikit-learn中的多元線性回歸求解模型(下).mp4 41.02M
| | ├──3-擴展到多元線性回歸.mp4 32.15M
| | ├──4-理解多元線性回歸表達式幾種寫法的原因.mp4 33.97M
| | ├──5-理解維度這個概念.mp4 41.41M
| | ├──6-理解回歸一詞_中心極限定理_正太分布和做預測.mp4 65.82M
| | ├──7-假設誤差服從正太分布_最大似然估計MLE.mp4 43.11M
| | ├──8-引入正太分布的概率密度函數(shù).mp4 26.54M
| | └──9-明確目標通過最大總似然求解θ.mp4 25.83M
| ├──2–梯度下降法
| | ├──1-梯度下降法產(chǎn)生的目的和原因以及思想.mp4 59.45M
| | ├──10-代碼實現(xiàn)全量梯度下降第1步和第2步.mp4 25.70M
| | ├──11-代碼實現(xiàn)全量梯度下降第3步和第4步.mp4 30.73M
| | ├──12-代碼實現(xiàn)隨機梯度下降.mp4 26.67M
| | ├──13-代碼實現(xiàn)小批量梯度下降.mp4 27.32M
| | ├──14-代碼改進保證訓練數(shù)據(jù)全都能被隨機取到.mp4 40.28M
| | ├──15-代碼改進實現(xiàn)隨著迭代增加動態(tài)調整學習率.mp4 39.24M
| | ├──2-梯度下降法公式.mp4 57.12M
| | ├──3-學習率設置的學問_全局最優(yōu)解.mp4 56.52M
| | ├──4-梯度下降法迭代流程總結.mp4 30.28M
| | ├──5-多元線性回歸下的梯度下降法.mp4 43.27M
| | ├──6-全量梯度下降.mp4 62.84M
| | ├──7-隨機梯度下降_小批量梯度下降.mp4 47.62M
| | ├──8-對應梯度下降法的問題和挑戰(zhàn).mp4 47.07M
| | └──9-輪次和批次.mp4 45.22M
| ├──3–歸一化
| | ├──1-歸一化的目的_維度之間數(shù)量級不同產(chǎn)生的矛盾.mp4 63.62M
| | ├──2-歸一化的目的_舉例子來理解做歸一化和不做歸一化的區(qū)別.mp4 34.11M
| | ├──3-歸一化的副產(chǎn)品_有可能會提高模型的精度.mp4 21.61M
| | ├──4-最大值最小值歸一化.mp4 24.87M
| | ├──5-標準歸一化.mp4 51.86M
| | └──6-代碼完成標準歸一化.mp4 41.13M
| ├──4–正則化
| | ├──1-正則化的目的防止過擬合.mp4 30.71M
| | ├──2-正則化通過損失函數(shù)加入懲罰項使得W越小越好.mp4 35.27M
| | ├──3-常用的L1和L2正則項以及數(shù)學意義.mp4 41.55M
| | ├──4-L1稀疏性和L2平滑性.mp4 51.64M
| | └──5-通過L1和L2的導函數(shù)理解區(qū)別的本質原因.mp4 55.58M
| └──5–Lasso回歸_Ridge回歸_多項式回歸
| | ├──1-代碼調用Ridge嶺回歸.mp4 76.32M
| | ├──10-實戰(zhàn)保險花銷預測_特征選擇思路.mp4 40.29M
| | ├──11-實戰(zhàn)保險花銷預測_特征工程.mp4 17.96M
| | ├──12-實戰(zhàn)保險花銷預測_模型訓練和評估.mp4 58.86M
| | ├──2-代碼調用Lasso回歸.mp4 28.73M
| | ├──3-代碼調用ElasticNet回歸.mp4 53.67M
| | ├──4-升維的意義_多項式回歸.mp4 48.06M
| | ├──5-多項式升維代碼實戰(zhàn)_傳入不同超參數(shù)對比.mp4 44.78M
| | ├──6-多項式升維代碼實戰(zhàn)_訓練模型和評估.mp4 35.06M
| | ├──7-實戰(zhàn)保險花銷預測_數(shù)據(jù)介紹和加載數(shù)據(jù).mp4 35.25M
| | ├──8-實戰(zhàn)保險花銷預測_數(shù)據(jù)預處理.mp4 41.38M
| | └──9-實戰(zhàn)保險花銷預測_模型訓練和評估_選擇非線性算法改進.mp4 84.12M
├──6–機器學習-線性分類
| ├──1–邏輯回歸
| | ├──1-邏輯回歸_Sigmoid函數(shù).mp4 21.14M
| | ├──10-繪制邏輯回歸損失函數(shù)_探索兩個參數(shù)和損失函數(shù)變換關系.mp4 39.83M
| | ├──11-繪制邏輯回歸損失函數(shù)_繪制3D的圖形_分析X1X2兩個維度的重要度.mp4 43.87M
| | ├──12-對邏輯回歸函數(shù)進行求導_結論在后面會用到.mp4 20.50M
| | ├──13-對邏輯回歸的損失函數(shù)求導_推導出導函數(shù)的形式.mp4 42.50M
| | ├──14-實戰(zhàn)邏輯回歸對鳶尾花數(shù)據(jù)集進行二分類.mp4 46.63M
| | ├──15-OneVsRest將多分類問題轉化成多個二分類問題.mp4 26.13M
| | ├──16-實戰(zhàn)邏輯回歸對鳶尾花數(shù)據(jù)集進行多分類.mp4 40.46M
| | ├──2-sigmoid函數(shù)作用.mp4 38.15M
| | ├──3-邏輯回歸為什么用sigmoid函數(shù)_預備知識.mp4 31.00M
| | ├──4-證明伯努利分布是指數(shù)族分布_推導出邏輯回歸公式.mp4 41.97M
| | ├──5-回想多元線性回歸公式其實也是從廣義線性回歸推導出來的.mp4 6.71M
| | ├──6-推導邏輯回歸損失函數(shù)_得到總似然的公式.mp4 29.61M
| | ├──7-推導邏輯回歸損失函數(shù)_得到最終形式.mp4 12.43M
| | ├──8-繪制邏輯回歸損失函數(shù)_讀入數(shù)據(jù)計算最優(yōu)解模型_實現(xiàn)邏輯回歸預測_實現(xiàn)邏輯回歸損失函數(shù).mp4 56.56M
| | └──9-繪制邏輯回歸損失函數(shù)_探索單個參數(shù)和損失的關系.mp4 30.72M
| ├──2–Softmax回歸
| | ├──1-證明多項式分布屬于指數(shù)族分布一種.mp4 27.93M
| | ├──10-實戰(zhàn)音樂分類器_代碼使用傅里葉變換將混音文件進行投影.mp4 42.74M
| | ├──11-實戰(zhàn)音樂分類器_代碼對單首歌曲進行傅里葉變換_代碼對600首音樂文件進行傅里葉變換并保存結果.mp4 49.16M
| | ├──12-實戰(zhàn)音樂分類器_代碼讀取600首傅里葉變換后的數(shù)據(jù)_構建訓練集并訓練模型.mp4 47.67M
| | ├──13-實戰(zhàn)音樂分類器_模型的測試和調優(yōu)_解決雙通道音樂文件的問題.mp4 78.03M
| | ├──2-從廣義線性回歸的η推導出來Softmax的公式.mp4 21.35M
| | ├──3-有了Softmax函數(shù)的公式就可以去計算loss_Softmax的Loss函數(shù)形式其實就是LR的泛化版本.mp4 33.42M
| | ├──4-再次證明Softmax損失函數(shù)當K=2時就是邏輯回歸損失函數(shù).mp4 28.15M
| | ├──5-證明Softmax公式K=2的時候就是邏輯回歸_平移不變性.mp4 13.92M
| | ├──6-邏輯回歸和Softmax回歸在多分類任務模型參數(shù)上的區(qū)別_與算法在選擇上的區(qū)別.mp4 46.67M
| | ├──7-實戰(zhàn)音樂分類器_講解需求和讀取數(shù)據(jù).mp4 32.57M
| | ├──8-實戰(zhàn)音樂分類器_探索不同曲風音樂文件的時間頻率圖.mp4 52.39M
| | └──9-實戰(zhàn)音樂分類器_傅里葉變換可以幫助我們做什么.mp4 25.13M
| ├──3–SVM支持向量機算法
| | ├──1-SVM與感知機關系_幾何距離與函數(shù)距離.mp4 114.25M
| | ├──2-SVM的思想.mp4 55.56M
| | ├──3-幾種SVM_SVM的損失函數(shù).mp4 74.91M
| | ├──4-數(shù)學預備知識_拉格朗日函數(shù).mp4 122.44M
| | ├──5-硬間隔SVM的兩步優(yōu)化.mp4 102.88M
| | ├──6-總結硬間隔SVM.mp4 39.01M
| | ├──7-軟間隔SVM和總結流程.mp4 135.76M
| | ├──8-非線性SVM.mp4 54.43M
| | └──9-SVM在sklearn中的使用_超參數(shù).mp4 144.30M
| └──4–SMO優(yōu)化算法
| | ├──1-SVM算法流程總結.mp4 58.36M
| | ├──10-SVM的SMO實現(xiàn)判斷違背條件的α1.mp4 19.23M
| | ├──11-SVM的SMO實現(xiàn)應用公式計算alphas和b.mp4 20.88M
| | ├──12-SVM繪制已有數(shù)據(jù)點和超平面以及邊界.mp4 21.13M
| | ├──13-關于sklearn中的SVM封裝的類和超參.mp4 15.47M
| | ├──14-概率化輸出_SVM的合頁損失函數(shù)_Tensorflow實現(xiàn)GD方式求解SVM.mp4 69.00M
| | ├──15-OVR和OVO多分類_算法小結_對比邏輯回歸.mp4 36.52M
| | ├──2-SMO算法求解思路_分解成很多個子二次規(guī)劃問題分別求解.mp4 65.42M
| | ├──3-SMO將交給它的目標函數(shù)變成二元函數(shù)進一步變成一元函數(shù).mp4 63.23M
| | ├──4-對一元函數(shù)求極值點_推導出舊的α和新的α的關系.mp4 53.19M
| | ├──5-將公式467帶入導函數(shù)進一步簡化_對求解出的新的α2進行剪裁.mp4 92.38M
| | ├──6-再次說明α2如何進行剪裁的思路_根據(jù)α2求α1.mp4 37.62M
| | ├──7-啟發(fā)式選擇兩個α.mp4 23.11M
| | ├──8-如何計算閾值b.mp4 50.18M
| | └──9-SVM的SMO實現(xiàn)讀取數(shù)據(jù)和計算fx與Ei.mp4 73.44M
├──7–機器學習-無監(jiān)督學習
| ├──1–聚類系列算法
| | ├──1-KMeans聚類流程_距離測度歐式距離和余弦距離.mp4 173.95M
| | ├──2-距離測度歐式距離和余弦距離的場景_TFIDF.mp4 153.55M
| | ├──3-KMeans的一些變形_KMeans的損失函數(shù)推導及假設.mp4 167.16M
| | ├──4-mini-batchKMeans_Canopy聚類_聚類評估指標.mp4 214.69M
| | ├──5-KMeans代碼測試不同情況下的聚類效果.mp4 148.66M
| | └──6-層次聚類_密度聚類_譜聚類.mp4 264.04M
| ├──2–EM算法和GMM高斯混合模型
| | ├──1-單個高斯分布GM的參數(shù)估計.mp4 112.72M
| | ├──2-理解GMM高斯混合分布的對數(shù)似然函數(shù).mp4 95.22M
| | ├──3-GMM參數(shù)估計Πμσ的流程.mp4 112.23M
| | ├──4-Jensen不等式的應用.mp4 109.17M
| | ├──5-將EM算法應用到GMM中并且推導出了μ和Σ的公式.mp4 157.57M
| | ├──6-將EM算法應用到GMM中并且推導出Π的公式.mp4 44.12M
| | ├──7-GMM前景背景分離.mp4 16.01M
| | ├──8-通過聲音文件利用GMM算法識別性別.mp4 134.39M
| | └──9-通過聲音文件利用GMM算法識別是誰.mp4 51.52M
| └──3–PCA降維算法
| | ├──1-特征選擇與特征映射.mp4 49.38M
| | ├──2-PCA的最大投影方差思路.mp4 186.75M
| | ├──3-最大投影方差推導_最小投影距離思路.mp4 115.67M
| | ├──4-SVD其實就可以去實現(xiàn)PCA了.mp4 92.97M
| | └──5-PCA的幾種應用.mp4 54.58M
├──8–機器學習-決策樹系列
| ├──1–決策樹
| | ├──1-決策樹模型的特點.mp4 74.88M
| | ├──10-繪制決策樹模型_尋找最優(yōu)樹深度.mp4 97.10M
| | ├──11-代碼訓練回歸樹擬合SineWave.mp4 93.81M
| | ├──12-后剪枝的意義.mp4 50.49M
| | ├──13-CCP代價復雜度后剪枝.mp4 130.67M
| | ├──14-CCP代價復雜度剪枝_α超參數(shù)設定.mp4 62.18M
| | ├──2-決策樹的數(shù)學表達.mp4 89.94M
| | ├──3-如何構建一顆決策樹.mp4 84.87M
| | ├──4-什么是更好的一次劃分.mp4 57.02M
| | ├──5-Gini系數(shù).mp4 107.54M
| | ├──6-信息增益.mp4 75.26M
| | ├──7-熵與Gini系數(shù)關系_信息增益率.mp4 118.18M
| | ├──8-預剪枝以及相關超參數(shù).mp4 127.06M
| | └──9-代碼實戰(zhàn)決策樹對鳶尾花數(shù)據(jù)集分類.mp4 77.90M
| ├──2–集成學習和隨機森林
| | ├──1-不同聚合方式_生成不同弱學習器方式.mp4 80.47M
| | ├──2-Bagging_Boosting_Stacking.mp4 59.02M
| | ├──3-隨機森林.mp4 108.14M
| | ├──4-代碼實戰(zhàn)隨機森林對鳶尾花數(shù)據(jù)集分類.mp4 101.81M
| | ├──5-OOB袋外數(shù)據(jù).mp4 106.07M
| | ├──6-Adaboost算法思路.mp4 106.30M
| | ├──7-調整數(shù)據(jù)權重讓權重正確率達到50%.mp4 66.83M
| | └──8-Adaboost如何調整樣本權重和求基模型權重.mp4 90.51M
| ├──3–GBDT
| | ├──1-GBDT試圖使用有監(jiān)督最優(yōu)化算法梯度下降求解F(x).mp4 65.49M
| | ├──10-GBDT多分類如何每輪給K顆小樹準備要去擬合的負梯度.mp4 72.09M
| | ├──11-GBDT多分類流程.mp4 73.80M
| | ├──12-對比GBDT回歸、二分類、多分類相同點與不同點.mp4 60.80M
| | ├──13-GBDT二分類葉子節(jié)點分值計算推導.mp4 73.96M
| | ├──14-GBDT多分類葉子節(jié)點分值計算.mp4 54.63M
| | ├──15-GBDT二分類舉例詳解.mp4 86.67M
| | ├──16-GBDT多分類舉例詳解.mp4 91.71M
| | ├──17-計算特征重要度進行特征選擇.mp4 54.87M
| | ├──18-GBDT用于特征組合降維.mp4 43.72M
| | ├──19-特征組合降維在GBDT+LR架構應用.mp4 51.28M
| | ├──2-GBDT令每個弱學習器f(x)去擬合負梯度.mp4 88.39M
| | ├──20-GBDT在sklearn中源碼剖析_初始化F(x).mp4 115.14M
| | ├──21-GBDT在sklearn中源碼剖析_負梯度計算和葉子節(jié)點分值計算.mp4 71.74M
| | ├──22-GBDT+LR架構訓練模型代碼實現(xiàn).mp4 88.40M
| | ├──23-GBDT+LR架構預測評估代碼實現(xiàn).mp4 66.47M
| | ├──3-GBDT每棵樹都是回歸樹_準備數(shù)據(jù)才能訓練下一顆小樹.mp4 77.36M
| | ├──4-GBDT應用于回歸問題.mp4 84.66M
| | ├──5-GBDT回歸舉例_總結.mp4 108.52M
| | ├──6-GBDT應用于二分類問題.mp4 70.42M
| | ├──7-GBDT二分類擬合的負梯度依然是殘差.mp4 83.81M
| | ├──8-GBDT中shrinkage學習率和最優(yōu)樹權重ρ可以共存.mp4 61.49M
| | └──9-GBDT應用于多分類任務.mp4 73.34M
| └──4–XGBoost
| | ├──1-回顧有監(jiān)督機器學習三要素.mp4 82.52M
| | ├──10-重新定義樹ft和樹的復雜度Ω.mp4 77.70M
| | ├──11-由每個葉子節(jié)點重組目標函數(shù)Obj.mp4 68.56M
| | ├──12-推導XGBoost出Wj計算公式_推導評價樹好壞的Obj.mp4 72.32M
| | ├──13-根據(jù)Obj收益指導每一次分裂從而學習一棵樹結構.mp4 106.69M
| | ├──14-舉例說明從連續(xù)型和離散型變量中尋找最佳分裂條件.mp4 73.80M
| | ├──15-XGBoost中防止過擬合的前剪枝_后剪枝_學習率.mp4 71.21M
| | ├──16-樣本權重對于模型學習的影響.mp4 59.81M
| | ├──17-總結XGBoost的特性_包括缺失值的處理策略.mp4 101.47M
| | ├──2-Bias_Variance_Trade-off.mp4 66.00M
| | ├──3-基于樹集成學習4個優(yōu)點.mp4 91.36M
| | ├──4-回顧基于樹集成學習的模型和參數(shù)并舉例說明.mp4 93.39M
| | ├──5-通過目標函數(shù)Obj來達到準確率和復雜度平衡.mp4 48.31M
| | ├──6-Objective_vs_Heuristic.mp4 60.42M
| | ├──7-得出XGBoost最開始的Obj目標函數(shù).mp4 94.87M
| | ├──8-推導XGBoost對Loss二階泰勒展開之后的Obj.mp4 48.62M
| | └──9-Obj化簡常數(shù)項_明確訓練每顆回歸樹需要準備gi和hi.mp4 67.39M
├──9–機器學習-概率圖模型
| ├──1–貝葉斯分類
| | ├──1-樸素貝葉斯分類算法.mp4 126.74M
| | ├──2-TF-IDF.mp4 53.08M
| | ├──3-NB代碼實現(xiàn)解析.mp4 126.73M
| | ├──4-sklearn中調用NB_順便講解了GridSearchCV.mp4 131.83M
| | ├──5-語言模型的設計目的_MLE的作用進行參數(shù)估計.mp4 107.12M
| | └──6-貝葉斯網(wǎng)絡_馬爾可夫鏈.mp4 38.75M
| ├──2–HMM算法
| | ├──1-HMM隱馬的定義.mp4 36.82M
| | ├──2-HMM隱馬的三組參數(shù)_三個基本問題.mp4 104.28M
| | ├──3-HMM預測問題使用前向算法.mp4 44.33M
| | ├──4-HMM預測問題使用維特比算法.mp4 33.43M
| | ├──5-HMM復習_明確概率計算問題要解決的目標.mp4 76.05M
| | ├──6-前向算法來解決概率計算問題.mp4 33.05M
| | ├──7-Viterbi算法案例詳解.mp4 107.12M
| | └──8-Viterbi算法代碼實現(xiàn).mp4 42.43M
| └──3–CRF算法
| | ├──1-NER與分詞和POS的關系_NER的標注策略_NER的主要方法.mp4 127.78M
| | ├──2-講解了一下常見的深度學習LSTM+CRF的網(wǎng)絡拓撲.mp4 71.88M
| | ├──3-了解CRF層添加的好處.mp4 105.90M
| | ├──4-EmissionScore_TransitionScore.mp4 61.33M
| | ├──5-CRF的目標函數(shù).mp4 23.74M
| | ├──6-計算CRF真實路徑的分數(shù).mp4 50.37M
| | ├──7-計算CRF所有可能路徑的總分數(shù).mp4 135.58M
| | └──8-通過模型來預測新的句子的序列標簽.mp4 83.16M

└──課件.zip 87.97M

百戰(zhàn)程序員-AI算法工程師就業(yè)班2022年價值18980元重磅首發(fā)

【IT2區(qū)上新】【大課】007.百戰(zhàn)程序員-AI算法工程師就業(yè)班2022年價值18980元重磅首發(fā)沖擊百萬年薪完結無秘

【IT2區(qū)上新】【大課】007.百戰(zhàn)程序員-AI算法工程師就業(yè)班2022年價值18980元重磅首發(fā)沖擊百萬年薪完結無秘

百戰(zhàn)程序員-AI算法工程師就業(yè)班2022年價值18980元重磅首發(fā)插圖5

0
沒有賬號? 忘記密碼?