歡迎來到培訓(xùn)無憂網(wǎng)!

咨詢熱線 400-001-5729

位置:長沙培訓(xùn)無憂網(wǎng) > 長沙電腦與IT > 長沙軟件系統(tǒng) > 長沙Python開發(fā)

長沙Sklearn培訓(xùn)班

授課機(jī)構(gòu):長沙CDA數(shù)據(jù)分析師培訓(xùn)機(jī)構(gòu)

地址:長沙市開福區(qū)中山路589號開福萬達(dá)廣場C區(qū)

網(wǎng)報(bào)價(jià)格:¥電詢

課程原價(jià):¥電詢

咨詢熱線:400-001-5729

課程詳情 學(xué)校簡介 學(xué)校地址 申請?jiān)嚶?/span>

關(guān)鍵詞:長沙培訓(xùn)數(shù)據(jù)分析哪里培訓(xùn)好

Sklearn培訓(xùn)班

課程名稱:Sklearn
課程類目:Sklearn
課程類型:正式課
授課形式:視頻課程
免費(fèi)試聽:是
適合基礎(chǔ):零基礎(chǔ)學(xué)員
班級名稱:中級班
上課時(shí)間:隨時(shí)可學(xué)
開班時(shí)間:隨時(shí)可學(xué)


01
課程亮點(diǎn)

十一周sklearn課程,讓菜菜帶你認(rèn)識sklearn,帶你深入淺出地探索算法的神秘世 界。我會(huì)為你解讀sklearn中的主流算法,帶你處理數(shù)據(jù),調(diào)整參數(shù),完善算法,調(diào)用結(jié)果。我會(huì)為你解析參數(shù),助你理解算法原理,也會(huì)帶你遍歷案例,帶你實(shí)戰(zhàn)給你刷經(jīng)驗(yàn)。十一周之后,人人都能夠三行實(shí)現(xiàn)算法,實(shí)現(xiàn)少加班,多鉆研,在數(shù)據(jù)行業(yè)乘風(fēng)破浪的目標(biāo),為成為優(yōu) 秀的數(shù)據(jù)挖掘工程師打下堅(jiān)實(shí)的基礎(chǔ)~


02
學(xué)習(xí)目標(biāo)

使用數(shù)據(jù)科學(xué)領(lǐng)域切zui主流語言python及其建模庫sklearn庫座位課程核心工具,基于真實(shí)數(shù)據(jù)集和項(xiàng)目案例,集 合python工具與機(jī)器學(xué)習(xí)算法完成整個(gè)案例實(shí)戰(zhàn)


03
課程內(nèi)容

第1章: 菜菜的機(jī)器學(xué)習(xí)sklearn課程介紹
第2章: 決策樹
2.1分類樹
2.2回歸樹
2.3回歸樹案例:用回歸樹擬合正弦曲線
2.4案例:泰坦尼克號生存者預(yù)測
第3章: 隨機(jī)森林
3.1集成算法概述
3.2隨機(jī)森林分類器 、回歸器
3.3案例:用隨機(jī)森林填補(bǔ)缺失值
3.4機(jī)器學(xué)習(xí)中調(diào)參的基本思想
3.5案例:隨機(jī)森林在乳腺癌數(shù)據(jù)上的調(diào)參
第4章: 數(shù)據(jù)預(yù)處理和特征工程
4.1數(shù)據(jù)預(yù)處理與特征工程
4.2數(shù)據(jù)預(yù)處理:無量綱化:數(shù)據(jù)歸一化、缺失值、處理分類型數(shù)據(jù)、處理連續(xù)型數(shù)據(jù)
4.3特征選擇過濾法:方差過濾 、卡方過濾、F檢驗(yàn)和互信息法、嵌入法、包裝法
第5章: 主成分分析PCA與奇異值分解SVD
5.1降維算法
5.2參數(shù)應(yīng)用案例:高維數(shù)據(jù)的可視化
5.3屬性應(yīng)用案例:人臉識別中的components_應(yīng)用
5.4接口應(yīng)用案例:用人臉識別看PCA降維后的信息保存量
5.5接口應(yīng)用案例:用PCA實(shí)現(xiàn)手寫數(shù)字的噪音過濾
5.6總結(jié):原理,流程,重要屬性接口和參數(shù)
5.7PCA實(shí)現(xiàn)784個(gè)特征的手寫數(shù)字的降維
第6章: 邏輯回歸與評分卡
6.1邏輯回歸
6.2sklearn當(dāng)中的邏輯回歸
6.3二元邏輯回歸的損失函數(shù)
6.4正則化:重要參數(shù)penalty & C
6.5邏輯回歸的特征工程
6.6重要參數(shù)max_iter - 梯度下降求解邏輯回歸的過程
6.7梯度的概念與解惑、步長的概念與解惑
6.8二元回歸與多元回歸:重要參數(shù)solver & multi_class
6.9樣本不均衡與參數(shù)class_weight
6.1評分卡案例 - 評分卡與完整的模型開發(fā)流程
6.11評分卡 - 數(shù)據(jù)預(yù)處理- 重復(fù)值與缺失值、異常值
第7章: 聚類算法KMeans
7.1無監(jiān)督學(xué)習(xí)概述,聚類vs分類
7.2sklearn當(dāng)中的聚類算法
7.3簇內(nèi)平方和,時(shí)間復(fù)雜度
7.4KMeans - 重要參數(shù)n_clusters
7.5聚類算法的模型評估指標(biāo)
7.6案例:輪廓系數(shù)找zui佳n_clusters
7.7案例:Kmeans做矢量量化
第8章: 支持量機(jī) (上)
8.1SVM
8.2線性SVC的損失函數(shù)
8.3函數(shù)間隔與幾何間隔
8.4拉格朗日對偶函數(shù)
8.5線性SVM可視化
8.6案例:如何選取zui佳核函數(shù)
8.7案例:在乳腺癌數(shù)據(jù)集上探索核函數(shù)的性質(zhì)
第9章: 支持向量機(jī) (下)
9.1簡單復(fù)習(xí)支持向量機(jī)的基本原理
9.2參數(shù)C的深入理解:多個(gè)支持向量存在的理由
9.3二分類SVC中的樣本不均衡問題:重要參數(shù)class_weight
9.4SVC的模型評估指標(biāo)
9.5混淆矩陣與準(zhǔn)確率
9.6**度Precision、召回率Recall與F1 measure
9.7對多數(shù)類樣本的關(guān)懷:特異度Specificity與假正率FPR
9.8sklearn中的混淆矩陣
9.9ROC曲線:Recall與假正率FPR的平衡
9.1案例:預(yù)測明天是否會(huì)下雨 - 案例背景
9.11案例:導(dǎo)庫導(dǎo)數(shù)據(jù),探索特征,jupyter中的快捷鍵
9.12案例:分集,優(yōu)先處理標(biāo)簽
9.13案例:描述性統(tǒng)計(jì),處理異常值
9.14案例:現(xiàn)實(shí)數(shù)據(jù)上的數(shù)據(jù)預(yù)處理
9.15案例:現(xiàn)實(shí)數(shù)據(jù)集上的數(shù)據(jù)預(yù)處理 - 處理連續(xù)型變量
9.16案例:建模與模型評估
9.17案例:模型調(diào)參:追求**度與recall的平衡
第10章: 回歸大家族:線性回歸,嶺回歸,Lasso與多項(xiàng)式回歸
10.1課時(shí) 182 : 線性回歸大家族
10.2多元線性回歸的基本原理和損失函數(shù)
10.3回歸類模型的評估指標(biāo)
10.4多重共線性:含義,數(shù)學(xué),以及解決方案
10.5嶺回歸處理多重共線性
10.6Lasso
10.7線性數(shù)據(jù)與非線性數(shù)據(jù)
10.8線性vs非線性模型
10.9離散化:幫助線性回歸解決非線性問題
10.1多項(xiàng)式回歸
第11章: 樸素貝葉斯
11.1概率論基礎(chǔ) - 貝葉斯理論等式
11.2瓢蟲冬眠:理解條件概率
11.3貝葉斯的性質(zhì)與zui大后驗(yàn)估計(jì)
11.4漢堡稱重:連續(xù)型變量的概率估計(jì)
11.5klearn中的樸素貝葉斯
11.6高斯樸素貝葉斯
11.7多項(xiàng)式樸素貝葉斯
11.8伯努利樸素貝葉斯
11.9補(bǔ)集樸素貝葉斯
11.1案例:貝葉斯做文本分類
第12章: XGBoost

  • 培訓(xùn)無憂網(wǎng)
免 費(fèi) 申 請 試 聽
提交申請,《培訓(xùn)無憂網(wǎng)》課程顧問老師會(huì)一對一幫助你規(guī)劃更適合你的專業(yè)課程!

留下你的信息,課程顧問一對一為你規(guī)劃更合適課程!
  • 姓名:

  • 手機(jī):

  • 地區(qū):

  • 想學(xué)什么: