培訓(xùn):CDA數(shù)據(jù)分析、Python數(shù)據(jù)分析、AI 人工智能、金融數(shù)據(jù)分析
北京國富AI工程師培訓(xùn)班,主要是幫助學(xué)員熟悉AI工具,包括TensorFlow、Keras、Caffe、PyTorch、熟悉CNN、RNN、Faster RCNN等深度神經(jīng)網(wǎng)絡(luò)模型,并掌握其相關(guān)的優(yōu)化算法等,更多詳情請往下看。
大學(xué)生、在職提升、轉(zhuǎn)行或待業(yè)人員
面授/網(wǎng)課、周一到周五8-17點開課
朝九晚九全程跟班答疑、一對一督學(xué)、定期直播串講、五分鐘內(nèi)有問必答、出勤率和進度監(jiān)督、作業(yè)與測試
熟悉AI工具,包括TensorFlow、Keras、Caffe、PyTorch
熟悉深度學(xué)習(xí)應(yīng)用
熟悉CNN、RNN、Faster RCNN等深度神經(jīng)網(wǎng)絡(luò)模型,并掌握其相關(guān)的優(yōu)化算法
了解深度學(xué)習(xí)高級算法,包括卷積神經(jīng)網(wǎng)絡(luò)、循環(huán)神經(jīng)網(wǎng)絡(luò)等
掌握優(yōu)化算法和高性能計算方法
掌握NLP自然語言處理一線行業(yè)案例
掌握計算機視覺圖像識別一線行業(yè)案例
授課章節(jié) | 授課內(nèi)容 |
---|---|
"01章預(yù)備知識:圖像識別方法的演進基礎(chǔ) | 01-01開發(fā)環(huán)境配置:Anaconda環(huán)境和MXNet 01-02深度學(xué)習(xí)簡介:起源、特點和發(fā)展 01-03計算機視覺概述 01-04數(shù)據(jù)操作 01-05自動求梯度 01-06圖像識別的演進 01-07線性回歸與線性回歸的實現(xiàn) 01-08線性模型:對數(shù)線性二分類、多分類 01-09獨熱和稠密度向量表示 01-10softmax回歸與實現(xiàn) 01-10基于深度學(xué)習(xí)的圖像識別技術(shù)發(fā)展 |
02章深度學(xué)習(xí)基礎(chǔ)知識 | 01-01線性模型的局限性:異或問題 01-02非線性輸入轉(zhuǎn)換、核方法、可訓(xùn)練的映射函數(shù) 01-03感知機和多層感知機的實現(xiàn) 01-04模型選擇、欠擬合過擬合問題 01-05權(quán)重衰減和丟棄法 01-06實戰(zhàn)案例:房價預(yù)測模型 01-07神經(jīng)網(wǎng)絡(luò)基礎(chǔ) 01-08前饋神經(jīng)網(wǎng)絡(luò)、BP神經(jīng)網(wǎng)絡(luò) 01-09神經(jīng)網(wǎng)絡(luò)的訓(xùn)練 01-10深度學(xué)習(xí)計算 |
03章卷積神經(jīng)網(wǎng)絡(luò)與深度學(xué)習(xí) | 01-01二維卷積層相關(guān)運算 01-02填充和步幅 01-03多輸入通道和多輸出通道 01-04二維最大池化層和平均池化層 01-05卷積神經(jīng)網(wǎng)絡(luò)LeNet模型 01-06深度卷積神經(jīng)網(wǎng)絡(luò)AlexNet 01-07使用重復(fù)數(shù)據(jù)的網(wǎng)絡(luò) 01-08網(wǎng)絡(luò)中的網(wǎng)絡(luò):NIN塊和NIN模型 01-09合并行連接的網(wǎng)絡(luò) 01-10批量歸一化 01-11殘差網(wǎng)絡(luò)ResNet模型 01-12稠密度連接網(wǎng)絡(luò)DeseNet模型 |
04章循環(huán)神經(jīng)網(wǎng)絡(luò)與深度學(xué)習(xí) | 01-01語言模型計算 01-02循環(huán)神經(jīng)網(wǎng)絡(luò) 01-03模型語言數(shù)據(jù)集 01-04循環(huán)神經(jīng)網(wǎng)絡(luò)從零開始實現(xiàn) 01-05循環(huán)神經(jīng)網(wǎng)絡(luò)的簡介實現(xiàn) 01-06通過時間反向傳播 01-07門控循環(huán)單元 01-08長短期記憶 01-09深度循環(huán)神經(jīng)網(wǎng)絡(luò) 01-10雙向循環(huán)神經(jīng)網(wǎng)絡(luò) |
05章優(yōu)化算法與深度學(xué)習(xí) | 01-01優(yōu)化與深度學(xué)習(xí)的關(guān)系 01-02梯度下降和隨機梯度下降 01-03小批量隨機梯度下降 01-04動量法與實現(xiàn) 01-05AdaGrad算法特點與實現(xiàn) 01-06RMSProp算法 01-07AdaDelta算法 01-08Adma算法 |
06章計算機技術(shù)與高性能計算 | 01-01衡量性能的方法 01-02提高性能性能的各種編程方法 01-03命令式和混合編程 01-04異步計算 01-05自動并行運算 01-06多GPU運算 |
07章AI應(yīng)用方向之計算機視覺 | 01-01使用圖像增廣訓(xùn)練模型 01-02微調(diào):熱狗識別 01-03目標檢測和邊界框 01-04計算機視覺:錨框生成 01-05多尺度目標檢測 01-06目標檢測數(shù)據(jù)集:皮卡丘 01-07單發(fā)多框檢測:SSD 01-08卷積神經(jīng)網(wǎng)絡(luò)系列:R-CNN 01-09語意分割和數(shù)據(jù)集 01-10全卷積網(wǎng)絡(luò) 01-11樣式遷移 |
08章計算機視覺案例:Kaggle圖像識別 | 01-01案例1:圖像分類 01-02案例2:狗的品種 01-03step1:獲取和整理數(shù)據(jù)集 01-04step2:圖像增廣 01-05step3:讀取數(shù)據(jù)集 01-06step4:定義模型 01-07step5:定義訓(xùn)練函數(shù) 01-08step6:訓(xùn)練模型 |
09章AI應(yīng)用方向之NLP自然語言處理 | 01-01詞嵌入和連續(xù)詞袋模型 01-02近似訓(xùn)練:負采樣、層序softmax 01-03word2vec的實現(xiàn) 01-04子詞潛入:fastText 01-05全局向量的詞潛入:GloVe 01-06求近義詞和類比詞 01-07文本情感分類:使用循環(huán)神經(jīng)網(wǎng)絡(luò) 01-08文本情感分類:使用卷積神經(jīng)網(wǎng)絡(luò)(textCNN) 01-09編碼器、解碼器 01-10貪婪搜索、全局搜索、束搜索 01-11注意力機制 |
10章NLP自然語言處理案例 | 01-01案例1:機器人翻譯 01-02step1:讀取和與處理數(shù)據(jù)集 01-03step2:含注意力機制的編碼器-解碼器 01-04step3:訓(xùn)練模型 01-05step4:預(yù)測不定長的序列 01-06step5:評價翻譯結(jié)果 01-07唐詩生成器 01-08step1:定義輸入數(shù)據(jù) 01-09step2:定義多層LESTM模型 01-10step3:定義損失函數(shù) 01-11step4:訓(xùn)練模型生成文字 01-12step5:更多參數(shù)說明 01-13step6:運行自己的數(shù)據(jù)" |
北京國富如荷教育是一家專業(yè)的數(shù)據(jù)分析師培訓(xùn)機構(gòu),是面向中高端用戶的、培養(yǎng)DT時代前沿技術(shù)人才的、國際化的職業(yè)教育領(lǐng)導(dǎo)品牌,目前,CDA已與國內(nèi)100多所高校進行了戰(zhàn)略合作,建立了CDA數(shù)據(jù)分析師考試中心及人才培養(yǎng)機構(gòu)。
已在全國70+城市舉辦15屆CDA數(shù)據(jù)分析師認證考試,報考考生數(shù)萬人;已開展了四屆中國數(shù)據(jù)分析師行業(yè)峰會(CDA SUMMIT),每屆參會人數(shù)3000多人;中國數(shù)據(jù)分析師俱樂部(CDA CLUB)每周舉辦各類型線上線下沙龍會議、公開課等活動共1000多期。?