您現(xiàn)在的位置:首頁(yè) > 背景提升 > 2024暑期iHUB·深圳:人工智能與深度學(xué)習(xí)專題:神經(jīng)網(wǎng)絡(luò)的雛形與優(yōu)化,及其在計(jì)算機(jī)視覺(jué)CV與自然語(yǔ)言處理NLP中的應(yīng)用研究【大學(xué)組】
驗(yàn)證碼

獲取驗(yàn)證碼

2024暑期iHUB·深圳:人工智能與深度學(xué)習(xí)專題:神經(jīng)網(wǎng)絡(luò)的雛形與優(yōu)化,及其在計(jì)算機(jī)視覺(jué)CV與自然語(yǔ)言處理NLP中的應(yīng)用研究【大學(xué)組】

專業(yè):人工智能

項(xiàng)目類型:海外導(dǎo)師線下項(xiàng)目

開(kāi)始時(shí)間:2024年07月20日

是否可加論文:是

項(xiàng)目周期:1周在線科研+14天面授科研+5周在線論文指導(dǎo)

語(yǔ)言:英文

有無(wú)剩余名額:名額充足

建議學(xué)生年級(jí):大學(xué)生

是否必需面試:否

適合專業(yè):計(jì)算機(jī)科學(xué)數(shù)據(jù)分析深度學(xué)習(xí)人工智能數(shù)據(jù)工程數(shù)據(jù)結(jié)構(gòu)與算法編程語(yǔ)言自然語(yǔ)言處理

地點(diǎn):深圳國(guó)際預(yù)科書(shū)院

建議選修:Python編程與數(shù)據(jù)處理

建議具備的基礎(chǔ):數(shù)據(jù)科學(xué)、數(shù)據(jù)處理、統(tǒng)計(jì)學(xué)、機(jī)器學(xué)習(xí)、深度學(xué)習(xí)等專業(yè)的學(xué)生; 學(xué)生需要具備線性代數(shù)及概率論與數(shù)理統(tǒng)計(jì)基礎(chǔ),修讀過(guò)算法與數(shù)據(jù)結(jié)構(gòu)并能熟練使用如隨機(jī)森林等經(jīng)典機(jī)器學(xué)習(xí)算法;

產(chǎn)出:1周在線科研+14天面授科研+5周在線論文指導(dǎo) 項(xiàng)目報(bào)告 優(yōu)秀學(xué)員獲主導(dǎo)師Reference Letter EI/CPCI/Scopus/ProQuest/Crossref/EBSCO或同等級(jí)別索引國(guó)際會(huì)議全文投遞與發(fā)表指導(dǎo)(可用于申請(qǐng)) 結(jié)業(yè)證書(shū) 成績(jī)單

項(xiàng)目背景:卷積神經(jīng)網(wǎng)絡(luò)CNN是一種多層的監(jiān)督學(xué)習(xí)神經(jīng)網(wǎng)絡(luò),隱含層的卷積層和池采樣層是實(shí)現(xiàn)卷積神經(jīng)網(wǎng)絡(luò)特征提取功能的核心模塊。該網(wǎng)絡(luò)模型通過(guò)采用梯度下降法最小化損失函數(shù)對(duì)網(wǎng)絡(luò)中的權(quán)重參數(shù)逐層反向調(diào)節(jié),通過(guò)頻繁的迭代訓(xùn)練提高網(wǎng)絡(luò)的精度。卷積神經(jīng)網(wǎng)絡(luò)的低隱層是由卷積層和最大池采樣層交替組成,高層是全連接層對(duì)應(yīng)傳統(tǒng)多層感知器的隱含層和邏輯回歸分類器。其本質(zhì)是一個(gè)多層感知機(jī),成功的原因在于其所采用的局部連接和權(quán)值共享的方式:一方面減少了權(quán)值的數(shù)量使得網(wǎng)絡(luò)易于優(yōu)化,另一方面降低了模型的復(fù)雜度,也就是減小了過(guò)擬合的風(fēng)險(xiǎn)。上述優(yōu)點(diǎn)使得該技術(shù)在計(jì)算機(jī)視覺(jué)、自然語(yǔ)言處理、推薦系統(tǒng)等人工智能領(lǐng)域受廣泛使用,項(xiàng)目也將圍繞著CNN這一前沿技術(shù)展開(kāi)。

項(xiàng)目介紹:項(xiàng)目將首先回顧包含分類與回歸的傳統(tǒng)機(jī)器學(xué)習(xí)算法及初步神經(jīng)網(wǎng)絡(luò),而后教授將會(huì)介紹用于優(yōu)化神經(jīng)網(wǎng)絡(luò)的數(shù)學(xué)原理及代碼技術(shù)。在確保學(xué)生具備扎實(shí)的理論及編程基礎(chǔ)后,項(xiàng)目將進(jìn)入到關(guān)于卷積神經(jīng)網(wǎng)絡(luò)原理、架構(gòu)、優(yōu)化及應(yīng)用的核心階段,學(xué)生將根據(jù)自身興趣選擇個(gè)性化研究課題進(jìn)行深入研究,在項(xiàng)目結(jié)束時(shí)提交項(xiàng)目報(bào)告,進(jìn)行成果展示。
In this course, you will be taken from basic topics of artificial neural networks to advanced topics such as convolutions. We will review important introductory concepts such as feedforward networks, gradient descent, etc, and then dive into convolutional neural networks.

個(gè)性化研究課題參考 Suggested Research Fields:
算法優(yōu)化:圖卷積神經(jīng)網(wǎng)絡(luò) Graph Neural Networks
計(jì)算機(jī)視覺(jué)應(yīng)用:DGD卷積神經(jīng)網(wǎng)絡(luò)行人重識(shí)別 Person re-identification on DGD convolutional neural networks
自然語(yǔ)言處理應(yīng)用:基于自聯(lián)想記憶與卷積神經(jīng)網(wǎng)絡(luò)的跨語(yǔ)言情感分類 Auto-associative convolutional neural network based multi-language sentiment classification
推薦系統(tǒng)應(yīng)用:基于標(biāo)簽卷積神經(jīng)網(wǎng)絡(luò)的推薦算法 Personalised recommender system with tagged convolutional neural network

項(xiàng)目大綱:經(jīng)典機(jī)器學(xué)習(xí)算法回顧及神經(jīng)網(wǎng)絡(luò)初步 Introduction to Neural Networks, Review of Classification and Regression, and Simple Feed-Forward (FF) Network Neural, Network Architecture, Design Choices 梯度下降算法 Gradient Descent Algorithm 基于反向傳播的自動(dòng)微分算法 Automatic Differentiation using Backpropagation 神經(jīng)網(wǎng)絡(luò)優(yōu)化技術(shù) Neural Network Optimizers 神經(jīng)網(wǎng)絡(luò)正則化在防過(guò)擬合中的應(yīng)用 Regularization for Neural Networks 卷積神經(jīng)網(wǎng)絡(luò)基本概念和體系結(jié)構(gòu) Convolutional Neural Networks: Basic Concepts, Padding, Pooling, and CNN Architecture. 感知野與通過(guò)池化層的反向傳播 Receptive Fields, Backprop through max-pooling 顯著圖與神經(jīng)網(wǎng)絡(luò)最新技術(shù)展望 Saliency Maps State Of The Art network 項(xiàng)目回顧與成果展示 Program Review and Final Presentation 論文輔導(dǎo)與投遞 Project Deliverables Tutoring

更多課程分類
驗(yàn)證碼

獲取驗(yàn)證碼