您現(xiàn)在的位置:首頁 - 背景提升 - 科研項(xiàng)目

人工智能與深度學(xué)習(xí)科研項(xiàng)目:卷積神經(jīng)網(wǎng)絡(luò)算法及其在NLP等人工智能領(lǐng)域的應(yīng)用研究【大學(xué)組】

2022-12-20 14:06:52 來源:中國教育在線

導(dǎo)師學(xué)校介紹

哈佛大學(xué)(Harvard University)始建于1636年,是一所享譽(yù)世界的私立研究型大學(xué),也是常春藤盟校成員。哈佛大學(xué)在學(xué)術(shù)界享有崇高的地位,并且在世界范圍內(nèi)具有廣泛的社會(huì)影響力。哈佛大學(xué)孕育了8位美國總統(tǒng),158位諾貝爾獎(jiǎng)獲得者(世界第一)和18位菲爾茲獎(jiǎng)得主(世界第一),在2019/2020年U.S.News世界大學(xué)排名中位列第一,2018年QS世界大學(xué)計(jì)算機(jī)科學(xué)以及電子工程專業(yè)排名位列第六。

導(dǎo)師詳細(xì)介紹

導(dǎo)師昵稱

Pavlos

導(dǎo)師級(jí)別

項(xiàng)目主任

導(dǎo)師學(xué)校

哈佛大學(xué)Harvard University

Pavlos導(dǎo)師現(xiàn)任哈佛大學(xué)應(yīng)用計(jì)算科學(xué)研究所(IACS)項(xiàng)目主任,負(fù)責(zé)把控計(jì)算機(jī)科學(xué)、工程與數(shù)據(jù)科學(xué)專業(yè)的研究生培養(yǎng)方案與課程體系,教授數(shù)據(jù)科學(xué)核心課程。曾擔(dān)任國家可擴(kuò)展集群項(xiàng)目(NSCP)的副主任,這是在網(wǎng)格模型上進(jìn)行大規(guī)模分布式計(jì)算的最初嘗試之一。同時(shí),在哈佛-史密松天體物理中心擔(dān)任過研究員,并擔(dān)任由哈佛大學(xué)創(chuàng)新計(jì)算項(xiàng)目啟動(dòng)的“時(shí)間序列中心”的子項(xiàng)目的高級(jí)科學(xué)家、項(xiàng)目負(fù)責(zé)人。

適合人群

方向:理工

專業(yè):人工智能

適合專業(yè):計(jì)算機(jī)科學(xué),數(shù)據(jù)科學(xué),數(shù)據(jù)分析,深度學(xué)習(xí),人工智能,數(shù)據(jù)工程,數(shù)據(jù)結(jié)構(gòu)與算法,編程語言

項(xiàng)目?jī)r(jià)格:33800/19800

項(xiàng)目周期:9周在線小組科研學(xué)習(xí)+5周論文指導(dǎo)

是否建議高中生學(xué)習(xí):否

是否建議大學(xué)生學(xué)習(xí):是

語言:英文

難度:中級(jí)/高級(jí)難度

建議具備的基礎(chǔ):數(shù)據(jù)科學(xué)、數(shù)據(jù)處理、統(tǒng)計(jì)學(xué)、機(jī)器學(xué)習(xí)、深度學(xué)習(xí)等專業(yè)的學(xué)生;學(xué)生需要具備線性代數(shù)及概率論與數(shù)理統(tǒng)計(jì)基礎(chǔ),修讀過算法與數(shù)據(jù)結(jié)構(gòu)并能熟練使用如隨機(jī)森林等經(jīng)典機(jī)器學(xué)習(xí)算法

科研項(xiàng)目產(chǎn)出

9周在線小組科研學(xué)習(xí)+5周論文指導(dǎo)學(xué)習(xí)共125課時(shí)+不限時(shí)論文指導(dǎo)

學(xué)術(shù)報(bào)告

優(yōu)秀學(xué)員獲主導(dǎo)師Reference Letter

EI/CPCI/Scopus/ProQuest/Crossref/EBSCO或同等級(jí)別索引國際會(huì)議全文投遞與發(fā)表指導(dǎo)(可用于申請(qǐng))

結(jié)業(yè)證書

成績(jī)單

項(xiàng)目介紹

項(xiàng)目將首先回顧包含分類與回歸的傳統(tǒng)機(jī)器學(xué)習(xí)算法及初步神經(jīng)網(wǎng)絡(luò),而后教授將會(huì)介紹用于優(yōu)化神經(jīng)網(wǎng)絡(luò)的數(shù)學(xué)原理及代碼技術(shù)。在確保學(xué)生具備扎實(shí)的理論及編程基礎(chǔ)后,項(xiàng)目將進(jìn)入到關(guān)于卷積神經(jīng)網(wǎng)絡(luò)原理、架構(gòu)、優(yōu)化及應(yīng)用的核心階段,學(xué)生將根據(jù)自身興趣選擇個(gè)性化研究課題進(jìn)行深入研究,在項(xiàng)目結(jié)束時(shí)提交項(xiàng)目報(bào)告,進(jìn)行成果展示。

In this course,you will be taken from basic topics of artificial neural networks to advanced topics such as convolutions.We will review important introductory concepts such as feedforward networks,gradient descent etc and then dive into convolutional neural networks.

個(gè)性化研究課題參考Suggested Research Fields:

算法優(yōu)化:圖卷積神經(jīng)網(wǎng)絡(luò)Graph Neural Networks

計(jì)算機(jī)視覺應(yīng)用:DGD卷積神經(jīng)網(wǎng)絡(luò)行人重識(shí)別Person re-identification on DGD convolutional neural networks

自然語言處理應(yīng)用:基于自聯(lián)想記憶與卷積神經(jīng)網(wǎng)絡(luò)的跨語言情感分類Auto-associative convolutional neural network based multi-language sentiment classification

推薦系統(tǒng)應(yīng)用:基于標(biāo)簽卷積神經(jīng)網(wǎng)絡(luò)的推薦算法Personalised recommender system with tagged convolutional neural network

項(xiàng)目背景

卷積神經(jīng)網(wǎng)絡(luò)CNN是一種多層的監(jiān)督學(xué)習(xí)神經(jīng)網(wǎng)絡(luò),隱含層的卷積層和池采樣層是實(shí)現(xiàn)卷積神經(jīng)網(wǎng)絡(luò)特征提取功能的核心模塊。該網(wǎng)絡(luò)模型通過采用梯度下降法最小化損失函數(shù)對(duì)網(wǎng)絡(luò)中的權(quán)重參數(shù)逐層反向調(diào)節(jié),通過頻繁的迭代訓(xùn)練提高網(wǎng)絡(luò)的精度。卷積神經(jīng)網(wǎng)絡(luò)的低隱層是由卷積層和最大池采樣層交替組成,高層是全連接層對(duì)應(yīng)傳統(tǒng)多層感知器的隱含層和邏輯回歸分類器。其本質(zhì)是一個(gè)多層感知機(jī),成功的原因在于其所采用的局部連接和權(quán)值共享的方式:一方面減少了權(quán)值的數(shù)量使得網(wǎng)絡(luò)易于優(yōu)化,另一方面降低了模型的復(fù)雜度,也就是減小了過擬合的風(fēng)險(xiǎn)。上述優(yōu)點(diǎn)使得該技術(shù)在計(jì)算機(jī)視覺、自然語言處理、推薦系統(tǒng)等人工智能領(lǐng)域受廣泛使用,項(xiàng)目也將圍繞著CNN這一前沿技術(shù)展開。

項(xiàng)目大綱介紹

經(jīng)典機(jī)器學(xué)習(xí)算法回顧及神經(jīng)網(wǎng)絡(luò)初步

Introduction to Neural Networks,Review of Classification and Regression,and Simple Feed-Forward(FF)Network Neural,Network Architecture,Design Choices

梯度下降算法 Gradient Descent Algorithm

基于反向傳播的自動(dòng)微分算法 Automatic Differentiation using Backpropagation

神經(jīng)網(wǎng)絡(luò)優(yōu)化技術(shù) Neural Network Optimizers

神經(jīng)網(wǎng)絡(luò)正則化在防過擬合中的應(yīng)用 Regularization for Neural Networks

卷積神經(jīng)網(wǎng)絡(luò)基本概念和體系結(jié)構(gòu) 

Convolutional Neural Networks:Basic Concepts,Padding,Pooling,and CNN Architecture.

感知野與通過池化層的反向傳播 Receptive Fields,Backprop through max-pooling

顯著圖與神經(jīng)網(wǎng)絡(luò)最新技術(shù)展望 Saliency Maps State Of The Art network

項(xiàng)目回顧與成果展示 Program Review and Final Presentation

論文輔導(dǎo)與投遞 Project Deliverables Tutoring

>>沒有教授推薦信,缺少科研經(jīng)驗(yàn)?點(diǎn)擊這里提升背景<<

- 聲明 -

(一)由于考試政策等各方面情況的不斷調(diào)整與變化,本網(wǎng)站所提供的考試信息僅供參考,請(qǐng)以權(quán)威部門公布的正式信息為準(zhǔn)。

(二)本網(wǎng)站在文章內(nèi)容出處標(biāo)注為其他平臺(tái)的稿件均為轉(zhuǎn)載稿,轉(zhuǎn)載出于非商業(yè)性學(xué)習(xí)目的,歸原作者所有。如您對(duì)內(nèi)容、版 權(quán)等問題存在異議請(qǐng)與本站,會(huì)及時(shí)進(jìn)行處理解決。

語言考試咨詢
HOT
留學(xué)費(fèi)用測(cè)算
免費(fèi)留學(xué)規(guī)劃
1
免費(fèi)在線咨詢
免費(fèi)獲取留學(xué)方案