您現(xiàn)在的位置:首頁 > 背景提升 > 2024暑期iHUB·上海:數(shù)據(jù)科學專題 高速與安全并行: “拆解”大數(shù)據(jù)、提升故障彈性,分布式機器學習在海量大數(shù)據(jù)處理中的優(yōu)異表現(xiàn)原理研究【大學組】
驗證碼

獲取驗證碼

2024暑期iHUB·上海:數(shù)據(jù)科學專題 高速與安全并行: “拆解”大數(shù)據(jù)、提升故障彈性,分布式機器學習在海量大數(shù)據(jù)處理中的優(yōu)異表現(xiàn)原理研究【大學組】

專業(yè):人工智能

項目類型:海外導師線下項目

開始時間:2024年07月20日

是否可加論文:是

項目周期:1周在線科研+14天面授科研+5周在線論文指導

語言:英文

有無剩余名額:余5位

建議學生年級:大學生

是否必需面試:否

適合專業(yè):計算機科學電子與計算機科學金融工程數(shù)據(jù)科學

地點:上海圣華紫竹學院

建議選修:Python編程與數(shù)據(jù)處理

建議具備的基礎(chǔ):數(shù)據(jù)科學/大數(shù)據(jù)/電子信息工程/信息管理系統(tǒng)/數(shù)據(jù)庫等專業(yè)或?qū)ι鲜鰧I(yè)感興趣的學生; 學生需要具備微積分、線性代數(shù)、概率論與數(shù)理統(tǒng)計基礎(chǔ),并能夠熟練使用Python編程。

產(chǎn)出:1周在線科研+14天面授科研+5周在線論文指導 項目報告 優(yōu)秀學員獲主導師Reference Letter EI/CPCI/Scopus/ProQuest/Crossref/EBSCO或同等級別索引國際會議全文投遞與發(fā)表指導(可用于申請) 結(jié)業(yè)證書 成績單

項目背景:機器學習(ML)和人工智能(AI)具有廣泛的社會應(yīng)用價值。從運輸、能源、工業(yè)供應(yīng)鏈等有形基礎(chǔ)設(shè)施到醫(yī)療和金融等無形服務(wù),這些現(xiàn)代社會經(jīng)濟發(fā)展的方方面面離不開機器學習和人工智能技術(shù)。傳統(tǒng)的機器學習一般是在單機或者集群上集中處理數(shù)據(jù)、訓練模型。為了在大規(guī)模的網(wǎng)絡(luò)應(yīng)用場景中實現(xiàn)快速、高效的在線決策和訓練,去中心化機器學習,也就是分布式機器學習,逐漸受到學界更多關(guān)注。在通信和計算技術(shù)高速進步的今天,這一領(lǐng)域不斷取得矚目成果。在分布式機器學習這一領(lǐng)域中,聯(lián)合學習(Federated Learning,又名聯(lián)邦學習)成為了一個備受關(guān)注的焦點。聯(lián)合學習能產(chǎn)生更“聰明”的模型,延時更低,功耗更低,同時在用戶隱私保護及信息安全方面更加強大。在聯(lián)合學習中,多臺身處世界不同角落的設(shè)備可以協(xié)同學習一個共享的預測模型,并將所有的訓練數(shù)據(jù)獨立保存。這樣便實現(xiàn)了機器學習能力與數(shù)據(jù)“云存儲”需求的分離。由此,在移動設(shè)備上,我們不僅可以使用模型,還可以訓練模型,解決了以前只能通過云端下發(fā)訓練好的模型,而無法在本地進行訓練的問題。聯(lián)合學習已經(jīng)在廣泛的分布式機器學習中實現(xiàn)了應(yīng)用,包括醫(yī)療、金融服務(wù)和自動駕駛,并且是學術(shù)界和工業(yè)界持續(xù)研究和發(fā)展的主題。

項目介紹:課題面向?qū)τ嬎銠C、機器學習、人工智能領(lǐng)域感興趣的高中生和大學生,結(jié)合學生校內(nèi)所學知識量身打造,將以獨立且完整的形式介紹聯(lián)合學習的基本內(nèi)容。在本課題中,教授會從聯(lián)合學習的基礎(chǔ)領(lǐng)域開始講解,從監(jiān)督學習和訓練模型優(yōu)化切入,并逐漸從集中式機器學習向分布式機器學習進行過渡。課題將涵蓋聯(lián)合學習的基本架構(gòu)和算法,介紹對聯(lián)合學習算法進行設(shè)計分析時所需的主要工具,講解現(xiàn)有的計算框架,并結(jié)合自動駕駛等案例體現(xiàn)聯(lián)合學習的實戰(zhàn)應(yīng)用。針對未來有意從事人工智能、機器學習相關(guān)行業(yè)及科學研究的學生,本課題將提供必要準備和堅實基礎(chǔ)。The topic of decentralized machine learning and in particular federated learning is of immense practical and theoretical interest in the broad ML community. This course focuses on an overview of this emerging research area with a self-contained set of lectures focusing on key prerequisites such as supervised learning and optimization for model training. It introduces in a tutorial manner the transition to decentralized ML from centralized paradigms with illustrations and examples. The course is aimed at university students as well as high school students with an interest in computing and algorithms. Elementary matrix analysis and linear algebra are expected as prerequisites, however, the lectures will be self-contained to cater to a broad audience

項目大綱:監(jiān)督式機器學習和訓練方法簡介 Supervised Learning and Training: Introduction 機器學習優(yōu)化方法 Optimization for Training: Basics and Algorithms 分布式機器學習:架構(gòu)和系統(tǒng)闡述 Distributed ML: Architectures and Formulations 聯(lián)邦學習:基本算法 Federated Learning: Basic Algorithms 聯(lián)邦學習:高級分析和計算工具 Federated Learning: Advanced Analysis and Computational Tools 項目回顧與成果展示 Program Review and Presentation 論文輔導 Project Deliverables Tutoring

更多課程分類
驗證碼

獲取驗證碼