国精品无码人妻一区二区三区,国产精品手机免费,国内精品久久久久久99,国产无遮挡18禁网站免费,国产精品熟女高潮视频

首頁 > 產經 > 正文

觀察|深度學習為何強大?適當?shù)纳窠浘W絡架構+大數(shù)據(jù)

2022-04-04 21:30:39 來源:澎湃新聞

據(jù)Emergen Research分析稱,到2028年,全球深度學習市場規(guī)模預計將以39.1%的穩(wěn)定復合年增長率達到933.4億美元,推動其市場收入的關鍵因素是采用基于云的技術和在大數(shù)據(jù)分析中使用深度學習系統(tǒng)

。

那么,究竟什么是深度學習?它如何工作?

據(jù)《VentureBeat》在近日《這就是深度學習如此強大的原因》一文中總結道:深度學習是機器學習的一個子集,它使用神經網絡來執(zhí)行學習和預測

。

深度學習在各種任務中都表現(xiàn)出了驚人的表現(xiàn),無論是文本、時間序列還是計算機視覺

。

深度學習的成功主要來自大數(shù)據(jù)的可用性和計算能力,這使得深度學習的表現(xiàn)遠遠優(yōu)于任何經典的機器學習算法

。

深度學習的本質:神經網絡和函數(shù)

有網友曾笑言,“當你想要擬合任何函數(shù)或者任何分布,而又沒有思路時,試試神經網絡吧!”

先上兩個重要結論:

神經網絡是一個相互連接的神經元網絡,每個神經元都是一個有限函數(shù)逼近器

。

這樣,神經網絡被視為通用函數(shù)逼近器

深度學習是具有許多隱藏層(通常大于2個隱藏層)的神經網絡

。

深度學習是從層到層的函數(shù)的復雜組合,從而找到定義從輸入到輸出的映射的函數(shù)

。

在高中數(shù)學我們會學到,函數(shù)就是從輸入空間到輸出空間的映射

。

一個簡單的sin(x)函數(shù)是從角空間(-180°到180°或0°到360°)映射到實數(shù)空間(-1到1)

。

函數(shù)逼近問題是函數(shù)論的重要組成部分,涉及的基本問題是函數(shù)的近似表示問題

那么,為什么神經網絡被認為是通用函數(shù)逼近器呢?

每個神經元學習一個有限的函數(shù):f(.)=g(W*X)其中W是要學習的權重向量,X是輸入向量,g(.)是非線性變換

。

W*X可以可視化為高維空間(超平面)中的一條線,而g(.)可以是任何非線性可微函數(shù)

,如sigmoid、tanh、ReLU等(常用于深度學習領域)

在神經網絡中學習無非就是找到最佳權重向量W

。

例如,在y=mx+c中,我們有2個權重:m和c

。

現(xiàn)在,根據(jù)二維平面空間中點的分布,我們找到滿足某些標準的m及c的最佳值,那么對于所有數(shù)據(jù)點,預測y和實際點之間的差異最小

神經網絡“層”效果:學習具體到類別概括的映射

如果輸入是獅子的圖像,輸出是屬于獅子類的圖像分類,那么深度學習就是學習將圖像向量映射到類的函數(shù)

類似地,輸入是單詞序列,輸出是輸入句子是否具有正面/中性/負面情緒

。

因此,深度學習是學習從輸入文本到輸出類的映射:中性或正面或負面

。

如何實現(xiàn)上述任務呢?

每個神經元都是一個非線性函數(shù),我們將幾個這樣的神經元堆疊在一個“層”中,每個神經元接收相同的一組輸入但學習不同的權重W

。

因此,每一層都有一組學習函數(shù):f1,f2,…,fn,稱為隱藏層值

這些值再次組合,在下一層:h(f1,f2,...,fn)等等

。

這樣,每一層都由前一層的函數(shù)組成(類似于h(f(g(x))))

。

已經表明,通過這種組合,我們可以學習任何非線性復函數(shù)

。

深度學習是具有許多隱藏層(通常大于2個隱藏層)的神經網絡

深度學習是從層到層的函數(shù)的復雜組合,從而找到定義從輸入到輸出的映射的函數(shù)

。

深度學習作為曲線擬合的插值:過度擬合挑戰(zhàn)與泛化目標深度學習先驅Yann LeCun(卷積神經網絡的創(chuàng)造者和圖靈獎獲得者)曾在推特上發(fā)帖稱,“深度學習并沒有你想象的那么令人驚嘆,因為它僅僅是美化曲線擬合的插值

。

但是在高維中,沒有插值之類的東西

。

在高維空間,一切都是外推

。

”。

" src="https://imagecloud.thepaper.cn/thepaper/image/187/943/995.png" onerror="imgerrorfun();">

插值(interpolation)是離散函數(shù)逼近的重要方法,利用它可通過函數(shù)在有限個點處的取值狀況,估算出函數(shù)在其他點處的近似值

。

從生物學的解釋來看,人類通過逐層解釋圖像來處理世界的圖像,從邊緣和輪廓等低級特征,到對象和場景等高級特征

。

神經網絡中的函數(shù)組合與此一致,其中每個函數(shù)組合都在學習關于圖像的復雜特征

用于圖像最常見的神經網絡架構是CNN(Convolutional Neural Networks,卷積神經網絡),它以分層方式學習這些特征,然后一個完全連接的神經網絡將圖像特征分類為不同的類別

。

比如,給定一組平面上的數(shù)據(jù)點,我們嘗試通過插值擬合曲線,該曲線在某種程度上代表了定義這些數(shù)據(jù)點的函數(shù)

。

我們擬合的函數(shù)越復雜(例如在插值中,通過多項式次數(shù)確定),它就越適合數(shù)據(jù);但是,它對新數(shù)據(jù)點的泛化程度越低

。

這就是深度學習面臨挑戰(zhàn)的地方,也就是通常所說的過度擬合問題:盡可能地擬合數(shù)據(jù),但在泛化方面有所妥協(xié)

。

幾乎所有深度學習架構都必須處理這個重要因素,才能學習在看不見的數(shù)據(jù)上表現(xiàn)同樣出色的通用功能

。

深度學習如何學習?問題決定了神經網絡架構

那么,我們如何學習這個復雜的函數(shù)呢?

這完全取決于手頭的問題,其決定了神經網絡架構

如果我們對圖像分類感興趣,那么我們使用CNN

。

如果我們對時間相關的預測或文本感興趣,那么我們使用RNN(Recurrent Neural Network,循環(huán)神經網絡) 或Transformer,如果我們有動態(tài)環(huán)境(如汽車駕駛),那么我們使用強化學習

。

除此之外,學習還涉及處理不同的挑戰(zhàn):

·通過使用正則化(regularization,用來防止訓練的模型產生過擬合與欠擬合現(xiàn)象)處理確保模型學習通用函數(shù),而不僅僅適合訓練數(shù)據(jù)

。

·根據(jù)手頭的問題,選擇損失函數(shù)

。

粗略地說,損失函數(shù)是我們想要的(真實值)和我們當前擁有的(當前預測)之間的誤差函數(shù)

。

·梯度下降是用于收斂到最優(yōu)函數(shù)的算法

。

決定學習率變得具有挑戰(zhàn)性,因為當我們遠離最優(yōu)時,我們想要更快地走向最優(yōu),而當我們接近最優(yōu)時,我們想要慢一些,以確保我們收斂到最優(yōu)和全局最小值

。

·大量隱藏層需要處理梯度消失問題

。

跳過連接和適當?shù)姆蔷€性激活函數(shù)等架構變化,有助于解決這個問題

基于神經架構與大數(shù)據(jù):深度學習帶來計算挑戰(zhàn)

現(xiàn)在我們知道深度學習只是一個學習復雜的函數(shù),它帶來了其他計算挑戰(zhàn):

要學習一個復雜的函數(shù),我們需要大量的數(shù)據(jù);為了處理大數(shù)據(jù),我們需要快速的計算環(huán)境;因此,我們需要一個支持這種環(huán)境的基礎設施

使用CPU進行并行處理不足以計算數(shù)百萬或數(shù)十億的權重(也稱為DL的參數(shù))

。

神經網絡需要學習需要向量(或張量)乘法的權重

這就是GPU派上用場的地方,因為它們可以非??焖俚剡M行并行向量乘法

。

根據(jù)深度學習架構、數(shù)據(jù)大小和手頭的任務,我們有時需要1個GPU,有時,數(shù)據(jù)科學家需要根據(jù)已知文獻或通過測量1個GPU的性能來做出決策

。

通過使用適當?shù)纳窠浘W絡架構(層數(shù)、神經元數(shù)量、非線性函數(shù)等)以及足夠大的數(shù)據(jù),深度學習網絡可以學習從一個向量空間到另一個向量空間的任何映射

這就是讓深度學習成為任何機器學習任務的強大工具的原因

。

關鍵詞: 神經網絡

本網站由 財經產業(yè)網 版權所有 粵ICP備18023326號-29
聯(lián)系我們:85 572 98@qq.com