一篇文章了解“機器學習”和“深度學習”

1 評論 621 瀏覽 3 收藏 6 分鐘

這是一份寫給非技術崗的產品經理/運營的機器學習和深度學習的簡單指南,幫助我們可以聽到技術人員的話~

在“大熱的AIGC究竟是什么”的文章中,我們聊到了人工智能以及生成式人工智能。這篇文章我們想繼續(xù)聊下兩個經常會和“人工智能”一起被提到的概念,那就是機器學習(Machine Learning)和深度學習(Deep Learning)。

一、什么是機器學習(Machine Learning)

機器學習(ML)是人工智能的一個研究領域,主要涉及開發(fā)和研究統(tǒng)計算法,這些算法可以從數(shù)據(jù)中學習,并泛化到未見過的數(shù)據(jù),從而在沒有明確指令的情況下執(zhí)行任務。

請記一下關鍵字:學習。

機器學習到底在學什么呢?

我們在之前的文章中也有提到,機器學習的本質就是要讓機器找一個函數(shù)。我們讀書的時候都學過,y=f(x)=ax+b,其中a和b就是參數(shù)(Parameter),也就是我們要找出來的未知數(shù)。當我們找到這兩個未知數(shù)之后,我們再輸入x,自然而然就能得到y(tǒng)。是不是勾起了你讀書時的回憶了?

機器學習其實就在學習怎么自動把這些參數(shù)找出來,但是通常它的函數(shù)非常復雜,所以要找的參數(shù)量也非常大,可能是上萬個參數(shù),可能是數(shù)十萬個參數(shù),甚至可能更多。

那機器如何學習呢?

舉個例子:

還是用我經常用的例子,我要做一個應用,當輸入一個圖片,這個應用可以分辨出圖片里的是柯南還是新一。那我就要找一個函數(shù),這個函數(shù)輸入是一張圖片,輸出要么是柯南,要么是新一。這個函數(shù)顯然會非常復雜,復雜到有大量的參數(shù)。假設有上萬個參數(shù)。

我們會告訴機器,輸入第一張圖,輸出是柯南,輸入第二張圖,輸出是新一……

有了這些輸入輸出,機器就可以把上萬個參數(shù)找出來,學習把上萬個參數(shù)找出來的過程,也叫做訓練(Training)。而幫助你把這上萬個參數(shù)找出來的輸入輸出,叫做訓練資料。

但當機器找到這上萬個參數(shù)后,也就意味著我們找到了這個函數(shù)。當我再輸入一張新的圖片,看看機器能不能回答對,這叫做測試(Testing)。當嘗試輸入如下圖片,機器會給出“新一”的輸出。正解!

這就是概念中所說的“泛化到未見過的數(shù)據(jù),從而在沒有明確指令的情況下執(zhí)行任務”。因為可能機器以前也沒有見過這張圖片。

所以,如果說人工智能是一個目標,因為每個人對于機器做到什么程度才算是“智能”可能都會有自己的理解,那機器學習就是實現(xiàn)這個目標的手段。

二、什么是深度學習(Deep Learning)

深度學習是機器學習的一個分支,主要利用神經網絡執(zhí)行分類、回歸和表征學習等任務。該領域的靈感來源于生物神經科學,其核心是將人工神經元堆疊成層,并 “訓練 ”它們處理數(shù)據(jù)。形容詞 “深度 ”指的是在網絡中使用多層(從三層到數(shù)百或數(shù)千層不等)。

關鍵詞:神經網絡(Neural Network)

在今天機器學習的領域,有大量參數(shù)的函數(shù)往往會被表示成一個神經網絡,而把這些參數(shù)解出來的技術,就叫做深度學習(Deep Learning)。也就是如果你用神經網絡來表示,你就是在做深度學習。

所以,如果說機器學習是實現(xiàn)人工智能目標的手段,那深度學習是機器學習的一種,是一種更厲害的手段。

而現(xiàn)在絕大多數(shù)生成式人工智能都是用深度學習來達成的。

舉個例子,大家最耳熟能詳?shù)腃hatGPT。

如果我們把ChatGPT想象成一個函數(shù),它的輸入是一段文字,輸出是ChatGPT給你的回復。如果要達到你問什么都可以得到不錯的回復,那背后的參數(shù)非常之巨大。我們需要準備非常非常多的輸入和輸出,才能找出這個函數(shù)里巨大量的參數(shù)。這個有大量參數(shù)的函數(shù)表示成一個神經網絡,在這個場景下會有一個專門的名字,叫Transformer,感興趣的小伙伴可以自己去學習相關的內容~

本文由 @AI 實踐干貨 原創(chuàng)發(fā)布于人人都是產品經理。未經作者許可,禁止轉載

題圖來自 Unsplash,基于CC0協(xié)議

該文觀點僅代表作者本人,人人都是產品經理平臺僅提供信息存儲空間服務

更多精彩內容,請關注人人都是產品經理微信公眾號或下載App
評論
評論請登錄
  1. 機器學習就是瞬時記憶,會隨著時間的流逝消失的,但深度學習不會,無論什么時候都會想起。

    來自廣東 回復