2023年5月18日 星期四

AI 入門:8.構成 AI、ML 與 DL 的基本元素(人工智慧 28 堂基礎課程)

資料是人工智慧(AI)、機器學習(ML)和深度學習(DL)的基石。在這些領域中,線性代數 (Linear Algebra)、機率 (Probability) 和微積分 (Calculus) 則扮演著重要的角色,它們是這些領域的共同語言。在線性代數中,向量 (Vector) 與矩陣 (Matrix) 是最受關注的兩個數學實體,因為它們是現代機器學習與深度學習中的基本元素“張量 (Tensor)”的簡化版本。

.
要瞭解什麼是向量 (Vector),我們必須先明白什麼是純量 (Scalar)。在數學中,純量 (Scalar) 是指用來定義向量空間域的一個元素,通常被稱為不具方向性的物理量,例如:質量、溫度、時間、壓力和速率等。向量 (Vector) 則是由二個以上的純量所組成,既有大小又具有方向性的物理量。例如:力、位移、速度、加速度等。在線性代數中,向量空間中的元素(如實數)被稱為「純量」,透過純量乘法與向量空間中的向量相關聯。這樣,一個空間中的向量,可透過乘法來得到位於相同向量空間的另一個向量。

向量 (Vector) 屬於向量空間 (Vector Spaces) 的成員,它可以被認定為特定維度的所有可能向量的集合。在 ML 和 DL 中,向量空間通常被稱為特徵向量,用於在數學上代表一個物體的數值或符號特徵(也就是所謂的 Features)。許多人可能熟悉的特徵向量例子是代表色彩組成的 RGB(紅-綠-藍)調色板。這個特徵向量可以依據它們所包含的紅、綠、藍的數量來描述不同的顏色。特徵向量在 ML 和 DL 中被廣泛使用,因為它們提供了一種有效且實用,以數值表示資料物件的方法。

矩陣 (Matrix) 是由一組被稱為元素 (Elements) 或元 (Entries) 的數字所組成,按照行或列排列的一個陣列 (Array),也稱為複數矩陣 (Plural Matrices)。在數學中,我們可以對矩陣進行基本的運算,例如對相同行列大小的矩陣進行加減法運算、將一個矩陣與另一個矩陣相乘(前提是矩陣大小相容),以及將整個矩陣同乘上一個常數等等。此外,矩陣還可以用來表達與處理多個線性方程式,並且由於矩陣允許單一行或一列的存在,因此像向量這樣的物理量也可以算是一個矩陣,同樣適用數學上對矩陣運算的規則。下圖為一個利用矩陣表達兩個線性方程式的例子:
在數學領域中,張量 (Tensor) 是一種代數物件 (Algebraic Object),用於描述向量空間的代數物件集合之間的多線性關係。張量對應的代數物件可以包括向量 (Vector)、純量 (Scalar) 和其他張量 (Tensor) 等,簡單來說,張量是一個可以容納多維資料的容器,它們具備一個順序 (Order) 或排名 (Rank),這個順序或排名決定了表示張量所需的矩陣維度數量(Rank 的正式名稱為矩陣秩,代表最大的線性獨立行或列向量集合所包含的向量數)。具體來說,純量可視為是一個零維(0-D)的張量,其秩為 0;向量是一個一維(1-D)的張量,其秩為 1;矩陣是一個二維(2-D)的張量,其秩為 2。一般來說,為了避免混淆,“張量 (Tensor)”一詞通常用來表是具有三維或更高維度的張量 (Tensor)。

儘管張量經常被認為是一個從零到 N 維的廣義矩陣 (Generalized Matrix),但實際上它是一個數學實體 (Mathematical Entity),可以在結構中與其他數學實體互動。當一個結構中的其他實體以規律的方式改變時,張量必須遵循相應的變換規則。換言之,張量可以被視為一個團隊中的成員,當影響整個團隊的變換發生時,代表單一成員的數值會隨著其他成員一起轉移。

那麼,我們要如何將張量的概念套用在 ML 和 DL 領域中呢?延續前面的課程,我們可以理解,要實作 AI、ML 和 DL 不能沒有資料,而現實生活中的資料通常以多維度的方式呈現。因此,張量的概念可以透過對多維資料的編碼而輕易地被應用於 ML 和 DL 模型中。例如,您如果可以理解一張圖片是由三個不同欄位表示:寬度、高度和深度(或顏色),就不難想像這張圖片可以被編碼為一個三維的張量。然而,ML 和 DL 模型通常需要處理數以萬計的圖像,因此,可做為第四維度的“樣本大小 (Sample Size)”就顯得格外重要。正如您在上圖中看到的,我們可以將一系列的圖像儲存在一個四維張量(4-D Tensor)中,這個四維張量基本上是一個立方體的向量,這種表示方法讓需要分析大量圖像資料的問題變得更加簡單易解。

值得一提的是,一種稱為影像處理單元(GPU)的專門電子電路,在執行矩陣數學運算方面具有卓越表現。GPU 的設計目的是快速操作和改變儲存在記憶體中的物件,以便快速在圖像緩衝區 (Frame Buffer) 中建立圖像,然後將其作為輸出發送到顯示裝置中。因此,GPU 非常適合用來加速 ML 和 DL 矩陣數學運算,以縮短處理時間。





人工智慧 28 堂基礎入門課程,完整目錄連結:
1.課程目的 15.分類(Classification)
2.資料就是新一代的能源 16.低度擬合與過度擬合
3.結構化資料 17.分群(Clustering)
4.非結構化資料 18.整合學習方法
5.半結構化資料 19.模型參數與超參數
6.為資料加上維度的概念 20.深度學習框架
7.人工智慧、機器學習、深度學習的定義 21.深度學習的主力 – 神經網路
8.構成 AI, ML 與 DL 的基本元素 22.影像辨識 - 卷積神經網路(CNN)
9.機器(深度)學習工作流程 23.自然語言處理 - 循環神經網路(RNN)
10.模型具體是什麼? 24.生成式對抗網路(GAN)
11.資料準備-維度縮減 25.移轉學習
12.資料準備-資料分割 26.衡量預測結果的品質
13.機器學習方法概述 27.實作 ML 與 DL 的挑戰
14.迴歸(Regression) 28.IBM AI 階梯方法論







版權聲明
人工智慧 28 堂基礎入門課程系列文章係依據 IBM 原廠英文教材進行適度翻譯與內容調整而成,每一門課程使用的主圖片其版權歸屬於 IBM 公司。文章內容未經授權,請勿進行任何形式的複製、修改或發佈本文內容,如需轉載或引用,請在使用時注明出處並取得授權。本文中提及的特定公司、產品、品牌名稱等僅為描述目的,其版權歸屬於相應的公司或擁有者。

沒有留言:

張貼留言