2023年5月18日 星期四

AI 入門:14.迴歸(Regression)(人工智慧 28 堂基礎課程)

在數學的世界裡,迴歸 (Regression) 是一種統計學方法,用來建立一個應變數 (Dependent variable) 和一個或多個自變數 (Independent variables) 之間的關係。例如,假設年齡等於五倍的身高加上體重(Age = 5 * Height + Weight),那麼我們就可以在一個人的身高與體重和年齡之間建立一種關係。因此,迴歸是一種用來預測和確定因果關係的方法。

.
在統計學中,有多種可供選擇的迴歸技術,每種技術皆有其適用的情境。線性迴歸 (Linear Regression) 是當今統計學和機器學習(ML)領域中最為知名和容易理解的演算法之一。因此,它往往是資料科學家在學習時的首選,並使用它來解決問題。

簡單線性迴歸使用數學方程式 y = m * x + b,以傳統的斜截式 (Slope-intercept Form) 建立資料模型:
  • 方程式中的 m 和 b 代表模型試圖“學習”的變數,以產生最準確的結果。在數學中,m 稱為斜率,b 稱為截距。
  • x 代表模型的輸入資料,也稱為自變數、獨立變數或解釋變數。
  • y 代表模型的輸出或預測值,也稱為應變數、反應變數或被解釋變數。

簡單線性迴歸模型通常是透過檢查盡可能多的資料組合(x,y),並試圖建立一條直線,讓所有資料點和這條直線之間的垂直總距離最小。換句話說,透過計算斜率(m)和截距(b)的直線,使其最貼近資料中的觀測結果。上圖右側的範例圖形說明了如何使用簡單線性迴歸來預測一組建築物的能源耗用。

迴歸技術是一種廣泛應用的統計方法,可以從最簡單的線性迴歸進展到更複雜的技術,如正規化線性迴歸 (Regularized Linear Regression)、多項式迴歸 (Polynomial Regression)、多變數線性迴歸 (Multi-variable Linear Regression)、隨機森林迴歸 (Random Forest Regressions) 以及神經網路 (Neural Networks) 等。在實務中,單一自變數(特徵變數)的問題較少見,如同第 11 堂課提到,現實世界的特徵變數往往數量較多,因此需要使用維度縮減技術來降低建模的複雜度。對於多個自變數的問題,簡單線性迴歸已無法滿足,需要使用更複雜的迴歸方程式。

回到我們使用簡單線性迴歸來預測一組建築物能源耗用的例子(上圖右側的範例圖形),如果您想透過收集更多資訊來優化模型,例如每棟建築物的屋齡、樓層數、居住面積以及可用的電源插座數量等,您應該考慮使用多變數線性迴歸技術 (Multi-variable Linear Regression) 來建立複雜的模型。多變數線性迴歸的原理與簡單線性迴歸相同,只是當使用的變數數量增加時,模型所建立的不再是二維空間的一條直線,而是一個多維空間中的曲線(面)。

值得一提的是,線性迴歸模型本身也能夠用來評估每個因素對最終預測結果的貢獻程度(特徵變數重要性)。因此,一旦建立了預測建築物能源耗用的公式,就能夠確定在進行這種預測時,建築物的屋齡、樓層數、居住面積和電源插座數量等因素中哪些是最重要的,需要一同考慮的因素。


13.機器學習方法概述 《 上一堂課    下一堂課 》 15.分類(Classification)



人工智慧 28 堂基礎入門課程,完整目錄連結:
1.課程目的 15.分類(Classification)
2.資料就是新一代的能源 16.低度擬合與過度擬合
3.結構化資料 17.分群(Clustering)
4.非結構化資料 18.整合學習方法
5.半結構化資料 19.模型參數與超參數
6.為資料加上維度的概念 20.深度學習框架
7.人工智慧、機器學習、深度學習的定義 21.深度學習的主力 – 神經網路
8.構成 AI, ML 與 DL 的基本元素 22.影像辨識 - 卷積神經網路(CNN)
9.機器(深度)學習工作流程 23.自然語言處理 - 循環神經網路(RNN)
10.模型具體是什麼? 24.生成式對抗網路(GAN)
11.資料準備-維度縮減 25.移轉學習
12.資料準備-資料分割 26.衡量預測結果的品質
13.機器學習方法概述 27.實作 ML 與 DL 的挑戰
14.迴歸(Regression) 28.IBM AI 階梯方法論







版權聲明
人工智慧 28 堂基礎入門課程系列文章係依據 IBM 原廠英文教材進行適度翻譯與內容調整而成,每一門課程使用的主圖片其版權歸屬於 IBM 公司。文章內容未經授權,請勿進行任何形式的複製、修改或發佈本文內容,如需轉載或引用,請在使用時注明出處並取得授權。本文中提及的特定公司、產品、品牌名稱等僅為描述目的,其版權歸屬於相應的公司或擁有者。

沒有留言:

張貼留言