機器學習

menu icon

機器學習

此機器學習簡介概述其歷史、重要定義、應用,以及現今企業內部隱憂。

什麼是機器學習?

機器學習是人工智慧 (AI) 和電腦科學的一個分支,它專注於使用資料和演算法來模仿人類學習的方式,然後逐漸提高其準確性。

IBM 從事機器學習的歷史悠久。 其中一項是 Arthur Samuel 的功績,他在其西洋棋遊戲相關研究 (PDF, 481 KB)(IBM 外部鏈結) 中創造了「機器學習」一詞。 自稱西洋棋大師的 Robert Nealey,他於 1962 年在 IBM 7094 電腦上下棋,結果還是輸給了電腦。相較於今天能夠做的事情,這壯舉顯得微不足道,然而它被認為是人工智慧領域中的一個重要里程碑。 在接下來的數十年裡,儲存和處理能力的相關技術發展將造就我們現今所知與喜愛的一些創新產品,例如 Netflix 的推薦引擎或自駕車。

在不斷成長的資料科學領域中,機器學習是其中重要組成元素。 利用統計方法來訓練演算法進行分類或預測,以揭露資料採礦專案中的關鍵洞察。這些洞察接著推動應用程式和業務營運方面的決策制定,完美地影響關鍵成長指標。當大數據持續擴大與成長,資料科學家的市場需求隨之增加,這使得他們需要協助才能找出最相關的業務問題,進而找出能夠解答問題的資料。

機器學習 vs. 深度學習 vs. 神經網路

深度學習和機器學習一向被拿來交換使用,因此值得注意兩者之間的細微差異。 機器學習、深度學習和神經網路都是人工智慧的子領域。 然而深度學習其實是機器學習的子領域,神經網路則是深度學習的子領域。

深度學習和機器學習之間的不同在於其各自演算法的學習方式。 深度學習會將流程的許多特性擷取片段自動化,消除一些人為介入需求,並且啟用大型資料集。 就像 Lex Fridman 在這場 MIT 演講 (01:08:05)(IBM 外部鏈結)中說的,您可以將深度學習想像成「可擴充的機器學習」。 標準或「非深度」機器學習比較依賴人為介入的學習。 由人類專家決定用來瞭解資料輸入之間差異的一組特性,這通常需要更多的結構化資料才能進行學習。

「深度」機器學習可以利用含標籤的的資料集,也稱為監督學習,用來告知其演算法,但含標籤的的資料集並非必要。 它可以吸收保持原始形式的非結構化資料(例如:文字、影像),而且它可以自動決定用於區別不同資料種類的特性集。 與機器學習不同,它不需要人為介入來處理資料,這使得我們能夠以更有趣的方式擴充機器學習。 深度學習和神經網路的主要功績在於加速電腦視覺、自然語言處理及語音識別等領域的進步發展。

神經網路或人工神經網路 (ANN) 由節點層所組成,其中包含一個輸入層、一個或多個隱藏層,以及一個輸出層。 每一個節點或人工神經元會連接到另一個,而且具有相關加權和臨界值。 如果任何個別節點的輸出高於指定臨界值,隨即啟動該節點,並將資料傳送至網路的下一層。 否則,不會將任何資料傳遞至網路的下一層。 深度學習中的「深度」單純是指神經網路中的層級深度。 組成超過三層以上的神經網路,包含輸入和輸出,可以視為深度學習演算法或深度神經網路。 只有兩層或三層的神經網路才是基本神經網路。

查看部落格文章「AI、機器學習、深度學習與神經網路:有何差別?」,並仔細觀察不同概念之間的關係。

機器學習的運作方式

柏克萊大學 (IBM 外部鏈結)將機器學習演算法的學習系統拆解成三個主要部分。

  1. 決策流程: 一般來說,機器學習演算法用來進行預測或分類。 根據一些輸入資料,可以含標籤或不含標籤,您的演算法將會產生資料型樣的相關預估。
  2. 錯誤函數: 錯誤函數用來評估模型的預測。 如果有已知的範例,則錯誤函數可以進行比較,以評估模型的準確性。
  3. 模型最佳化流程: 如果模型可以更充分地配適訓練集中的資料點,則會調整加權以減少已知範例與模型預估之間的差異。 演算法會重複此評估並將流程最佳化,自主地更新加權直到符合精確度臨界值為止。

機器學習方法

機器學習分類器分主要分成三類。

監督機器學習

監督學習,也稱為監督機器學習,其定義是使用含標籤的資料集來訓練用於分類資料或精確預測結果的演算法。 當輸入資料饋送到模型中,模型會調整其加權,直到模型已妥當配適為止。 這會發生在交叉驗證流程中,以確保模型避免過度配適配適不足。 監督學習有助於組織大規模解決各種現實問題,例如將收件匣中的垃圾郵件分類在個別資料夾中。 在監督學習中使用的一些方法,包括神經網路、樸素貝葉斯、線性迴歸、邏輯迴歸、隨機森林、支援向量機 (SVM),以及其他更多。

未受監督的機器學習

無監督學習,也稱為無監督機器學習,利用機器學習演算法來分析與叢集不含標籤的資料集。這些演算法會探索隱藏型樣或資料分組,完全無需人為介入。 能夠探索資訊當中相似和差異的能力,使它成為用來處理探索性資料分析、交叉銷售策略、客戶區隔、影像與型樣識別的理想解決方案。 此外,它還用於透過維度縮減流程來減少模型中的特性數目;主成分分析 (PCA) 和奇異值分解 (SVD) 是這方面常見的兩種方法。 在非監督學習中使用的其他演算法包括神經網路、K-means 分群、概率分群方法,以及其他更多。

半監督學習

半監督學習在受監督與未受監督學習之間提供了一個令人滿意的媒介。 它在訓練期間使用比較小的含標籤資料集來引導大型不含標籤資料集的分類和特性擷取。 半監督學習可以解決沒有足夠已標示資料,或無法負擔足夠的資料標示,可用來訓練受監督學習演算法的問題。

若要深入瞭解這些方法之間的差異,請查看「受監督與未受監督學習:有何差別?

強化機器學習

強化機器學習是一種行為機器學習模式,與監督學習類似,但不使用範例資料來訓練演算法。 該模型透過反覆試驗來學習。 加強一系列成功的結果,以針對特定問題制定最佳建議或原則。

2011 年贏得 Jeopardy! 挑戰的 IBM Watson® 系統就是一個很好的例子。 該系統運用強化學習來決定是否嘗試回答,或提出問題、在棋盤上選取哪個方塊,以及要下注多少,尤其是在每日兩場連賭中。

進一步瞭解強化學習

現實世界的機器學習使用案例

以下是您每天可能會遇到的幾個機器學習範例:

語音辨識:它也稱為自動語音辨識 (ASR)、電腦語音辨識或語音轉文字,它是一種使用自然語言處理 (NLP) 將人類語音處理成書面格式的能力。 許多行動裝置將語音辨識納入其系統中,以利進行語音搜尋,例如 Siri,或提供更多的文字相關協助工具。

客戶服務:線上聊天機器人將在顧客旅程中取代服務人員。 它們可以回答某些主題,例如出貨的常見問題 (FAQ),或提供個人化的建議、交叉銷售產品或為使用者建議尺寸,改變了我們對於跨網站和社群媒體平台客戶參與的想法。 範例包括使用虛擬客服之電子商務網站上的傳訊機器人、傳訊應用程式,例如 Slack 和 Facebook Messenger,以及通常由虛擬助理和語音助理完成的作業。

電腦視覺:此 AI 技術可讓電腦和系統從數位影像、影片及其他視覺輸入中獲得有意義的資訊,並根據這些輸入採取行動。 這種可提供建議的能力使它顯得與影像辨識作業大不同。 採用卷積神經網路技術的電腦視覺促成了社交媒體上的可標記照片的應用程式、醫療保健方面的放射影像,以及汽車業中的自駕車。

建議引擎:AI 演算法使用過去的消費行為資料來協助探索資料趨勢,從而開發更有效的交叉銷售策略。 這用來在線上零售商的結帳流程中向顧客提出相關附加建議。

自動化股票交易:專門設計用來將股票投資組合最佳化,AI 驅動的高頻交易平台可每天完成數千甚或數百萬筆交易,完全無需人為介入。

機器學習的挑戰

隨著機器學習技術的進步,它無疑可讓我們的生活變得更輕鬆。 然而,在企業內部實作機器學習卻也引發一些有關 AI 技術的倫理問題。 其中一些包括:

科技奇異點

雖然這個話題吸引了很多公眾關注,但許多研究人員對 AI 在近期或不久的將來超越人類智慧的想法並不感到擔憂。 這也稱為超級智慧,Nick Bostrum 將其定義為「在幾乎所有領域,包括科學創造力、普遍智慧和社會技能,在幾乎每個領域中都超越最優秀人腦的智慧」。儘管強大的 AI 和超級智慧不是迫在眉捷的社會事實,但它們在我們思考如何使用自主系統時,例如自駕車,可以提出一些有趣的問題。認為無人駕駛汽車永遠不會發生車禍是不現實的,但在發生車禍時誰該負責並承擔法律責任? 我們是否應該繼續推動自駕車,或限制將這項技術的整合,只製造促進司機安全的半自動駕駛汽車? 這個問題還沒有定論,但這些都是隨著新進創新 AI 技術的發展而引發的倫理爭議類型。

AI 對於工作的衝擊:

雖然許多有關人工智慧的公眾認知都圍繞著工作流失,但此關注應該要重構。 每當有顛覆性的新科技出現,我們都會看到特定工作角色的市場需求變遷。 例如,當我們看汽車產業,許多像通用汽車的製造商,轉而專注於電動汽車生產,藉此與綠色倡議接軌。 能源產業不會消失,但能源的來源正從燃料經濟轉移到電動經濟。 人工智慧應該透過類似方式看待,人工智慧將會把工作需求轉移到其他領域。 隨著資料每天增長與變化,需要有人協助管理這些系統。 在最有可能受到工作需求變化影響的行業裡,比如客戶服務,仍然需要有資源來解決更複雜的問題。 人工智慧的重要面向及其對就業市場的影響,將會有助於個人轉移到這些新的市場需求領域。

隱私權:

在資料隱私、資料保護和資料安全的背景下往往會討論到隱私權,這些憂慮讓政策制定者得以在近幾年就這方面取得更多進展。 例如在 2016年,GDPR 完成立法以保護歐盟和歐洲經濟區民眾的個人資料,為個人提供更多的個資控制權。 在美國,各州正在擬定政策,例如「加州消費者隱私保護法 (CCPA)」,該法案要求企業向消費者通報其個資收集狀況。 此最新立法迫使企業重新思考他們儲存與使用個人識別資料 (PII) 的方式。 因此,在企業尋求消除任何漏洞以及監控、駭客入侵與網路攻擊機會之際,資安投資的優先順序在企業內部不斷提高。

偏見和歧視:

一些智慧型系統出現偏見和歧視的例子,這引發了許多有關使用人工智慧的倫理問題。 當訓練資料本身可能造成偏見時,我們如何能夠防止偏見和歧視? 雖然企業在進行作業自動化時通常意圖良善,但路透社(IBM 外部鏈結)突顯將 AI 納入聘僱措施時有一些無法預見的後果。 在 Amazon 努力實現流程自動化與簡化的過程中,他們在公開技術職缺時無意中對潛在求職者展現性別偏見,他們最終不得不放棄這個專案。 有鑑於發生這類事件,哈佛商業評論(IBM 外部鏈結)針對在聘僱作法中使用 AI 提出其他重點問題,例如在評估職務候選人時能夠使用哪些資料。

僱見和歧視未必只發生在人力資源部門;在範圍從臉部辨識軟體到社交媒體演算法的一些應用中都可以找到。

隨著企業逐漸覺察到 AI 風險,他們在 AI 倫理與價值觀的相關討論中也變得更積極。 例如,去年 IBM 執行長 Arvind Krishna 分享 IBM 已下架一般用途的 IBM 臉部辨識與分析產品,強調「IBM 堅決反對且不會容忍使用任何技術,包括其他供應商所提供的臉部辨識技術來進行大規模監控、種族描述、基本人權和自由的侵犯,或從事任何違反我們的價值觀和信任與透明原則的行為。」

若要進一步閱讀此相關資訊,請查看 IBM 的政策部落格,重播我們對於「控制臉部辦識技術出口的精準監管方法」的觀點。

問責性

目前沒有監管 AI 作法的重要法規,也沒有可確保 AI 倫理實踐的實際執行機制。 讓企業願意遵守這些準則的誘因是,不道德的 AI 系統對利潤所造成的負面影響。 為了填補空缺,道德框架已成為倫理學家和研究人員為了治理 AI 模型在社會中的建構與分配而相互協作的一部分。 不過,目前這些只能做為指引,而且有研究(IBM 外部鏈結) (PDF, 984 KB) 顯示,分散式責任組合與缺乏遠見的潛在後果未必有利於防止對社會的危害。

若要進一步閱讀 IBM 的 AI 倫理相關立場,請詳閱這裡

機器學習與 IBM Cloud

IBM Watson Machine Learning 支援端對端的機器學習生命週期。它提供了一系列產品,可讓您在資料所處的任何地方建置機器學習模型,並將它們部署在混合多雲環境中的任何位置。

IBM Cloud Pak for Data 上的 IBM Watson Machine Learning,可協助企業資料科學與 AI 團隊在雲端原生資料與 AI 平台上的任何位置加速 AI 開發及部署。IBM Watson Machine Learning Cloud 是 IBM Cloud 環境中的受管理服務,其為將模型從桌面試驗移至正式作業工作負載部署的最快方法。 對於希望擴充機器學習部署的小型團隊,IBM Watson Machine Learning Server 提供了可在任何私有或公有雲上執行的簡單安裝。

若要開始使用,請註冊 IBMid 並建立您的 IBM Cloud 帳號