閱讀可解釋的 AI 如何使正式作業 AI 獲益

何謂可解釋的 AI?

可解釋的人工智慧 (XAI) 是一組程序和方法,其可讓使用者用來理解並信任機器學習演算法所建立的結果與輸出。 可解釋的 AI 用來說明 AI 模型、其預期的影響和潛在的偏見在採用 AI 技術的決策中,其可協助描述模型準確性、公平性、透明度和結果。 在組織將 AI 模型投入正式作業時,可解釋的 AI 對於組織建立信任和信心來說至關重要。 AI 可解釋性還可協助組織以負責任的方法來開發 AI。

隨著 AI 變得更加先進,人類面臨的挑戰是理解和追溯演算法如何得出結果。 整個運算過程變成了俗稱的「黑盒子」,無法對其進行解譯。 這些黑盒子模型是直接從資料建立的。 即使是建立演算法的工程師或資料科學家也無法瞭解或解釋其內部到底發生了什麼情況,或是 AI 演算法如何得出特定結果。

瞭解啟用 AI 的系統如何產生特定輸出,這將帶來許多優點。可解釋性可以協助開發人員確保系統如預期般運作,在遵循法規標準時可能需要可解釋性,或在容許受決策影響者挑戰或變更該結果時,可解釋性可能很重要。¹

在筆記型電腦上工作的專業人員

為何可解釋的 AI 很重要?

利用模型監視和 AI 問責來充分理解決策過程,而不是盲目信任它們,這一點對組織而言至關重要。 可解釋的 AI 可以協助人類瞭解並解釋機器學習 (ML) 演算法、深度學習和神經網路。

ML 模型經常被認為是無法解譯的黑盒子。² 深度學習中使用的神經網路就是人類最難以瞭解的其中一項知識。 在訓練 AI 模型時,基於種族、性別、年齡或地點的偏見一直是長期存在的風險。 此外,AI 模型效能可能漂移或降低,因為正式作業資料與訓練資料不同。 這使得企業務必在衡量使用這類演算法的業務影響時,持續監視和管理模型以提升 AI 可解釋性。 可解釋的 AI 還可提升一般使用者信任、模型審核性,以及 AI 的使用成效。 它還減輕了正式作業 AI 的合規、法律、安全和聲譽風險。

可解釋的 AI 是實作負責任 AI 的關鍵需求之一,這是在真實組織中透過公平性、模型可解釋性和問責制大規模實作 AI 的方法。³ 若要協助負責地採用 AI,組織需要建立基於信任和透明度的 AI 系統,將道德原則嵌入 AI 應用程式和程序中。

在筆記型電腦上看著視訊會議參與者的人員

持續模型評估

有了可解釋的 AI,企業可以對模型效能進行疑難排解和改善,同時協助利害關係人瞭解 AI 模型的行為。 藉由追蹤有關部署狀態、公平性、品質和漂移的模型見解來調查模型行為,這對於調整 AI 而言不可或缺。 持續模型評估可讓企業比較模型預測、量化模型風險,以及最佳化模型效能。 在模型行為中使用資料顯示正負值來產生解釋速度模型評估。 資料與 AI 平台可以產生模型預測的特性屬性,並可讓團隊透過互動式圖表和可匯出的文件,以視覺化方式調查模型行為。

在筆記型電腦上工作的專業人員

可解釋 AI 的價值

來自 Forrester 研究,其中涵蓋 IBM Cloud Pak for Data 上的可解釋 AI 和模型監視

可解釋 AI 的優勢

抱持信任有信心地運作 AI

在正式作業 AI 中建立信任。 快速將您的 AI 模型帶進正式作業中。 確保 AI 模型的可解譯性和可解釋性。 簡化模型評估的程序,同時增加模型透明度和可追蹤性。

加快產生 AI 結果的速度

系統性地監視及管理模型,以最佳化商業成果。 持續評估並改善模型效能。 根據持續評估細部調整模型開發工作。

減輕模型控管的風險與成本

保持 AI 模型的可解釋性和透明度。 管理法規、合規、風險及其他需求。 將人工檢驗的額外負擔及高成本的錯誤開銷降至最低。 減輕非預期偏見的風險。

IBM 針對可解釋的 AI 所採取的方法

100 多年來,IBM 不斷地努力創新,以便能為每個人帶來好處,而不只是獨惠少數幾個人。 這個哲學也適用於 AI: 我們的目標是創造與提供可靠的技術,以擴增而不是取代人類決策。

雖然 AI 有望在眾多應用程式中提供寶貴的見解和型樣,但廣泛採用 AI 系統將取決於人們能否信任 AI 輸出。 人類對技術的信任是基於我們對其運作方式的理解,以及我們對其安全性和可靠性的評估。 這使得可解釋的 AI 變得至關重要。IBM 針對可解釋的 AI 所採取的方法就是讓 AI 可靠且公平,讓它能夠做出解釋,並協助確保它不會造成任何傷害。

在我們的創新核心中,IBM Research 正在開發各種不同的方法,以實現公平性、穩固性、可解釋性、問責和價值一致,並在 AI 應用程式的整個生命週期中整合它們。 IBM Research 提供的可解釋 AI 架構與工具集可整合至 IBM Cloud Pak for Data 平台中,讓企業可透過受控管、安全且可調整的方式善用我們最新的 AI 技術。

站在辦公室窗戶前面看著手機的人

可解釋 AI 的五個考量

可解釋 AI 的五個考量

若要利用可解釋的 AI 來推動理想的成果,請考量下列各項。

公平性和去除偏見:管理及監視公平性。 掃描您的部署以找出潛在的偏見。 

模型漂移緩解:分析您的模型,並根據最有邏輯的結果提出建議。 模型偏離預期結果時的警示。

模型風險管理:量化並減輕模型風險。 在模型未充分執行時收到警示。 瞭解偏差持續存在時發生的情況。

生命週期自動化:建置、執行及管理模型,以作為整合式資料與 AI 服務的一部分。 統一平台上的工具和程序,以監視模型和分享結果。 解譯機器學習模型的相依關係。

多雲就緒:跨混合雲部署 AI 專案,包括公有雲、私有雲和內部部署。 利用可解釋的 AI 來提升信任和信心。

現代玻璃建築物的特寫

利用 IBM Cloud Pak for Data 來改善 AI 可解釋性

IBM Cloud Pak® for Data 平台在統一的環境中提供資料及 AI 服務,讓企業可以評估資料和模型的影響及關係,藉此改善 AI 可解釋性。 它還會協助企業獲得有關部署、公平性、品質及風險的模型見解。 此解決方案會利用對比解釋及 LIME (Local Interpretable Model-Agnostic Explanations) 之類的工具,來協助解釋 AI 交易、種類模型、影像模型,以及非結構化文字模型。 在現代資訊架構上將 AI 生命週期自動化,藉此讓 AI 變得可解釋且透明,這對正式作業 AI 的成功至關重要。

深入瞭解可解釋的 AI

可解釋的 AI 如何運作?

有了可解釋的 AI 及可解譯的機器學習,組織可以理解 AI 技術的基礎決策,並且還能夠進行調整。 可解釋的 AI 可以協助一般使用者相信 AI 會做出良好的決策,藉此改善產品或服務的使用者體驗。 AI 系統何時會對您可以信任的決策給序足夠的信心,以及 AI 系統會如何更正所產生的錯誤?⁴

儘管 AI 變得更先進,仍需要瞭解並控制 ML 程序,以確保 AI 模型結果準確。 讓我們看看 AI 與 XAI 之間的差異、用來將 AI 轉換為 XAI 的方法和技術,以及解譯與解釋 AI 程序之間的差異。

AI 與 XAI 之間的比較

「正規」AI 與可解釋的 AI 之間到底有何不同? XAI 會實作特定的技術和方法,以確保在執行 ML 程序期間所做出的每一個決策都可以進行追蹤和解釋。 另一方面,AI 通常會使用 ML 演算法得出結果,但 AI 系統的架構卻無法完全瞭解此演算法如何得出該結果。 這使得難以檢查準確性,並導致失去控制、問責和可審核性。

可解釋的 AI 技術

XAI 技術的設定由三種主要方法組成。 預測準確性和可追蹤性能夠滿足技術需求,而決策理解則滿足人類需求。 如果未來的戰士要瞭解、適當地信任並有效管理新一代的人工智慧機器夥伴,則可解釋的 AI(尤其是可解釋的機器學習)將成為不可或缺。⁵

預測準確性
要在日常作業中成功運用 AI,準確性的其中關鍵要素。 執行模擬並比較 XAI 輸出與訓練資料集中的結果,藉此判定預測準確性。 用於此情況的最熱門技術是 LIME (Local Interpretable Model-Agnostic Explanations),它會解釋如何透過 ML 演算法預測分類器。

可追蹤性
可追蹤性是實現 XAI 的另一項關鍵技術。 例如,透過限制做出決策的方式,以及為 ML 規則和功能設定較窄的範圍,即可達成此目的。 可追蹤性 XAI 技術的範例是 DeepLIFT (Deep Learning Important FeaTures),它會比較將啟用的每一個神經元與其參考神經元,並顯示每個神經元啟用之間的可追蹤鏈結,甚至顯示它們之間的相依關係。

決策理解
這是人為因素。 很多人不相信 AI,但若要有效率地使用它,他們需要學會相信它。 實現此目標的作法為教育使用 AI 的團隊,讓他們瞭解 AI 做出決策的方式和原因。

AI 中的可解釋性與可解譯性

可解譯性是指觀察者對於決策原因的理解程度。 它是人類可以預測出 AI 輸出結果的成功率,而可解釋性則是更進一步的作法,它會查看 AI 如何得出結果。

可解釋的 AI 如何與負責任的 AI 之間有何關係?

可解釋的 AI 和負責任的 AI 有類似的目標,但方法不同。 以下是可解釋的 AI 與負責任的 AI 之間的主要差異:

  • 可解釋的 AI 會在運算 AI 結果之後查看這些結果。
  • 負責任的 AI 會在規劃階段期間查看 AI,以在運算結果之前,讓 AI 演算法負責。
  • 可解釋的 AI 與負責任的 AI 可以一起合作,讓 AI 變得更好。

若要進一步瞭解可解釋的 AI,請註冊 IBMid,並立即啟動您的 IBM Cloud Pak for Data 試用版

如何實作可解釋的 AI

使用這些資源來進一步瞭解如何實作可解釋的 AI。

線上研討會: 如何管理及監視模型
瞭解當你的模型無法運作時您可以做什麼。
觀看網路研討會(鏈結位於 IBM 外部)→

學習路徑: 信任地管理 AI
瞭解如何在整個生命週期中追蹤並測量來自 AI 的結果,同時適應並控管 AI 以變更商業狀況。
參閱指導教學 →

實作實驗室: 監視機器學習模型
探索評估模型之公平性、準確性及可解釋性的逐步過程。 
查看實驗室 →

可解釋 AI 的使用案例

醫療業

3 位手術中外科醫生的特寫照片

加速診斷、影像分析、資源最佳化,以及醫療診斷。 改善病患照護決策的透明度和可追蹤性。 利用可解釋的 AI 來簡化藥品核准程序。

金融服務

在筆記型電腦上工作同時手持信用卡的人

利用透明貸款和信貸核准程序來改善客戶體驗。 加快貸款風險、財富管理和金融犯罪風險評量的速度。 加速解決潛在的申訴和問題。 提高計價、產品建議和投資服務方面的信心。

刑事司法

站在以犯罪現場膠帶標示區域前面的警員

將預測和風險評量最佳化的程序。 對 DNA 分析、監獄人口分析和犯罪預測使用可解釋的 AI 來加速解析。 偵測訓練資料與演算法中的潛在偏見。

註腳

¹「可解釋的 AI」,英國皇家學會 (The Royal Society),2019 年 11 月 28 日。(鏈結位於 IBM 外部)
²「可解釋的人工智慧」,Jaime Zornoza,2020 年 4 月 15 日。(鏈結位於 IBM 外部)
³「可解釋的人工智慧 (XAI):邁向負責任的 AI 的概念、分類、機會及挑戰」,ScienceDirect,2020 年 6 月。(鏈結位於 IBM 外部)
⁴「瞭解可解釋的 AI」,Ron Schmelzer(Forbes 撰稿人),2019 年 7 月 23 日。(鏈結位於 IBM 外部)
⁵「可解釋的人工智慧 (XAI)」, Dr. Matt Turek,美國國防高等研究計劃署 (DARPA)。(鏈結位於 IBM 外部)