IBMニュースレター
The DX Leaders
AI活用のグローバル・トレンドや日本の市場動向を踏まえたDX、生成AIの最新情報を毎月お届けします。登録の際はIBMプライバシー・ステートメントをご覧ください。
ニュースレターは日本語で配信されます。すべてのニュースレターに登録解除リンクがあります。サブスクリプションの管理や解除はこちらから。詳しくはIBMプライバシー・ステートメントをご覧ください。
現代の生成AIの時代では、実践者が単純な線形回帰から複雑で洗練されたニューラル・ネットワークや生成型の大規模言語モデル(LLM)に至るまで機械学習(ML)モデルを構築しています。また、顧客離れの予測、推奨システム、その他のユースケースのために、ユビキタスなデータサイエンスとデータ分析も行われています。ただし、機械学習(ML)モデルでも、大規模なデータセットと強力なアルゴリズムで実行されているように見えるかもしれませんが、内部では、基本的には統計的なプロセスです。
機械学習は、ベイズ法、線形代数、検証戦略など、プロセスに構造と厳密性を与える統計学の手法と数学的ツールに基づいて構築されています。非線形分類器の構築、推奨システムの調整、Pythonでの生成AIモデルの開発は、いずれも統計的機械学習の中核的な原則を応用したものです。
モデルをトレーニングする際は常にデータからパラメーターを推定しています。テストする際には、このパターンは本物なのかそれとも単なるランダムなノイズなのか、評価指標を使用して誤差を定量化するにはどうすればよいか、を問いかけることになります。これらは統計に関する質問です。統計的検定のプロセスは、モデル・メトリクスの構築と解釈における自信を導入するのに役立ちます。これらの前提条件を理解することは、単なる基礎ではなく、コンピューター・サイエンスや数学的推論に基づいた堅牢で解釈可能なAIシステムを構築するために不可欠です。
この記事では、数学をわかりやすく説明するだけでなく、機械学習システムを自信を持って構築、デバッグ、解釈するために必要な精神モデルを備えた最新のMLの背後にある統計の柱を紐解きます。
相互に関連する6つの概念について説明します。
1. 統計:基本的には、統計とは何か、また最新のAIでどのように使用されているか?
2. 確率:データの不確実性をどのように定量化するか?
3. 分布:データの振る舞いをどのようにモデル化するか?
IBMニュースレター
AI活用のグローバル・トレンドや日本の市場動向を踏まえたDX、生成AIの最新情報を毎月お届けします。登録の際はIBMプライバシー・ステートメントをご覧ください。
ニュースレターは日本語で配信されます。すべてのニュースレターに登録解除リンクがあります。サブスクリプションの管理や解除はこちらから。詳しくはIBMプライバシー・ステートメントをご覧ください。
統計学は、データからインサイトを引き出すための科学です。情報を整理、分析、解釈してパターンを明らかにし、不確実な状況で意思決定を下します。データ・サイエンスと機械学習アルゴリズムの文脈では、統計学はデータの振る舞いを把握し、モデルの選択を先導し、結果を評価するための数学的基盤を提供するものです。統計学によって、乱雑でノイズの多いデータセットを実行可能なインテリジェンスに変換することができます。
最新の機械学習は、統計学的手法の上に構築されています。教師あり学習(回帰や分類など)、教師なし学習(クラスタリングなど)、強化学習のいずれを利用する場合でも、統計的推論に基づいたツールを使用することになります。統計学は不確実性を定量化し、サンプルから一般化を行い、より広い集団についての結論を導き出すことを可能にします。これらはすべて、信頼できる人工知能(AI) システムの構築に不可欠です。
モデルをトレーニングする前に、記述統計に基づいてデータの主要な特性を要約するプロセスである探索的データ解析(EDA)を実行します。このプロセスでの要約は、特徴量の中核的な傾向と変動性に関する情報を提供するもので、外れ値、データ品質の問題、前処理の必要性を特定するのに役立ちます。こうした要素の理解は、効果的なモデルを構築し、適切な機械学習アルゴリズムを選択するための前提条件となります。
値の算術的平均。中心度の測定や平均二乗誤差(MSE)などの損失関数で一般的に使用されています。
例:顧客の購入額が増加している場合は、平均値から行動の変化を検知できます。
データがソートされたときの中央値。平均よりも外れ値に対して堅固です。
例:収入データにおいては、中央値は富の偏在がある場合の「典型」例をより適切に反映します。
最も頻繁に発生する値。カテゴリーとしての特徴量や多数決投票(一部のアンサンブル方式など)に有用です。
例: サイト訪問者が最も一般的に使用しているブラウザーの特定。
値が平均からどの程度広がっているかを測定します。SDが低いほどデータ・ポイントが平均の近くに集まっていることを意味し、SDが高いほど変動性が大きいことを示します。
サンプル:モデルの検証では、分散が大きい特徴量では、k近傍法などの距離ベースのアルゴリズムで他の特徴量が過度に強力に存在するのを避けるために、正規化が必要な場合があります。
75から25パーセンタイル(Q3~Q1)までの範囲。データの中央50%を取得するもので、外れ値の検出に役立ちます。
サンプル:顧客セグメンテーション・タスクでは、支出のIQRが高いと、サブグループ全体で一貫性のない行動が存在することを示している可能性があります。
分布の非対称性を示します。正の偏りがあると右尾が長くなり、負の偏りがあると左尾が長くなります。特徴量に偏りがある場合、線形モデルの仮定に反するものや、平均ベースのメトリクスを過大にする場合があります。
サンプル:右に偏った分布(収入など)では、線形回帰を適用する前に対数変換が必要になる場合があります。
分布の「テール」、つまり極値の可能性を記述します。尖度が高いと外れ値の頻度が高いことを意味し、尖度が低いと分布が平らであることを意味します。
サンプル:不正アクセス検知では、取引額の尖度が高いと、異常な支出パターンを示している可能性があります。
これらの対策は、正規化、標準化、代入などの前処理の決定も導き、新しい特徴量の設計方法に影響を与えます。
EDAにおいて記述統計は以下のように役立ちます。
統計によってデータを理解することは、大規模なデータセットを処理するモデルの準備、モデルのメトリクス評価、過剰適合などのリスク軽減にも役立ちます。たとえば、記述的な要約からクラスの不均衡や正規化を必要とする特徴量のスケールが明らかになる場合があります。これらはいずれもモデルの性能と公平性に影響を与えます。
機械学習を使用したモデリングは、不確実性のために存在します。入力を出力に完全にマッピングできれば、モデルは必要ありません。しかし、現実のデータは乱雑で、不完全で、ノイズが多いため、確実性ではなく尤度をモデル化します。確率について学ぶことで、機械学習と人工知能(AI)すべての基礎が築かれます。確率の理論は、美しくエレガントな方法でモデル化するために使用したデータを理解することを可能にします。これは、MLモデル予測の不確実性において重要な役割を果たします。統計モデルの尤度、確率、確実性を定量化するのに役立つため、作成した結果モデルを自信を持って測定できるようになります。確率の世界を掘り下げ、基礎を学ぶことで、すべての統計学習モデルの基礎とその予測がどのようになるかを確実に理解することができます。推論を行い、確率的な結果を生み出す方法を学びます。
一般的な分布を学習し、自信を持ってデータをモデル化するために、基本を理解し、いくつかの用語を解説します。
確率変数:ランダムな現象の結果を数値で表したもの。これは、可能な値がランダムなプロセスの数値結果である変数です。
離散確率変数:有限または可算的に無限の固定値を取り得る確率変数。例えば、コイン投げの結果(表:1、裏:0)や1時間に受信したスパムEメールの数などです。
連続確率変数:与えられた範囲内で任意の値を取り得る確率変数。例えば、人の身長、部屋の温度、降雨量などです。
事象:ランダムなプロセスによる1つ以上の結果の集合。例えば、サイコロを転がしてときに出る偶数(結果:2、4、6)や顧客離れ。
結果:ランダムな実験の可能性のある単一の結果。例えば、コインを投げると「表」または「裏」のいずれかが生成されます。
確率 :イベントが発生する可能性を示す数値 0(不可能)から1(確実)の範囲で発生する
条件付き確率 : イベントの発生確率。をイベントとします。 すでに発生している特定の特徴量を用いて結果を予測することが多いため、MLではこのステップが非常に重要です。
確率とは、ある事象が起こる可能性を0(ありえない)から1(確実)までの間で測定します。
機械学習では、多くの場合条件付き確率の形式をとります。
例:ロジスティック回帰モデルでは、次のことができます。
> 「特定年齢=45歳、収入=6万米ドル、および前歴、
> 解約の確率は0.82です」
このサンプルは、顧客が解約することを意味するのではなく、トレーニング・データの統計パターンに基づく信念です。
生成AIが活躍する現代では、回帰などの確率モデルが、成果とアウトプットの決定に大きな役割を果たします。この役割は、多くの場合、ニューラル・ネットワークの層で活性化関数の形をとります。
確率分布とは、ある確率変数が特定の範囲内で取り得る値や可能性を記述する数学的関数である。MLでは、データが単一で隔離された点として存在することはほとんどないため、分布の理解が重要です。これには、構造と「形状」があります。指定する必要がある用語には次のようなものがあります。
データの分布について正しい仮定を行うことが不可欠です。多くの機械学習アルゴリズムは、モデルの選択と解釈の両方において、これらの仮定に依存します。不適切な仮定は、バイアスのかかった推定値、損失関数の不整合につながり、最終的には現実世界のアプリケーションにおける不十分な一般化や無効な結論につながる可能性があります。
確率分布は以下を基盤とします。
ベルヌーイ分布は、離散ランダム・イベントの1回の試行における成功または失敗の確率をモデル化します。そのため、結果は1(成功)または0(失敗)の2つのみとなります。これは統計で使用される最も単純なタイプの分布ですが、機械学習における多くの分類問題の基礎を形成します。たとえば、コインを10回投げて、7回の表(成功)と3回の裏(失敗)が得られると、確率拡大関数(PMF)は次のようにグラフ化できます。
コイントスは、古典的なベルヌーイ分布の試行です。確率質量関数をコイン投げの例に適用してみましょう。
- 反転1回の結果を表す確率変数である
- 表を成功とすると、 :表 :裏
- コインが公正である場合、表の確率は
ベルヌーイ分布の確率質量関数(PMF)は次のとおりです。
説明:
ベルヌーイ PMFは多くの分類モデルの確率的バックボーンを形成するため、必ず理解しておく必要があります。具体的には、ロジスティック回帰は出力クラスのラベルだけではなく、特定の入力がクラス 1 に属する確率を推定します。この予測確率は、ベルヌーイ分布のパラメーター𝑝として解釈されます。
ロジスティック回帰で使用されるロジスティック(シグモイド)関数では、予測値が[0,1]の範囲内にあることを確実にし、予測値を有効なベルヌーイ確率にします。モデルは、各目標値が特徴量𝑋から予測される確率𝑝をもつベルヌーイ分布から抽出されるという仮説に基づいて真となる二値結果を観察する尤度を最大化するようにトレーニングされます。この場合、学習損失を最小化したいので、データが与えられたときに結果の尤度を最大化する最尤推定(MLE)法を採用します。通常、ベルヌーイなどの離散分布では、確率を尤度に変換し、より簡単に操作できるようにします。オッズと同様の尤度は不均衡であるため、通常はトランスフォーメーション(対数尤度として知られる対数尤度、損失関数は対数損失として知られる)を適用します。このセクションが少し複雑に感じられる場合は、MLEを使用した対数尤度関数の段階的な導関数については、前述のロジスティック回帰の解説を参照してください。この接続により、アウトプットを確率的推定値として解釈するための統計的根拠が提供されます。その他のアプリケーションには次のものがあります。
正規分布は、値が中心平均の周りにクラスターする傾向があり、両方向に対称変動する連続ランダム変数を表します。多くの自然現象(標高、テストスコア、測定エラー)がこのパターンに従っているため、特にサンプル間で集計する場合に、これが統計学の分野で普及しています。
1,000人の大人の身長を記録したとしましょう。このデータをプロットすると、ベル型の曲線が形成されます。なります。ほとんどの人は平均に近く、極端な場合ほど数が少なくなります。この形状は、正規分布の確率密度関数(PDF)で把握できます。
説明:
すべての機械学習システムの中核には、モデルの設計から解釈まですべてをサポートする目に見えない足場である統計的なバックボーンがあります。私たちは、統計とは何なのかを探ることから始めました。それは単なる数学の一分野ではなく、不確実性を意味し、データから意味を抽出するための言語もあります。記述統計では、世界の複雑さを調査して要約するための最初のレンズを提供し、モデリングの開始前に明確性を提供します。
次に、不確実性の下での推論のための正式なツールセットである確率について分析しました。機械学習では、確率は結果の可能性を定量化するのに役立ち、モデルは単なる厳しい予測ではなく自信を表現することができます。顧客が解約する可能性や分類におけるラベルが付けられる可能性であっても、確率理論は未加工データを解釈可能な洞察に変えます。
ここまで、さまざまなシナリオ間でのデータの動作を定義する分布について検討しました。離散ベルヌーイ分布のモデリング・バイナリー結果から、回帰モデルや生成モデルの仮定を形成する連続ガウス分布に至るまで、これらの分布の理解は極めて重要です。これらは、私たちが観察するデータと構築するアルゴリズムの両方を支え、モデルの選択を導き、損失関数を形成し、有意義な推論を可能にします。
ロジスティック回帰やナイーブ・ベイズからディープラーニングやカーネル法に至るまで、現代の機械学習アルゴリズムでは、これらの統計原理はオプションのアドオンではなく、機械学習の仕組みそのものなのです。不確実性について推論し、性能を最適化し、限定的な観察から現実世界の意思決定まで一般化するのに役立ちます。これらの基礎を習得することで、機械学習の使用方法を学ぶだけでなく、機械学習を理解し、構築し、そこから推論を導き出すこともできます。
生成AIや大規模なディープラーニング・モデルの時代においても、統計の関連性はかつてないほど重要になっています。すべてのトランスフォーマー層と拡散ステップの背後には、確率、推定、分布の仮定に基づいて構築された基盤があります。バイアスと分散のトレードオフや不確実性などの概念を理解することは、単なる学問的なものではなく、ブラックボックスモデルの解釈、障害モードの診断、責任ある説明可能なAIの構築に不可欠です。基盤モデルのファイン・チューニング、不確実性定量化へのベイズ技術の適用、生成アウトプットの評価など、統計的推論は、複雑な状況を明確に対処するためのツールを提供します。生成AIシステムが強力になるにつれて、統計的基礎に基づいた実践を行うことで、モデルが最先端であるだけでなく、原則と信頼性も確保されます。
AI開発者向けの次世代エンタープライズ・スタジオであるIBM watsonx.aiを使用して、生成AI、基盤モデル、機械学習機能をトレーニング、検証、チューニング、導入しましょう。わずかなデータとわずかな時間でAIアプリケーションを構築できます。
業界をリードするIBMのAI専門知識とソリューション製品群を使用すれば、ビジネスにAIを活用できます。
AIの導入で重要なワークフローと業務を再構築し、エクスペリエンス、リアルタイムの意思決定とビジネス価値を最大化します。