目次


IBM Accelerator for Machine Data Analytics第3部

マシンデータの検索をスピードアップする

Comments

コンテンツシリーズ

このコンテンツは全#シリーズのパート#です: IBM Accelerator for Machine Data Analytics第3部

このシリーズの続きに乞うご期待。

このコンテンツはシリーズの一部分です:IBM Accelerator for Machine Data Analytics第3部

このシリーズの続きに乞うご期待。

はじめに

本シリーズの記事について

IBM Accelerator for Machine Data Analyticsの最も重要なメリットと強みは、ツールの設定とカスタマイズを簡単に行える点です。本シリーズの記事とチュートリアルの対象は、本アクセラレーターの概要を知り、独自の知見を獲得するためにマシンデータの分析をさらにスピードアップしたいと考えているユーザーです。

本チュートリアルについて

本シリーズの第1部では、既知のログタイプとそれほど知られていないログタイプについて検証しました。本シリーズの第2部では、新規のデータ型を分析するために新規のログタイプを作成しました。このチュートリアルでは、新規に作成した電子メール・データのログタイプを標準のログタイプやgenericログタイプと同様に活用する方法について確認します。さらに、あらゆる種類のログタイプを一貫性のある方法で参照し、検索を行う方法についても確認します。

新規のログタイプについて関心のない場合でも、標準のログタイプとgenericログタイプに基づいて検索を行う方法を確認できます。

本チュートリアルの目的

本チュートリアルでは、以下について学ぶことができます。

  1. インデックスの作成と検索を行うにあたり、標準のログタイプを使用する。
  2. インデックスの作成と検索を行うにあたり、カスタマイズしたログタイプを使用する。
  3. 標準のログタイプとカスタマイズしたログタイプに関してファセットを自働的に検出する方法を確認する。
  4. データの活用シナリオに合わせて、インデックス機能と検索機能を設定する。

さらに、本アクセラレーターに同梱されるアプリケーション・チェーンの使用方法についても学ぶことができます。

前提条件

IBM Accelerator for Machine Data Analyticsの概要を確認するには、本シリーズの第1部: マシンデータのスピーディーな分析をご参照ください。また、新規のログタイプに対応するためにアクセラレーターのカスタマイズの方法を確認したい場合は、本シリーズの第2部: 新規のログタイプのスピーディーな分析を参照し、プロセスを実行してください。

システム要件

本チュートリアルに記載されるプロセスを実行するには、以下が必要です。

  1. BigInsights v2.0がインストール済みであること。
  2. IBM Accelerator for Machine Data Analyticsがインストール済みであること。
  3. マシンデータ分析を行うためのデータセット。本データをダウンロードするためのリンクは、ダウンロード・セクションにあります。

一貫性のある方法で全てのログを参照・検索する

マシンデータはさまざまな形態とサイズで生成されます。データ形式は既知の構造や形式に基づくものもあれば、完全にカスタム形式に基づくデータ形式もあります。準構造化または非構造化の特徴を持つデータ形式もあれば、構造化の特徴を持つデータ形式もあります。

あらゆる種類のデータに対して一貫性のあるビューや検索方法を適用することで、さまざまな分析処理で大きなメリットが発生します。一部のマシンログはアプリケーションの挙動に関する情報を提供するものの、このようなログを電子メールのような構造化データと組み合わせることでアクションを起こすための分析を実現することができます。さらにこのようなログをコンフィギュレーション・ファイルや外部システムによるレポートが提供する構造化データを組み合わせると、さらに幅広い情報を検索することができるようになります。

本シリーズの第1部: マシンデータのスピーディーな分析では、アプリケーション・レイヤーにさまざまな種類のマシンデータが存在していることを確認しました。本シリーズの第2部: 新規のログタイプのスピーディーな分析では、電子メール・データのような外部情報を簡単に分析に追加できることを確認しました。

本チュートリアルでは、このようなあらゆるデータを検索可能なレポジトリーに実装します。

Sample Outdoors社(架空企業)で発生した事態

Sample Outdoors社は、自社の全てのログデータを一貫性のある方法で参照したいと考えました。また、ログデータに電子メール・データを追加することで、さらに豊富な情報を検索できるデータソースを構築したいと考えました。Sample Outdoors社が次に行わなければならないのは、このような情報を全て抽出し、検索することです。

あらゆるマシンデータを検索するために必要な10種類の機能

まず、あらゆるマシンデータの検索に役立つIBM Accelerator for Machine Data Analyticsの以下の機能について確認してください。

  1. Import-Extractのアプリケーション・チェーンを使用して、データを抽出する
  2. 一貫性のある方法で全てのログを検索可能なレポジトリーを構築する
  3. レポジトリーにカスタム・ログタイプを追加し、検索のために新規のログタイプを使用する
  4. 検索の準備を行い、ファセットを自動的に検出する
  5. 電子メールを含むイベントを時系列順に参照する
  6. 検索を行う
  7. 検索に関連するファセットのみを表示する。「データの活用シナリオに合わせてユーザー・インターフェースを設定する」のセクションでこれを実行する方法を確認できます。
  8. インデックスの設定を行い、カスタム・ログタイプのフィールド追加する」のセクションのとおり、カスタムのログタイプに含まれるフィールド(インデックスに欠けているフィールド)を追加する。
  9. 最後に、「検索の最適化を行うために、ファセットの設定をインデックスに反映する」のセクションのとおり、必要なファセットだけを作成することによってインデックス・サイズの最適化を行う。
  10. 設定が完了した検索インターフェースを参照する

Sample Outdoors社について

Sample Outdoors社のデータ・サイエンティストは、顧客に関する以下のマシンデータを保有しています。

  • CustomerFrontEndアプリケーション: ApacheによるWebアクセス・ベースのアプリケーション
  • CustomerBackendアプリケーション: IBM WebSphereサーバーベースのアプリケーション
  • CustomerDbAppアプリケーション: Oracle Databaseアプリケーション

また、customersupport@sampleoutdoors.comとwebsupport@sampleoutdoors.comの電子メールアドレスに顧客から電子メールが送信されます。

同社はこれらの情報を全て抽出することで、一貫性のある方法でデータを検索可能なレポジトリーを構築したいと考えました。

データを抽出する

このセクションでは、アプリケーション・スタックからレポジトリーにマシンデータを抽出します。アプリケーションとアプリケーション・ログについてより詳細な情報を確認したい場合は、第1部: マシンデータのスピーディーな分析をご参照ください。

アプリケーション・スタックから抽出済みのログデータのバッチは、ダウンロード・セクションで入手できます。

以下のステップを実行します。

  1. ダウンロード・セクションからdata_and_config.zipをダウンロードし、展開します。
  2. data/input_batchesをBigInsightsクラスター上のマシンにコピーします。本チュートリアルでは、/opt/ibm/input_batchesのロケーションを使用します。本ロケーションはユーザーが希望する別のロケーションにいつでも変更することができます。このバッチを含むディレクトリー構造に注目してください。Input_batchesには以下の3つのバッチが含まれ、これらはアプリケーション・スタックスの3つのレイヤーを指しています。
    • Batch_webaccess: Webアクセス・レイヤーのログを含む。
    • Batch_was: WebSphereアプリケーションのログを含む。
    • Batch_oradb: Oracle Databaseレイヤーのログを含む。
  3. Import-Extractのアプリケーション・チェーンを使用することで、一度の操作でインポートと抽出を実行します。ImportアプリケーションはDistributed Copyアプリケーションを使用するため、まずDistributed Copyアプリケーションが実装済みであることを確認します。
    • BigInsightsのコンソールからApplicationsタブをクリックし、Manageリンクを選択します。
    • エディット・ボックスにDistributedと入力します。するとApplicationsの下にDistributed File Copyアプリケーションが存在していることが分かります。
    • アプリケーション・ステータスがNOT_DEPLOYEDの場合は、図1のとおりDeployボタンをクリックします。
      図1. Distributed Copyアプリケーションを実装する
  4. Import-Extractのアプリケーション・チェーンを使用して、一度の操作でImportアプリケーションとExtractionアプリケーションが実行できるようになりました。BigInsightsのコンソールからApplicationsタブをクリックし、ツリー・ビューのアイコンを選択します。
  5. Import-Extractアプリケーションを選択します。入力パスと出力パスを入力します。ファイル転送プロトコルとしてはftpまたはsftpのいずれかを選ぶことができます。以下のステップでは、sftpを使用します。
    • Import input path: sftp://<server>/opt/ibm/input_batches
    • Import output path: /GOMDADemo/search/input_batches
    • Credentials file: ftpを使用する場合は、標準の値であるNOT_SETをそのまま使用する。

      sftpを使用する場合は、リスト1で示されるコンテンツを含んだファイルを作成し、HDFS内のロケーション(/user/biadmin/credstore/public/<filename>)に本ファイルを保存します。

      リスト1. 認証情報を保存したファイル
      password=your_sftp_userpassword
      username=your_sftp_userid

      認証情報のファイルのロケーションとして、/user/biadmin/credstore/public/<filename>を入力します。

    • Extract output path: /GOMDADemo/output/extract_out
    • Extract configuration file path: 標準の値である/accelerators/MDA/extract_config/extract.configをそのまま使用する。
  6. 本シリーズの第2部: 新規のログタイプのスピーディーな分析を既に実施済みの場合は、出力パスとして指定したロケーション(/GOMDADemo/output/extract_out)にbatch_inboxというディレクトリーが既に存在しています。上記のステップを実行することで、同じロケーションに新規のバッチ(batch_webaccess、batch_was、およびbatch_oradb)が追加されます。図2は、Import-Extractチェーンがスムーズに完了したことを示しています。
    図2. Import-Extractチェーンを実行する

    第2部: 新規のログタイプのスピーディーな分析を実施していない場合は、batch_inboxというディレクトリーは実行結果として表示されません。本情報については、本チュートリアルの「検索のために新規のログタイプを使用する」のセクションに基づいて追加します。

一貫性のある方法で全てのログを検索可能なレポジトリーを構築する

次にデータにインデックスを作成し、一貫性のある方法で検一貫性のある方法で全てのログを検索可能なレポジトリーを構索可能なレポジトリーを構築します。

以下のステップを実行します。

  1. BigInsightsのコンソールからApplicationsタブをクリックし、ツリー・ビューのアイコンを選択します。
  2. Machine Data Analytics: Searchフォルダーを展開し、Indexアプリケーションを選択します。以下の入力パスと出力パスを入力します。
    • Source directory: /GOMDADemo/output/extract_out
    • Output path: /GOMDADemo/output/index_out
  3. 出力パスとして入力したロケーションを参照します。batch_list.jsonをクリックします。batch_webaccess、batch_was、およびbatch_oradbが表示されます。これで、Webアクセス、WebSphere、およびOracle Databaseのアプリケーション・レイヤーのログ情報を含むデータのレポジトリー(インデックスが設定され、検索可能なレポジトリー)が構築されました。
  4. 本シリーズの第2部: 新規のログタイプのスピーディーな分析を既に実施済みの場合は、batch_inboxも表示されます。この検索可能なレポジトリーに電子メール・データが既に抽出されているのです。
  5. 第2部: 新規のログタイプのスピーディーな分析を実施していない場合は、batch_inboxというディレクトリーは処理結果として表示されません。本情報については、本チュートリアルの「検索のために新規のログタイプを使用する」のセクションに基づいて追加します。

    図3は、Indexアプリケーションがスムーズに実行されたことを示しています。

    図3. Indexアプリケーションを実行する

    上記のステップにおいて既に電子メール・データを追加済みの場合、もしくは新規のカスタムのログタイプを処理する必要がない場合は、本チュートリアルの「検索のために新規のログタイプを使用する」のセクションをスキップし、「検索を行う」のセクションに進むことができます。

検索のために新規のログタイプを使用する

  1. HDFSにおいてFilesタブの下のCreate Directoryアイコンをクリックし、ディレクトリー(batch_inbox under /GOMDADemo/output/extract_out)を作成します。
  2. ダウンロードしたdata_and_config/data/extract_outおよびdata/extract_out/batch_inboxのコンテンツをそれぞれHDFS内の/GOMDADemo/output/extract_outおよび/GOMDADemo/output/extract_out/batch_inboxにコピーします。これで、電子メール・データにインデックスを設定する準備ができました。
  3. BigInsightsのコンソールからApplicationsタブをクリックし、その後ツリー・ビューのアイコンをクリックします。Machine Data Analytics: Searchフォルダーを展開し、Indexアプリケーションを選択します。以下の入力パスと出力パスを入力します。
    • Source directory: /GOMDADemo/output/extract_out
    • Output path: /GOMDADemo/output/index_out
    これによって、Webアクセス、WebSphere、およびOracle Database layersのアプリケーション・レイヤーのデータを既に含んでいるインデックス・レポジトリーに新規の電子メール・データのバッチを追加することができます。
  4. 出力パスとして入力したロケーションを参照し、batch_list.jsonをクリックします。batch_list.jsonには、インデックスの設定が完了し、レポジトリー内で検索可能となった全てのバッチのリストが含まれています。
  5. バッチのリストとして、batch_inboxに加えてbatch_webaccess、batch_was、およびbatch_oradbが含まれていることが分かります。この結果、Webアクセス、WebSphere、およびOracle Databaseのアプリケーション・レイヤーのログ情報と電子メール・データを含むデータのレポジトリー(インデックスが設定され、検索可能なレポジトリー)が構築されました。

検索の準備を行い、ファセットを自動的に検出する

HDFSからコンソールを稼働するマシンにインデックスをコピーすることで、インデックスを検索可能にします。

以下のステップを実行します。

  1. コンソールを稼働しているマシンに対してコマンドラインのセッションを起動します。
  2. BigInsightsの管理者権限(標準設定はbiadmin)でログインします。
  3. アクセラレーターをインストールしたロケーションの下のbinディレクトリーにアクセスします。
  4. リスト2のとおりコマンドを実行します。
    リスト2. copyIndexユーティリティーを実行する
    [user@server bin]$ ./copyIndex.sh 
    -hdfsIndexDir=hdfs://bdvm235.svl.ibm.com:9000/GOMDADemo/output/index_out
                            
    INDEX_DIR = /opt/ibm/accelerators/MDA/mda_indexes
                            
    copying indexes from hdfs.
                            
    Indexes successfully copied to local file system.
                            
    MDA UI can be accessed at for secure install
    'http://<hostname>:8080/datasearch/login.jsp'.
                                
    MDA UI can be accessed at for non-secure install
    'http://<hostname>:8080/datasearch/html/Search.html'.
  5. これで検索が行えるようになりました。ブラウザーを起動し、copyIndex.shユーティリティーの出力結果で示される適切なURLを入力します。
  6. 検索インターフェースが時間グラフを示し、全てのイベントが発生した時間帯の概要を確認できます。表示される棒グラフにマウスオーバーすることによって、時間帯ごとのイベントの数を確認できます。特に確認を行いたい時間帯の棒グラフをクリックすることで、特定の時間帯のデータにドリルダウンすることができます。次のステップでこのプロセスを実行します。

    図4は、時間グラフを示しています。

    図4. 概要データを示す時間グラフ
  7. 左側に示されるファセットは、全てのデータから抽出したフィールドに基づいて検出されたものです。電子メール・データのログタイプからFromとToのファセットが検出されています。

    図5は、全てのデータから検出されたファセットを示しています。

    図5. 全てのデータから検出したファセット

    Sample Outdoors社のデータ・サイエンティストは、ログデータの活用シナリオにおいて活用することのないファセットがいくつかあることに気付きました。

    本チュートリアルの「データの活用シナリオに合わせてユーザー・インターフェースを設定する」のセクションでは、データの活用シナリオに基づいてユーザー・インターフェースを設定する方法について確認できます。

  8. 検索結果(図6を参照)には、全てのデータに関するイベントが表示されます。
    図6. 全てのイベントを示す検索結果

    次に、データのシュリンクダウンとドリルダウンを行います。

電子メールを含むイベントを時系列順に参照する

次に、7月14日の土曜日に発生したイベントと電子メールのデータを確認します。

以下のステップを実行します。

  1. 検索インターフェースを表示するブラウザーのインスタンスから最も長いバー(15:00時から15:59時の時間帯を示すバー)をクリックし、さらに3:58.00 P.M.から3:58.59 P.M.を示す時間帯をクリックします(図7を参照)。
    図7. 7月14日の午後3時から午後4時の時間帯にシュリンクダウンする
  2. 図8で示されるイベントを確認します。
    図8. 電子メールを含むイベント

検索を行う

テキスト検索、ファセット検索、および時系列検索を組み合わせることによって、データを簡単に検索する方法について確認してください。

以下のステップを実行します。

  1. customersupport@sampleoutdoors.comが受領した電子メールの数、受領のタイミング、および送信元について検索します。
    1. Filtered byの近くのXアイコン(図9を参照)をクリックすることによって、時間帯のフィルターを元に戻します。
      図9. 時簡単のフィルターを元に戻す
    2. 図10のとおりToファセットを展開し、customersupport@sampleoutdoors.comをクリックすることで、受領した電子メールの件数、受領のタイミング、および送信先を確認します。
      図10. 電子メールに関する情報
  2. どのイベントがエラーとなっているのかを確認します。
    1. Filter byの近くのXアイコン(図11を参照)をクリックすることによって、CodesAndValuesフィルターを元に戻します。
      図11. CodesAndValuesフィルターを元に戻す
    2. 図12のとおり、Searchのテキストボックスにおいて*error*と入力します。
      図12. どのイベントでエラーが発生しているのか確認する
  3. どのイベントがWebアクセスまたは電子メールにのみ関係しているのかを確認します。
    • 図13のとおりテキスト検索を変更し、batchId:batch_webaccess or batchId:batch_inboxと入力します。
      図13. どのイベントがWebアクセスまたは電子メールにのみ関係しているのかを確認する

      ここではいくつか単純な検索例を確認しました。時間帯、テキスト検索、ファセット検索をさまざまな方法で組み合わせることで、複雑な検索を行うことができます。

  4. customersupport@sampleoutdoorsまたはwebsupport@sampleoutdoorsに送信された電子メールを検索するには、上記のステップと同様にテキスト検索を使用します。

    電子メール・データのようなカスタムのログタイプのファセットについて本機能を実行するには、設定を多少変更する必要があります。本チュートリアルの「インデックスの設定を行い、カスタム・ログタイプのフィールドを追加する」セクションの記載にしたがって設定を変更してください。

データの活用シナリオに合わせてユーザー・インターフェースを設定する

Sample Outdoors社のデータ・サイエンティストはデータの活用シナリオに合わせてユーザー・インターフェースを設定したいと考えました。有益なファセットを残し、その他のファセットは削除したいと考えました。また、検索結果のビューを修正することで、コンテキストに基づいて表示される標準のファセットを削除し、その他のファセットを追加したいと考えました。

以下のステップを実行します。

  • ダウンロード済みのdata_and_config//config/index.configに含まれるindex.configを確認します。
  • アクセラレーターをインストールしたロケーションの/mda_indexes/indexディレクトリーに含まれるindex.configをダウンロード済みのファイルで置き換えます。
  • ダウンロードしたindex.configには、以下の変更が加えられています。
    • 複数のファセットに関して、showFacetフィールドがfalseに設定されています。これにより、ユーザー・インターフェースで当該ファセットが見えなくなります。
    • 複数のファセットに関して、showInResultがfalseに設定されています。これにより、コンテキストに基づいて表示される当該ファセットが実行結果から削除されます。
    • 複数のファセットに関して、showInResultがtrueに設定されています。これにより、実行結果のコンテキストに基づいて表示されるファセットとして、当該ファセットが追加されます。
    • showFacetがfalseに設定されている全てのフィールドに関して、createFacetフィールドがfalseに設定されています。以下の「検索の最適化を行うために、ファセットの設定をインデックスに反映する」のセクションにおいて、本機能を使用します。
  • 以下のとおりコンソールを再起動します。
    • コンソールを稼働しているマシンに対してコマンドラインのセッションを起動します。
    • BigInsightsの管理者権限(標準設定はbiadmin)でログインします。
    • まず$BIGINSIGHTS_HOME/bin/stop.shコンソールを起動し、その後$BIGINSIGHTS_HOME/bin/start.shコンソールを起動します。
  • ユーザー・インターフェースを表示するブラウザー・インスタンスを更新します。
  • 変更内容を確認します。データの活用シナリオに関連しない多くのファセットが表示されなくなりました。実行結果のペインでは、関連するファセットのみが表示されるようになりました。

Sample Outdoors社のデータ・サイエンティストは、変更済みの検索インターフェースを社内チームに対して提供しました。社内チームがタスクをスムーズに実行できるようになった時点で、データ・サイエンティストはコンフィギュレーションをインデックスに反映する作業を行います。

インデックスの設定を行い、カスタム・ログタイプのフィールドを追加する

電子メール・データのログタイプのフィールドをインデックスに追加することで、テキスト検索でこれらのファセットを活用できるようにします。

以下のステップを実行します。

  1. ダウンロード済みのjsonFacetLogAnalysisIndexSchema.xmlファイルを確認します。本ファイルのロケーションは、data_and_config//config/jsonFacetLogAnalysisIndexSchema.xmlです。
  2. HDFS内の/accelerators/MDA/index_config/jsonFacetLogAnalysisIndexSchema.xmlをダウンロード済みのファイルで置き換えます。FilesタブのDeleteボタンとUploadボタンを使用して、このファイルの置き換え作業を行います。
  3. ダウンロードしたバージョンのファイルを開きます。電子メールに特有のフィールドがファイルの最後に追加されています。

このコンフィギュレーションは、次のステップのIndexジョブで使用します。

検索の最適化を行うために、ファセットの設定をインデックスに反映する

Sample Outdoors社のデータ・サイエンティストはユーザー・インターフェースから特定のファセットを削除するためにユーザー・インターフェースを変更しました。社内チームは数日にわたって変更済みのユーザー・インターフェースを使用し、検索をスムーズに行うことが出来ました。これで、データ・サイエンティストはこの設定をインデックスに反映できるようになりました。データの活用シナリオ上必要ないファセットをインデックスから削除することで、インデックスのサイズを削減し、検索時間を短縮することができます。

以下のステップを実行します。

  1. HDFSで、コンソールのFilesタブの下のCreate Directoryアイコンをクリックし、/GOMDADemoの下にconfigディレクトリーを作成します。
  2. コンソールのFilesタブの下のUploadアイコンをクリックし、以前にダウンロードしたindex.config(「データの活用シナリオに合わせてユーザー・インターフェースを設定する」のセクションを参照)を/GOMDADemo/configにアップロードします。
    • 本コンフィギュレーションでは、showFacetがfalseに設定された全てのフィールドに関してcreateFacetフィールドもfalseに設定されていることを確認します。Indexアプリケーションは、これらのフィールドに関してファセットを作成しません。
  3. Indexアプリケーションを再起動するために、以下の変更を行います。
    • 既存のIndexアプリケーションをクリックします。
    • Source directoryおよびOutput pathの入力項目を以前のまま残します。
    • Configurationファイルとして/GOMDADemo/config/index.configを指定します。
    • Re-create Indexesのチェックボックスを選択し、既存のインデックスを削除し、新規のインデックスを作成します。
  4. copyIndex.shユーティリティーを再起動します。今回はYを選択し、既存のインデックスの上書きを行います。
  5. 最適化されたインデックスを参照するために、ブラウザー・インスタンスをリフレッシュします。

設定が完了した検索インターフェースを参照する

データ・サイエンティストは、検索結果を示すペインにおいて電子メール・データのToとFromの値を参照できるようになりました(図14を参照)。

図14. 検索結果において、カスタム・ログタイプのフィールドを参照する

さらに、カスタム・ログタイプのファセットを使用して検索が行えるようにもなりました。SearchのテキストボックスでTo:websupport or To:customersupportという文字列を入力することで、検索が結果を確認できるようになりました(図15を参照)。

図15. 検索結果において、カスタム・ログタイプのフィールドを参照する

Sample Outdoors社のデータ・サイエンティストは設定を完了し、本番システムに実装できるようになりました。

Sample Outdoorsの社内では、ますます多くグのグループが検索可能な共通のレポジトリーにマシンデータを追加するようになりました。毎日新規のマシンデータが追加され、これまで得られなかった知見が得られるようになりました。

結論

架空のSample Outdoors社の状況に基づいて、IBM Accelerator for Machine Data Analyticsを使用してさまざまなログデータを一貫性のある方法で参照できるレポジトリーを構築し、検索を行う方法を確認しました。カスタマイズしたログタイプが標準のログタイプと連携するプロセスや、ログに関連するファセットを検出するプロセスについても確認しました。さらに、コンフィギュレーションを調整することにより、データの活用シナリオに沿った追加ソリューションを構築する方法についても確認しました。

謝辞

本記事の技術的な内容をレビューしてくれたTom ChenとAmit Raiに感謝します。また、本機能の構築に関与したマシンデータ・アクセラレーター・チームの全メンバーに感謝します。


ダウンロード可能なリソース


関連トピック


コメント

コメントを登録するにはサインインあるいは登録してください。

static.content.url=http://www.ibm.com/developerworks/js/artrating/
SITE_ID=60
Zone=Information Management
ArticleID=953834
ArticleTitle=IBM Accelerator for Machine Data Analytics第3部: マシンデータの検索をスピードアップする
publish-date=11222013