AzureR

連載:Azure HDInsightでR Serverを利用する(パフォーマンス測定編)

はじめに

みなさん、こんにちは! DATUM STUDIOの宇佐見です。

引き続き、Azure HDInsightでR Serverを利用していきます。 前回作成したR Serverのクラスターを利用して、R Serverのパフォーマンスを測定していきます。

前回の記事は以下になります。

連載:Azure HDInsightでR Serverを利用する(環境構築編)

パフォーマンス測定

スペック

各ノードのスペックは以下の通りとなります。 パフォーマンステストに応じてワーカーノードの数は1もしくは4に変更しています。

ノード種別スペック台数役割
ワーカーノードA31、もしくは4分散処理を担当する
ヘッドノードA32分散処理の実行指示する
ZooKeeperノードA23分散処理のコーディネートを行う
エッジノードA31RStudio Serverが起動しており、ヘッドノードに指示する

データ読み込み

さて早速データの読み込みを行っていきます。 ついでにモデルの定義についても行ってしまいます。

のちのパフォーマンステストでデータ量を変えてテストを行っているため、 下記のコードでは2ヶ月分のみの読み込みとしています。 読み込む月数に応じてコメントを外す処理が必要となります。

データ量については1ヶ月で100MB強、50万レコード程度です。 12ヶ月分で1.5GB、600万レコード程度のデータとなります。

従来の手法

ではデータを2ヶ月分に限定して従来のロジスティック回帰を適用してみます。

とエラーが出てしまい、関数を実行することができません。 行列演算のメモリ割り当て時にメモリが足りないため、エラーが起きていると推測されます。 ちなみに1ヶ月分だけでもメモリ不足は起きます。

従来の手法ではサーバのスケールアップを考慮に入れるか、 サンプリングをしてデータを少量にするなどで無理矢理処理を通す必要があります。

エッジノード環境での実施

さてR Serverではワーカーノードを利用せず、エッジノードのみで計算させる機能があります。 これを利用してロジスティック回帰のパフォーマンスのテストをしてみます。

2ヶ月分のデータをエッジノード環境で実行した結果は以下のようになりました。

このelapsedが実際にかかった時間(秒数)を表しています。 今後はelapsedのみに注目していきます。

従来のRの関数では実行できませんでしたが、R Serverに実装されているRevoScaleRパッケージを用いることでエッジノード環境だけでも4分弱で実行することができました。

ワーカーノードを使ってのHadoop,Spark環境での実行

ここからパフォーマンステストの本番になります。 以下がロジスティック回帰のパフォーマンステストに利用するコードになります。

以下の条件を変えてみることでパフォーマンスを測りました。

  • データ量 : 2ヶ月、6ヶ月、12ヶ月
  • ワーカーノード数 : 1、4
  • 内部ロジック : Hadoop、Spark
内部ロジックがHadoopの場合
ワーカーノード数2ヶ月6ヶ月12ヶ月
1709.319秒766.429秒1181.775秒
4668.102秒648.291秒639.739秒
内部ロジックがSparkの場合
ワーカーノード数2ヶ月6ヶ月12ヶ月
1193.995秒254.416秒389.697秒
4194.669秒256.130秒398.753秒

非常に興味深い結果となりました。

Sparkの場合はワーカーノード数を変えてもまったく処理にかかった時間は変わりませんでした。 つまり、12ヶ月1.5GB程度のデータ量ではワーカーノードを増やす必要はなさそうです。 Hadoopの場合は12ヶ月のデータ量ではコア数を増やすことによりようやく速度が向上しています。

またデータ量が少ない場合では、エッジノード環境のほうがHadoopの環境よりも速いです。 これはHadoopの実行時にオーバーヘッドがあるためと推測されます。 恐らくもっとデータを増やせばエッジノード環境を上回るでしょう。

特に内部ロジックにこだわりがないならばSparkを使うことが最も効率的であろうと思います。

R Serverへの実装

RevoScaleRパッケージについて

R Serverではマルチプロセスでの実行用パッケージとして、RevoScaleRがはじめからインストールされています。

各分析関数の引数については対応するbase関数や各パッケージの関数とほぼ同じです。

また実行結果として各関数名と同名のクラスが戻り値として帰ってきます。 クラス名は違いますが、対応するbase関数や各パッケージの関数の出力結果と同等になるように作られています。

random forestの例

RevoScaleRにおいてrandom forestは実装されておらず、代わりにdecision forestsが実装されています。 decision forestsはrandom forestをベースに実装されており、こちらを利用すればよいです。 余談ですがAzure Machine Learningもdecision forestsのみが実装されています。

ソースコードを流用し、関数名をrxLogitからrxDForestに変更するだけで動作します。 今回はお試しで実行したため、特にパラメータチューニングは行っておりません。 また時間の関係上、データ量12ヶ月、4ワーカーノード、Sparkでの実行結果のみとなります。

R Serverを利用するに当たってのコツ

前処理を済ませておく

今回は、サンプルデータを利用しましたが実際のビジネスデータでは前処理が必須となります。 しかしR Server上では従来のRとは異なり、メモリ上でデータフレームを扱うのではなく ファイルで扱うため前処理を行うことが非常に難しいです。 難しいというよりも従来のRでの処理のように簡単に確認し難いが正しいかもしれません。

そのため、他のサービスで十分な前処理を行った後、各種統計モデルを適用していくべきかと思われます。

ローカル環境での検証を行う

サンプリングなどでスモールデータの状態とし、ローカル環境で統計モデルのパラメータの当たりをある程度つけたのち、 それをR Serverの環境に移行すべきです。

R Serverは複数のノードで構成されるため利用料金はすぐ高額になってしまいます。 起動時間を最小限とするため、ある程度ローカル環境で当たりをつけておくことは非常に有効かと思われます。

データ量の見極めを行う

今回のパフォーマンステストは12ヶ月分で1.5GB、600万レコード程度のデータを用いました。 この程度のデータであればワーカーノードを複数必要とするR Serverでなくとも、 エッジノード環境でのみ動作するR Openでも十分に動作するデータサイズでした。 そのため、データ量によって適切な環境で実行すべきです。

またAmbariもAzure HDInsight起動時に自動的に実行されるため、 各ワーカーノードに処理が分散されているかなどを確認するとよいです。 ※Ambari…Hadoopのログやアクティビティをモニタリングし、設定を変更することができるウェブツール

今後の要望

R Serverは確かにビッグデータにも対応しており、 ローカル環境では実行できないデータについても様々な統計モデリングを可能としてくれます。 しかしローカル環境では実行できないがワーカーノードを利用するまでもないデータ量の場合は、 HDInsight経由ではなく、データサイエンス仮想マシンからの運用となります。

ローカル環境、データサイエンス仮想マシン環境、Azure HDInsight R Server環境といった3種類の別個の環境を作成するのは非常に手間となってしまいます。

  1. 1. HDInsightからエッジノードのみの環境を作成する(これまでのデータサイエンス仮想マシン環境相当)
  2. 2. エッジノードのみでミドルデータでの検証を行う
  3. 3. Azure Portal上からヘッドノード、ZooKeeperノード、ワーカーノードの起動をする
  4. 4. ワーカーノードも駆使してビッグデータでの検証を行う

といったシームレスな拡張ができれば更に使いやすくなるのではと思います。


またRevoScaleR packageについては各関数の処理中のRのコンソールにログを表示するなどのオプションがあれば更に分かりやすくなると思いました。 Ambariを見たとしてもどの程度MapReduceの処理が残っているのかわかりづらく、残り時間を推測することは難しいです。

ひょっとしたら実装済みで私が浅学なだけなのかもしれません。 その場合はドキュメントの分かりやすいところに記述があればと思います。

おわりに

さて2回に渡ってR Serverを利用し、紹介させていただきました。 今後、機会があれば実務でも是非R Serverを使ってみたいと思っています。 今まではハードルが高かったR ServerがAzure HDInsightでお手軽に利用できるようになりました。 皆様も今後のビッグデータの統計モデリングの際には選択肢の1つとして考慮してみてはいかがでしょうか?

12/11(水)セミナーを開催いたします!



こんなお悩みや課題はありませんか?
✓データ活用するためには何を始めればよいかわからない
✓データマネジメントを行うために必要なことが知りたい
✓実績のある会社にAI構築をお願いしたいがなかなか見つからない

こんなお悩みをお持ちの方に向けて、12月11日(水)表参道にて、無料セミナーを開催いたします。
今回はSupership グループのSupership株式会社・DATUM STUDIO株式会社・ちゅらデータ株式会社の3社で開催します。

▼▼▼▼詳細は以下バナーをクリック!▼▼▼▼

このページをシェアする: