Model Configurations:Anomaly Detection (Autoencoder)

モデリングメソッド Anomaly Detection (Autoencoder)Model > Configurations)が選択されていると、<output> タブの Model Configuration 領域には以下のエレメントが含まれます。出力ごとに個別のタブがあります。

Output Properties 領域とウィンドウ最下部のボタン行についての説明は、 Model Configurations (ASCMO-DYNAMIC)を参照してください。

Training Labels

モデルトレーニングを行いたいラベルを割り当てます。複数のラベルを使用する場合は、1つ以上のラベルに関連するすべてのデータが使用されます。

ラベルを割り当てるには、フィールドをダブルクリックして名前をキー入力します。リストに提示されたデータセットから選択することができます。

ラベルを削除するには、ラベルの x、または Del を使用します。

Validation Labels

検証データとして使用したいデータのラベルを割り当てます。複数のラベルを使用する場合は、1つ以上のラベルに関連するすべてのデータが使用されます。

ラベルを割り当てるには、フィールドをダブルクリックして名前をキー入力します。リストに提示されたデータセットから選択することができます。

ラベルを削除するには、ラベルの x、または Del を使用します。

注記 

いずれのデータにも検証ラベルが割り当てられていない場合は、検証なしでトレーニングが行われます。ログウィンドウにメッセージが表示されます。Manage Datasets ウィンドウで、ラベルをデータに割り当てることができます。

Network Layout

Layer Type

ネットワークセルのタイプを選択します。再帰型ニューラルネットワーク(Recurrent Neural Networks)によるモデル予測を参照してください。

Number of Layers

層の数を入力します。層の数に応じて、Cell Memory Size の入力フィールド数が変わります。

Cell Memory Size

ニューラルネットワークのノード当たりのセルメモリサイズを入力します。一般的な値の範囲は[5, 20]です。実際のメモリセルのサイズはセルタイプに依存します。

最終層:セルメモリサイズは入力の数なので、変更できません。

第1層と第3層:セルメモリサイズは入力の数の2倍です。

第2層:セルメモリサイズは入力の数から1を引いた数で、「ボトルネック」と呼ばれます。

より多くの、または少ない層を使用することができますが、ボトルネックは常に必要であり、最終層の数は必ず入力ニューロンの数となります。

注記:1つのセルのメモリサイズは、必ず入力の総数より小さくする必要ありますい。

Activation Function

すべての層で使用される活性化関数を選択します。デフォルトは Tanh で、別の関数を使うと、精度は落ちても計算効率が良くなる可能性があります。ドロップダウンの隣の をクリックすると、開くActivation Function Comparison ウィンドウ が開きます。

Recurrent Activation Function

すべての層で使用されるリカレント活性化関数を選択します。デフォルトは Sigmoid で、別の関数を使うと、精度は落ちても計算効率が良くなる可能性があります。ドロップダウンの隣の をクリックすると、開くActivation Function Comparison ウィンドウ が開きます。

Number of Network Parameters

現在の設定(潜在的な初期化ネットワークを含む)においてモデルトレーニングで使用されるパラメータの数を、動的に表示します。

Training Properties

Continue Training

新しいトレーニングを開始する代わりに、可能であれば既存のモデルトレーニングと反復を続行するには、このオプションをオンにします。Training Properties を変更して続行することができます。Network Layout は、変更せずにそのまま保持する必要があります。たとえば、複雑な活性化関数でトレーニングした後、ECUにとってより効率的な関数に切り替え、シームレスにトレーニングを続けることができます。Continue Training は、オプティマイザとして Stochastic Gradient Descentを使用する場合(Manual Detailed Training Settings > Optimizer)に最適であるため、Continue Training がオンになっている場合は、これが自動的に選択されます。

Number of Multistarts

異なる開始値で行う反復の回数を入力します。値が大きいとモデル品質が向上しますが、モデルトレーニングの所要時間が長くなります。デフォルトは3です。

Number of Iterations

モデルトレーニングにおいて実施する反復回数を入力します。検証データで10回反復してもモデル性能が向上しない場合、トレーニングは中止されます。ディープラーニングにおいて、これはよく「エポック数」と呼ばれます。

Lookback Length

データを分割した配列のサイズを入力します。基盤となるオプティマイザは、ここで指定された長さに固定されたバッチを取得します。デフォルトは100です。

現在のデータの長さがこの程度のステップ数以下であれば、Lookback Length=100での最適化も可能ですが、スニペット長をより短くすることをお勧めします。値が小さいほどトレーニングが速くなります。

Dropout

トレーニング中にランダムに非活性化するニューロンの割合を、0~0.9の範囲で入力します。非活性化は、ニューロンの重みを一時的に0にするものです。これにより、過剰適合(オーバーフィッティング)を回避することができます。入力された値が0の場合は非活性化されず、0.1にすると10%のニューロンが一時的に0に設定されます。一般的な値の範囲は[0, 0.2]です。

Recurrent Dropout

トレーニング中に非活性化するリカレント状態のニューロンの割合を、0~0.9の範囲で入力します。非活性化は、ニューロンの重みを一時的に0にするものです。これにより、過剰適合(オーバーフィッティング)を回避することができます。入力された値が0の場合は非活性化されず、0.1にすると10%のニューロンが一時的に0に設定されます。一般的な値の範囲は[0, 0.2]です。

Plot RMSE during Training

トレーニングデータと検証データのRMSE値を開くモデルトレーニング中に表示したい場合は、オンにします。

Activate Detailed Training Settings

チェックボックスをオンにすると、開くDetailed Training Settings セクションが表示されます。

  • Optimizer

    モデルのトレーニングに使用するオプティマイザを選択します。Continue Training チェックボックスをオンした場合は、Stochastic Gradient Descent (for continue) を選択することを強く推奨します。

  • Data Scaling

    モデルトレーニング用のスケールバリアントを選択します。

    モデルトレーニングの前に、複数の異なる入力信号が同様の範囲にマッピングされるよう、トレーニングデータが内部でスケーリングされます。ASCMO-DYNAMIC は3つのスケーリングタイプを提供します。

    Normalization

     を [-1, 1] に含まれる長さ 1 の区間にスケーリングします。

    Robust Normalization: 

    データに外れ値が存在する場合は、これが最も望ましいスケーリングメソッドになります。

    Standardization:(Zスコア正規化)

トレーニングの詳細な設定は、反復のたびに調整されます。最初の反復では Start Value が使用され、最後の反復では Final Value が使用されます。その間の値は補間されます。

  • No. of Optimizer Substeps

    オプティマイザの1回の更新において、長さが Lookback Length のシーケンスをいくつ使用するかを決定します。デフォルト値は100で、これはディープラーニングで使用されるバッチサイズに該当します。値が大きいほどバッチサイズは小さくなり、値が小さいほどバッチサイズは大きくなります。値が小さいとオプティマイザのステップの実行頻度が少なくなるため、トレーニングが速くなります。

  • Steps Between Training Snippets

    トレーニングスニペット間のステップを設定します。この値は、モデルのトレーニング用に選択されたスニペットの開始位置間のステップのサイズを決定します。つまり、トレーニングスニペットのすべての開始位置ではなく、n番目の位置が開始位置として使用されます。値が大きいほど、モデルトレーニングが速くなります。値1が最も良いモデルになります。1より大きな値(例:10)では、メモリ消費量は減少しますが、より多くの反復が必要になる場合があります。

  • Learning Rate

    オプティマイザのステップサイズを入力します。デフォルト値は0.01です。有効な値の範囲は[0, 1]です。

    学習率が大きいほど、一般的にトレーニングが速くなります。しかし、学習率が大きいと収束が妨げられ、収束できなくなる場合もあります。

 

Anomaly Percentile

正常とされる再構成誤差の百分位数を入力します。モデル選択に検証データセットが使用されている場合は、この値は検証データに基づいて計算され、そうでない場合はトレーニングデータに基づいて計算されます。値は異常スコアの0.5にマッピングされます。

Use Signalwise Percentile Values

各信号について個別にエラーしきい値を計算し、合計スコアを個々のスコアの最大値に設定したい場合は、オンにします。

Smoothing

メディアンフィルタのステップ数として、データポイントのウィンドウサイズの値を入力します。異常予測のため、信号が平滑化されます。これによって、より良い結果が導き出されます。

Smoothing Window Centered

スムージングウィンドウの中心を評価点にしたい場合、つまり未来の点も考慮したい場合は、オンにします。オフにすると、スムージングウィンドウでの計算に過去のポイントのみが使用されます。

Round Score

オンの場合はスコアが丸められ、しきい値を下回ると0、そうでない場合は1に設定されます。

オフの場合、スコアは[0,1]の連続値になります。

Rounding Threshold

異常予測しきい値(その値を下回るとモデルの予測値が自動的に0に設定され、それ以外は1になります)を入力します。しきい値は、Receiver Operating Characteristic(Model > Anomaly Detection: Receiver Operating Characteristic)に表示されます。

Inputs used in Model Training

この領域にはモデルのすべての入力が表示されます。ここで各入力をモデルトレーニングに含めるかどうかを指定することができます。

デフォルトにおいては、すべての入力が含まれます。

参照

Model Configurations (ASCMO-DYNAMIC)

Model Configurations:Recurrent Neural Network (RNN)