新しい欠陥が発生した場合に、別タスクを追加するべきか、追加学習で対応するべきか

追加学習で新しい欠陥を同じタスク(モデル)に追加学習させるべきかどうかはケースバイケースになります。

すでに運用しているモデルが成熟している(精度的に問題ない)場合
新しい欠陥を追加学習することによって、他の欠陥の精度も再確認する必要があるため
別タスクを追加して、そちらで新しい欠陥を検出させる方が無難です。

まだ、他の欠陥に関しても精度確認中であれば
処理負荷的に有利になるので、同じタスクに新しい欠陥を追加する方が良いと思います。

なお、新しく追加したい欠陥がこれまでに学習している欠陥と全く異なる特徴の場合
最初から別のタスクで行う形を推奨します。

「いいね!」 4

学習する画像を増やして追加学習のチェックを入れて学習した場合とチェックを入れないで学習した場合ではどういう違いがありますか?

また、学習エポック数は数値が高い低いでどう違いますか?

追加学習にチェック(ON)を入れて学習した場合は、最後に学習した(採用している)学習パラメータを初期値として学習を開始します。
チェックを入れないと初期値はランダムに決定されて学習が開始されます。

厳密には違いますが、下記のようなイメージです。
Deep Learning は学習エポックが進むごとに、与えられた正解(アノテーション)データに近づくよう
下記イメージ画像Wの値を更新していきます。

image

初回はランダム(適当)な重み[W]から学習がスタートするのですが
追加学習ONの時は、前回の学習で学んだ(更新した)重みを初期値として学習を再開します。
これをOFFにすると、また最初から学習を再開します。

学習エポック数は、数値が高いほど正解データに近づける勉強回数を増やすことができます。
エポック数が小さいと正解まで全く辿りつけない場合があるので、少し無駄になる可能性はありますが基本的にはエポック数は多い方が良いです。

MENOU-TEは設定したエポック数分学習を継続しますが、途中で止めてもその時点の最良解でモデル生成できますので、大きめに設定して放置して「解析画像」タブから現在の結果を見て継続するか止めるかを決めるのが便利です!
(実行時のBest Lossのモデルで解析を実施します)

ありがとうございます。
貴重な情報をお聞きすることができました!

「いいね!」 1

こちらの件について質問があります。

学習データを追加して追加学習を行う際、追加タイミングよって結果は影響されるでしょうか。
例えば、エポック数3000で過剰検出が3枚でた場合、3枚を検出無しとラベル付けしてエポック数3000で追加学習するのと、検出無しとした過剰検出3枚を最初から入れた状態でエポック数6000で学習させるのでは、精度に違いは出るでしょうか。

また、追加学習について、試行錯誤を繰り返し履歴が溜まってくると、どの学習データを元に追加学習を行ったのか、そのモデルの総合計エポック数はどのくらいなのか、がわからなくなってしまうのですが、履歴の確認方法などはあるでしょうか。