Scale Spaceを学んでみました。

      No Comments on Scale Spaceを学んでみました。

画像を解析する場合において差分法は良くしようされます。差分法は簡単ですが、ノイズに影響され易いです。結局に要るか要らないか、沢山の特徴候補が出てきます。これを軽減するため、ガウススムージングはよく使用されます。しかし、単なるガウススムージングでは、ノイズの軽減には有効ですが、あまり消せません。いわば、更なる一層のスムージングが必要になります。

Scale Spaceは実際に一種のスムージングとして考えられます。一枚の画像のサイズを段々に小さくして行きます。大きい画像は下の層に置かれ、小さい画像は上の層に置かれるように考えますと、ピラミッドのような構想ができます。このピラミッドはスケールスペース(Scale Space)と言われます。それぞれの層にそれぞれの候補特徴があります。特定の特徴がもし主要特徴であれば、複数の層に渡って、この特徴が保持されると考えられます。これがポイントです。ノイズでできた候補特徴は層と層の間のチェックで段々消されます。最後に残る物として、有望な候補特徴のみです。

多くの層を作るので、時間掛かると思われますが、そんなに掛からないかもしれません。層毎に画像が小さくなりますので、\( n \)層目のサイズは\( \frac{2}{1.5^n} \)に比例します。つまり、ピラミッドの上に行けば、画像のサイズは急激に小さくなります。また、最初の処理に沢山の候補特徴が出てきますが、次の画像層に素早く落とされます。ピラミッドの毎層にも候補特徴が追加されますが、大した数にはなりません。

私の実験に、512×512の画像を使用しました。0.43秒で結果が出ます。最初の層に17867個の候補特徴が検出されますが、5階層を経て539個に収まります。ただし、実際に実験してみれば分かりますが、やはりチューニングが必要です。パラメータによって、画像別に効果がかなり違う場合があります。また実験しながら、いくつかの注意点があることを気づきました。

注意点1:画像補間とスムージングのステップにかなり注意が必要です。階層間の画像の内容の相対位置がずれないように確保しなければなりません。そうでなければ、下位階層の画像内容が上位階層に確認できなくなります。

注意点2:終了までの特徴候補数は何らかの制限が必要です。そうでなければ、殆どは淘汰されます。原因は簡単です。ピラミッドは段々に一点に集中します。情報量が小さくなり、全画像が少ない数点にブレンドします。最中的に特徴候補に値しない点が対応しているすべての候補特徴は淘汰されます。最後の一点にカバーされる候補特徴のみが残ります。

017.scale_invariant_feature_transform_0

Leave a Reply

Your email address will not be published. Required fields are marked *