「画像処理」という言葉も最近ではごく一般的なものになりましたが、実際はどんな用途で使われているのでしょうか?
「不良品を見つける」「寸法を測る」「文字を読み取る」「品種を判別する」・・・すべて正解です。
では、どのようにこのような計測を行っているのでしょうか?
簡単にいうと、画像処理では、撮影した画像の中の「白い/黒い」「明るい/暗い」「濃い/薄い」や「色の違い」といった何らかの変化点・差を基準に判断を行っています。
例えば白い製品についた「黒い汚れ」を検出したいのであれば、白→黒への変化、つまり画像内の「黒い部分が増えた」もしくは「白い部分が減った」という情報を「汚れ」として認識させることになります。
画像センサには『イメージセンサ』という部品が使われています。イメージセンサとは、光を読み取る極小サイズのセンサの集合体です。レンズなどの光学系を通して撮影対象物の情報を受光面に結像させ、電気信号に変換するデバイスです。
電気的な言い方をすると難しくなりますが、簡単に言えば、従来のフィルム式カメラにおけるフィルムに相当するものです。
一般的には『CCD』や『CMOS』といった素子が家電製品などで見受けられますが、これらがイメージセンサに相当します。
イメージセンサそのものは光を読み取るセンサですので、明るさの違いはわかっても色の違いはわかりません。そのためカラー画像として認識する為には、「カラーフィルタ」というものを使う必要があります。これは特定の色の光だけを通すフィルタで、これを画素ごとに取り付けています。
ほとんどのカラーイメージセンサでは、「ベイヤー配列」と呼ばれる色配置のフィルタを使っています。フィルタに使われる色は「光の三原色」といわれる赤・緑・青(RGB)の組み合わせで、緑のフィルタが赤や青の2倍使われています。これは人の目においては緑色の光が感度が高い(明るく感じる)ためで、撮影画像の解像度を高くする効果があります。
イメージセンサは左のように小さな“マス目”が集まったもので、単位としては「画素」「ピクセル」が使われます。家電製品のデジタルカメラなどでよく「〜万画素」と言ったコピーを見かけますが、例えば「1200万画素」のデジタルカメラであれば、この“マス目”が1200万個あるということになります。
一般的に画素数が多くなればなるほどより分解能の高い計測が行えますが、反面、処理時間が増加するというデメリットが生じます。また、処理時間を短縮するためにはより高性能のCPUやDSP(※)を搭載しなければならないため、ハードウェアの高額化を招く結果となります。
※DSP=Digital Signal Processorの略。特定の(この場合画像)演算処理に特化したプロセッサ。
イメージセンサの受光素子の総数のことを総画素数といい、実際に撮影に使用される素子の数を有効画素数と呼びます。
イメージセンサ上の受光素子の配列において、周辺部分はノイズなどの影響を受けやすいため、周辺部を除いた部分を実際の撮影に使用します。よって、機器の実際の性能は有効画素数に依存することになります。
モノクロ画像の場合、どんな色であっても、モニタ上では上のような黒(濃色・暗色)から白(淡色・明色)の階調変化として表示されます。二値化処理では、この階調のある一点を境にして白と黒の二つの値に分けてしまいます。この時、検査対象を白もしくは黒に定義し、計測を行うことを二値化計測と呼びます。
カラー処理の場合は、色の三要素であるR/G/Bを基準に特定の色範囲のみを検査対象とします。
モノクロ画像 | 二値化画像 |
オレンジ色を抽出対象に設定 | 色抽出二値化画像 |
二値化処理とは違い、撮影した画像そのままでの処理を行うのが「濃淡処理」(「グレー処理」)です。
二値化処理では「白」か「黒」(カラー処理の場合は抽出色かそれ以外の色)の2階調の情報としての処理しかできませんが、濃淡処理では多階調処理(機種により1024階調や256階調、64階調等がある)により中間の色も処理できる為、はるかに高精度の計測が可能となります。
元画像 | 処理画像 |
元画像 | 処理画像(256諧調化) |
登録された画像パターン(サーチモデル)と似通っている部分を撮像画面のサーチ範囲内から探し出す処理です。どのくらい似ているかを表す値としての「相関値」とサーチを見つけた位置座標データを取得することができます。