Elektronik 07/2013 - AOI - Fakty i mity o megapikselach
Czy ilość megapikseli w matrycy kamery jest głównym wyznacznikiem jakości obrazu? Odpowiedź w naszym artykule.
AOI – fakty i mity o megapikselach
Jak często słyszymy teksty „…ta kamera jest rewelacyjna aż 12 Mpx…” lub „…im więcej Mpx tym lepiej”. Może w przypadku aparatu, który przysłowiowo jest używany u cioci na imieninach, nie będzie to miało większego znaczenia, ale w przypadku urządzeń precyzyjnych jak najbardziej. Często słyszę i oglądam informacje o kamerach zastosowanych w urządzeniach służących do kontroli optycznej i nie mogę wyjść z podziwu nad siłą marketingu stworzonego wokół megapikseli. Czy matryca jest najważniejszym elementem całego układu optycznego? Co powinniśmy wiedzieć o optyce, aby nie dać się porwać magicznemu oznaczeniu Mpx. Przyjrzyjmy się temu bliżej.
Kamera, która będzie odpowiadała za rejestrowanie obrazu, składa się z kilku kluczowych elementów: obiektywu, który będzie skupiała wpadające światło, tak aby tworzyło ostry obraz na przetworniku oraz samego przetwornika najczęściej CCD.
Podsumowując – obiektyw będzie odpowiedzialny za ilość i jakość wpuszczonego światła do matrycy. Istotny wpływ będzie miało to, czy obiektyw jest telecentryczny, czy e-centryczny i w jakiej rozdzielczości pozwoli nam oglądać szczegóły. Teraz skupmy się na matrycy. Wyobraźcie sobie sytuację, w której mamy do czynienia ze środowiskiem zamkniętym np. w urządzeniu AOI – nasz obiektyw musi pochłonąć maksymalną ilość światła odbitego od badanego obiektu i dostarczyć do matrycy. W takiej sytuacji będzie bardzo istotne, ile tego światła przypadnie na każdy piksel w matrycy. Olbrzymie znaczenie ma jasność obiektywu oraz wielkość pikseli na matrycy.
Oczekiwania
Aby bardziej zobrazować problem, przyjrzyjmy się megapikselom w normalnym zastosowaniu, czyli przy robieniu zwykłych zdjęć.
Chyba każdemu zdarzyło się robić zdjęcia późnym wieczorem, nocą lub w domu przy kiepskim oświetleniu. Efekt – raczej marny. Nawet jeśli masz aparat był wyposażony w 8, 12 lub 24 Mpx.w tym przypadku winę ponosi nie tylko obiektyw, który nie posiadał odpowiedniej „jasności” np. 1,4; 1,8; 3,5; 4,5; (parametr ten charakteryzuje ilość światła przepuszczonego przez obiektyw do wnętrza kamery i padającego na sensor) ale też nasza matryca, która nie była w stanie pochłonąć odpowiedniej ilości światła.
Cała sztuka polega na dopasowaniu obiektywu oraz matrycy do środowiska, w którym nasz układ będzie pracował. Na rysunku (rysunek w wersji PDF artykułu) możemy zaobserwować przykładowy wycinek większego zdjęcia, na którym widać nienaturalne odwzorowanie kolorów – to nie Photoshop. Zdjęcie to 4% całości oryginalnego obrazu, uzyskany efekt nie jest winą drgań kamery, szybkości migawki lub przysłony. Prawda jest taka, że zdjęcie wygląda fatalnie a wszystko to przez liczbę megapikseli. Zdjęcie zostało zrobione za pomocą kamery wyposażonej w 11,8 Mpx i matrycy 1/2,33. To znaczy, że każdy piksel miał 1,5 x 1,5 µm. W momencie, kiedy piksele są tak małe, różnica pomiędzy losową liczbą fotonów trafiającą do sąsiadujących bardzo blisko siebie pikseli, może dodawać szum do obrazu. Aby rozwiązać ten problem, procesor aparatu stosuje algorytm tłumienia szumu, który niestety rozmazuje wszystkie szczegóły w tle – i oto efekt.
Teraz powróćmy w naszych badaniach do rozwiązań w przemyśle – tutaj wcale nie będzie lepiej, mamy trudniejsze warunki do zrobienia zdjęcia, a dodatkowo robimy to wszystko w skali makro. Oczywiście nikt nie robi zdjęcia dla samego zdjęcia – oprogramowanie maszyny będzie analizowało nasze zdjęcie najdokładniej, jak się da – każdy szczegół się liczy, wybrane algorytmy będą porównywały, zliczały i analizowały dla nas wybrane elementy naszego zdjęcia. Czym więcej szumów i zakłóceń – tym więcej problemów z dokładnością naszego sprzętu. I tutaj wszystko działa dokładnie na tej samej zasadzie, jak w przypadku komercyjnych rozwiązań.
Oczywiście liczba megapikseli działa na wyobraźnię w taki sam sposób – nadal mamy w głowie: czym więcej, tym lepiej – to właśnie mit. Tak naprawdę dzięki liczbie Mpx otrzymamy większy rozmiar pola roboczego, ale kosztem jakości obrazu – coś za coś. W przypadku maszyn dochodzą jeszcze dodatkowe wymagania od systemu optycznego – musi wykonywać operacje „w locie”, najlepiej przy 60-ciu klatkach na sekundę i w nieskazitelnej jakości. Wokół naszej kamery zabudowane są dodatkowe źródła światła, które mają na celu odwzorowanie topografii naszej płytki PCB, co determinuje rozmiary samej kamery i obiektywu. Wybierając matrycę o większej liczbie pikseli – zmniejszamy ich rozmiar – cała sztuka polega na dobraniu odpowiednich proporcji matrycy i megapikseli do obiektywu, tak aby uzyskać najbardziej pożądany efekt – nie tylko marketingowy, ale głównie jakościowy.
No dobrze, omówiliśmy sobie układ optyczny, ale pozostaje jeszcze jeden szczegół – nasz obraz musi zostać przesłany błyskawicznie do komputera w celu analizy, więc powstaje pytanie: jak to zrobić przy obecnych rozwiązaniach transmisji danych?
USB 2.0, USB 3.0, FireWire, CameraLink, które rozwiązanie zapewni odpowiednią transmisję dla naszych rozwiązań? Najbliższy ideału będzie CameraLink oferujący w pełnej konfiguracji transfer 680 MB/s. Lecz większość urządzeń nie posiada tego rozwiązania, a USB 3.0 jeszcze nie spopularyzowane, aby zapewnić równie szybką transmisję. Bardzo rzadko można spotkać się z rozwiązaniami szytymi „na miarę”, nawet jeśli nasze urządzenie robi piękne zdjęcia, to system z automatu „przytnie” nasze zdjęcie i megapiksele do rozmiaru możliwego do obróbki przez nasz komputer. Jeżeli chcielibyśmy analizować całość pobranych danych z kamery przy wolnym podłączeniu transmisyjnym – to praca komputera zostałaby sparaliżowana, jak podczas ataku hakerów. Nawet jeśli by nam się to w jakiś sposób udało to… na dziś istnieje niewiele komputerów, które poradziłyby sobie z taką ilością danych.
Rozwiązania „na miarę” to rzadkość. Pamiętajmy o tym przy wyborze urządzeń AOI, jak i przy wyborze sprzętu do użytku komercyjnego.
PB Technik
pbtechnik.com.pl