Georgian Bay - Letni Krajobraz
Zmiana sposobu robienia zdjęć
W ostatnich latach wielu producentów wyprodukowało aparaty, które są w stanie wytwarzać obrazy o wyższej rozdzielczości dzięki tak zwanej technologii Sensor-Shift. Technologia ta stała się możliwa wraz z pojawieniem się stabilizacji obrazu w ciele (IBIS). Projektanci aparatów wykorzystali IBIS jako sposób na niewiarygodny wzrost rozdzielczości obrazu lub poprawę informacji o kolorze wykonywanych zdjęć.
Istnieje wiele nazw dla tej technologii, w tym tryb wysokiej rozdzielczości, system rozdzielczości przesunięcia pikseli, tryb wielokrotnego fotografowania z przesunięciem piksela lub bardziej ogólne nazwy przesunięcia pikseli / przesunięcia czujnika, ale ostatecznie wszystkie koncepcje stojące za tą technologią są to samo. Wiele zdjęć tego samego widoku jest wykonywanych w taki sposób, że obrazy są nakładane i łączone, aby utworzyć pojedynczy, zwykle duży obraz o wysokiej rozdzielczości.
Nowa technologia ma mocne i słabe strony, a zrozumienie jej działania może pomóc w samodzielnym tworzeniu lepszych zdjęć, jeśli masz aparat, który to potrafi.
UWAGA: Ponieważ witryny internetowe używają obrazów o niższej rozdzielczości, obrazy użyte w tym artykule zostały zmniejszone i zmodyfikowane, aby symulować różnice między obrazami o wysokiej rozdzielczości a standardowym wyjściem z kamer. Patrząc na obrazy w całości, obrazy wyglądają podobnie, ale kiedy zbliżysz się do szczegółów na obrazach, wtedy zaczniesz dostrzegać różnice.
Stokrotki Gerbera w pomieszczeniach, standardowa rozdzielczość (20 MP) Olympus OMD EM 1 Mark II
Stokrotki Gerbera w pomieszczeniach, o wysokiej rozdzielczości (50 MP) Olympus OMD EM 1 Mark II
Wiele podejść do obrazów z przesunięciem czujnika
Przechwytywanie obrazu z przesunięciem czujnika zostało przekształcone z drogich kamer specjalistycznych, aby stać się coraz bardziej dostępną funkcją w nowszych aparatach zorientowanych na rozdzielczość. Dzisiaj, oprócz potwornego H6D-400c Hasselblada (obrazy o rozdzielczości 400 megapikseli), dostępne są również oferty firm Olympus, Pentax, Sony i Panasonic.
Te wersje na ogół wykorzystują to samo podejście koncepcyjne, ale w znacznie bardziej przystępnych cenach.
Ruch przesunięcia czujnika
Kto korzysta z funkcji Sensor-Shift?
Niezależnie od producenta, podstawowa akcja przechwytywania obrazu z przesunięciem sensora pozostaje taka sama. Zrób wiele zdjęć, ale delikatnie przesuń czujnik aparatu dla każdego zdjęcia, aby zarejestrować więcej danych obrazu, a następnie połącz je razem.
Przesuwając czujnik, poprawiają się dane koloru obrazu, co pozwala na rozwiązanie większej liczby szczegółów poprzez przezwyciężenie nieodłącznych problemów związanych z fotositami specyficznymi dla koloru. Pomijając Hasselblada, systemy wykorzystujące tę technologię obejmują aparaty takie jak Olympus OM-D E-M1 Mark II (Mikro Cztery Trzecie), Pentax K-1 Mark II DSLR, Sony a7R III i Panasonic Lumix DC-G9 (Micro Cztery Trzecie), chociaż są też inne tego samego producenta.
Trzy z tych linii to aparaty bezlusterkowe, a Pentax to lustrzanka cyfrowa z czujnikiem upraw. Warto zauważyć, że aparaty Panasonic / Olympus mają jedno podejście, a Pentax / Sony inne podejście do tych samych koncepcji.
Systemy Olympus / Panasonic wykorzystują podejście, które pozwala uzyskać bardzo duże obrazy o wysokiej rozdzielczości, podczas gdy systemy Pentax i Sony używają przesunięcia czujnika, aby poprawić informacje o kolorach w obrazach o tej samej wielkości. Zarówno systemy Pentax, jak i Sony pozwalają również na oddzielenie pojedynczych obrazów z przesunięciem czujnika, podczas gdy Olympus i Panasonic łączą nałożone obrazy w jedno zdjęcie.
Olympus OMD EM5 Mark II posiada technologię przesunięcia sensora.
Jak działa technologia czujników?
Aby zrozumieć, jak działa technologia przesunięcia czujnika, musisz również zrozumieć, jak czujnik działa ogólnie w bardzo małej skali. W dawnych dobrych czasach fotografii filmowej aparaty wykorzystywały światłoczuły film do rejestrowania obrazów. Aparaty cyfrowe wykorzystują zupełnie inne podejście do rejestrowania światła.
Cyfrowe aparaty fotograficzne wykorzystują światłoczułe fotodiody do rejestrowania światła padającego na czujnik. W większości aparatów cyfrowych każda fotodioda ma określony filtr koloru (czerwony, zielony lub niebieski), tworzący fotolit. Te fotosyity są rozmieszczone tak, aby umożliwić mieszanie światła w celu zobaczenia koloru z obrazu docierającego do czujnika.
Czerwone, zielone i niebieskie fotosytyny na czujniku są generalnie ułożone według określonego wzoru znanego jako macierz Bayera (inaczej macierz Bayera, filtr). Istnieją również inne konfiguracje, takie jak czujnik Fuji X-Trans (używany w kilku modelach aparatów) lub Sigma, która wykorzystuje czujnik Foveon.
W układzie Bayera jest dwa razy więcej zielonych fotositów niż czerwonych lub niebieskich, ponieważ ludzki wzrok jest najbardziej dostrojony do rozpoznawania szczegółów w kolorze zielonym. Ten układ ogólnie działa dobrze, ale jeśli się nad tym zastanowić, na obrazie kolorowy piksel jest tworzony przez zmieszanie tych elementów zdjęciowych ze sobą.
Czujnik nie wie, ile czerwieni znajduje się na zielonym lub niebieskim miejscu czujnika, więc wymagana jest interpolacja. Może to spowodować powstanie artefaktów na zdjęciach, jeśli przyjrzysz się bardzo uważnie, i zwykle oznacza, że obrazy RAW mają bardzo lekko nieostre. Wszystkie obrazy RAW wymagają pewnego wyostrzenia podczas przetwarzania końcowego (zielony, czerwony i niebieski piksela są mieszane).
Wzór Bayera fotolitów
Czujniki statyczne
W zwykłym aparacie bez IBIS każda fotositon rejestruje tylko światło jednego koloru w tym jednym miejscu, więc dane, które rejestruje, są technicznie niekompletne. Jest jak wiadro, które zbiera światło tylko o określonym kolorze. Klaster jasnych wiader we wzorze Bayera służy do tworzenia pojedynczego piksela w obrazie cyfrowym, ale w obrębie tego piksela znajdują się dwa zielone wiadra, jeden niebieski i jeden czerwony.
Aby połączyć obraz ze sobą i umieścić jeden kolor w tym jednym pikselu, sygnały z grupy fotodiod są rozdzielane razem. Zebrane dane są interpolowane za pomocą algorytmu de-mozaikowania w aparacie (jpeg.webp) lub na komputerze (z obrazu RAW), procesu, który przypisuje wartości dla wszystkich trzech kolorów dla każdego elementu fotolitograficznego na podstawie zbiorczych wartości zarejestrowanych przez sąsiednie elementy fotolitograficzne .
Wynikowe kolory są następnie wyprowadzane jako siatka pikseli i tworzona jest fotografia cyfrowa. Po części jest to powód, dla którego obrazy RAW mają nieco mniejszą ostrość i wymagają wyostrzenia w procesie postprodukcji.
Ruchome czujniki
IBIS oznacza, że czujniki poruszają się teraz nieznacznie, aby dostosować się do subtelnych ruchów kamery, aby utrzymać stabilny obraz. Niektórzy producenci twierdzą, że ich systemy są w stanie ustabilizować kombinację czujnika i / lub soczewki na odpowiednik 6,5 stopnia.
Przesuwanie czujnika umożliwia wszystkim kolorowym fotositom zapisywanie danych dla każdego miejsca na czujniku.
Stabilizacja ta jest osiągana poprzez mikroregulację położenia czujnika. W przypadku obrazów z przesunięciem czujnika te same mikro-regulacje są używane w celu wystawienia każdej fotosity na działanie światła z rejestracji pojedynczego obrazu. Zasadniczo czujnik jest przemieszczany nie po to, aby dostosować się do zewnętrznych zakłóceń, ale aby każda część obrazu zawierała informacje o pełnym kolorze.
Obiekty fotograficzne zamiast pikseli
Być może zauważyłeś termin fotositry zamiast pikseli. Kamery są często oceniane na podstawie ich megapikseli jako miara ich zdolności rozdzielczej, ale jest to mylące, ponieważ w rzeczywistości aparaty nie mają pikseli, które są tylko zdjęciami.
Piksele są widoczne na obrazie tworzonym podczas przetwarzania danych z czujnika. Nawet termin „przesunięcie pikseli”, który jest czasami używany, jest mylący. Piksele się nie poruszają, poruszają się czujniki, na których znajdują się elementy fotoelektryczne.
W przypadku przechwytywania pojedynczego obrazu każda fotostrona rejestruje dane dla światła czerwonego, zielonego lub niebieskiego. Dane te są interpolowane przez komputer, dzięki czemu każdy piksel w wynikowej fotografii cyfrowej ma wartość dla wszystkich trzech kolorów.
Przesuwanie czujników
Kamery z przesunięciem czujnika próbują zmniejszyć zależność od interpolacji, przechwytując dane kolorów dla każdego piksela w kolorze czerwonym, zielonym i niebieskim, fizycznie przesuwając czujnik aparatu. Rozważmy kwadrat o wymiarach 2 × 2 piksele pobrany ze zdjęcia cyfrowego.
Konwencjonalne przechwytywanie cyfrowe przy użyciu macierzy Bayer rejestruje dane z czterech fotokomórek: dwóch zielonych, jednej niebieskiej i jednej czerwonej. Technicznie oznacza to, że brakuje danych dla niebieskiego i czerwonego światła na zielonych fotositach, zielonego i czerwonego na niebieskich fotositach oraz niebieskiego i zielonego na czerwonych fotositach. Aby rozwiązać ten problem, brakujące wartości kolorów dla każdej witryny zostaną określone podczas procesu interpolacji.
A co by było, gdybyś nie musiał zgadywać? A co by było, gdybyś mógł mieć rzeczywisty kolor (czerwony, niebieski i zielony) dla każdej strony naświetlającej? Taka jest koncepcja technologii przesuwania czujnika.
Obraz o normalnej rozdzielczości.
Nurkowanie głębiej
Rozważmy kwadrat o wymiarach 2 × 2 pikseli na zdjęciu cyfrowym utworzonym przy użyciu technologii przesunięcia pikseli. Pierwsze zdjęcie zaczyna się normalnie od danych zapisanych z czterech fotokomórek. Jednak teraz aparat przesuwa czujnik, aby przesuwać elementy światłoczułe i ponownie robi to samo zdjęcie, ale z innym elementem naświetlającym.
Powtórz ten proces, aby wszystkie fotositony miały pełne światło dla każdego dokładnego miejsca na czujniku. Podczas tego procesu uzyskano dane świetlne z czterech fotositów (dwóch zielonych, jednego czerwonego, jednego niebieskiego) dla każdego piksela, co skutkuje lepszymi wartościami kolorów dla każdej lokalizacji i mniejszą potrzebą interpolacji (zgadywania).
Obraz o wysokiej rozdzielczości przy tej samej czułości ISO, przysłonie i czasie otwarcia migawki.
Podejście Sony i Pentax
W ten sposób działają tryby fotografowania Pixel Shift Multi firmy Sony oraz system Pixel Shifting Resolution firmy Pentax. Należy zauważyć, że używanie tych trybów nie zwiększa całkowitej liczby pikseli w ostatecznym obrazie. Wymiary plików wynikowych pozostają takie same, ale poprawiona zostaje dokładność kolorów i szczegółowość.
Sony i Pentax wykonują cztery obrazy przeniesione po jednej pełnej stronie na zdjęcie, aby utworzyć jeden obraz. To naprawdę po prostu poprawia informacje o kolorze na obrazie.
Podejście Olympus i Panasonic
Tryb wysokiej rozdzielczości w aparatach Panasonic i Olympus, które wykorzystują czujniki Mikro Cztery Trzecie, ma nieco bardziej zniuansowane podejście, łącząc osiem zdjęć wykonanych co ½ piksela od siebie. W przeciwieństwie do Sony i Pentax, to znacznie zwiększa liczbę pikseli w wynikowym obrazie.
Z 20-megapikselowego czujnika otrzymujemy 50-80-megapikselowy obraz RAW. Jest tylko jeden obraz bez możliwości dostępu do poszczególnych obrazów sekwencji.
Jakie są zalety korzystania z funkcji Sensor-Shift?
Korzystanie z technologii przesuwania czujnika ma kilka zalet. Robiąc wiele zdjęć, znając informacje o kolorze dla każdej lokalizacji fotositry i zwiększając rozdzielczość, można osiągnąć trzy główne rzeczy. Zmniejszasz szum, redukujesz mory i zwiększasz ogólną rozdzielczość obrazów.
Hałas i lepsza rozdzielczość
Wykonując wiele zdjęć z subtelną zmianą położenia czujnika, rozdzielczość obrazu wzrasta, ale także informacje o kolorze na obrazach. Dzięki temu podobne obrazy pozwalają na głębsze zagłębienie się w obraz z gładszymi kolorami, mniejszym szumem i lepszą szczegółowością.
Obraz o normalnej rozdzielczości.
Obraz o wysokiej rozdzielczości.
Po przycięciu do obrazu o normalnej rozdzielczości, widać szum, który wygląda jak ziarno i zmiana koloru.
Oto ten sam kadr w wersji o wysokiej rozdzielczości, kolory i szczegóły są lepsze przy mniejszym szumie.
Mniej mory
Mora to pojawienie się szumów lub artefaktów, które pojawiają się na obrazach z ciasnymi regularnymi wzorami. Nowsze czujniki mają zwykle mniej problemów z Moire niż w przeszłości, ale nadal będą się pojawiać na niektórych obrazach.
Przyczyna mory jest zwykle związana z nagrywaniem ciasnych wzorów, a aparat ma problemy z rozwiązaniem tego wzoru, ponieważ ma problemy z wzorcami fotolitycznymi czujnika. Informacje o kolorze dla fotositów czerwonego, zielonego i niebieskiego mają problemy z krawędziami w tych ciasnych wzorach, ponieważ nie wszystkie kolory dla jednej lokalizacji są rejestrowane.
Dzięki przesunięciu czujnika wszystkie kolory są dostępne w każdym miejscu, więc mora ma tendencję do zanikania.
Obraz o normalnej rozdzielczości.
Obraz o wysokiej rozdzielczości z podświetlonym obszarem kadrowania
Wykadrowany obszar na obrazie o standardowej rozdzielczości - zaczyna pojawiać się szum (rysy na papierze były tam wcześniej).
Obraz o wyższej rozdzielczości ma mniej szumów i więcej szczegółów.
Dlaczego więc nie używać tego do każdego obrazu?
Cóż, głównym powodem jest to, że musisz wykonać wiele zdjęć jednej sceny. Oznacza to, że to naprawdę nie działa dobrze w przypadku ruchomych obiektów. Proces ten wymaga co najmniej czterokrotnie dłuższego czasu naświetlania niż przechwytywanie pojedynczego obrazu. Przekłada się to na cztery możliwości poruszania się części kompozycji i / lub aparatu podczas przechwytywania obrazu, co pogarsza jakość obrazu.
Takie ograniczenia ograniczają zastosowanie tej technologii do martwej natury i (statycznej) fotografii krajobrazu. Każdy ruch w przechwytywanej scenie będzie tworzył rozmyty lub pikselowany obszar. Jest to problem w przypadku fotografii krajobrazowej, jeśli wiatr przenosi rośliny lub chmury, a także obszary, w których obecna jest bieżąca woda.
Oznacza to również, że zazwyczaj trzeba być bardzo stabilnym i korzystać ze statywu, choć istnieją wyraźne zamiary producentów, aby udostępnić wersje, które pozwolą na ręczne fotografowanie aparatu (Pentax ma taką funkcję).
Obraz o wysokiej rozdzielczości nakręcony na statywie.
Artefakty ruchu są widoczne po dokładniejszym przyjrzeniu się.
Dziwactwa niektórych systemów
Ponieważ technologia przesunięcia czujnika została wdrożona na różne sposoby iw zależności od używanego systemu, problemy są nieco inne. Głównym dziwactwem jest to, że generalnie potrzebujesz statywu, więc nie ma biegania i pistoletu.
System Sony ma inne ograniczenia polegające na tym, że nie możesz zobaczyć obrazu, dopóki nie przetworzysz razem czterech oddzielnych obrazów. Oznacza to, że nie możesz przejrzeć rozwiązanego obrazu w aparacie. Ponadto, ze względu na dużą liczbę pikseli na A7R mark III, każdy subtelny ruch statywu jest szczególnie zauważalny na wynikowym obrazie. Aby edytować obrazy, należy również użyć zastrzeżonego oprogramowania Sony do scalenia obrazów ze sobą.
Pentax ma kilka interesujących funkcji. Korzystanie z aplikacji dołączonej do kamery umożliwia adresowanie ruchu za pomocą algorytmu w oprogramowaniu do usuwania artefaktów ruchu. Działa to lepiej niż oprogramowanie powszechnie używane do obróbki obrazów, takie jak Adobe.
System Olympus był już od jakiegoś czasu, aw najnowszej iteracji aparatu Olympus OMD EM1 Mark II każdy wykryty ruch spowoduje zastąpienie uszkodzonych pikseli fragmentami jednego z pojedynczych zdjęć o normalnej rozdzielczości w obszarach ruchu. Powoduje to nierówną rozdzielczość, ale sprawia, że obraz wygląda lepiej na przykład przy wietrze. Ogranicza również, zwłaszcza jeśli jest dużo ruchu. Często obrazy wyglądają na nieco podzielone na piksele.
Obraz drzewa w standardowej rozdzielczości - wszystko jest ostre.
Zdjęcie w wysokiej rozdzielczości tego samego drzewa, ale było wietrznie… Przycięty obszar jest pokazany w żółtym polu.
Poszerzony obszar kadrowania - ruch wiatru spowodował powstanie artefaktów na obrazie.
Ograniczenia
Największym wyzwaniem dla robienia zdjęć z przesunięciem czujnika są poruszające się obiekty. Ponadto próba sparowania lampy błyskowej z aparatem przy użyciu przechwytywania obrazu z przesunięciem piksela może być skomplikowana ze względu na szybkość przechwytywania obrazu, ograniczenia recyklingu lampy błyskowej i ogólne problemy ze zgodnością. Producenci są świadomi tych problemów i pracują nad ich rozwiązaniem.
Ogólnie technologia będzie się tylko poprawiać
Coraz więcej systemów używa algorytmów do tworzenia obrazów o wyższej rozdzielczości. Wraz z dojrzewaniem technologii implementacje będą uzyskiwać coraz lepsze wyniki, potencjalnie zdolne do radzenia sobie z ruchem i warunkami trzymania ręki.
Zaletą dla producentów jest to, że obrazy o lepszej jakości są wytwarzane bez konieczności stosowania naprawdę drogich czujników o dużej gęstości pikseli (tańszych). Zaletą dla użytkownika jest to, że obrazy mogą mieć lepsze informacje o szumie i kolorze, co zapewnia lepsze wyniki końcowe.
Miłego polowania na ten doskonały obraz w wysokiej rozdzielczości!