To już zależy wyłącznie od światłomierza i dlatego tak cenię sobie sprawną pracę liveview (pod warunkiem, że histogram nie kłamie). Tak w ogóle, najgorzej pod tym względem (światłomierza) wspominam 5D.
Jeżeli dobrze zrozumiałem, to ten pesymistyczny wariant oznacza, ze dzisiaj głównym czynnikiem ograniczającym jakość obrazu w lustrzance APS (amatorskiej), z sensorem np. 12 Mpx, z obiektywem (plus filtr AA) o rozdzielczości powiedzmy 50 lp/mm jest sensor i Autor powiada, że aby przezwycięzyć to ograniczenie należałoby przyjąć wariant pesymistyczny (nie wnikam w szczegóły) czyli podnieść upakowanie sensora do gdzieś (w zaokrągleniu) 400 pikseli na mm, czyli mniej więcej dwukrotnie od 12 Mpx, czyli czterokrotnie powierzchniowo, co czyni 48 Mpx, w zaokrągleniu 50 Mpx.
Wtedy dopiero sensor odbierze pełną rozdzielczość oferowaną przez amatorski obiektyw APS. Czy tak?
Biorąc pod uwagę argumentację Autora - wyścig Mpx w aparatach APS ma racjonalną podstawę (rozdzielczość sensora) i granicą wyścigu jest wartość plus minus 50 Mpx.
Nie piszę, czy się z tym zgadzam, czy nie. Wskazuję na pierwsze wyrażone w tym wątku uzasadnienie dalszego zwiększania upakowania pikseli na sensorze APS - do 50 Mpx.
Ze względu na rozdzielczość. Pomijamy inne czynniki ograniczające, jak szum i dynamika.
Pzdr, TJ
Witam !
A jakie POLE mamy do likwidacji szumu z takiego zageszczenia na tyle aby algorytmy odszumiajace nie zaczely gubic w sposob nieregularny tych zwiekszonych szczegolow ?
Gdzie jest ta bariera ZYSKOW i STRAT (rozdzielczosc/szum) aby
nie powstawalo matematyczne usuwanie szumu i matematyczne uzupelnianie strat w sygnale.
Byc moze celem jest ladny obraz ale ja lubie... jak jest prawdziwy i to
co naprawde (ogole i szczegole) widzial obiektyw gdy wyzwalalem migawke ;)
Pozdrawiam
Dyskutanci w tym wątku twierdzą, że dzisiejsze sensory w kamerach APS nie dorównują w rozdzielczości obiektywom (plus filtr AA).
Inaczej mówiąc, przy dzisiejszych np. 16 - 18 Mpx w APS sensor nie czyta w pełni rozdzielczości, którą dostarcza układ obiektyw + filtr AA, czyli nie wykorzystuje potencjału jakości wnoszonej przez obiektyw.
Testy przeprowadzane na dpreview, ich wyniki temu przeczą.
Dla przykładu
Na dpreview w teście rozdzielczości aparatu Canon 600D, APS, CMOS, 14,9 x 22,3 mm, 3456 x 5184, 18 MPx, wynik jest przedstawiony czarno na białym w postaci obrazu zbieżnych linii zdjętego z tablicy – wzorca rozdzielczości.
Z analizy wzrokowej pęczka linii wynika, że rozdzielczość z JPEG z tego aparatu wynosi 2500 LWPH (linii na wysokość kadru), co czyni 1250 LPPH (par linii na wysokość kadru), co czyni 1250/14,9 = 84 lp/mm, a rozdzielczość z RAW, jak szacuje autor testu, wynosi około 2700 LWPH, co odpowiada 90 lp/mm.
Granica Nyquista dla 600D wynosi 3456/14,9/2 = 116 lp/mm.
Nie doczytałem się, na jakim konkretnie obiektywie był przeprowadzony test, tylko znalazłem informację, że na odpowiedniej stałce, czyli należy się domyślać – obiektywie o wyższej rozdzielczości niż przeciętny amatorski zoom. W każdym razie jest obrazek (konkretny dowód) na którym widać, że sensor 18 Mpx potrafi przenieść poprzez JPG rozdzielczość 84 lp/mm.
W ogólnym wstępie do testów rozdzielczości na dpreview widnieje następujący komentarz:
„What we want to show here is how well the camera is able to resolve the detail in our standard test chart compared to the theoretical maximum resolution of the sensor, which for the charts we shoot is easy to work out - it's simply the number of vertical pixels (the chart shows the number of single lines per picture height, the theoretical limit is 1 line per pixel). Beyond this limit (which when talking about line pairs is usually referred to as the Nyquist frequency) the sensor cannot faithfully record image detail and aliasing occurs."
Po przeczytaniu komentarza możemy się domyślić, że do testu wybrano obiektyw o wysokiej rozdzielczości po to, aby pokazać, jakie są możliwości sensora 18 Mpx i jak to się ma do teoretycznej granicy Nyquista.
Zademonstrowana zdolność sensora do zarejestrowania rozdzielczości, to 84 lp/mm w JPEG, 90 lp/mm w RAW, granica Nyquista, to 116 lp/mm.
Rozdzielczość obiektywu kitowego do testowanego na dpreview aparatu Canon, tj. obiektywu 18-55 / 3,6-5,6 ISII została pomierzona na optyczne.pl z aparatem Canon 50D, APS, 15,1 MPx.
Maksymalna dla MTF50 występuje przy ogniskowej 18 mm, przy przysłonie 5,6, w środku kadru i wynosi około 47 lp/mm.
Stąd wniosek, że sensor aparatu 600 D wystarcza z grubą nawiązką dla obiektywu (plus filtr AA) kitowego tego aparatu.
Należy podkreślić, że twierdzenie Nyquista-Shannona o próbkowaniu, z którego się wyznacza górną granicę rozdzielczości sensora, nie zabrania przenosić częstotliwości powyżej częstotliwości Nyquista (dla sensora APS 18 Mpx częstotliwość ta równa się 116 lp/mm), tylko mówi nam o tym, ze może wystąpić przy tym aliasing, czyli artefakty próbkowania. Takim artefaktem najłatwiejszym do uzyskania na sensorach Bayera jest kolorowa mora.
Dalej należy pamiętać o tym, że granica ta dla sensora Bayera nie jest super ścisła, bo demozaikowanie, bo 2 razy więcej pikseli zielonych niż czerwonych i niebieskich, bo szum, blooming i sto innych przyczyn.
Na koniec o innych zastrzeżeniach podanych na dpreview.
Dpreview w pomiarach rozdzielczości stosuje dwie różniące się metodologie:
a) Dla oceny rozdzielczości aparatu:
fotografuje się planszę wzorcową z odpowiedniej odległości właściwej dla ogniskowej obiektywu, a następnie na uzyskanym z aparatu obrazie zbieżnego pęczka linii szacuje się wizualnie rozdzielczość.
b) Dla oceny rozdzielczości obiektywu MTF50:
stosuje się analizę programu Imatest wykonaną na uzyskanym obrazie (pliku) krawędzi ukośnego czarnego pasa na białym tle zdjętego z planszy wzorcowej (analiza czarno-białej krawędzi).
Na zapytanie – dlaczego stosują wartość MTF50 dla testów rozdzielczości obiektywów - dpreview odpowiada, że z powodu oczywistego - dane o rozdzielczości obiektywów są podawane najczęściej jako MTF50.
A więc rozdzielczość obiektywu MTF50 jest czytana przez program Imatest z obrazu ukośnego pasa na planszy, a rozdzielczość „w ogóle” jest czytana wizualnie, z obrazu wzorcowego, zbieżnego pęczka linii z planszy.
Ta rozdzielczość „w ogóle” jest większa niż MTF50, ponieważ jest czytana przez oko, które doskonale dyskryminuje obiekty w mniejszym kontraście. A im mniejszy kontrast, tym większa częstotliwość dawana przez obiektyw (i rejestrowana przez sensor, jeśli leży poniżej granicy Nyquista).
W przypadku wizualnego szacowania nie można powiedzieć ile to jest MTF. Z pewnością mniej niż 50 %. To jest powód, dla którego wyniki dla tego samego aparatu z tym samym obiektywem w obu przypadkach mogą się różnić.
Szacowanie wizualne jest stosowane, ponieważ zdjęcia z aparatów cyfrowych są oglądane, a nie analizowane przez komputer podłączony do jakiegoś super skanera. To nasze oko jest ostateczną wyrocznią. Jedynym mankamentem przyjęcia takiego kryterium oceny jest niestety niedostępność jakiejkolwiek ścisłej normalizacji w postrzeganiu rozdzielczości. Jeden postrzega z odległości 25 cm 4 linie na mm, a drugi 8 l/mm.
Powyżej pewnego wieku nie ma to znaczenia, wszyscy postrzegają mało, nawet przez okulary.
Patrząc na szarości (malejącą jasność) między zagęszczającymi się czarnymi liniami w zbieżnym pęczku wzorcowym możemy popstawić tezę, że sensor czyta rozdzielczości przy mniejszym kontraście niż 50%. I jeszcze nie zbliża się za bardzo do granicy Nyquista.
Można dyskutować nad ścisłością wizualnych odczytów rozdzielczości z obrazu ściągniętego z planszy, ale wielkość błędu odczytu w praktyce nie jest duża, np. może to jest to plus minus 2 - 2,5 %, czyli razem 4 - 5 %, może 6 %, czyli na 2500 LWPH jakieś100 – 150 LWPH.
Dochodzi jeszcze jedna wątpliwość o której pisałem. Niektórzy twierdzą, że soft aparatu podwyższa rozdzielczość wstawiając pomiędzy czarne linie białe paski. Testerzy na imaging-resource dawniej (2 – 3 lata temu) brali pod uwagę to zastrzeżenie i szacowali rozdzielczość z planszy niżej.
Mimo powyższych zastrzeżeń moim zdaniem nie powinno się mieć wątpliwości, że przedstawiony na dpreview obraz zbieżnego pęczka linii ze sfotografowanej w znormalizowanych warunkach białego światła znormalizowanej czarno-białej planszy pozwala oszacować wzrokowo rozdzielczość jaką zarejestrował sensor 18 Mpx aparatu APS.
Jeśli chodzi o jakość obrazu, to należałoby jeszcze rozpatrzyć wpływ upakowania pikseli w na szum i dynamikę (na przykładzie formatu APS). Oczywiście teoretycznie - przewidując na podstawie dzisiejszych doświadczeń z sensorami mniejszymi, ale już szumiącymi.
Pzdr, TJ
Nawoluje modow i adminow do wydzielenia tych p... technicznych do innego watka:)
pozdrawiam serdecznie
Janek
To nie algorytmy mają odszumiać (one mają tylko wspomagać postprodukcję - ja np. dobrego odszumiania oczekuję od Lightrooma, a nie od silnika jpg w aparacie), tylko technologia ma być coraz doskonalsza, aby tego szumu było coraz mniej na poziomie sprzętowym, a nie software'owym. Popatrz na nowe matryce Sony - mają więcej mpx, mniej szumu, wyższy DR - po prostu postęp.
_______________________ (automatyczne scalenie)_____________________
Ale obiektywy kitowe (a być może te Canona w szczególności) to protezy obiektywów. Od dawna wiadomo, że nie są to konstrukcje, które mają być przede wszystkim tanie, ale już niekoniecznie dobre. To, że znajdzie się kilka słabych obiektywów, które nie pozwalają wykorzystać potencjału matryc o dużej rozdzielczości, wcale mnie nie dziwi. Oprócz nich jednak jest jeszcze mnóstwo takich szkieł, które dają radę teraz i za parę lat, kiedy rozdzielczości matryc będą jeszcze wyższe.