Zaloguj się

Zobacz pełną wersję : Jak naświetlać aby najlepiej wykorzystać matrycę



Wojtucior
3.12.11, 20:51
Witam,
Do założenia wątku natchnął mnie artykuł w fotopolis: http://www.fotopolis.pl/index.php?n=13974&z-notatnika-optyka-rozmiar-ma-znaczenie
Z rzeczy intrygujących mnie w tym artykule zauważam 2 kwestie, co do których mam wątpliwości (artykuł ogólnie jest OK, tylko ich się czepiam).

Po pierwsze autor sugeruje, że przy tej samej ilości pikseli na matrycy 4/3 (np. e-30) i matrycy FF (np. Canon D5) na jeden piksel padnie blisko 4 razy mniej światła (dokładnie 3,84 raza mniej fotonów). To wg niego decyduje o stosunku sygnału do szumu per pixel.
Po drugie autor radzi naświetlać możliwie mocno na światła (oby tylko nie prześwietlić za bardzo) aby wykorzystać matrycę. Argumentem jest to, że naświetlenie o 1 EV mniej to wykorzystanie tylko 50% możliwych poziomów do zarejestrowania w RAW.

Moje obserwacje i przemyślenia niekoniecznie się z tym zgadzają, ale chętnie poddam je weryfikacji:

ad.1. Wg mnie łatwo sprowadzić to do absurdu. 12 mpixelowe matryce w małych kompaktach miałyby prawie tylko szum na ISO 100, bo na nie padałoby kilkadziesiąt razy mniej fotonów niż na 12 mpixelowej matrycy FF. Wydaje mi się, że szum zależy od "upakowania" pixeli. Dzisiaj technologie pozwalają produkować gęściej upakowane pixelami matryce z równie dobrym odczytem danych z pixela, co dawniej z kilka razy rzadszych. Stąd dostępne wyższe ISO. Optycznie rzecz biorąc, to obiektywy róznych systemów skupiają odbite światło z podobnego kadru na róznych powierzchniach. A więc na 1 pixel matrycy FF, 4/3 czy też małego kompaktu (każda 12 mpixeli) powinno padać tyle samo fotonów.

ad.2 Porada praktyczna autora nie zgadza mi się z moimi doświadczeniami. Generlanie przy focusowaniu na ciemne obiekty trzeba uważyć, żeby nie były za ciemne, ale przy scenach z dużą rozpiętością tonalną największy problem jest właśnie ze światłami. Zachowanie szczegółów w światłach gwarantuje paradokslanie niedoświetlenie i rozjaśnianie w RAW. Oko odruchowo sprawdza czy widać najjaśniejsze rzeczy dobrze a nie te ciemne. W teorii niby autor wspomnianego artykułu ma rację ale jak mam jasne niebo i osoby w kadrze, to wolę zrobić zdjęcie z korektą -0,7 a potem rozjaśnić o 1,0 a nawet 1,3 EV w RAW, niż od razu zrobić + 0,3. Wyjdzie po prostu co innego (aczkolwiek zgadzam się, że w cieniach będzie nieco gorzej, ale ogólnie zdjęcie będzie duużo lepsze).

Proszę o uwagii (ewentualnie oświecenie w pkt.1) oraz wrażenia odnośnie pkt.2. Jak Wy robicie?

skow
4.12.11, 13:07
Po drugie autor radzi naświetlać możliwie mocno na światła (oby tylko nie prześwietlić za bardzo) aby wykorzystać matrycę. Argumentem jest to, że naświetlenie o 1 EV mniej to wykorzystanie tylko 50% możliwych poziomów do zarejestrowania w RAW.


W sumie to racja, tylko że nie doświetlając zarejestrujesz szczegóły, które by zostały prześwietlone w pierwszym przypadku.
Robiąc zdjęcie trzeba się zastanowić na czym bardziej zależy: szczegóły w światłach czy lepsza jakość w cieniach.
Dla niezdecydowanych zawsze pozostaje autobracketing.



Wydaje mi się, że szum zależy od "upakowania" pixeli. Dzisiaj technologie pozwalają produkować gęściej upakowane pixelami matryce z równie dobrym odczytem danych z pixela, co dawniej z kilka razy rzadszych.


Dużo pewnie też zależy od pozostałej elektroniki czyli tym co jest pomiędzy matrycą a procesorem: kształt, jakość przewodów, wzmacniaczy analogowych, przetworników analogowo/cyfrowych itp



Zachowanie szczegółów w światłach gwarantuje paradokslanie niedoświetlenie i rozjaśnianie w RAW. Oko odruchowo sprawdza czy widać najjaśniejsze rzeczy dobrze a nie te ciemne. W teorii niby autor wspomnianego artykułu ma rację ale jak mam jasne niebo i osoby w kadrze, to wolę zrobić zdjęcie z korektą -0,7 a potem rozjaśnić o 1,0 a nawet 1,3 EV w RAW, niż od razu zrobić + 0,3.

Tylko co rozumiesz przez rozjaśnianie?

Jeśli program będzie rozjaśniaj niedoświetlone zdjęcie o 1EV proporcjonalnie każdy piksel o 1EV to i tak zgubisz szczegóły w światłach a dostaniesz więcej szumów w cieniach. W tym przypadku chyba więcej się straci niz zyska

Jeśli rozjaśnianie będzie polegać na zmianie (zwiększeniu) krzywej gamma (lub inny podobny kształt) to szczegóły w światłach pozostaną a cienie zostaną rozjaśnione (czyli uzyskamy efekt podobny do tego gdy włączymy "Autogradacje" w nowszych modelach Olympusa).
Jeśli już rozjaśniam zdjęcie to najczęściej stosuję tę metodę.

moose
4.12.11, 16:25
W E-30 i E-300 ( bo takimi fotografowałem) lepiej jest ciut prześwietlić niż niedoświetlić. Te matryce źle reagują na brak światła - bardzo brzydkie szumy w cieniach. Jak to się ma do założeń fizyki, pikseli i reszty nie wiem i nie wnikam :-) Interesuje mnie tylko efekt, błędy i jak im zaradzić. Na pewno lepiej kontrolować proces na bieżąco niż potem wyciągać w programach.

Darekw1967
4.12.11, 19:11
Witam !

Tak wychodzi w Olkach bo soft z pewnym wyprzedzeniem pokazuje przepalenie co w praktyce nie jest prawda bo zdjecie w RAW-ie
ma jeszcze niewielki zapas w swiatlach.

Robilem roznymi cyfrowymi apartami i co jak co... ale matryce CCD czy CMOS lepiej lekko niedoswietlic niz
lekko przeswietlic.

Pozdrawiam

Wojtucior
4.12.11, 21:46
Tylko co rozumiesz przez rozjaśnianie?

Jeśli program będzie rozjaśniaj niedoświetlone zdjęcie o 1EV proporcjonalnie każdy piksel o 1EV to i tak zgubisz szczegóły w światłach a dostaniesz więcej szumów w cieniach. W tym przypadku chyba więcej się straci niz zyska

Jeśli rozjaśnianie będzie polegać na zmianie (zwiększeniu) krzywej gamma (lub inny podobny kształt) to szczegóły w światłach pozostaną a cienie zostaną rozjaśnione (czyli uzyskamy efekt podobny do tego gdy włączymy "Autogradacje" w nowszych modelach Olympusa).
Jeśli już rozjaśniam zdjęcie to najczęściej stosuję tę metodę.

No ja pisałem dosłownie to co zaobserwowałem. "Rozjaśnianie" w RAW korektą ekspozycji nie działa tak dosłownie liniowo i ratujemy w światłach to, czego matryca nie zarejestruje. Wynika to prawdopodobnie też z tego, że matryce najgorzej pracuję właśnie w "światłach". Czyli robiąc zdjęcie jasnego kadru lepiej jest lekko niedoświetlać a potem rozjaśniać (np. śnieg, plażę etc.), ponieważ wtedy uzyskuję znacznie więcej szczegółów. Pomijam oczywiście fakt, że też jest margines błędu na prześwietlenie.

Ceat
5.12.11, 03:03
[...]Po pierwsze autor sugeruje, że przy tej samej ilości pikseli na matrycy 4/3 (np. e-30) i matrycy FF (np. Canon D5) na jeden piksel padnie blisko 4 razy mniej światła (dokładnie 3,84 raza mniej fotonów). To wg niego decyduje o stosunku sygnału do szumu per pixel.
[...]
Stwierdzenie Autora jest bałamutne. Gdyby tak rzeczywiście było to dwudziestomegapixlowy fulfrejmowy MkII byłby jakieś 2 razy gorszy od E-1.
Stosunek sygnał/szum przetwornika zależy od 2 czynników: szumu "samej" matrycy i szumu wzmacniaczy (i reszty śmieci) służących do jej odczytu. Matryca sama z siebie szumi bardzo niewiele, jej szum zaczyna być widoczny dopiero przy długich czasach (smużenie, płakanie, banding, hot spoty). Przy czasach krótkich dużo wyższy wkład w ogólny poziom szumów ma jakość wzmacniaczy odczytu. Zauważ, że przy dobrze dopracowanych wzmacniaczach daje się wyciągnąć z przetwornika nawet 6400ISO z przyzwoitą jakością - a większość z tych 6400 to nie matryca a właśnie wzmacniacz (matryca ma niewielki zakres regulacji czułości).

Karol
5.12.11, 03:48
Jak Wy robicie?
Artykułu jeszcze nie czytałem. Staram się naświetlać świadomie i kontrolować czy i kiedy przepalić światła. Z reguły zachowanie szczegółów w światłach jest pożądane, ale do prawej strony histogramu - żeby jak najwięcej zmieściło się w cieniach. Janko Muzykant postulował swego czasu pomiar światła "jeden promil przepaleń", to by było ciekawe, chyba nie ma w żadnym aparacie takiego pomiaru. W Penach ( innych bezlusterkowcach i niektórych lustrach z lv pewnie też) jest kapitalna sprawa - obok histogramu na żywo można wyświetlić podczas fotografowania wskaźnik przepaleń (i niedoświetleń) - pięknie na czerwono zaznaczone są obszary, które będą przepalone, co pozwala wykorzystywać w jak największym stopniu rozpiętość tonalną matrycy.

Wojtucior
5.12.11, 07:41
Stwierdzenie Autora jest bałamutne. Gdyby tak rzeczywiście było to dwudziestomegapixlowy fulfrejmowy MkII byłby jakieś 2 razy gorszy od E-1.
Stosunek sygnał/szum przetwornika zależy od 2 czynników: szumu "samej" matrycy i szumu wzmacniaczy (i reszty śmieci) służących do jej odczytu. Matryca sama z siebie szumi bardzo niewiele, jej szum zaczyna być widoczny dopiero przy długich czasach (smużenie, płakanie, banding, hot spoty). Przy czasach krótkich dużo wyższy wkład w ogólny poziom szumów ma jakość wzmacniaczy odczytu. Zauważ, że przy dobrze dopracowanych wzmacniaczach daje się wyciągnąć z przetwornika nawet 6400ISO z przyzwoitą jakością - a większość z tych 6400 to nie matryca a właśnie wzmacniacz (matryca ma niewielki zakres regulacji czułości).

Raczej nie tak - 20 mpixeli na FF miałoby dawać taką samą (podobną) liczbę fotonów na pixela jak 5 mpixeli w 4/3. Ale mi też to brzmi bałamutnie. Z tego, co wychodzi na testach w "optycznych" to jest zależność między szumem a gęstością upakowania pixeli na matrycy. Natomiast teza autora wspomnianego artykułu wydaje mi się wadliwa od strony założeń. Obiektyw zbiera przecież odbite światła z danych kątów "widzenia" i ogniskuje je na takiej powierzchni na jaką jest zaprojektowany. Jakby to był 1 milimetr kwadrat to by pewnie dziurę wypalił :D

A tak odbiegając od tematu, to marzy mi się matryca (ale tylko wtedy jak mnie przepalenia i szumy do szału doprowadzają) 4/3 CCD zrobiona jakby z 4 matryc XZ-1, w których połowa pixeli pracowała by na światła. Dałoby to i Dynamikę (pewnie o około 1.5 EV większą) i Ostrość (20 mpixeli bez AA to by było, panie....). Dodatkowo fajnie jakby była opcja (jak w Canonach) małych RAW do wyższych ISO. Robię np ptactwo, kręcę do ISO 12.800 żeby czas mieć jeszcze super czas i dostaję żyletę bez większego szumu powiedzmy 5 mpixeli (niby to mało ale zakładam, że już żyletę i z dobrym zakresem tonalnym). Do czegoś takiego może by się i RAW nie 12 bitów a więcej przydał. Ehhh, marzenia...

Tobik
5.12.11, 10:46
Niestety, np.10mpix mRawy z C7D nie są tak ostre niż normalne 8mpix Rawy z C20D. Coś za coś.

fret
5.12.11, 12:42
...

Po pierwsze autor sugeruje, że przy tej samej ilości pikseli na matrycy 4/3 (np. e-30) i matrycy FF (np. Canon D5) na jeden piksel padnie blisko 4 razy mniej światła (dokładnie 3,84 raza mniej fotonów). To wg niego decyduje o stosunku sygnału do szumu per pixel.
Po drugie autor radzi naświetlać możliwie mocno na światła (oby tylko nie prześwietlić za bardzo) aby wykorzystać matrycę. Argumentem jest to, że naświetlenie o 1 EV mniej to wykorzystanie tylko 50% możliwych poziomów do zarejestrowania w RAW.

Każdy przedział 1EV zawiera tyle samo różnych poziomów ile jest we wszystkich EV ciemniejszych razem. To tak, jak z dokładaniem lamp. Jak masz jedną i chcesz dodać 1EV, to dokładasz drugą, ale jak masz 8 i chcesz zwiększyć ilość światła, to już musisz 8 kolejnych dodać. Dodanie każdego EV oznacza podwojenie liczby lamp. Widać też, że na każdym wyższym EV masz więcej poziomów pośrednich do dyspozycji. Do jednej lampy możesz dodać tylko cały 1 EV, do 8 lamp możesz dodawać po ok. 1/8 EV (ok. bo tam też nie jest liniowo, dodanie dziwiątej lampy zrobi większą róznicę, niż dodanie szesnastej)




Moje obserwacje i przemyślenia niekoniecznie się z tym zgadzają, ale chętnie poddam je weryfikacji:

ad.1. Wg mnie łatwo sprowadzić to do absurdu. 12 mpixelowe matryce w małych kompaktach miałyby prawie tylko szum na ISO 100, bo na nie padałoby kilkadziesiąt razy mniej fotonów niż na 12 mpixelowej matrycy FF. Wydaje mi się, że szum zależy od "upakowania" pixeli. Dzisiaj technologie pozwalają produkować gęściej upakowane pixelami matryce z równie dobrym odczytem danych z pixela, co dawniej z kilka razy rzadszych. Stąd dostępne wyższe ISO. Optycznie rzecz biorąc, to obiektywy róznych systemów skupiają odbite światło z podobnego kadru na róznych powierzchniach. A więc na 1 pixel matrycy FF, 4/3 czy też małego kompaktu (każda 12 mpixeli) powinno padać tyle samo fotonów.

I dokładnie tak jest (oczywiście pomijając inne proporcje boków, techologię produkcji matrycy itp.), ale pod warunkiem, że światło pada przez taki sam otwór. Nie względny, a fizyczny, czyli 4/4 z 50/2 daje taką samą ilość fotonów na pikselu matrycy FF o takiej samej ilości pikseli, jak 100/4 na FF. Co więcej, cały obraz będzie wtedy identyczny (kadr, GO i szumy) przy identycznej ekspozycji (zwróć uwagę, że w 4/3 będziesz musiał zastosować ISO 4x mniejsze).



ad.2 Porada praktyczna autora nie zgadza mi się z moimi doświadczeniami. Generlanie przy focusowaniu na ciemne obiekty trzeba uważyć, żeby nie były za ciemne, ale przy scenach z dużą rozpiętością tonalną największy problem jest właśnie ze światłami. Zachowanie szczegółów w światłach gwarantuje paradokslanie niedoświetlenie i rozjaśnianie w RAW. Oko odruchowo sprawdza czy widać najjaśniejsze rzeczy dobrze a nie te ciemne. W teorii niby autor wspomnianego artykułu ma rację ale jak mam jasne niebo i osoby w kadrze, to wolę zrobić zdjęcie z korektą -0,7 a potem rozjaśnić o 1,0 a nawet 1,3 EV w RAW, niż od razu zrobić + 0,3. Wyjdzie po prostu co innego (aczkolwiek zgadzam się, że w cieniach będzie nieco gorzej, ale ogólnie zdjęcie będzie duużo lepsze).

Proszę o uwagii (ewentualnie oświecenie w pkt.1) oraz wrażenia odnośnie pkt.2. Jak Wy robicie?

Fizycznie działa to tak, jak opisano w artykule. Naświetlenie z histogramem do prawej daje najwięcej informacji o obrazie. W praktyce, to nawet lekkie prześwietlenie, bo histogram w aparacie brany jest z jpg-a, a obrabiając RAW można wyciągnąć więcej ze świateł. Reszta, to już inna bajka nie mająca wiele wspólnego z fizyką. Proces obróbki zależy od softu, a czy Ci się jakiś obraz podoba, to już czysta estetyka.

epicure
5.12.11, 13:56
Jeśli robimy zdjęcia w rawach i chcemy, aby histogram na żywo działał najskuteczniej i najwierniej pokazywał moment przepaleń, należy ustawić kontrast na minimum. Wówczas odcięcie przepałów w zaszytym w rawie jpegu służącym do podglądu zdjęcia nie będzie następowało tak szybko, jak przy standardowym ustawieniu kontrastu.

zbyma72age
25.12.11, 01:33
Kol. Wojtucior
Nie da się ukryć, że To co pisze w swoim artykule "Bernard Piechal Urodzony w roku 1980. Fizyk-doświadczalnik. W celu zdobycia tytułu doktora nauk fizycznych w Instytucie Wysokich Ciśnień PAN prowadzi badania laserów półprzewodnikowych metodami optycznymi. W ramach tej pracy czasem poleruje soczewki i światłowody, lub projektuje i wykonuje proste układy optyczne. Po czym sprawdza jak działają w temperaturze ciekłego azotu, lub ciśnieniu 20 tysięcy atmosfer. Fotografuje od dziecka. Pierwszym aparatem jakiego używał był Lubitel, najdroższym - skaningowy mikroskop elektronowy. Od czasów wczesnolicealnych do dziś użytkownik powiększalnika, kuwet i ciepłotonowego barytu. Swoimi zdjęciami chwali się w kilku portalach fotograficznych chowając się pod pseudonimem "pyzz". "

Można od zaczątków dziejów podstaw fotografii cyfrowej wyczytać zarówno w książkach jak i na stronach internetowych.
Jedno co można zarzucać autorowi, to to, że jeszcze za mało przytacza "obrazków", dla graficznego pokazania twierdzeń, ponieważ jak mawiają jeden obraz wystarcza za tysiąc słów.
Np. przykład:5818258183
Ten drugi wykres dotyczy przetwornika 12bit.
Kiedyś też pisałem na ten temat:
http://issuu.com/zbyma/docs/zbyma_opracowanie_dri_przy_pomocy_gimpa_cz1

Pozdrawiam