Rozważania te mają sens przy rozdzielczościach natywnych, do tego przy zdjęciach precyzyjnie naświetlonych, obrabianych z rawówco rozumiesz pod pojęciem zdjęcie precyzyjnie naświetlone w kontekście do fotografii krajobrazowej ?
Rozważania te mają sens przy rozdzielczościach natywnych, do tego przy zdjęciach precyzyjnie naświetlonych, obrabianych z rawówco rozumiesz pod pojęciem zdjęcie precyzyjnie naświetlone w kontekście do fotografii krajobrazowej ?
Ależ skąd, odkąd bawiłem się szopem, bywało, że używałem korekcji beczki, gdy ten jeszcze nie miał wbudowanego mechanizmu ''ukrytego'' (którego znowu obecnie nie da się wyłączyć, co jest głupie) Praktycznie nie spotyka się zoomów idealnie równych i w przypadku symetrycznych ujęć architektury np. trzeba zawsze trochę pomóc szklanej naturze. Znowu przy widoczkach często jest to niepotrzebne, a gdy nie da się wyłączyć korekcji, zamiast zostawić obraz jaki jest, rozciąga się go obniżając rozdzielczość w rogach.
Choćby rozdzielczość była nie wiem jak dobra, rozciąganie ją psuje proporcjonalnie do siły rozciągnięcia. Co najwyżej nie nakładają się na siebie dwa spadki rozdzielczości: powodowane rozciąganiem i niewydolnością optyki w rogach.
Zobaczę sobie stratę na skutek rozciągania obrazu.
Żeby porównać korekcję programową z korekcją optyczną, musisz mieć co porównaćCzyli np. jeden obiektyw z korekcją optyczną, a drugi - z programową. Obejrzysz sobie obrazy i będziesz wiedział, który ma lepiej.
Na pewno dobrze byłoby mieć możliwość wyłączenia korekcji optycznej np. przy kitach olka, bo obraz po korekcie wygląda gorzej, a nie zawsze jest ona potrzebna (nie zawsze jest punkt odniesienia). Chyba, że zwyczajnie tam już nie ma obrazu, tzn. jest czarno (poza kołem obrazowym).
Nie, najzwyczajniej w świecie porównam obraz w środku kadru i w rogach. Jak w przykładzie wyżej, gdzie nie ma żadnej różnicy. Z 12-40 różnica będzie nie do podważenia i nie muszę tego widzieć, żeby to wiedzieć, ponieważ będzie wynikała wprost z dość mocnego wyciągnięcia obrazu.
Naświetlone na próg przepaleń. Dzięki temu cienie zachowują maksymalną dynamikę i nie szumią (nie spada ich rozdzielczość na skutek działań algorytmów odszumiających).
Ostatnio edytowane przez Janko Muzykant ; 13.10.13 o 23:59
czyli w wielu przypadkach jest to na siłę wyciąganie wad obiektywu ? Tudzież zachowuje on pewne swoje wady w specyficznych warunkach ?Naświetlone na próg przepaleń. Dzięki temu cienie zachowują maksymalną dynamikę i nie szumią (nie spada ich rozdzielczość na skutek działań algorytmów odszumiających).
Mówię o tym konkretnym bo są obiektywy np. w systemie sony 35-70mm Minolta gdzie wyraźnie widać np. ma f/3,5 spadek jakości w rogach bez żadnych udziwnień. Wprawdzie to APS-C ale to chyba bez znaczenia
Ostatnio edytowane przez aallen ; 14.10.13 o 00:06
Janko, z uporem maniaka ignorujesz jeden fakt, który sam jeden czyni Twoje rozważania bezsensownymi: nie jesteś w stanie zbadać, czy faktycznie korekcja optyczna ma mniejszy negatywny wpływ na jakość obrazu, niż korekcja programowa. Możesz jedynie sprawdzić, jaki wpływ ma korekcja programowa, ale to za mało, żeby twierdzić, że jest gorsza.
www.sarwinski.com | najlepszy aparat to ten, który zostawiłeś w domu | fb
o i to już wszystko mi wyjaśniło. dziękuje CI bardzoWady obiektywu nie mają się jakkolwiek do sposobu naświetlania i odwrotnie. Chodziło mi o maksymalizację jakości obrazu, na którym lepiej widać wady optyki (wiadomo, że na zaszumionym, a jeszcze potem odszumionym obrazku wiele widać nie będzie).
reasumując jak ktoś i tak postępuje tak ze swoimi zdjęciami za każdym razem wady optyki dla niego będą mniej istotne niż dla osoby, która stawia na pełen rozmiar + brak jakichkolwiek większych udziwnień w postaci LR4, PS etc
Ostatnio edytowane przez aallen ; 14.10.13 o 00:13
Już w pierwszym poście na temat mówiłem wyraźnie, iż porównywać cokolwiek można konkretnie tylko: jedno z drugim i wszystko zależy właśnie od tych konkretnych przypadków. Może być tak, że korekta optyczna sprawdza się gorzej, może być znowu tak, że sprawdza się lepiej. Na pewno korekta programowa sprawdza się gorzej od obiektywu idealnego liniowo w funkcji siły owej.
Korekta optyczna to nie proste wyciąganie pikseli tylko bardzo skomplikowany układ zjawisk fizycznych, produkujących szereg zjawisk wtórnych. W konkretnym przypadku obiektywu 12-60 jest zaprojektowana po mistrzowsku (i szczerze powiedziawszy, nie znam zooma o tej krotności, w którym zrobiono by to tak dobrze). Za to np. w 17-40 Canona zrobiona jest do pupy i tu wolałbym ostry obiektyw z beczką.
Ostatnio edytowane przez Janko Muzykant ; 14.10.13 o 00:20
Korekcja programowa obiektywów istnieje w 4/3 od zawsze
czyli od ponad 10 lat (czasy E-1 i ZD50) - przynajmniej częściowo.
Informacja o winiecie czy "beczce" były zapisywane OD ZAWSZE.
Programowa redukcja winiety (shading comp.) w aparatach działała OD ZAWSZE.
To, że "beczka" wcześniej nie była korygowana to nie wina braku informacji jakie przekazywał obiektyw do korpusu
ale zbyt słabych procesorów we wcześniejszych aparatach.
PS. Jak ktoś chce sobie korygować automatycznie "beczkę" z np ORFów z E-30 i ZD1260 to przecież może.
E-30 tego nie potrafi ale Olympus Viewer już tak.
ORF Viewer 1.10 - program do szybkiego przeglądania plików ORF (100% "czystej" Javy)
Obsługuje również E-30, E-620 i E-P1
A co to ma wspólnego z moją decyzją? To absurd. Gdybym miał bronić swoich wyborów, to zależałoby mi na tym, żeby kompletnie zdyskredytować nowy obiektyw Olka, bo ja przecież używam obiektywu konkurencji. Bardzo chętnie za to stanę się piewcą korekcji optycznej, jak tylko zobaczę jej przewagę. Póki co jej nie widziałem, mimo drążenia tematu. Nikt też jakoś specjalnie nie jest zainteresowany tym, żeby ją pokazać.
Janko, ja to widzę inaczej: to Ty bronisz swojej decyzji o zakupie 12-60Już któryś raz przy okazji dyskusji o 12-40 napotykam na Twój głos, że beczka, że rozciąganie pikseli, że 12-60 cud, miód i orzeszki... Były już sample, na których widać, że 12-40 po korekcji programowej wykonanej nie na jpegach, tylko na rawach, wypadł w rogach kadru przynajmniej tak samo (a właściwie to nawet minimalnie lepiej), jak 12-60.
Czekam więc niecierpliwie, aż wykażesz, że korekcja programowa degraduje rozdzielczość w większym stopniu, niż dodatkowe soczewki w obiektywie, korygujące dystorsję. Bez pitolenia, tylko na przykładzie sampli.
[edit]
skow, ja nie twierdzę, że wcześniej nie było informacji o wadach optyki, tylko że wcześniej nie produkowało się obiektywów pod kątem automatycznego korygowania ich dystorsji przez software. Zaplecze było, ale nie było wykorzystywane.
Ostatnio edytowane przez epicure ; 14.10.13 o 00:33
www.sarwinski.com | najlepszy aparat to ten, który zostawiłeś w domu | fb
Ale mnie chodziło o ten sam obiektyw przed i po korekcie. Sam napisałem że 12-40 wygląda lepiej niż 12-60. Chodzi mi o to, że jeżeli sample są strzelane z tego samego punktu to po korekcie 12-40 "widzi" mniej niż 12-60, czyli węziej niż 12mm (wcale nie taki boski 12-60 dawał faktycznie pi*drzwi 13mm na szerokość ale źródła nie pamiętam). I jakbyś się cofnął do początku - chciałem to porównać z 12-50 a nie 12-60, Bodzip taki link podrzucił do porównania 12-40 z 12-60 (chwała mu za to, bo jakoś mi umknął).
A tak, tyle że tracimy piksele na skalowaniu w górę....kąt widzenia obiektywu jest szerszy właśnie po to, żeby po korekcji uzyskać taki kąt, jaki powinien być.
No nie bez sensu. Bo mamy wtedy np. 20MPix skorygowane i obcięte do 16 i nie tracimy nic na tym co widzi prostokąt "43". Przy obecnej sytuacji poprawiamy 16Mpix, obcinamy do np.12 a potem skalowanie w górę do 16. Oczywiście jeżeli obiektyw wyrabia (a 12-40 tak) to problem tylko w algorytmach.Bez sensu.
"...był umarły, a znów ożył, zaginął, a odnalazł się."