Przyznam pierwszy raz taką tezę usłyszałem i nie sądzę by tak było z tą interpolacją.
Ewentualnie, co jest możliwe:) czegoś nie zrozumiałem, nie wiem...
Wersja do druku
To chyba nie moja wina, że wcześniej o tym nie słyszałeś? To podstawowa cecha matryc Bayer'a, czyli w zasadzie wszystkich poza Sigmą/Foveonem.
Pewnie, że nie Twoja wina:) Jakoś mało prawdopodobne mi się wydaje z tym dodawaniem "pikseli na czuja" jak to określiłeś, skoro matryca ma fizycznie 12 mln pikseli.
Czyli informacja do jpg zbierana jest z co drugiego piksela?... na to by wychodziło...
Tak, bo w matrycy każdy piksel odpowiada jednej barwie podstawowej, a obraz składa się z trzech. Tak w skrócie, to zielone są najważniejsze i jest ich 50%. Dlatego JPG, to 50% wielkości RAW, reszta, to interpolacja.
Tutaj krótkie wyjaśnienie na temat matrycy Bayera: http://www.optyczne.pl/115-słownik-Matryca_filtrów.html
Mówiąc o wielkości masz pewnie na myśli wagę w MB-ajtach. Mój G1 ma matrycę właśnie też 12 MP i czy zrobie zdjęcie w RAW czy w JPG rozdzielczość takiego zdjęcia jest 4000x3000pix. Właśnie te 4tyśx3tyś to jest 12MP. Różnica w wadze (jpg ok 6MB, RAW ok. 14MB) wynika mz. z informacji jakie zawierają piksele. RAW zdaje się jest 16 bitowy, a jpg 8 bitowy. Dlatego z RAW-a można o wiele więcej "wyciągnąć" w obróbce. Dlatego też niezbyt się zgadzam z tą interpolacją co pisałeś 6 MP, właściwsze słowo to kompresja. Uważam, że w jpg także informacje o obrazie są zbierane z całej matrycy, tylko są zubożone (16bit raw vs 8 bit jpg)
Skąd ta informacja o 16 bitach?
Większość robi w 12 bitowych, a niektóre w 14 bitowych RAWach.
Pisząc o wielkości mam na myśli ilość pikseli. W RAW 12 MP jest ilośc informacji wystarczajaca do utworzenia nieinterpolowanego obrazu o wielkości 6 MP. O bitach tez poczytaj, tak w skrócie, to jeden sygnał jest liniowy, drugi nieliniowy i nie można ich tak bezpośrednio porównywać. W uproszczeniu mozna napisać, że JPG ma ich mniej, ale są lepiej wykorzystane :) W sieci jest mnóstwo informacji na ten temat, lepiej poczytać niż wymyslać swoje teorie :).
Nie. Nie masz racji.
Jeśli matryca ma 12M subpikseli to oznacza że ma:
- 3M subpikseli czerwonych
- 2 * 3M subpikseli zielonych ułożonych w szachownicę
- 3M subpikseli niebiekich
Z tego na pewno nie da się zrobić 6M bez interpolacji.
Biorąc z matrycy kwadraty 2x2 mozemy co najwyżej uzyskać bez interpolacji obraz 3M (subpiksele zielone uśredniamy).
---------- Post dodany o 10:44 ---------- Poprzedni post był o 10:21 ----------
A czym?
ORFy czy NEFy to są pliki typu TIFF.
W takim razie TIFF tez nie należy traktować jak format graficzny.
Może i słusznie bo TIFF to taki kontener obrazów (jak AVI w wideo), w którym mogą siedzieć treści w różnym formacie: JPG, LZW itd.
Obrazów w TIFF może być jeden, kilka lub wiele tysięcy o różnych wymiarach i treści.
---------- Post dodany o 10:54 ---------- Poprzedni post był o 10:44 ----------
Jeśli z matrycy np 12M zrobiono obraz 12M to w kanale czerwonym i niebieskim tylko 25% pikseli jest oryginalnych a pozostałe 75% jest dorysowywanych.
I tak robią wszyscy: Olympus, Canon, Nikon itd
Jeśli matryca ma 12M subpikseli a tworzony jest JPG 12M (36M subpikseli) to w JPG masz nie 50% ale 66.6% "dorysowywanych na czuja".