Istnieją już algorytmu uzupełniające brakujące fragmenty obrazów wręcz, więc coś w tym jest. Taki algorytm być może kiedy będzie kasował szum i zastępował tak danymi że nie rozpoznasz co to jest, a obraz końcowy będzie gładki jak pupa niemowlaka :)
Wersja do druku
Istnieją już algorytmu uzupełniające brakujące fragmenty obrazów wręcz, więc coś w tym jest. Taki algorytm być może kiedy będzie kasował szum i zastępował tak danymi że nie rozpoznasz co to jest, a obraz końcowy będzie gładki jak pupa niemowlaka :)
....każdy chyba wie ze z matrycy bayerowskiej kolory się interpoluje - co z tego ze "algorytm" udaje kolor na sasiadujacych pixelach (w uproszczeniu)? Wiem.. może to niektórych szokuje i powoduje złudne wrażenie ze algorytmy interpolujące rządzą światem obrazu.
Mamy 12/14 bitów + szum przetwornika - i każda matryca ma ten szum w innej ilości oraz charakterze - przy pewnych jego wartościach nawet ekwilibrystyczny algorytm nic nie zdziała. W (C/N)mos-ach sobie można odejmować np stała maskę (tego nieszczęsnego "darka") i co z tego - to nie spowoduje ze obraz będzie piękny i cudowny.
Im lepsze dane na wejściu do "silnika" który zamienia obraz na przyswajalny przez człowieka tym lepszy rezultat.
PS:
Czy koledzy chcą mi wmówić ze dobra matryca to tylko kuglarski trick sprytnych firm i soft napisany przez zamkniętego w piwnicy geniusza?
Nie wiem czy to trik czy nie trik ale sama matryca z nakladanym
filtrem mozaikowym jest niedoskonala i produkuje obraz
ktory bez odpowiedniego softu bedzie nie najlepszy jakosciowo.
Programowa obrobka obrazu to temat rzeka i stale w tej tematyce
sa nowe rozwiazania.
Z tego co widze to juz aparaty poza rozpoznawaniem twarzy
rozpoznaja jeszcze usmiech.
Jeszcze do niedawna takie operacje graficzne on-line byly
niewykonalne.
A200 na tych samplach wymiata O_O
+4/-4 EV -oczywiście nikt nie wprowadza takiej korekcji, ale to tylko metoda na pokazanie różnic w DR. Spora ta różnica.
Niee, żaden trik. A wiesz jak działają algorytmy , które ze zdjęcia zrobią ci trójwymiarowy obraz bryły, na przykład głowa człowieka. Po prostu stopień zaawansowania programów jest niezwykle wysoki uwzględniają już w dużym stopniu prawa fizyki, na różnym poziomie, a zarazem łączą wiedzę i doświadczenie ludzkie. Przykładowo rozpoznanie w locie kilkunastu twarzy to nie problem. Otóż badając ten obraz ( ten worek z bitami) algorytm jest w stanie znaleźć oczy, okreslić ich położenie itd. Takie programy mogą uzupełniać brakujące części. To nie są triki często to są miliardy operacji na bitach
Zibi, ale algorytmy musza miec dobry material wejsciowy, jak matryca jest do bani i w cieniach beda same 0 to zaden algorytm tego nie uratuje.
Jak malo ciekawie wyglada raw moge pokazac, mam soft do ogladania czystych rawow.
Probka 1:1, bez gammy, fragment materialu.
http://img217.imageshack.us/my.php?i...1091103bl4.jpg
http://img220.imageshack.us/my.php?i...3561625yh0.png
To jest prawda co piszesz. Ma znaczenie jakość wejściowa danych a to dlatego że programy są wciąż niedoskonałe. Mało tego zauważcie że potentaci piszą kody pod największe standardy, a więc małemu trudniej się przebić bo jest mniejsze wsparcie. RAW z Canona czy nikona lepiej obsłuży masa programów. Pamiętacie jak soft na samym początku źle widział RAW z E3 czy nawet E510. Za jakiś czas w końcu wychodzą łatki i poprawki, ale na to trzeba czasu, ba i to war musi już być popularny dość. Znana firma DXO w ogóle nie obsługiwała luster Olympusa (tak było - nie wiem jak jest teraz), a to świetny soft do obróbki zdjęć. Martwi mnie to że jest aż tyle zachodu aby poprawiać zdjęcia poza aparatem i trzeba to dobrze robić, aby zdjęcie było zauważone