Zapędziliśmy się w ślepy zaułek?
Podczas tegorocznej premiery iPhone’ów 16 Apple poinformowało, że najnowsze urządzenia otrzymają zupełnie zmieniony silnik fotograficzny, który weźmie pod uwagę dłuższą niż starsze modele serię ekspozycji do konstrukcji wynikowego zdjęcia. Efektem miała być poprawa dynamiki, spadek poziomu szumów oraz poprawa detaliczności. I właściwie udało się to osiągnąć, ale… nie za darmo.
Główny aparat w iPhonie 13 Pro to tradycyjna matryca z filtrem Bayera o rozdzielczości 12 Mpix. iPhone 16 ma dużo nowocześniejszy sensor 48 Mpix, pracujący w układzie Quad Bayer, dający domyślnie zdjęcia 12 lub 24 Mpix. Różnice w sprzęcie i w oprogramowaniu do przetwarzania zdjęć są zatem znaczne. Różnice w jakości zdjęć powinny być podobnie duże, prawda?
Tak też jest. Zdjęcia z nowszego modelu są bardziej szczegółowe nawet bez uciekania się do podwyższonej rozdzielczości, aparat z iPhone 16 lepiej sobie radzi także z brakiem światła. Jednocześnie od pierwszych porównań zauważyłem, że coś niedobrego stało się z kolorami, które są nie tylko mniej nasycone, ale też mają lekki żółty zafarb, którego jednak nie wykazywał RAW uzyskany z Halide przy użyciu trybu Process Zero. Kolory zatem nie wynikają ze złego balansu bieli, tylko z przyjętej metody przetwarzania do postaci wynikowego pliku HEIC.
Jeśli się powiedziało A, trzeba powiedzieć B. Skoro iPhone 13 Pro miał z marszu lepsze kolory, to co z innymi smartfonami? Pixel 9 Pro XL ma podobną detaliczność jak iPhone 16, barwy bardziej nasycone niż oba smartfony Apple’a, a balans bieli z kolei bardzo lekko przesunięty w stronę czerwieni. Co istotne, żaden ze smartfonów przy tym nie oddawał sceny tak, jak widziało to ludzkie oko.
Znaczne różnice wystąpiły także w dynamice. SmartHDR z iPhone’ów działa bardziej agresywnie, wyciągając cienie tak, że scena robi się przesadnie płaska. Pixel działa słabiej, nie redukując aż tak kontrastów. Które podejście jest lepsze, rzecz gustu, wydaje się jednak, że Google jest tu bliższy tradycyjnej fotografii.
Zobacz także: Historia fotografii – od camera obscura do smartfonu (focus.pl)
„Dlaczego nie mogę dobrze sfotografować zachodu słońca?”
Takie pytanie zadała moja żona podczas ostatnich wakacji. Na czym polegał problem? Jej iPhone z uporem maniaka oddawał różowe odcienie nieba jako pomarańczowe, a w bezpośrednim pobliżu słońca też działy się dziwne rzeczy. Obarczyłem winą HDR, nie zastanawiając się wtedy zbytnio nad detalami. Teraz jednak postanowiłem się cofnąć w czasie i przejrzeć archiwum, żeby sprawdzić, czy zawsze tak było i jeśli nie, to od kiedy pojawił się problem?
Pierwsze 3 zdjęcia pochodzą ze smartfonów, które fotografowały w sposób tradycyjny. W iPhone 11 Pro pojawił się silnik Deep Fusion, składający zdjęcie z kilku ekspozycji i po raz pierwszy stosujący SmartHDR, jeszcze na ograniczoną skalę. Dwa lata późniejszy iPhone 13 miał zarówno udoskonalony Deep Fusion, jak i kolejną wersję SmartHDR. Był też, jak widać, pierwszym z iPhone’ów, który zaczął szaleć z kolorami podczas zachodu słońca.
Kolejne przykłady wydają się jeszcze bardziej wyraziste. iPhone 13 Pro bardzo przesadza z kolorem pomarańczowym, Pixel 9 Pro XL znacznie mniej z domyślnym nasyceniem. Jedynie zdjęcie wykonane aparatem ma tu prawdziwą tonalność i kolory takie, jakie zapamiętałem.
Tu problemy ma zarówno iPhone, jak i Pixel – ten drugi co prawda knoci znacznie mniej radykalnie, ma bowiem dużo lepszą kolorystykę, ale HDR swoje wciąż psuje. Do odwzorowania z aparatu bezlusterkowego obu urządzeniom daleko i mówię tu wyłącznie o kolorach, lepsza szczegółowość płynąca z wymiennej optyki jest oczywistością.
Przykładów mamy zatem dosyć, czas na wnioski. Skoro do iPhone 11 Pro smartfony w miarę zachowywały prawdziwość tonalną, to problemem jest to, co stało się później. A mówię tu ni mniej, ni więcej, tylko o przerzuceniu coraz większej odpowiedzialności za jakość zdjęć na skomplikowane algorytmy fotografii obliczeniowej.
Aby nie było, że to tylko moje wrażenie, odwołam się także do eksperymentu, który przeprowadził na Twitterze (zwanym dziś X) Maciej Murawski. Maciek opublikował cztery serie po dwa zdjęcia, nie wskazując jakim urządzeniem były wykonane. Do każdego dołączona była ankieta, z prośbą o wskazanie zwycięzcy.
Wyniki mogą być szokujące. W porównaniu wziął bowiem udział najnowszy iPhone 16 Pro oraz Lumia 950 XL z 2015 roku i to Lumia wygrała, zdobywając łącznie 64% głosów. W żadnym z 4 pojedynków iPhone 16 Pro nie zwyciężył, różnice dotyczyły tylko stopnia porażki.
Poprosiłem Macieja Murawskiego o zdjęcia z Lumii, by z bliska ocenić, czy rzeczywiście są takie dobre. I wiecie co? Nie są. W 2015 roku istotnie były znakomite, ale to tyle. Dziś są z innej epoki. Lumia popełnia spore błędy w balansie bieli, na zdjęciach widać niemało szumu, jasne partie obrazu często są przepalone i nie daje sobie rady z drobnymi szczegółami tak, jak nowe konstrukcje. Dlaczego zatem wygrała?
To bardzo proste – zdjęcia z Lumii były bardziej naturalne, miały bardziej poprawną kolorystykę i tonalność, nawet mimo błędów. I było to widać na pierwszy rzut oka, podczas gdy wspomniane przeze mnie problemy z szumem i odwzorowaniem detali wymagały już bliższego przyjrzenia się zdjęciom na dużym monitorze – na małym wyświetlaczu smartfonu dostrzeżenie ich było właściwie niemożliwe.
Zobacz także: Test Google Pixel 9 Pro XL – flagowa cena i aparat (chip.pl)
Fotografia obliczeniowa jak przepis na płaza w sosie pomidorowym
Zwycięstwo Lumii pasuje do wzorca, który zauważyłem na początku – do pewnego momentu fotografia obliczeniowa uzupełniała coraz lepsze sensory aparatów i wszystko szło w dobrym kierunku. W pewnym momencie postęp w budowie matryc światłoczułych przestał nadążać za oprogramowaniem – nie wiem, czy nie dołożyły się do tego perturbacje związane z globalną pandemią C19 i braki w dostępności komponentów, w każdym razie w coraz większym stopniu zadania związane z poprawą jakości zdjęć przerzucono na coraz bardziej rozbudowane algorytmy, składając do kupy coraz to większą liczbę ekspozycji.
Negatywne efekty nie dość, że do dziś nie zawsze są oczywiste, to pojawiały się powoli. Pamiętacie syndrom gotowanej żaby? Tą żabą w tym wypadku byliśmy my, konsumenci. Producenci stopniowo przyzwyczajali nas do tego, że zdjęcia wyglądają coraz mniej naturalnie, a myśmy się z tego jeszcze cieszyli – co więcej, gdy Samsung, który tradycyjnie produkował bardzo nasycone kolorystycznie fotografie, wprowadził w swoim procesie fotograficznym zmiany, dające bardziej naturalne i mniej nasycone odwzorowanie barw, spotkało się to z protestami użytkowników i żądaniami „naprawienia błędów”, co ostatecznie Samsung zrobił. Nie dość więc, że daliśmy się ugotować, to jeszcze protestujemy, gdy ktoś przykręca gaz.
Najnowszy iPhone 16 w mojej ocenie ma kolory znacznie gorsze od poprzedników. Konkurencja ma lepsze, ale też niekoniecznie dobre. Żaby gotują wszyscy, choć każdy w swoim tempie. Ostrożnym optymizmem napawają próby wprowadzania innowacji do optyki – przykładami może być prawdziwy zoom optyczny w Sony Xperia 1 VI czy wysuwany moduł optyczny obiektywu w Huawei Pura. Niestety zmiany są przeważnie ograniczone tylko do jednego z aparatów, a do tego następują wyraźnie zbyt wolno w stosunku do software’u.
Skorygować błędy kolorystyki iPhone’a 16 na szczęście nie jest trudno. Lightroom załatwia sprawę w parę chwil, ale po pierwsze, zdjęcia edytują nieliczni i to się raczej nie zmieni, a po drugie, nie po to użytkownicy kupują najdroższe smartfony, żeby robić nimi zdjęcia, które bez korekcji wyglądają przeciętnie. Owszem, nowy pipeline do przetwarzania zdjęć to okazja do nowych błędów, nowy iOS 18 też. O błędy nietrudno.
I szczerze mówiąc, mam nadzieję, że to, co widzę przy okazji przeglądania fotografii wykonanych za pomocą iPhone’a 16 to właśnie błąd, który Apple naprawi w którejś z kolejnych łatek. Gorzej, jeśli po raz kolejny dowiemy się, że „po prostu źle go trzymamy” i że tak ma być. Większość użytkowników niczego i tak nie poprawi, zostając z tym, co wypluje z siebie maszyna. Kucharz po raz kolejny podkręci żabie temperaturę.
Zobacz także: Recenzja Huawei Pura 70 Pro. Nowa nazwa, nowa jakość? A może stare problemy? (chip.pl)