A są one po części spowodowane sposobem tworzenia kolorowego obrazu – najczęściej stosowane matryce mają piksele przykryte filtrami RGB, tworzącymi wzór Bayera i z proporcji sygnału między nimi wylicza się temperaturę barwową i kolory pikseli.
Spectricity S1 sięga tam, gdzie zwykły sensor nie daje rady
Producenci w różny sposób próbowali radzić sobie z problem. Huawei w swoich topowych modelach zastąpił zielony filtr barwny żółtym (RYYB), by lepiej radził sobie w trudnych warunkach, LG w niektórych modelach stosował dodatkowy prosty czujnik spektralny, wspomagający proces.
Zaprezentowany na CES 2023 układ Spectricity S1 jest w zasadzie rozwinięciem tego ostatniego pomysłu, lecz o znacznie większych możliwościach. Jest to bowiem w zasadzie pełnoprawny, wyspecjalizowany aparat fotograficzny o niewielkiej rozdzielczości 800 x 600 pikseli. Zastosowano w nim 16 wąskopasmowych filtrów barwnych, jest też w stanie „widzieć” w bliskiej podczerwieni. Pozyskane z niego dane o spektrum światła w różnych punktach obrazu są następnie wykorzystywane do obróbki sygnału z klasycznego sensora RGB wysokiej rozdzielczości.
Zdjęcia wykonane z użyciem danych z czujnika spektralnego w znacznie większym stopniu zachowają poprawną kolorystykę niezależnie od temperatury barwowej oświetlenia. W dobrych warunkach można liczyć na dużo lepszą dokładność odwzorowywania kolorów skóry, aparaty też lepiej będą sobie radzić w sytuacji, gdy widmo światła dalekie jest od ciągłego (jak w przypadku wciąż powszechnie spotykanych ulicznych lamp sodowych i rtęciowych).
Spectricity S1 nie wymaga specjalnych układów do obróbki obrazu i sprawnie integruje się z ISP obecnymi w układach Qualcomma i MediaTeka, aczkolwiek oczywiście wymaga specjalnego oprogramowania. Kiedy zobaczymy S1 w praktycznym użyciu? CEO Spectricity, Vincent Mouret, w wywiadzie dla Digitaltrends podał, że możemy się spodziewać pierwszych smartfonów z czujnikiem S1 w 2024 roku, początkowo zapewne od któregoś z chińskich producentów.
Dajcie to jak najszybciej
Problemy z prawidłową reprodukcją kolorów w fotografii są tak stare, jak kolorowa fotografia. W epoce analogowej fotograf musiał korzystać z filtrów korekcyjnych. W fotografii cyfrowej odpowiada za to automatyczny balans bieli, który działa dość dobrze, ale… gubi się w świetle sztucznym i gdy scenę oświetlają źródła światła o różnym kolorze. Do pewnego stopnia z pomocą przychodzi tryb RAW, w którym korekcję kolorów można przeprowadzić PO zrobieniu zdjęcia bez straty jakości, lecz w świecie smartfonów RAW mimo rosnącej popularności wciąż pozostaje egzotyką i większość zdjęć powstaje od razu w formie gotowej do użycia.
Zobacz też: Jak poprawić zdjęcia z telefonu? TOP 4 najlepszych aplikacji do obróbki na Androida i iOS (chip.pl)
Dodatkowy sensor zapewnianiający poprawną kolorystykę takich fotografii, niezależnie od warunków, w których zostały wykonane, będzie moim zdaniem znacznie przydatniejszy niż stosowane jako zapychacze matryce makro czy sensory głębi. Choć oczywiście na wiarygodną ocenę tego rozwiązania przyjdzie poczekać do momentu, gdy w ręce recenzentów trafią pierwsze komercyjnie dostępne produkty z niego korzystające.