Heb jij nog een compactcamera? Heb je de laatste jaren nog overwogen om een compactcamera te kopen? Ik niet in ieder geval. Ja, ik wilde wel graag een wat lichtere camera dan een dikke spiegelreflex, maar wél een camera met verwisselbare lenzen, zoals bijvoorbeeld die van Fuji. Maar ook die heb ik niet altijd in mijn rugzak zitten. Mijn mobieltje met mijn 16 megapixelcamera heb ik wel altijd bij me. En al vind ik het soms jammer dat ik niet mijn ‘echte’ camera bij me heb, in het algemeen ben ik met de foto’s die ik er mee schiet heel tevreden.
Toen de batterij van mijn Fuji X-Pro 1 het opgaf tijdens een prachtige rit door de Portugese bergen, baalde ik behoorlijk, maar schoot ik verder met mijn Galaxy Note 4. Pas dit weekend bekeek ik de foto’s die ik er mee gemaakt had écht goed en stelde een paar erg mooie panorama’s samen. Helemaal niet slecht! Misschien niet om enorm groot op te blazen, maar voor een print zijn ze absoluut geschikt. De camera’s die in de huidige mobiele telefoons zitten kunnen zich meten met compactcamera’s van een aantal jaren geleden. Dat hebben ze natuurlijk te danken aan sensoren die steeds beter worden, maar ook aan computational photography, aan soft- en hardware van de computer in je mobieltje, die een heel andere manier van vastleggen van foto’s mogelijk maken.
Computational photography
Een voorbeeld van wat computational photography mogelijk maakt kun je zien in de resultaten van de camera’s in de Google Pixel-telefoons. In een artikel over de technologie in de Pixel-telefoons op The Verge legt professor Marc Levoy uit wat die nieuwe camera zo bijzonder maakt: het is niet perse de sensor, maar het is de combinatie van de sensor én de software van Google en de processor in de telefoon die de camera zo snel maken en zorgen voor bijvoorbeeld betere foto’s in slecht licht. Deze professor, die op Stanford werkte, en daar ook met het Photoshopteam van Adobe samenwerkte, werkt nu bij Google in een team dat zich bezig houdt om met behulp van computertechnologie betere foto’s te maken.

Die Pixelcamera neemt al foto’s, zodra je de camera-app opent, zelfs voordat je afdrukt. De software in de telefoon doet de rest. Het combineert als het ware foto’s die er zijn gemaakt rond het moment dat je de foto schoot. Dat gebeurt als je in de camera-app HDR+ aan hebt staan. Bij minder licht – slecht licht = veel ruis in de foto – maakt de camera snel een stel foto’s en combineert die waardoor de ruis afneemt. In het artikel bij The Verge wordt de professor geïnterviewd over de mogelijkheden van nu en in de toekomst.
Over de kwaliteit van de foto’s die de Pixels kunnen nemen is niet iedereen het eens, maar het grootste deel van de besprekers zijn enthousiast over de camera en de foto’s. Mooi, het is aan Apple en Samsung om daar weer een antwoord op te vinden in de volgende versies van de iPhone en de Galaxy’s. De kwaliteit van de huidige generatie iPhone’s en Galaxy’s ook helemaal niet verkeerd en ook dat is deels te danken aan die computational photography. Laten de verschillende fabrikanten van mobieltjes elkaar maar opjagen. Waar blijft het antwoord van Nikon en Canon?
Ik vond het artikel op de site van The Verge via het blog van John Nack, waar je nog wat meer links kunt vinden naar professor Levoy en naar de ‘Frankencamera’ waar hij op Stanford mee bezig was.
Hans Frederiks is journalist en fotograaf en hoofdredacteur van blog.computercreatief.nl. Hij schrijft over ontwikkelingen op het gebied van computers, van vormgeving op het web en print, en fotografeert al zijn hele leven lang. Zijn specialisaties zijn panorama’s, landschappen en podiumfotografie. Zijn blog vind je HIER, zijn boeken vind je HIER.
Goede tip! De blog verwijst naar vele interessante video’s.