Astrofotografi: Google afslører, hvordan Pixel 4 negler disse natskud

Google

Googles astrofotografitilstand, der for nylig blev lanceret med Pixel 4, inden de ankom til Pixel 2 og 3-enhederne, har vist sig at være et hit hos fans af nattehimlen.

Ved hjælp af Googles kamera-app giver astrofotografietilstand dig mulighed for at tage fantastiske billeder af stjernerne, der normalt involverer fotograferingsudstyr langt større og dyrere end en simpel smartphone.

Med så stor interesse for funktionen besluttede tech-giganten i denne uge at tilbyde noget indblik i, hvordan det fungerer, og forklarede nogle af sine smarts i et blogindlæg.

Astrofotografietilstanden er i det væsentlige en mere avanceret version af Night Sight, den kraftfulde svagt lysfunktion, der blev lanceret med Pixel 3 i 2018.

"Årets version af Night Sight skubber grænserne for fotografering med svagt lys med telefonkameraer," skrev Googles fotograferingshold i indlægget. ”Ved at tillade eksponering i op til 4 minutter på Pixel 4 og 1 minut på Pixel 3 og 3a gør den nyeste version det muligt at tage skarpe og klare billeder af stjernerne på nattehimlen eller af natlige landskaber uden noget kunstigt lys . ”

Google

Indlægget dækker en hel del jord, herunder hvordan funktionen hjælper med at undgå kamerarystelser og sløring fra bevægelse på stedet ved at opdele lange eksponeringer i flere rammer, inden de automatisk justeres for at skabe et skarpt billede.

I astrofotografietilstand varer Pixel 4's eksponeringstid pr. Ramme ikke mere end 16 sekunder i maksimalt 15 billeder. Længere eksponeringer ville skabe såkaldte "stjernespor" forårsaget af himmellegemer, der "bevæger sig" gennem himlen. Mens nogle astrofotografer gerne kan tage billeder med stjernespor, har Googles funktion til formål at skabe billeder, der får stjernerne til at "ligne lyspunkter".

Googles stykke forklarer også, hvordan softwaren beskæftiger sig med såkaldte varme og varme pixels, små lyse prikker, der kan vises med længere eksponeringer fanget af digitale kamerasensorer.

Ifølge Google kan varme og varme pixels identificeres "ved at sammenligne værdierne for nabopixel inden for samme ramme og på tværs af sekvensen af ​​rammer, der er optaget til et foto, og søge efter outliers." Når den er placeret, skjules pixlen derefter ved at erstatte dens værdi med gennemsnittet af sine naboer. ”Da den oprindelige pixelværdi kasseres, er der et tab af billedinformation, men i praksis påvirker dette ikke billedkvaliteten mærkbart,” sagde Google.

Stykket fortsætter med at tale om, hvordan softwaren lyser skærmen for at hjælpe med kompositionen, og hvordan den formår at sikre skarp fokusering under de udfordrende forhold med svagt lys.

Det forklarer også, hvordan det bruger maskinlæring til at reducere støj og selektivt mørke himlen, hvilket giver et mere realistisk indtryk af scenen på det tidspunkt, og gør disse stjerner og resten af ​​billedet virkelig pop.

Du kan finde artiklen her.

Seneste indlæg

$config[zx-auto] not found$config[zx-overlay] not found