Fra 4k til Full HD

Dette er basert på et innlegg under 

NODA 2015, supplert med noen senere, praktiske erfaringer. 

Såkalt 4K-video dekker en flate på 3840X2160 piksler. Det er fire ganger mer enn Full HD og 9 ganger flere piksler enn 720P. Sistnevnte er det vanlige for HD på TV. Dette åpner for det jeg kaller "4k til 720"-metoden, eller kanskje enda bedre 4k-kinematografi. Med det mener jeg alle de konsekvensene 4k kan få for innspilling av en video, når formålet er for å sikre seg de nødvendige sekvenser og utsnitt, publisert med lavere antall piksler.

Noe av bakgrunnen er at stadig mer video konsumeres på små skjermer. Dermed er det i praksis lite å hente på visning av bildestørrelser over Full HD. I de fleste tilfeller klarer en seg veldig bra med 720p, siden det menneskelige øye lures litt når det er snakk om bevegelige bilder. Ofte vil vi oppleve at bidestørrelse helt ned i 480p ser svært så bra ut på en liten skjerm.

Mellom 4K og 720p eller 1080p ligger det et stort spillerom. Vi kan nedskalere videoene for økt skarphet, vi kan manipulere farger mm og i praksis hente ut større opplevd kontrast. Dersom vi måler på videosignalet vil vi se at vi mister masse informasjon i prosessen, men poenget er at de aller fleste seere ikke vil merke noen forskjell. Testen nederst på siden forsøker å være så "slem" med videosignalet som mulig, for å se hvor dette tar oss.

Nå begynner kameraene med 4K å bli svært rimelige. Det billigste for tiden er Panasonic FZ1000 - et rent konsumentkamera, om enn i et litt øvre skiktet. Filming i 4K er med andre ord tilgjengelig for hvermansen.

Jeg har gjort noen tester i et forsøk på å sjekke potensialet. Her er hensikten å presse dette til yttergrensene, for å se om kvaliteten holder et minstemål. Hvor grensen for akseptabel bildekvalitet går er en subjektiv vurdering, men dersom vi aksepterer et noe lavere teknisk kvalitetsnivå kan vi begynne å produsere videoer på en ganske annen måte nn hva vi har vært vant til tidligere. Dermed kan en jobbe smartere og raskere, f eks ved å unngå kamerabevegelser i optakssituasjonen. Samtidig kan vi hente ut stillbilder på 8 megapiksler fra videoen, neo som selvsagt gir en "fotograf" muligheter til å gjøre to ting på en gang.

Først et opptak direkte fra kameraet - lastet opp til Youtube som 4K. Bildekvaliteten kunne nok vært enda bedre, om jeg hadde hatt et raskt nok minnekort. Her gjør trolig kameraet noe ekstra kompresjonmagi, rett og slett for å klare å skrive til kortet raskt nok:

Klippene tas inn i en videoeditor, og jeg sjekker hva som kommer ut ved å bruke utsnitt av dette bildet. Det lille lyse feltet viser hvor mye som er igjen av bildet, dersom vi tar det helt ned til en høyde på 720 piksler. Vi ser samtidig at det, i alle fall potensielt, er enorme muligheter for å skape bevegelser i bildet - pan, tilt og/eller zoom - i etterarbeidet. Dermed kan vi få et resultat som dette. Ikke oppsiktsvekkende god bildekvalitet, men mer enn tilstrekkelig for mange formål. Alle "kamerabevegelser" er her gjort i etterarbeidet: Og poenget var?

 Jo, skal en produsere video på en effektiv måte - noe webavisene og webkringkastere vil få et økende behov for - gjelder det å holde tidsbruk og kostnader nede. Ved å gjøre opptakene i 4K, ut fra at de skal nedskaleres og croppes kan en begynne å tenke ganske annerledes i opptakssituasjonen. Jobbe raskere rett og slett. Å jobbe med bevegelig kamera er noe av det vanskeligste som møter en videofotograf, mens de fleste kan bli rimelig gode til å plassere kamera og holde det i ro (uansett et bra tips). Dermed kommer en tilbake med mye mer brukbart materiale, og med en produksjonsflyt som er tilrettelagt for denne måten å jobbe på.

For å banke inn poenget. Dette klippet er laget med akkurat det samme råmaterialet som videoen rett ovenfor. Lydsiden er riktignok den samme, men ellers blir fortellingen en ganske annen:

Jeg tror de to utviklingstrekkene, opptak i 4K og bruk på små skjermer, kommer til å endre måten videojournalister må jobbe på. De som behersker en arbeidsflyt, som skissert ovenfor (dog mer fullkomment), vil ha et "komparative fortrinn".

Det er riktignok noen ulemper, og jeg gjør meg på ingen måte til talsmann for at dette skal være metoden hele tiden. Skal du hente ut tettere utsnitt krever dette at større deler av motivet er i fokus. Det betyr gjerne at du vil få problemer med å oppnå den "filmmatiske" estetikken som kjennetegnes ved å ha f eks bakgrunn i ufokus. Noen slike slike bilder, andre ikke, men ser en på nyhetsreportasjer og lignende er ikke dette et dominerende formspråk uansett.

Men kombinasjonen av ulike metoder er en vinner med muligheten til å hente ut flere forskjellige sekvenser fra samme råopptak (jmf det første eksemplet ovenfor). Apropos ulike metoder: ut av 4K video kommer stillbilder på 8 megapiksler. Med ett fotograferer du med 25 bilder i sekundet, og bilder som dette bør kunne la seg trykke uten at noen griner på nesen.

Dersom du ikke har et kamera som gjør opptak i 4K: du kan forsøke deg på å laste ned denne videoen i 4k, f eks via Clipconverter. Den opprinnelige filen var på ca 9 gigabyte. Når du laster den ned fra YouTube igjen er den redusert til 2 gigabyte. Men dette gjør ikke så mye, siden vi uansett skal ta bildeflaten ned til en fjerdedel av størrelsen: fra 4k (dvs 2160p) til Full HD, dvs 1080p.

Slik kan en editert versjon se ut (1080p). Her er en rekke "kamerabevegelser", "zooming" og utsnitt laget i etterarbeidet. Jeg brukte Final Cut her, men iMovie gjør jobben, eller Premiere Elements:

Og her er "råmaterialet" i 4k. Dette krever mye av både linje og maskin, dersom du ser det i full oppløsning. Poenget her er egentlig å sammenligne de to versjonene i en lavere oppløsning, f eks 720p – klarer du da å se forskjell?:

Eksempler på stillbilder fra videoen ovenfor. Her er forholdene ekstremt ugunstige: videofilen har vært gjennom YouTube, det er store kontraster, skittent vindu, og flere tusen meter til motivet. Likevel er dette bilder vi trolig kunne trykket i noen sammenhenger, og de lar seg absolutt bruke på web i lavere oppløsning: