14Aug

Hvorfor er vertikal oppløsning Overvåk oppløsning så ofte en flere av 360?

click fraud protection

Stare på en liste med skjermoppløsninger lenge nok, og det kan hende du oppdager et mønster: Mange av de vertikale oppløsningene, spesielt de som spilles eller multimedia, er multipliser på 360( 720, 1080, 1440 osv.) Men hvorfor er dette akkuratsaken? Er det tilfeldig eller er det noe mer på jobb?

Dagens Spørsmål &Svar-sesjon kommer til oss med høflighet av SuperUser-en underavdeling av Stack Exchange, en fellesskapsdrevet gruppering av Q & A-nettsteder.

Spørsmålet

SuperUser leser Trojandestroy har nylig lagt merke til noe om skjermgrensesnittet og trenger svar:

YouTube har nylig lagt til 1440p-funksjonalitet, og for første gang innså jeg at alle( mest?) Vertikale resolusjoner er multipler på 360.

Er dette bare fordiDen minste vanlige oppløsningen er 480 × 360, og det er praktisk å bruke multipler?(Ikke tvil om at multiplene er praktiske.) Og / eller var det den første visningen / praktisk størrelse oppløsning, slik maskinvare( TVer, skjermer osv.) Vokste med 360 i tankene?

instagram viewer

Ta det videre, hvorfor ikke ha en firkantet oppløsning? Eller noe annet uvanlig?(Forutsatt at det er vanlig nok at det kan ses).Er det bare en behagelig situasjon?

Så hvorfor er skjermen et multiplum av 360?

Svaret

SuperUser-bidragsyteren User26129 gir oss ikke bare et svar på hvorfor det numeriske mønsteret eksisterer, men en historie med skjermdesign i prosessen:

Ok, det er et par spørsmål og mange faktorer her. Oppløsninger er et veldig interessant felt for psykooptisk møte markedsføring.

Først av alt, hvorfor er de vertikale resolusjonene på youtube multipler på 360. Dette er selvsagt bare tilfeldig, det er ingen reell grunn til at dette er tilfelle.Årsaken er at oppløsning her ikke er begrensende for Youtube videoer - båndbredde er. Youtube må re-encode hver video som lastes opp et par ganger, og prøver å bruke så små re-encoding formater /bitrates/ resolusjoner som mulig for å dekke alle de forskjellige brukssaker. For low-res mobile enheter har de 360 ​​× 240, for høyere res mobil er det 480p, og for datamengden er det 360p for 2xISDN / multiuser fasttelefoner, 720p for DSL og 1080p for høyere hastighets internett. For en stund var det noen andre kodeker enn h.264, men disse blir langsomt faset ut med h.264 som egentlig har "vunnet" formatkriget og alle datamaskiner er utstyrt med maskinvarekodeker for dette.

Nå er det også noen interessante psykooptikker som skjer. Som jeg sa: Oppløsning er ikke alt.720p med veldig sterk komprimering kan og vil se verre enn 240p ved en svært høy bithastighet. Men på den andre siden av spekteret: å kaste flere biter ved en bestemt oppløsning gjør det ikke magisk bedre enn noen gang. Det er et optimalt her, som selvfølgelig avhenger av både oppløsning og kodek. Generelt: Den optimale bithastigheten er faktisk proporsjonal med oppløsningen.

Så det neste spørsmålet er: hva slags oppløsningstrinn gir mening? Tilsynelatende trenger folk om en 2x økning i oppløsning for å virkelig se( og foretrekke) en markert forskjell. Noe mindre enn det og mange mennesker vil rett og slett ikke bry seg med de høyere bithastighetene, de vil heller bruke båndbredden deres for andre ting. Dette har blitt forsket for ganske lenge siden, og er den store grunnen til at vi gikk fra 720 × 576( 415 kpix) til 1280 × 720( 922 kpix), og deretter igjen fra 1280 × 720 til 1920 × 1080( 2 MP).Stuff i mellom er ikke et levedyktig optimaliseringsmål. Og igjen, 1440P er ca 3,7 MP, en annen ~ 2x økning over HD.Du vil se en forskjell der.4K er neste skritt etter det.

Neste opp er det magiske antallet 360 vertikale piksler. Faktisk er det magiske nummeret 120 eller 128. Alle oppløsninger er noen form for flere med 120 piksler i dag, tilbake på dagen de pleide å være multipler på 128. Dette er noe som nettopp vokste ut av LCD-panelindustrien. LCD-paneler bruker det som kalles linjedrivere, små chips som sitter på sidene av LCD-skjermen din, som styrer hvor lyse hver subpixel er. Fordi historisk, for grunner jeg egentlig ikke vet sikkert, sannsynligvis minnebegrensninger, eksisterte disse flere-av-128 eller flere 120-resolusjoner, ble bransjestandardlinjedriverne blitt drivere med 360 linjoutganger( 1 per subpixel).Hvis du skulle rive ned 1920 × 1080-skjermen, ville jeg sette penger på at det var 16 linjedrivere på toppen / bunnen og 9 på en av sidene.Åh, det er 16: 9.Gjett hvordan åpenbart at oppløsningsvalget var tilbake da 16: 9 var "oppfunnet".

Da er det spørsmålet om aspektforhold. Dette er virkelig et helt annet felt i psykologi, men det koker seg til: Historisk har folk trodd og målt at vi har en slags verdensomspennende visning av verden. Naturligvis trodde folk at den mest naturlige representasjonen av data på en skjerm ville være i bredskjermsvisning, og det var her den store anamorfe revolusjonen på 60-tallet kom fra når filmer ble skutt i stadig større aspektforhold.

Siden da har denne typen kunnskap blitt raffinert og for det meste debunked. Ja, vi har en vidvinkel, men området der vi faktisk kan se skarpt - midt i vår visjon - er ganske rund. Litt elliptisk og squashed, men egentlig ikke mer enn 4: 3 eller 3: 2.Så for detaljert visning, for eksempel for å lese tekst på en skjerm, kan du utnytte det meste av detaljvisjonen ved å bruke en nesten kvadratisk skjerm, litt som skjermbildene frem til midten av 2000-tallet.

Men igjen er dette ikke hvordan markedsføring tok det. Datamaskiner i gamle dager ble brukt for det meste av produktivitet og detaljert arbeid, men da de kom til og som datamaskinen som mediaforbruksenhet utviklet seg, brukte folk ikke nødvendigvis sin datamaskin for arbeid mesteparten av tiden. De brukte det til å se medieinnhold: filmer, tv-serier og bilder. Og for den typen visning, får du den mest "nedsenkende faktoren" hvis skjermen fyller så mye av visjonen din( inkludert din perifere syn) som mulig. Hvilket betyr widescreen.

Men det er fortsatt mer markedsføring. Når detaljarbeid var fortsatt en viktig faktor, brydde folk om oppløsning. Så mange piksler som mulig på skjermen. SGI solgte nesten 4K CRTs! Den mest optimale måten å få maksimalt antall piksler ut av glassunderlaget, er å kutte den så firkantet som mulig.1: 1 eller 4: 3 skjermer har de fleste piksler per diagonal tommer. Men med skjermer blir det mer forbruk, ble tommestørrelse viktigere, ikke mengden piksler. Og dette er et helt annet optimaliseringsmål. For å få mest diagonale tommer ut av et underlag, vil du gjøre skjermen så bred som mulig. Først fikk vi 16:10, deretter 16: 9, og det har vært moderat vellykkede panelprodusenter som gjør 22: 9 og 2: 1 skjermer( som Philips).Selv om piksel tetthet og absolutt oppløsning gikk ned i et par år, gikk tomme størrelser opp, og det er det som selges. Hvorfor kjøpe en 19 "1280 × 1024 når du kan kjøpe en 21" 1366 × 768?Eh. ..

Jeg tror at om dekker alle de store aspektene her. Det er mer selvfølgelig;Båndbreddegrenser for HDMI, DVI, DP og selvfølgelig VGA spilte en rolle, og hvis du går tilbake til pre-2000-tallet, spilte grafikkminne, i-computer bandwdith og bare grensene for kommersielt tilgjengelige RAMDACs en viktig rolle. Men for dagens overveielser handler dette om alt du trenger å vite.

Har du noe å legge til forklaringen? Lyde av i kommentarene. Vil du lese flere svar fra andre tech-savvy Stack Exchange-brukere? Sjekk ut hele diskusjonstråden her.