14Aug

Hvorfor er lodret opløsning Monitor Resolution så ofte en flere af 360?

click fraud protection

Staar på en liste med skærmopløsninger længe nok, og du kan muligvis bemærke et mønster: Mange af de vertikale opløsninger, især de af spil eller multimedie skærme, er multipler på 360( 720, 1080, 1440 osv.) Men hvorfor er det præcis dettesagen? Er det vilkårligt eller er der noget mere på arbejde?

Dagens Spørgsmål &Svar session kommer til os høflighed af SuperUser-en underafdeling af Stack Exchange, en community-drevet gruppe af Q & A-websteder.

Spørgsmål

SuperUser-læser Trojandestroy har for nylig bemærket noget om hans displayinterface og har brug for svar:

YouTube tilføjede for nylig 1440p-funktionalitet, og for første gang indså jeg, at alle( mest?) Lodrette opløsninger er multipler på 360.

Er det bare fordiDen mindste fælles opløsning er 480 × 360, og det er nemt at bruge multipler?(Ikke tvivl om at multipler er praktiske.) Og / eller var det, at den første afspiller / bekvemt størrelse opløsning, så hardware( tv'er, skærme osv.) Voksede med 360 i tankerne?

Hvis du tager det videre, hvorfor ikke have en firkantet opløsning? Eller noget andet usædvanligt?(Forudsat det er normalt nok at det kan ses).Er det kun en behagelig øjelse situation?

instagram viewer

Så hvorfor er skærmen et multiplum af 360?

Svaret

SuperUser-bidragyder User26129 tilbyder os ikke bare et svar på, hvorfor det numeriske mønster eksisterer, men en historie med skærmdesign i processen:

Okay, der er et par spørgsmål og mange faktorer her. Beslutninger er et rigtig interessant område for psykooptik, der møder markedsføring.

Først og fremmest, hvorfor er de lodrette opløsninger på youtube multipla 360. Dette er selvfølgelig bare vilkårlig, der er ingen reel grund til at det er tilfældet.Årsagen er, at opløsning her ikke er den begrænsende faktor for Youtube videoer - båndbredde er. Youtube skal omkode alle videoer, der uploades et par gange, og forsøger at bruge så små genkodningsformater /bitrates/-opløsninger som muligt for at dække alle de forskellige brugssager. For low-res mobile enheder har de 360 ​​× 240, for højere res mobil er der 480p, og for computer publikum er der 360p for 2xISDN / multiuser fastnet, 720p for DSL og 1080p for højere hastighed internet. I et stykke tid var der nogle andre codecs end h.264, men disse bliver langsomt udfaset med h.264, idet de i det væsentlige har "vundet" formatkriget og alle computere er udstyret med hardware codecs til dette.

Nu er der også nogle interessante psykooptik. Som jeg sagde: Beslutning er ikke alt.720p med virkelig stærk kompression kan og vil se værre end 240p ved en meget høj bitrate. Men på den anden side af spektret: at kaste flere bits ved en bestemt opløsning gør det ikke magisk bedre end noget punkt. Der er et optimalt her, hvilket naturligvis afhænger af både opløsning og codec. Generelt: Den optimale bitrate er faktisk proportional med opløsningen.

Så det næste spørgsmål er: Hvilke slags opløsningstrin er fornuftigt? Tilsyneladende har folk brug for en 2x stigning i opløsningen for virkelig at se( og foretrække) en markant forskel. Noget mindre end det og mange mennesker vil simpelthen ikke forstyrre de højere bitrate, de vil hellere bruge deres båndbredde til andre ting. Dette er blevet undersøgt for lang tid siden og er den største grund til, at vi gik fra 720 × 576( 415 kpix) til 1280 × 720( 922 kpix) og derefter igen fra 1280 × 720 til 1920 × 1080( 2 MP).Mellemliggende ting er ikke et rentabelt optimeringsmål. Og igen er 1440P ca. 3,7 MP, en anden ~ 2x stigning over HD.Du vil se en forskel der.4K er det næste skridt efter det.

Næste op er det magiske antal 360 vertikale pixels. Faktisk er det magiske nummer 120 eller 128. Alle opløsninger er en slags multiplum på 120 pixel i dag, tilbage på den dag, de plejede at være multipler på 128. Dette er noget, der netop voksede ud af LCD-panelindustrien. LCD-paneler bruger hvad der kaldes linjedrivere, små chips, der sidder på siderne af din LCD-skærm, der styrer, hvor lyse hver subpixel er. Fordi historisk nok, af grunden til at jeg ikke rigtigt ved sikkert, sandsynligvis hukommelsesbegrænsninger, eksisterede disse multiple-of-128 eller multiple-of-120-opløsninger, blev industristandarddriverne drivere med 360-linieudgange( 1 pr. Subpixel).Hvis du ville nedrive din 1920 × 1080 skærm, ville jeg lægge penge på der er 16 linjekører på toppen / bunden og 9 på en af ​​siderne.Åh hej, det er 16: 9.Gæt, hvor oplagt det beslutningsvalg var tilbage, da 16: 9 var "opfundet".

Så er der spørgsmålet om billedforhold. Dette er virkelig et helt andet felt inden for psykologi, men det koger ned til: Historisk har folk troet og målt, at vi har en slags verdensomspændende skærmbillede. Naturligvis troede folk, at den mest naturlige repræsentation af data på en skærm ville være i en bred skærmvisning, og her kom den store anamorfe revolution fra 60'erne fra, da film blev skudt i stadig større aspektforhold.

Siden da er denne form for viden blevet raffineret og for det meste debunked. Ja, vi har en vidvinkel, men det område, hvor vi faktisk kan se skarpt - centrum for vores vision - er ret rund. Lidt elliptisk og squashed, men ikke rigtig mere end ca. 4: 3 eller 3: 2.Så for detaljeret visning, for eksempel til læsning af tekst på en skærm, kan du udnytte det meste af din detaljerede vision ved at anvende en næsten kvadratisk skærm, ligesom skærme frem til midten af ​​2000'erne.

Men igen er det ikke sådan, hvordan markedsføring tog det. Computere i gamle dage blev brugt for det meste for produktivitet og detaljeret arbejde, men da de kom i gang og som computeren som medieforbrugsenhed udviklede sig, brugte folk ikke nødvendigvis deres computer til arbejde for det meste af tiden. De brugte det til at se medieindhold: film, tv-serier og fotos. Og for den slags visning får du den mest 'nedsænkningsfaktor', hvis skærmen fylder så meget af din vision( herunder din perifere vision) som muligt. Hvilket betyder widescreen.

Men der er stadig mere markedsføring. Når detaljeret arbejde stadig var en vigtig faktor, plejede folk at få en beslutning. Så mange pixels som muligt på skærmen. SGI solgte næsten 4K CRT'er! Den mest optimale måde at få det maksimale antal pixels ud af et glasunderlag er at skære det så firkantet som muligt.1: 1 eller 4: 3 skærme har flest pixel pr. Diagonal tomme. Men med skærme bliver mere forbrug, blev tommerstørrelse vigtigere, ikke mængden af ​​pixels. Og dette er et helt andet optimeringsmål. For at få de mest diagonale inches ud af et substrat, vil du gøre skærmen så bred som muligt. Først blev vi 16:10, så 16: 9, og der har været moderat succesfulde panelfabrikanter, der laver 22: 9 og 2: 1 skærme( som Philips).Selv om pixeltætheden og den absolutte opløsning gik ned i et par år, gik tomme størrelser op, og det er det, der sælges. Hvorfor købe en 19 "1280 × 1024, når du kan købe en 21" 1366 × 768?Eh. ..

Jeg tror, ​​at om dækker alle de store aspekter her. Der er mere selvfølgelig;båndbredde grænser for HDMI, DVI, DP og selvfølgelig VGA spillede en rolle, og hvis du går tilbage til før 2000'erne, spillede grafikhukommelse, computer-bandwdith og simpelthen grænserne for kommercielt tilgængelige RAMDAC'er en vigtig rolle. Men for dagens overvejelser handler det om alt hvad du behøver at vide.

Har du noget at tilføje til forklaringen? Lyde af i kommentarerne. Vil du læse flere svar fra andre tech-savvy Stack Exchange brugere? Tjek den fulde diskussionstråd her.