14Aug

Waarom is verticale resolutie zo vaak een veelvoud van 360?

Kijk lang genoeg naar een lijst met monitorresoluties en je merkt een patroon: veel van de verticale resoluties, vooral die van gaming- of multimediaschermen, zijn veelvouden van 360( 720, 1080, 1440, etc.). Maar waarom is dit preciesde zaak? Is het willekeurig of is er iets meer aan het werk?

De vraag van vandaag &Antwoord sessie komt naar ons met dank aan SuperUser-een onderverdeling van Stack Exchange, een community-gestuurde groepering van Q & A-websites.

De vraag

SuperUser-lezer Trojandestroy heeft onlangs iets opgemerkt over zijn display-interface en heeft antwoorden nodig:

YouTube heeft onlangs 1440p-functionaliteit toegevoegd en voor het eerst besefte ik dat alle( de meeste?) Verticale resoluties multiples van 360 zijn.

Is dit alleen maar omdatde kleinste gemeenschappelijke resolutie is 480 × 360, en het is handig om veelvouden te gebruiken?(Niet betwijfeld dat multiples handig zijn.) En / of was dat de eerste zichtbare / handig formaat resolutie, zodat hardware( tv's, monitors, enz.) Groeide met 360 in het achterhoofd?

Waarom is het niet een vierkante resolutie? Of iets anders ongewoons?(Aangenomen dat het normaal genoeg is dat het zichtbaar is).Is het alleen maar een aangename situatie?

Dus waarom is het display een veelvoud van 360?

Het antwoord

SuperUser Contributor User26129 biedt ons niet alleen een antwoord op de vraag waarom het numerieke patroon bestaat, maar een geschiedenis van schermontwerp in het proces:

Oke, er zijn een paar vragen en een heleboel factoren hier. Resoluties zijn een heel interessant gebied van psychooptische ontmoeting marketing.

Allereerst, waarom zijn de verticale resoluties op youtube veelvouden van 360. Dit is natuurlijk gewoon willekeurig, er is geen echte reden waarom dit het geval is. De reden is dat de resolutie hier niet de beperkende factor is voor YouTube-video's - de bandbreedte is dat wel. YouTube moet elke video die een paar keer is geüpload, hercoderen en probeert zo min mogelijk hercoderingsformaten /bitrates/-resoluties te gebruiken om alle verschillende gebruikscasussen te dekken. Voor mobiele apparaten met een lage resolutie hebben ze 360 ​​× 240, voor een hogere mobiele resolutie is er 480p en voor de computermensen is er 360p voor 2xISDN / multiuser vaste lijnen, 720p voor DSL en 1080p voor sneller internet. Voor een tijdje waren er een aantal andere codecs dan h.264, maar deze worden langzaam uitgefaseerd met h.264, die in wezen de format-oorlog heeft 'gewonnen' en alle computers die hiervoor zijn uitgerust met hardware-codecs.

Nu is er ook een aantal interessante psychooptieken aan de gang. Zoals ik al zei: resolutie is niet alles.720p met echt krachtige compressie kan en zal er slechter uitzien dan 240p bij een zeer hoge bitrate. Maar aan de andere kant van het spectrum: meer stukjes gooien met een bepaalde resolutie maakt het op magische wijze niet beter dan een bepaald punt. Er is hier een optimum, wat natuurlijk afhangt van zowel resolutie als codec. Over het algemeen: de optimale bitsnelheid is eigenlijk proportioneel aan de resolutie.

Dus de volgende vraag is: wat voor soort resolutiestappen zijn logisch? Blijkbaar hebben mensen ongeveer 2x meer resolutie nodig om echt een duidelijk verschil te zien( en er de voorkeur aan te geven).Iets minder dan dat en veel mensen zullen eenvoudigweg geen last hebben van de hogere bitrates, ze gebruiken hun bandbreedte liever voor andere dingen. Dit is al heel lang geleden onderzocht en het is de grote reden waarom we van 720 × 576( 415kpix) naar 1280 × 720( 922kpix) gingen en vervolgens opnieuw van 1280 × 720 naar 1920 × 1080( 2MP).Materiaal er tussenin is geen haalbaar optimalisatiedoel. En nogmaals, 1440P is ongeveer 3.7MP, een andere ~ 2x stijging ten opzichte van HD.Je zult daar een verschil zien.4K is de volgende stap daarna.

Het volgende is dat magische aantal van 360 verticale pixels. Eigenlijk is het magische aantal 120 of 128. Alle resoluties zijn tegenwoordig een soort veelvoud van 120 pixels, terug op de dag dat ze veelvouden waren van 128. Dit is iets dat net is voortgekomen uit de industrie van lcd-schermen. Lcd-schermen gebruiken zogenaamde 'line drivers', kleine chips aan de zijkanten van uw lcd-scherm die bepalen hoe helder elke subpixel is. Omdat historisch gezien om redenen die ik niet echt zeker weet, waarschijnlijk geheugenbeperkingen zijn, deze meerdere-van-128 of meerdere-van-120-resoluties al bestonden, werden de standaardlijnregelstuurprogramma's drivers met 360 lijnuitgangen( 1 per subpixel).Als je je 1920 × 1080 scherm zou afbreken, zou ik er geld aan besteden omdat er 16 line drivers op de boven / onderkant en 9 op een van de zijkanten zitten. Oh hey, dat is 16: 9.Raad eens hoe logisch die resolutiekeuze was toen 16: 9 'uitgevonden' was.

Dan is er nog de kwestie van de beeldverhouding. Dit is echt een heel ander gebied van de psychologie, maar het komt neer op: historisch gezien hebben mensen geloofd en gemeten dat we een soort breedbeeldbeeld van de wereld hebben. Natuurlijk geloofden mensen dat de meest natuurlijke weergave van gegevens op een scherm breedbeeld zou zijn en dit is waar de grote anamorfische revolutie van de jaren '60 ontstond toen films in steeds breder wordende beeldverhoudingen werden opgenomen.

Sindsdien is dit soort kennis verfijnd en grotendeels ontkracht. Ja, we hebben wel een groothoekbeeld, maar het gebied waar we scherp kunnen zien - het centrum van onze visie - is redelijk rond. Licht elliptisch en platgedrukt, maar niet echt meer dan ongeveer 4: 3 of 3: 2.Dus voor gedetailleerde weergave, bijvoorbeeld voor het lezen van tekst op een scherm, kunt u het grootste deel van uw detailvisie gebruiken door een bijna-vierkant scherm te gebruiken, een beetje zoals de schermen tot het midden van de jaren 2000.

Nogmaals, dit is niet hoe marketing het heeft gedaan. Computers werden in de oudheid voornamelijk gebruikt voor productiviteit en gedetailleerd werk, maar naarmate ze verder werden ontwikkeld en de computer als mediaconsumptieapparaat zich ontwikkelde, gebruikten mensen hun computer niet altijd voor het grootste deel van de tijd. Ze gebruikten het om media-inhoud te bekijken: films, televisieseries en foto's. En voor dat soort weergave krijg je de meest 'immersiefactor' als het scherm zoveel mogelijk van je zicht( inclusief je perifere gezichtsvermogen) vult. Wat betekent breedbeeld.

Maar er is nog steeds meer marketing. Toen detailwerk nog steeds een belangrijke factor was, was de oplossing voor mensen belangrijk. Zoveel mogelijk pixels op het scherm. SGI verkocht bijna-4K CRT's! De meest optimale manier om de maximale hoeveelheid pixels uit een glassubstraat te halen, is door deze zo vierkant mogelijk te knippen.1: 1 of 4: 3-schermen hebben de meeste pixels per diagonale inch. Maar met displays steeds meer consumeren, werd inch-formaat belangrijker, niet het aantal pixels. En dit is een heel ander optimalisatiedoel. Om de meest diagonale inches van een substraat te krijgen, wilt u het scherm zo breed mogelijk maken. Eerst kregen we 16:10, toen 16: 9 en er waren redelijk succesvolle panelfabrikanten die schermen van 22: 9 en 2: 1 maakten( zoals Philips).Hoewel de pixeldichtheid en absolute resolutie een paar jaar daalden, gingen inch-maten omhoog en dat is wat er verkocht werd. Waarom een ​​19 "1280 × 1024 kopen wanneer je een 21" 1366 × 768 kunt kopen? Eh. ..

Ik denk dat het hier gaat over alle belangrijke aspecten. Er is natuurlijk meer;bandbreedte limieten van HDMI, DVI, DP en natuurlijk VGA speelde een rol, en als je teruggaat naar de pre-2000s, speelden grafisch geheugen, in-computer bandwdith en simpelweg de limieten van commercieel verkrijgbare RAMDAC's een belangrijke rol. Maar voor de overwegingen van vandaag gaat dit over alles wat u moet weten.

Heeft u iets toe te voegen aan de uitleg? Geluid uit in de opmerkingen. Wilt u meer antwoorden van andere technisch onderlegde Stack Exchange-gebruikers lezen? Bekijk de volledige discussiethread hier.