Hvorfor gir HDMI-DVI et skarpere bilde enn VGA?
Med all den store maskinvaren vi har tilgjengelig i disse dager, ser det ut til at vi skal nyte god kvalitetskvalitet uansett hva, men hva om det ikke er tilfelle? Dagens SuperUser Q & A innlegg søker å rydde opp ting for en forvirret leser.
Dagens Spørsmål & Svar-sesjon kommer til oss med høflighet av SuperUser-en underavdeling av Stack Exchange, en fellesskapsdrevet gruppering av Q & A-nettsteder.
Foto med lov av lge (Flickr).
Spørsmålet
SuperUser leser alkamid ønsker å vite hvorfor det er en merkbar forskjell i kvalitet mellom HDMI-DVI og VGA:
Jeg har en Dell U2312HM skjerm koblet til en Dell Latitude E7440 laptop. Når jeg kobler dem via laptop -> HDMI-kabel -> HDMI-DVI adapter -> skjerm (skjermen har ikke en HDMI-kontakt), er bildet mye skarpere enn hvis jeg kobler til via bærbar PC -> miniDisplayPort-VGA adapter -> VGA kabel -> skjerm.
Forskjellen er vanskelig å fange med et kamera, men se forsøket på det nedenfor. Jeg prøvde å spille med lysstyrken, kontrast og skarphetsinnstillinger, men jeg kan ikke få samme bildekvalitet. Oppløsningen er 1920 * 1080 med Ubuntu 14.04 som operativsystem.
VGA:
HDMI:
Hvorfor er kvaliteten forskjellig? Er det iboende for disse standardene? Kan jeg få en defekt VGA-kabel eller mDP-VGA-adapter?
Hvorfor er det en forskjell i kvaliteten mellom de to?
Svaret
SuperUser bidragsytere Mate Juhasz, youngwt, og Jarrod Christman har svaret for oss. Først opp, Mate Juhasz:
VGA er det eneste analoge signalet blant de som er nevnt ovenfor, så det er allerede en forklaring på forskjellen. Bruk av adapteren kan forverre kvaliteten ytterligere.
Noen videre lesing: HDMI vs DisplayPort vs DVI vs VGA
Etterfulgt av svaret fra youngwt:
Forutsatt at lysstyrke, kontrast og skarphet er de samme i begge tilfeller, kan det være to andre grunner til at teksten er skarpere med HDMI-DVI.
Den første har allerede blitt oppgitt, VGA er analog, så det må gå gjennom en analog til digital konvertering inne i skjermen. Dette vil teoretisk redusere bildekvaliteten.
For det andre, forutsatt at du bruker Windows, er det en teknikk kalt ClearType (utviklet av Microsoft) som forbedrer utseendet på tekst ved å manipulere subpikslene på en LCD-skjerm. VGA ble utviklet med CRT-skjermer i tankene, og begrepet underpiksel er ikke det samme. På grunn av kravet om ClearType å bruke en LCD-skjerm og det faktum at VGA-standarden ikke forteller verten, vil spesifikasjonene på skjermen bli slått av med en VGA-tilkobling.
Jeg husker å høre om ClearType fra en sin skapere på en podcast for This (). Developers (). Life () IIRC, men denne Wikipedia-artikkelen støtter også min teori. Også HDMI er bakoverkompatibel med DVI og DVI støtter Electronic Display Identification (EDID).
Med vårt siste svar fra Jarrod Christman:
De andre gjør noen gode poeng, men hovedårsaken er en åpenbar klokke og fase mismatch. VGA er analog og gjenstand for interferens og feilmatching av analoge sendings- og mottaksider. Normalt vil man bruke et mønster som dette:
Klokke og fase
Deretter justerer du klokken og fasen på skjermen for å få den beste kampen og det skarpeste bildet. Men siden det er analog, kan disse justeringene skifte over tid, og dermed bør du helst bare bruke et digitalt signal.
Har du noe å legge til forklaringen? Lyder av i kommentarene. Vil du lese flere svar fra andre tech-savvy Stack Exchange-brukere? Sjekk ut hele diskusjonstråden her.