Hjemmeside » hvordan » Alt du vet om bildeoppløsning er sannsynligvis feil

    Alt du vet om bildeoppløsning er sannsynligvis feil

    "Oppløsning" er et begrep folk ofte kaster seg rundt - noen ganger feil - når man snakker om bilder. Dette konseptet er ikke så svart og hvitt som "antall piksler i et bilde." Fortsett å lese for å finne ut hva du ikke vet.

    Som med de fleste ting, når du dissekerer et populært begrep som "oppløsning" til et acedemisk (eller geeky) nivå, finner du at det ikke er så enkelt som du kanskje har blitt ledet til å tro. I dag skal vi se hvor langt begrepet "oppløsning" går, kort snakk om implikasjonene av begrepet, og litt om hva høyere oppløsning betyr i grafikk, utskrift og fotografering.

    Så, duh, bilder er laget av piksler, høyre?

    Her er måten du sikkert har hatt oppløsning forklart for deg: bilder er en rekke piksler i rader og kolonner, og bildene har et forhåndsdefinert antall piksler, og større bilder med større antall piksler har bedre oppløsning ... ikke sant? Derfor er du så fristet av det 16 megapikselkameraet, fordi mange piksler er de samme som høy oppløsning, ikke sant? Vel, ikke akkurat fordi oppløsning er litt mildere enn det. Når du snakker om et bilde som om det bare er en bøtte piksler, ignorerer du alle de andre tingene som går inn på å gjøre et bilde bedre i utgangspunktet. Men uten tvil, en del av det som gjør et bilde med høy oppløsning, har mange piksler for å skape et gjenkjenneligt bilde.

    Det kan være praktisk (men noen ganger feil) å ringe bilder med mange megapiksler "høy oppløsning." Fordi oppløsning går utover antall piksler i et bilde, ville det være mer nøyaktig å kalle det et bilde med høy pikseloppløsning, eller høyt piksel tetthet. Pixel tetthet er målt i piksler per tomme (PPI), eller noen ganger punkter per tomme (DPI). Fordi piksel tetthet er et mål på prikker i slekt med en tomme, en tomme kan ha ti piksler i den eller en million. Og bildene med høyere pixeldensitet vil kunne løse detaljer bedre - i hvert fall til et punkt.

    Den litt misvisende ideen om "høy megapiksel = høy oppløsning" er en form for overføring fra dagene da digitale bilder ikke kunne vise nok bildedetaljer fordi det ikke var nok av de små byggeklossene til å gjøre et anstendig bilde. Så som digitale skjermer begynte å ha flere bildeelementer (også kjent som piksler), var disse bildene i stand til Løse mer detaljert og gi et klarere bilde av hva som skjedde. På et visst tidspunkt slutter behovet for millioner og millioner av flere bildeelementer å være nyttig, da det når den øvre grensen til de andre måtene som detaljene i et bilde er løst. Fascinert? La oss ta en titt.

    Optikk, Detaljer og Løsning av Bildedata

    En annen viktig del av oppløsningen av et bilde er direkte knyttet til måten den er fanget på. Enkelte enheter må analysere og ta opp bildedata fra en kilde. Dette er måten de fleste typer bilder er opprettet på. Det gjelder også for de fleste digitale bildesystemer (digitale speilreflekskameraer, skannere, webkameraer, osv.) Samt analoge metoder for avbildning (som filmbaserte kameraer). Uten å bli for mye teknisk gobbledygook om hvordan kameraer fungerer, kan vi snakke om noe som heter "optisk oppløsning."

    Bare sagt, oppløsning, med hensyn til enhver form for bildebehandling, betyr "evne til å løse detaljer."Her er en hypotetisk situasjon: du kjøper en fancy bukse, super høy megapiksel kamera, men har problemer med å ta skarpe bilder fordi linsen er forferdelig. Du kan bare ikke fokusere det, og det tar uklare skudd som mangler detaljer. Kan du ringe bildet ditt høyoppløselig? Du kan bli fristet til, men det kan du ikke. Du kan tenke på dette som hva optisk oppløsning midler. Objektiver eller andre metoder for å samle optiske data har øvre grenser for hvor mye detaljene de kan fange. De kan bare fange så mye lys basert på formfaktor (et vidvinkelobjektiv i forhold til en telefoto-linse), da faktor og stil på objektivet gir mer eller mindre lys.

    Lys har også en tendens til diffract og / eller skape forvrengninger av lysbølger som kalles avvik. Begge skaper forvrengninger av bildedetaljer ved å holde lyset fra å fokusere nøyaktig for å skape skarpe bilder. De beste linsene dannes for å begrense diffraksjon og gir derfor en høyere øvre grense for detaljer, om målbildefilen har megapikseldensiteten til å registrere detaljene eller ikke. EN Kromatisk Aberrering, illustrert ovenfor, er når forskjellige bølgelengder av lys (farger) beveger seg ved forskjellige hastigheter gjennom en linse for å konvergere på forskjellige punkter. Dette betyr at farger er forvrengt, detalj er muligens tapt, og bilder registreres unøyaktig basert på disse øvre grensene for optisk oppløsning.

    Digitale fotosensorer har også øvre grenser for evne, selv om det er fristende å bare anta at dette bare har å gjøre med megapiksler og pixeldensitet. I virkeligheten er dette et annet skummelt tema, fullt av komplekse ideer verdig til en egen artikkel. Det er viktig å huske på at det er rare kompromisser for å løse detaljer med høyere megapikslersensorer, så vi går videre i dybden for et øyeblikk. Her er en annen hypotetisk situasjon - du kaster ut det eldre kameraet med høy megapiksel for en helt ny med to ganger så mange megapiksler. Dessverre kjøper du en med samme avfallsfaktor som ditt siste kamera, og det kommer til problemer når du tar bilder i omgivelser med lite lys. Du mister mye detalj i det miljøet og må skyte i super raske ISO-innstillinger, noe som gjør bildene dine kornete og stygge. Avhandlingen er dette-din sensor har fotosites, små, små reseptorer som fanger lys. Når du pakker flere og flere fotosider inn på en sensor for å skape en høyere megapikselantall, mister du de bøffere, større bildene som er i stand til å fange flere fotoner, noe som vil bidra til å gi mer detalj i de svake lysmiljøene.

    På grunn av denne avhengigheten av begrenset lysopptaksmedia og begrenset lysoppsamlingsoptikk, kan oppløsning av detaljer oppnås på andre måter. Dette bildet er et bilde av Ansel Adams, kjent for sine prestasjoner i å lage High Dynamic Range-bilder ved hjelp av dodging og brennende teknikker og vanlige fotopapirer og filmer. Adams var et geni ved å ta begrensede medier og bruke det til å løse den maksimale detaljmengden som var mulig, effektivt sidestpping mange av begrensningene vi snakket om ovenfor. Denne metoden, så vel som tone-mapping, er en måte å øke oppløsningen til et bilde ved å bringe ut detaljer som ellers ikke ville bli sett.

    Løsning av detalj og forbedring av bildebehandling og utskrift

    Fordi "oppløsning" er så omfattende, har det også innvirkning på trykkeribransjen. Du er sikkert klar over at fremskritt i de siste årene har gjort fjernsyn og overvåker høyere definisjon (eller i det minste gjort høyere def-skjermer og fjernsynsplater mer kommersielt levedyktige). Lignende bildebehandlingsteknologiske omdreininger har forbedret kvaliteten på bildene i utskrift - og ja, dette er også "oppløsning".

    Når vi ikke snakker om kontoret blekkskriver, snakker vi vanligvis om prosesser som lager halftoner, linetoner og solide former i en slags formidler som brukes til å overføre blekk eller toner til en slags papir eller substrat. Eller, ganske enkelt sagt, "former på en ting som setter blekk på en annen ting." Bildet som ble skrevet ut ovenfor, ble mest sannsynlig skrevet med en slags offset-litografi-prosess, som var de fleste fargebilder i bøker og blader i hjemmet ditt. Bildene reduseres til rader med prikker og legges på noen få forskjellige utskriftsflater med noen forskjellige blekk og er rekombinert for å lage trykte bilder.

    Utskriftsflatene er vanligvis avbildet med en slags lysfølsomt materiale som har en egen oppløsning. Og en av årsakene til at utskriftskvaliteten har forbedret seg så drastisk i løpet av det siste tiåret, eller det er den økte oppløsningen av forbedrede teknikker. Moderne offsetpresser har økt oppløsning av detaljer fordi de benytter presise datastyrte laserbildingssystemer, som ligner dem i kontorsortlaserdriveren din. (Det finnes også andre metoder, men laser er uten tvil den beste bildekvaliteten.) Disse lasere kan skape mindre, mer nøyaktige, mer stabile punkter og former som gir bedre, rikere og mer sømløse, mer høyoppløselige utskrifter basert på utskrift overflater i stand til å løse flere detaljer. Ta deg tid til å se på utskrifter som er gjort så nylig som de fra begynnelsen av 90-tallet og sammenligne dem med moderne-spranget i oppløsning og utskriftskvalitet er ganske svimlende.

    Ikke forveksle skjermer og bilder

    Det kan være ganske enkelt å klare oppløsningen på bildene i med oppløsningen på skjermen. Ikke bli fristet, bare fordi du ser på bilder på skjermen, og begge er knyttet til ordet "pixel". Det kan være forvirrende, men piksler i bilder har variabel pixeldybde (DPI eller PPI, noe som betyr at de kan ha variabel piksler per tomme) mens skjermer har et fast antall fysisk kablede, datamaskinstyrte fargepunkt som brukes til å vise bildedata når datamaskinen spør det. Virkelig, en piksel er ikke relatert til en annen. Men de kan begge kalles "bildeelementer", slik at de begge blir kalt "piksler". Helt enkelt er pikslene i bildene en måte å innspilling bildedata, mens pikslene i skjermene er måter å vise de dataene.

    Hva betyr dette? Generelt sett, når du snakker om oppløsning av skjermer, snakker du om et langt mer klart scenario enn med bildeoppløsning. Mens det er andre teknologier (ingen som vi diskuterer i dag) som kan Forbedre bildekvaliteten - bare sett, flere piksler på skjermen legger til skjermens evne til å løse detaljene mer nøyaktig.

    Til slutt kan du tenke på bildene du oppretter som et ultimate mål - mediet du skal bruke dem på. Bilder med ekstremt høy pixel tetthet og pikseloppløsning (høy megapikselbilder hentet fra fancy digitale kameraer, for eksempel) er egnede for bruk fra et svært pikseltett (eller "utskriftstryk" tett) utskriftsmedium, som en blekkskriver eller en offsetpress fordi Det er mye detalj for høyoppløselig skriver for å løse. Men bilder beregnet på nettet har mye lavere pixeldensitet fordi skjermer har omtrent 72 ppi pixeldetthet, og nesten alle toppene rundt 100 ppi. Ergo, bare så mye "oppløsning" kan vises på skjermen, men all detaljene som er løst, kan inkluderes i selve bildefilen.


    De enkle kulene peker på å ta bort fra dette er at "oppløsning" ikke er så enkelt som å bruke filer med mange og mange piksler, men er vanligvis en funksjon av Løse bildedetaljer. Å holde den enkle definisjonen i tankene, husk bare at det er mange aspekter ved å lage et høyoppløselig bilde, med pikseloppløsning som bare en av dem. Tanker eller spørsmål om dagens artikkel? Gi oss beskjed om dem i kommentarene, eller send dine spørsmål til [email protected].

    Image Credits: Desert Girl av bhagathkumar Bhagavathi, Creative Commons. Lego Pixel art av Emmanuel Digiaro, Creative Commons. Lego Murstein av Benjamin Esham, Creative Commons. D7000 / D5000 B & W av Cary og Kacey Jordan, Creative Commons. Chromatic Abbertation diagrammer av Bob Mellish og DrBob, GNU License via Wikipedia. Sensor Klear Loupe av Micheal Toyama, Creative Commons. Ansel Adams bilde i offentlig domene. Offsett av Thomas Roth, Creative Commons. RGB LED av Tyler Nienhouse, Creative Commons.