Hjemmeside » hvordan » Store datamaskiner eksisterer fortsatt. Her er hva de blir brukt til i dag

    Store datamaskiner eksisterer fortsatt. Her er hva de blir brukt til i dag

    Timofeev Vladimir / Shutterstock

    Supercomputers var et massivt løp på 90-tallet, som USA, Kina og andre alle konkurrerte om å ha den raskeste datamaskinen. Mens løpet har dødd litt, brukte disse monster-datamaskinene fremdeles å løse mange av verdens problemer.

    Som Moores lov (en gammel observasjon som sier at datakraft dobler omtrent hvert annet år) skyver vår databehandling maskinvare videre, kompleksiteten av problemene som løses øker også. Mens superdatamaskiner pleide å være rimelig små, kan de i dag ta opp hele varehus, alle fylt med sammenkoblede datamaskinkarmer.

    Hva gjør en datamaskin "Super"?

    Begrepet "Supercomputer" innebærer en gigantisk datamaskin mange ganger kraftigere enn den enkle bærbare datamaskinen, men det kan ikke være lenger fra saken. Supercomputers består av tusenvis av mindre datamaskiner, alle sammenkoblet for å utføre en oppgave. Hver CPU-kjerne i et datasenter går sannsynligvis langsommere enn din stasjonære datamaskin. Det er kombinasjonen av alle som gjør databehandling så effektiv. Det er mye nettverk og spesiell maskinvare involvert i datamaskiner på denne skalaen, og det er ikke så enkelt som bare å plugge hvert rack inn i nettverket, men du kan forestille dem på denne måten, og du ville ikke være langt unna merket.

    Ikke alle oppgaver kan parallelliseres så enkelt, så du vil ikke bruke en supercomputer til å kjøre spillene dine på en million bilder per sekund. Parallell databehandling er vanligvis god til å øke hastigheten på meget beregningsorientert databehandling.

    Supercomputers måles i FLOPS, eller Floating Point Operations Per Second, som egentlig er et mål på hvor raskt det kan gjøre matte. Den raskeste er for tiden IBMs toppmøte, som kan nå over 200 PetaFLOPS, en million ganger raskere enn "Giga", de fleste er vant til.

    Så hva brukes de til? Mest vitenskapelig

    Andrey VP / Shutterstock

    Supercomputers er ryggraden i beregningsfag. De er brukt i det medisinske feltet for å drive protein-folding simuleringer for kreftforskning, i fysikk for å kjøre simuleringer for store prosjekter og teoretisk beregning, og til og med i finansmarkedet for å spore aksjemarkedet for å få kanten på andre investorer.

    Kanskje den jobben som mest fordeler den gjennomsnittlige personen er værmodellering. Nøyaktig å forutse om du trenger en frakk og en paraply neste onsdag er en overraskende vanskelig oppgave, en som selv de gigantiske superdatamennene i dag ikke kan gjøre med stor nøyaktighet. Det er teoretisert at for å kunne kjøre hele værmodellering trenger vi en datamaskin som måler sin hastighet i ZettaFLOPS-to andre nivåer opp fra PetaFLOPS og rundt 5000 ganger raskere enn IBMs toppmøte. Vi vil sannsynligvis ikke slå det punktet før 2030, selv om hovedproblemet som holder oss tilbake, er ikke maskinvaren, men kostnaden.

    Den opprinnelige kostnaden for å kjøpe eller bygge all den maskinvaren er høy nok, men den ekte kickeren er strømregningen. Mange superdatamaskiner kan bruke opp millioner av dollar verdt kraft hvert år bare for å holde seg løpende. Så mens det er teoretisk ingen grense for hvor mange bygninger som er full av datamaskiner du kan koble sammen, bygger vi bare superdatamaskiner stort nok til å løse nåværende problemer.

    Så vil jeg ha en supercomputer hjemme i fremtiden?

    På en måte gjør du det allerede. De fleste desktops konkurrerer i dag med kraften til eldre superdatamaskiner, med selv den gjennomsnittlige smarttelefonen har høyere ytelse enn den beryktede Cray-1. Så det er lett å gjøre sammenligningen til fortiden, og teoretisere om fremtiden. Men det skyldes i hovedsak at gjennomsnittlig CPU blir mye raskere gjennom årene, noe som ikke skjer så fort lenger.

    I det siste har Moores lov sakte seg da vi når grensene for hvor lite vi kan lage transistorer, så CPUer blir ikke mye raskere. De blir mindre og mer energieffektive, noe som skaper CPU-ytelse i retning av flere kjerner per chip for stasjonære maskiner og mer kraftig samlet for mobile enheter.

    Men det er vanskelig å forestille seg den gjennomsnittlige brukerens problem med å utvide databehandling. Tross alt behøver du ikke en supercomputer å surfe på Internett, og de fleste går ikke i gang med proteinfoldingsimuleringer i kjelleren. Den høyeste forbrukerhardwaren i dag overskrider normalt brukssaker og er vanligvis reservert for bestemt arbeid som drar nytte av det, som 3D-rendering og kodeoppstilling.

    Så nei, du vil sannsynligvis ikke ha en. De største fremskrittene vil trolig være i mobilområdet, da telefoner og tabletter nærmer seg skrivebordsnivåer, noe som fremdeles er en ganske god fremgang.

    Image Credits: Shutterstock, Shutterstock