https://bodybydarwin.com
Slider Image

Inde i den største simulering af universet nogensinde oprettet

2021

Forestil dig at blive bedt om at løse et komplekst algebra-problem, der er omkring 95 procent variabler og kun fem procent kendte værdier. Dette er måske en grov analogi, men den maler et ret præcist billede af den opgave, som moderne kosmologer står overfor. Den fremherskende tankegang siger, at universet for det meste er sammensat af mørkt stof og mørk energi, to mystiske enheder, der aldrig er blevet direkte observeret eller målt, selvom den kosmologiske matematik insisterer på, at de er reelle. Vi kan se deres oplevede effekter, men vi kan ikke se dem direkte - og dermed kan vi ikke se den virkelige struktur i vores eget univers.

Og så laver vi modeller. Engang næste måned vil verdens tredje hurtigste supercomputer - kendt som Mira - gennemføre test af sin nye opgraderede software og begynde at køre de største kosmologiske simuleringer nogensinde udført på Argonne National Laboratory. Disse simuleringer er enorme og indtager enorme mængder data fra den seneste generation af himmelundersøgelser med højtidelighed og knuser dem til modeller af universet, der er større, højere opløsning og mere statistisk nøjagtige end nogen, der er kommet før. Når det er gjort, skal forskere have nogle fantastiske visualiseringer af høj kvalitet af den såkaldte "kosmiske web", der forbinder universet, som vi forstår det. Og de vil have de bedste statistiske modeller for det kosmos, som kosmologer nogensinde har set.

Oftest gør vi dette, så vi kan forvandle den seneste batch af himmelundersøgelsesdata til noget meningsfuldt. Forskere håber, at disse modeller vil besvare nogle presserende spørgsmål om mørk stof, mørk energi og kosmos overordnede struktur. Særligt irriterende er spørgsmål om mørk energi, der angiveligt driver den accelererende udvidelse af universet, og faktisk er det stort set alt, hvad vi ved om det.

"'Mørk energi' er bare en teknisk kortfattet ord for at sige 'vi har ingen idé om, hvad der foregår.'" "Mørk energi er forvirrende, fordi universet ikke bare ekspanderer - det vidste vi allerede - men denne ekspansion accelererer også, hvilket er meget uventet siger Salman Habib, en fysiker ved Argonne National Laboratory og den vigtigste efterforsker for Multi-Petaflop Sky Simulation i Argonne. "Årsagen til denne acceleration er, hvad folk kalder 'mørk energi', men det er bare en teknisk korthand for at sige 'vi har ingen idé om, hvad der foregår.' "

Disse simuleringer er rettet mod at kaste lys over denne udvidelse, der sker omkring os. Men lige så vigtigt sigter de mod at definere nøjagtigt, hvad der ikke foregår. Der er mange teorier om mørk energi; det kan være en ny type felt i universet, som vi endnu ikke har opdaget, eller et kendetegn ved tyngdekraften i store skalaer, som vi endnu ikke forstår. Det kan være en vending på den generelle relativitet, som vi ikke har tænkt på. Den seneste afgrøde af højopløsningsdata for himmelundersøgelse skal give Argonne-teamet mulighed for at modellere meget subtile effekter af mørk energi på kosmos og således muliggøre en dybere forståelse af selve mørkenergiens natur. Det skal igen hjælpe kosmologer med at udelukke mulige forklaringer - eller endda hele klasser af forklaringer - når de prøver at nulstille en mere perfekt teori for, hvordan universet fungerer.

Det gør vi ikke, fordi vi ikke kan. Vi kan ikke rigtig definere universets grænser til disse formål, og computermodeller i deres natur har brug for et sæt begrænsninger. Men vi kan simulere større og større dele af kosmos takket være regelmæssige spring i computerkraft og stadig bedre himmelundersøgelser, og fra disse stadig større og højere opløsning-simuleringer kan vi ekstrapolere ting om det større univers. Det er vigtigt.

Simuleringer som dem, der køres på Mira, er blevet kørt før, siger Katrin Heitmann, en anden Argonne National Lab-forsker og Habibs medundersøger på Mira-simuleringsprojektet, men vi kommer nu ind i et regime, hvor vi skal være mere og mere præcise. "Den næste generation af data, der kommer tilbage fra de mest sofistikerede himmelundersøgelsesinstrumenter, som astronomer nogensinde har skabt - som f.eks. Dark Energy Camera, der opnåede første lys lige i sidste måned - vil indeholde flere data (afspejler milliarder af observerede galakser) og færre iboende statistiske fejl. Så selvom tidligere simuleringer som det smukt artikulerede Millennium Simulation Project har givet fremragende visualiseringer og modeller for fordeling af stof over kosmos, kræver disse nye og bedre datasæt en ny og bedre databehandlingsarkitektur for at håndtere dem.

Vi kan bygge arkitekturer til at håndtere disse nye datasæt stort set takket være Moore's Law. Hvert tredje år oplever supercomputing i det store og hele en dobbelt gange stigning i computerkraft. Det gør det muligt for supercomputercentre som Argonne at konstruere maskiner (eller opgradere gamle), der langt bedre kan end hvad der var i markens forkant for bare et år eller to siden. 10-petaflop (det er ti kvadrillionsberegninger pr. Sekund) Mira-systemet er et sådant eksempel på dette, og det er Mira, der vil sætte Argonne i stand til at køre de største mørkestofsimuleringer, der nogensinde er udført.

Visuelt ser de sådan ud:

"promo_image": {// s1.dmcdn.net/Tud29/x240-dBF.jpg overskrifter ": beskrivelse": distributør ":

Denne visualisering stammer fra nogle foreløbige test af den nye computerarkitektur, kendt som HACC (til hardware / hybrid accelereret kosmologi-kode - mere om dette senere). Og hvad du ser på er i det væsentlige en 3D-blok af universet, og den måde, materien er fordelt på i det, ifølge de data, der er indsamlet fra forskellige himmelundersøgelseskilder.

”Hvad du ser på er den kosmiske web, som Habib siger.” Du kan tydeligt se disse store hulrum og disse filamenter og disse klumper. Det, du faktisk ser, er sagsdensiteten. De uheldige dele er hvor densiteten er højest, og det er her galakserne er. ”Man kan faktisk ikke se galakserne her - dette er en repræsentation snarere end en ægte optisk model. I de mindste klumper er der måske ingen galakser ved I de mellemstore klumper kunne der være en eller flere.De største klumper repræsenterer galakse-klynger, hvor tusinder af galakser kan opholde sig.

Dette er en stadig ramme af kosmos, som vi i øjeblikket ser det, men de simuleringer, der er beregnet til Mira, vil bygge noget mere som en film af universet, der går milliarder af år tilbage, da universet var meget tættere - som en million gange tættere - end det er nu. Astronomer kan derefter se denne film i ekstremt høj detalje for at se, hvordan universet udviklede sig over tid, og således observere de roller, mørk materie og især mørk energi havde i dannelsen af ​​vores nuværende univers. Og fordi det er en computermodel, kan de derefter lege med parametrene i dette virtuelle univers for at teste deres teorier. Forhåbentlig vil Mira bevise, at nogle teorier stadig står op. I det mindste skulle det vise sig, at nogle teorier er usandsynlige.

For det første dens uovertrufne opløsning og detaljer, som vi har beskrevet i længden ovenfor. Men hvad angår fremtiden for supercomputer-modellering, er HACC-arkitekturen også ekstremt vigtig. HACC blev udviklet fra bunden til dette projekt, og det er optimeret til Mira. Men det var designet, så det også kan optimeres til andre supercomputere - og andre supercomputer-applikationer - en sjældenhed for en denne slags software.

Hvorfor? Hver supercomputer er designet lidt anderledes, og hver har sine egne forældrer og idiosynkrasier. I modsætning til programmer, der er skrevet til stationære computere, skrives software, der er skrevet til supercomputere, generelt for den specifikke maskine, den vil blive brugt på. Det fungerer ikke optimalt (eller overhovedet), hvis det skiftes til en anden maskine. Så hver gang supercomputere springer frem en generation, skal et igangværende forskningsprojekt skrive ny software til en ny maskine. "I løbet af et årti med kodeudvikling har du måske tre forskellige computearkitekturer, der kommer og går, siger Habib." Så det er magien med HACC. "

HACC er ikke så meget magi som smart design. Dens modulopbyggede konstruktion betyder, at en del af den underliggende software fungerer det samme på alle maskiner, så det er langt nemmere at portere det fra en maskine (eller generation af maskiner) til en anden. Det andet stykke er et pluggbart softwaremodul, der kan optimeres til hver enkelt maskine. Dette reducerer drastisk mængden af ​​tid, som forskere skal bruge på at vente på ny kodeudvikling, inden de skubber deres forskning videre. Og når en ny computer kommer online, som Oak Ridge National Labs 'splinternye 20-petaflop Titan, er det relativt simpelt for forskere at hurtigt anvende hopper i computerkraft til deres forskning.

Dets tilpassede, optimerbare karakter betyder også, at HACC kan anvendes til mange forskningsprojekter snarere end kun det, som det oprindeligt blev designet til. Og det er skabere, der ønsker, at HACC skal blive hacket. "Vi er et lille team, så vi kan ikke rigtig udnytte alle de videnskabelige egenskaber ved denne kode, og vi vil heller ikke nødvendigvis have, at Habib siger om HACC, tilføjer" det er en slags kode, som andre hold har brug for at skrive, ikke bare for kosmologi men til andre anvendelser. ”Habib, Heitmann og deres kolleger ser HACC som en samfundsressource - ikke kun i den forstand, at de planlægger at dele deres kosmologiresultater frit med det videnskabelige samfund, men også i den forstand, at selve softwaren kan potentielt ændres og tilpasses til ethvert antal modelleringsapplikationer på andre områder.

Nej. Eller i det mindste er muligheden meget, meget fjern. Men det vil påvirke nogle eksisterende teorier, sende andre til kasseringshaugen og ellers fokusere den nuværende tankegang og fremtidige spørgsmål om spørgsmål i disse mystiske kræfter. Og til gengæld vil disse simuleringer hjælpe forskere med at fortsætte med at forfine de værktøjer, de bruger til at udnytte den igangværende eksplosion i supercomputingskraft til meningsfulde videnskabelige gevinster. Hvis Mira løser mysteriet med mørk energi i de kommende måneder, vil vi blive overrasket. Vi vil være lige så overrasket, hvis det ikke skubber marken af ​​teoretisk kosmologi markant frem. Og hvis HACC ikke hjælper med at fremskynde tempoet i supercomputer science, ville vi være lige så lamslåede.

Korrektion: En tidligere version af denne historie oplyste unøjagtigt, at Salman Habib og Katrin Heitmann er forskere ved Los Alamos National Laboratory. De er i øjeblikket ansat af Argonne National Laboratory. Historien er blevet ændret for at afspejle dette.

Den hurtigste måde at optø en frossen kalkun - eller anden mad

Den hurtigste måde at optø en frossen kalkun - eller anden mad

Sjove aktiviteter til din næste ferie til Mercury

Sjove aktiviteter til din næste ferie til Mercury

Denne sommerfugls gennemsigtige vinger kunne en dag redde folks vision

Denne sommerfugls gennemsigtige vinger kunne en dag redde folks vision