Skip to content

Dommedag er Relativt Nær

februar 27, 2007

Dommedagsklokken er to minutter nærmere midnatt. Organisasjonen bak ”The Doomsday Clock”, The Bulletin of Atomic Scientists, begrunner avgjørelsen med økende trussel for bruk av atomvåpen, drastiske klimaendringer og ny teknnologi. Selv om verden er blitt utsatt for enorme katastrofer før, dinosaurene ble f.eks utryddet av asteroider og kriger har herjet kloden i tusenvis av år, er det helt nye trusler på horisonten. I et kosmologisk tidsperspektiv lever menneskeheten nå i et sekund hvor vi har muligheten til å gjøre det til vårt siste. Denne gangen er sannsynligheten høyere for at vi selvutsletter.

Den diplomatiske konflikten over Irans atomforskningsprogram risikerer å destabilisere midtøsten og sikkerhetseksperter verden over retter oppmerskomheten mot regionen. Samtidig er en gruppe forskere opptatt av begrensning og analyse av irreversible eksistensielle trusler, en hendelse som utsletter alt intelligent liv eller permanent og drastisk begrenser dets potensiale. For mange vil et samlet tap av minst en milliard menneskeliv kvalifisere. The Lifeboat Foundation har lagt snart 300 brilliante hoder i bløt for å finne svar på slike foreløpig hypotetiske trusler.

Bug out time

Risikoanalyse er både instinktivt og formalisert i en rekke bransjer. Ved risikoberegning av truslen fra meteroritter eller asteroider brukes Torino-skalaen. I motsetning til Richters skala indikerer Torino både sannsynligheten og omfanget av trusler fra verdensrommet. I dag står verden ovenfor en rekke trusler med høyere sannsynlighet enn asteroider. Hva er sannsynligheten for at hele menneskeheten blir utslettet og hvordan ser dagens trusselbilde ut?

Med den stadig hurtigere utviklingen av nanoteknologi, bioteknologi og kybernetikk stilles vi ovenfor nye trusler som kan få katastrofale konsekvenser for livet på jorden. At nanoteknologi utgjør en miljøtrussel er allerede omtalt av selveste Prins Charles av Wales og World Social Forum hadde egne møter for farer ved nanoteknologi. Innen bioteknologi har stamcelleforskning skapt etiske debatter og satt bioteknologi på dagsorden i Norge. I utlandet går debatten om syntetiske organismer skapt i et laboratorie bør ha rettigheter. At eksotisk forskning innen syntetisk biologi og nanobioteknologi ikke holder miljøvernere oppe om natten er kanskje ikke rart. Et worst-case scenario basert på slik teknologi ligger ofte mange tiår frem i tid.

Data

Det gjør også ondsinnet kunstig intelligens. Men i boken ”The Singularity is Near” advarer Ray Kurzweil mot et linært historiesyn og argumenterer for et eksponentielt historiesyn hvor datakapasitet snart vil nå igjen den menneskelige hjerne. Vi kjenner dette fenomenet best gjennom Moore’s lov*. En slik utvikling kan føre til et punkt i tid hvor mennesket blir evolusjonært utkonkurrert av maskiner på samme måte som mennesket utkonkurrerte dyrene. For Kurzweil og mange flere er ikke dette science-fiction.

Sir Martin Rees er heller ikke kjent for science-fiction. Som astrofysiker ved Cambridge har han over mange år forsket på eksistensielle trusler. I boken ”Our Final Hour” gis planeten en 50/50 sjanse for å overleve de kommende 100 år. Denne pessimismen begrunnes i ny teknologi med enormt destruktivt potensiale. En ny type føre-var prinsipp må erstatte eksisterende prøving og feiling av ny teknologi, en teknologi hvor vi ikke får en ny sjanse hvis noe skulle gå galt. Et slikt prinsipp (the precuationary principle) innebærer at all forskning med en betydelig risiko må vurderes av flere enn de involverte forkserne og fordeler og ulemper må veies grundig.

Hva hvis verden står ovenfor en katastrofe av ukjente proposjoner – finnes det en sikkerhetskopi eller en oppstartsmanual for siviliasjonen slik James Lovelock anbefaler? Mange strategier finnes for å forsikre oss om at menneskeheten ikke utryddes.

Survivalisme

Norske myndigheter viser muskler med bygningen av et bibliotek av verdens planter. Tegningene for en slags ”bio-bunker” konstruert for å overleve klimaenderinger og geografiske forhold på Svalbard, kjent for kullgruver, Saken får stor oppmerksomhet fra utenlandske medier (som en unnvikende leser av norsk dagspresse har jeg ikke sett saken omtalt i Norge). Les om saken på BBC, ”‘Doomsday’ vault design unveiled”,

Gregory Benford anbefaler at tiden for miljøvern er over og at biopreservering er viktigere enn biokonservering. Vi trenger ikke internasjonale miljøavtaler men en biologisk forsikringsavtale hvor vi etter katastrofe kan gjenopprette hva vi har bygd opp.

Eksistensielle trusler var for få år siden ensbetydende med atomkrig, en global pandemi eller en miljøkatastrofe. Med stormskrittende som gjøres innen forskningsfelt som nanoteknologi, syntetisk biologi og kybernetikk skapes ikke bare nye muligheter, men også nye farer. Selvrepliserende nanomaskiner, syntetiske virus eller ondsinnet kunstig intelligens bør tas like alvorlig som aksellererende klimaendringer og terrorisme, mener forskerne i LEF.

Nick Bostrom, direktør for The Future of Humanity Institute ved Universitetet i Oxford, presenterer i artikkelen ” Existential Risks – Analyzing Human Extinction Scenarios and Related Hazards” en rekke, for mange, hypotetiske scenarier for utslettelse av menneskeheten. Tenk om vi alle lever i en datasimulering og denne simpelthen blir terminert.

Fortid, nutid og fremtid

Hvor sannsynlig er en ekstraterrestriell invasjon, fordumming av befolkning eller en fascistisk verdensregjering? At slike risikoanalyser er et produkt av ens bias og subjektive vurderinger er en selvfølge som Bostrom ønsker å unngå. Det er nettopp denne problemstillingen som avdekkes i artikkelen ”Anthropic Bias: Observation Selection Effects in Science and Philosophy”. Bloggen ”Overcoming Bias” omhandler alle aspekter ved vitenskapelig subjektivitet (to ord som ikke bør stå i samme setning?) Hvordan kan forskere objektivt vurdere risiko?

Mange som forsker på modellering av risiko overfører ofte egne holdninger til modellene. Noe vi kjenner innen finans som ”overconfidence”, innen akademia som ”hybris” eller innen statsadministrasjon som ”regulemani” (mitt ord). Bostrom advarer oss mot et slikt trangsyn og oppfordrer til en grundig vurdering av sannsynligheten for ulike hendelser gjennom kontinuerlig selvransakelse.

Gjennom å stille grunnleggende spørsmål om sannsynlighet og kausaliteten i et utviklingsforløp vil man kunne nærme seg en bedre forståelse av trusselbildet. Hva er sannsynligheten for at en nanofabrikk kommer kriminelle i hende før vi har utviklet et forsvar mot nanobaserte våpen? Baserte på slike vurderinger utredes ulike strategier for å begrense og redusere eksistensiell risiko. Slike system (EWS) har eksistert lenge innen militær og humanitær krisehåndtering.

Penti Linkola, av mange kalt økofascist og faren til tidligere statsminister i Finland. Linkola er villig til å ta selvmord med visshet om at at halvparten av verdens befolkning gjør det samme, eller på annen måte forsvinner. Alt for å redde planeten. En global moral for menneskehetens videre eksistens må erstatte en slik totalitær Finsk bonderomantikk.

REFERANSER:

* Our Final Hour: A Scientist’s warning : How Terror, Error, and Environmental Disaster Threaten Humankind’s Future in This Century–On Earth and Beyond”
* “The Singularity Is Near: When Humans Transcend Biology”
* Existensial Risks – Analyzing Human Extinction Scenarios and Related Hazards
* Overcoming Bias, Insitiute for the Future of Humanity ved Universitetet i Oxford.
* «Six Places to Nuke When You’re Serious», Accelerating Future (Michael Anissimov).

Liker du uavhengig journalistikk? Doner Bitcoins på: 1PyEQsqMmyYUWh2ieSJxsRHUUPCYx4qgST

Legg igjen en kommentar

Legg igjen en kommentar

Fyll inn i feltene under, eller klikk på et ikon for å logge inn:

WordPress.com-logo

Du kommenterer med bruk av din WordPress.com konto. Logg ut / Endre )

Twitter picture

Du kommenterer med bruk av din Twitter konto. Logg ut / Endre )

Facebookbilde

Du kommenterer med bruk av din Facebook konto. Logg ut / Endre )

Google+ photo

Du kommenterer med bruk av din Google+ konto. Logg ut / Endre )

Kobler til %s

%d bloggers like this: