torsdag 30 april 2015

Vår oförmåga att ta till oss stora dödssiffror

Jag vill inleda denna bloggpost med ett par kända dikter om ond bråd död. Låt oss börja med att ta del av Evert Taubes Balladen om briggen Blue Bird, i Joakim Thåströms briljanta framförande:

Läs därefter följande rader av den brittisk-amerikanske historikern Robert Conquest:
    There was an old bastard named Lenin
    Who did two or three million men in.
    That's a lot to have done in
    But where he did one in
    That old bastard Stalin did ten in.
Både Taubes och Conquests diktning handlar om fasansfulla händelser, och borde därför beröra oss känslomässigt, men vilket av styckena berör mest - Taubes visa eller Conquests limerick? För egen del tvekar jag inte att svara Taubes. Det går rysningar genom kroppen på mig inför rader som
    Sa ni Blue Bird, kapten? Briggen Blue Bird av Hull?
    Gud i himlen, var är då min son?
    Var är pojken, kapten, för vår frälsares skull!
    Det blev dödstyst bland männen i vrån
- rysningar som jag inte upplever någon motsvarighet till inför Conquests rader, som visserligen slår mig som en mycket snitsig mnemonic för att hålla ordning på storleksordningarna i de sovjetiska folkmorden, men som inte särskilt starkt slår an någon känslomässig sträng hos mig (och jag gissar att jag inte är ensam om att uppleva de båda dikterna på detta vis). Reaktionen står i makaber kontrast mot skillnaden i dödssiffra mellan de händelser som dikterna beskriver - ett (i Taubes fall) kontra många miljoner (Conquests). Den som vill kan försöka förklara skillnaden i upplevelse med att Taubes visa (i Thåströms framförande) skulle vara konstnärligt överlägsen Conquests limerick, och även om jag har stor förståelse för en sådan bedömning finner jag det intressant att detta inte kompenseras av att den av Conquest beskrivna katastrofen är många miljoner gånger värre än Taubes.

I sin mycket läsvärda uppsats "If I look at the mass I will never act": Psychic numbing and genocide från 2007 behandlar den amerikanske psykologen Paul Slovic vår oförmåga att ta till oss stora dödssiffror.1 Slovic kombinerar en djupt känd förtvivlan över hur Förintelsens fasor inte hindrat oss från att stillasittande acceptera en lång rad senare folkmord - i Kina, Kambodja, Nigeria, Etiopien, Kosovo, Rwanda och Darfur - med skarpsinniga analyser av forskningsläget inom de relavanta delarna av psykologiämnet. Han citerar den amerikanska författaren Annie Dillard, som i sin bok For the Time Being från 1999 skriver att
    there are 1,198,500,000 people alive now in China. To get a feel for what this means, simply take yourself - in all your singularity, importance, complexity, and love - and multiply by 1,198,500,000. See? Nothing to it.
Slovic kommenterar att Dillards "Nothing to it" givetvis är ironiskt, och påpekar att "we are incapable of feeling the humanity behind the number 1,198,500,000. The circuitry in our brain is not up to this task", samt citerar den ungerske fysiologen Albert Szent-Györgyi (Nobelpristagare i medicin 1937), som säger samma sak med följnade ord:
    I am deeply moved if I see one man suffering and would risk my life for him. Then I talk impersonally about the possible pulverization of our big cities, with a hundred million dead. I am unable to multiply one man's suffering by a hundred million.
Även Eliezer Yudkowsky, i sin uppsats Cognitive biases potentially affecting judgment of global risks från 2008, citerar samma stycke av Szent-Györgyi, och tillägger:
    Human emotions take place within an analog brain. The human brain cannot release enough neurotransmitters to feel emotion a thousand times as strong as the grief of one funeral. A prospective risk going from 10,000,000 deaths to 100,000,000 deaths does not multiply by ten the strength of our determination to stop it. It adds one more zero on paper for our eyes to glaze over, an effect so small that one must usually jump several orders of magnitude to detect the difference experimentally.
Vi behöver hitta sätt att, trots våra bristfälliga intuitioner och vårt kvantitativt torftiga känsloregister, fatta kloka och rationella beslut i frågor som inbegriper risker för katastrofer med väldigt många drabbade. Och problemet som dessa kognitiva tillkortakommanden ställer till blir knappast mindre när vi går från storleksordnigar om miljoner till de ofattbart mycket större siffror det handlar om när hela mänsklighetens överlevnad står på spel. Nick Bostrom betonar i sin uppsats Existential risk prevention as global priority från 2013 att det inte är blott 7 miljarder människor det handlar om, utan därtill alla framtida generationer. Hur stor den senare skaran potentiellt är kan vi inte slå fast med någon säkerhet, men Bostrom diskuterar tänkbara människolivsantal som 1016 (om vi under en miljard år upprätthåller en befolkning på vår planet om en miljard, med en medellivslängd på hundra år), 1034 (med fullskalig kolonisation av världsrymden) och 1054 (om vi dessutom lyckas ladda över våra medvetanden på mer effektiv hårdvara). I sitt arbete med att övertyga oss andra om vikten av att inte utradera möjligheten till alla dessa människoliv står Bostrom, på grund av våra av Slovic och andra identifierade kognitiva tillkortakommanden, inför en kraftig uppförsbacke.

Fotnot

1) Den inledande delen av uppsatsens titel är hämtat från Moder Teresas yttrande "If I look at the mass I will never act. If I look at the one, I will" som är en insiktsfull beskrivning av det psykologiska fenomenet. Detta kan vi erkänna utan att för den sakens skull svälja den utbredda (men av Christopher Hitchens effektivt punkterade) myten om henne som förstklassigt mänskligt föredöme och godheten personifierad.

söndag 26 april 2015

Stuart Russell om riskerna med ett AI-genombrott

Ett ofta anfört argument avsett att tona ned talet om katastrofrisker i samband med ett genombrott inom AI (artificiell intelligens) är att de forskare som lyfter fram dessa risker i regel kommer från andra områden än AI och datalogi, och därför (så lyder argumentationen) saknar den expertkompetens som behövs för att kunna göra sådana bedömningar. Så t.ex. är Max Tegmark och Stephen Hawking båda fysiker, medan Nick Bostrom är filosof, och jag själv är matematisk statistiker.1 Jag finner argumentet olyckligt av flera skäl. Ett är att det som vanligen avses med AI-forskning, nämligen forskning som syftar till att skapa högpresterande AI, inte alltid självklart är det mest relevanta kompetensområdet när det gäller att värdera futurologiska AI-scenarier. Ett annat är att jag tycker mig ha noterat att en viss benägenhet (mer eller mindre omedveten) att inte vilja se riskerna med teknisk utveckling inom det egna forskningsområdet är vanligt förekommande, både bland AI-forskare och på andra områden.

Hur som helst tycker jag att det är bra att kraften i det anförda argumentet punkteras en smula av att en av världens mest respekterade AI-forskare, Stuart Russell vid UC Berkeley, träder fram i en färsk intervju i tidskriften Quanta Magazine och förklarar varför han anser att katastrofscenarierna förtjänar att tas på största allvar.2 Läs intervjun här!

Fotnot

1) För att inte tala om hur en av mina absoluta favorittänkare på detta område, Eliezer Yudkowsky, ofta avfärdas med att han är autodidakt utan någon akademisk examen överhuvudtaget.

2) Ett annat framträdande motexempel är datalogen Roman Yampolskiy.

onsdag 22 april 2015

Ve och fasa, ännu en frikyrkopredikant med synpunkter på folks sexliv

Jag rapporterade häromsistens om ett utspel i tidningen Dagen av 22 skogstokiga pingstpastorer med uppfattningen att Bibeln ger tillförlitliga anvisningar om vilka slag av könsumgänge mellan människor som är moraliskt acceptabla. I utspelet heter det bl.a. att "praktiserande homosexualitet [...] är synd" och att "om du lever på det sättet så ärver du inte Guds rike".

Kort därpå trädde ännu en frikyrkopredikant, Stefan Gustavsson, generalsekreterare för Svenska Evangeliska Alliansen, fram i samma tidning för att nyansera bilden något. Han menar nämligen att det inte bara är Bibeln som fungerar som kristendomens rättesnöre, utan även något han kallar "tillvarons grundstruktur". Så här skriver han:
    Den kristna kyrkan har sin uppfattning inte enbart för att den stämmer med de bibliska texterna, utan också för att den stämmer överens med till­varons grundstruktur. Biologiskt är sexualitetens grundsyfte fortplantning och det är enbart man-kvinna-relationen som principiellt sett är fruktsam. Fysiologiskt är det mannens och kvinnans kropp som är a­npassade för varandra. Komplementariteten mellan man och kvinna – eftersträvansvärd i alla andra sammanhang – är grundläggande för den klassiskt kristna äktenskapssynen.
Med detta försök till tillrättaläggande gör han emellertid, som Patrik Lindenfors påpekat, bara saken värre. Moralfilosofer har länge insett att det slags argument som Gustavsson här begagnar sig av och som kallas appeal to nature (Wikipedia sammanfattar argumentet så här: "a thing is good because it is 'natural', or bad because it is 'unnatural'") helt enkelt inte är något giltigt resonemang. Och om vi likväl accepterade appeal to nature som ett giltigt argument skulle vi hamna i slutsatsen att malaria och böldpest (naturliga fenomen) är bra, medan bruk av glasögon (en onaturlig artefakt) är synd. Det sistnämnda har den lite tråkiga konsekvensen att den glasögonbärande Gustavsson inte kan räkna med att ärva Guds rike.

Töntigast av allt i Gustavssons argumentation finner jag hans anförande av att "fysiologiskt är det mannens och kvinnans kropp som är a­npassade för varandra". Här verkar han vara inspirerad av ett riksdagsanförande av en av svensk rikspolitiks största pajasar genom tiderna, nydemokraten John Bouvin:

Varför känner alla dessa Gustavsson- och Bouvin-typer ett så trängande behov av att på detta vis lägga sig i andras sexliv? Varför inte rätt och slätt låta folk få välja själva vad de tycker känns bra och hur de vill leva sina liv?

måndag 20 april 2015

Tolv katastrofer

I det avsnitt av P1-programmet Vetandets värld som jag länkade till i min förra bloggpost talade vi om risken att en tillräckligt avancerad artificiell intelligens tar över världen, och berörde bl.a. en aktuell forskarrapport som tar upp denna risk som ett av de tolv främsta hoten mot mänskligheten. Rapporten bär namnet och förtjänar att läsas och begrundas. Överhuvudtaget är det här ett område som är väl värt att studera, i första hand för att det är så viktigt för vår framtid (jag utgår här från att läsaren delar min uppfattning att det är angeläget att inte mänskligheten går under). Ett annat skäl att bekanta sig med området är att de scenarier som diskuteras och analyseras ofta är väldigt fängslande för oss som har lätt att fascineras av de radikala och/eller grandiosa framtidsscenarier som science fiction-litteraturen erbjuder. För den som gillar sådant vill jag också nämna en annan aktuell tolv-i-topp-lista över risker, men denna gång risker inte bara för mänskligheten här på vår hemplanet, utan för hela solsystemet: George Dvorskys färska bloggpost Rekommenderad läsning! Dvorskys lista har också provocerat fram läsvärda kommentarer från Anders Sandberg och Robin Hanson.

fredag 17 april 2015

Om AI-risker i P1:s Vetandets värld

I dagens avsnitt behandlade P1-programmet Vetandets värld de eventulla katastrofrisker som föreligger i samband med ett AI-genombrott. Avsnittet rubricerades Så kan artificiell intelligens ta över världen, och bjöd på samtal med moralfilosofen Christian Munthe, med den tämligen obekymrat teknikoptimistiske AI-forskaren Fredrik Heintz, och med den avgjort mer bekymrade yours truly. Det hela går att höra på nätet. Mer om dessa risker kan läsas här på bloggen, t.ex. här och här.

torsdag 16 april 2015

The libraries of Babel, Mendel and Turing

There is much disagreement concerning the dangers associated with a breakthrough in artificial intelligence. Could such an event lead to our extinction, or the End of the Human Era as James Barrat put it in the subtitle of his book Our Final Invention? Thinkers like Eliezer Yudkowsky and Nick Bostrom argue that the risk is real and that we need to solve the (very difficult) problem of how to avoid an AI Armageddon. As is clear from my review of Bostrom's book Superintelligence, I find their arguments sufficiently compelling to warrant serious attention.

Many others consider (for a wide variety of reasons) the risk to be an illusion. The latest contributor to this highly diverse camp is computer scientist Thore Husfeldt, with his essay The Monster in the Library of Turing, which is a review of Superintelligence to appear in the Swedish philosophy journal Filosofisk tidskrift and published in English translation on his blog. I find Husfeldt's essay very interesting, and what sets him apart from nearly every other critic of the Bostromian-Yudkowskian position (such as Selmer Bringsjord, Rodney Brooks, David Deutsch, Steven Pinker, John Searle and David Sumpter, just to mention a few of those whose criticisms I debunk at shorter or greater length in my upcoming book Here Be Dragons: Science, Techonlogy and the Future of Humanity (Oxford University Press, to appear)) is that neither does his argument consist in attacking straw men, nor does it succumb to any obvious fallacy. Husfeldt has read Superintelligence carefully and seems to accept many of its arguments, but disagrees on (at least) one crucial point. To make his case, he invokes a new metaphor: the Library of Turing, building on Jorge Luis Borges' Library of Babel and Daniel Dennett's Library of Mendel. Let me breifly describe these three libraries:
  • The Library of Babel goes back to Jorge Luis Borges' short story from 1941 with the same name. It contains of all of the 251,312,000 books with 1,312,000 characters (we learn from the story that "each book is of four hundred and ten pages; each page, of forty lines, each line, of some eighty letters which are black in color"; 1,312,000=410·40·80) taken from a 25-letter alphabet, including blank space. 251,312,000 is an enormously large number, so large that the number of books that would fit in the observable universe is ridiculously small by comparison. We can still try to imagine the library. It contains many wonderful books, including Shakespeare's Hamlet and Solzhenitsyn's One Day in the Life of Ivan Denisovich, but it contains far more books consisting of pure gibberish. The library is so huge that, even if we assume the books to be ordered alphabetically, the interesting books are virtually impossible to find, unless you know exactly what you are looking for. To know which of the library's 25 buildings to go to, you need to know the book's first letter; to know which of the 25 floors of that building to go to, you need to know the book's second letter, and so on and so forth. If you are sitting in front of a word processor, you actually have the Library of Babel at your fingertips: if you first specify the book's first letter by typing it, then specify the second letter similarly, all the way down to the 1,312,000th and last, then - ta-dah! - there is your book.

  • The Library of Mendel, invented by Daniel Dennett in his 1995 book Darwin's Dangerous Idea, consists of all DNA sequences of length up to (say) 10,000,000,000. Here we have only four characters (A, C, G and T) but the greater lengths allowed compared to the Library of Babel more than make up for that, so that the number of DNA sequences in the Library of Mendel is even larger than the number of books in the Library of Babel. Just like there are very many interesting books in the Library of Babel, there are very many DNA sequences in the Library of Mendel that code for viable complex organisms. These two subsets from the respective libraries are what Dennett call Vast but Vanishing, where Vast means roughly that their number is far far bigger than the number of elementary particles in the observable universe, and Vanishing means that their proportion of the entire library is so small that the reciprocal of that proportion is Vast.

  • The Library of Turing - Thore Husfeldt's new invention - consists of all sequences of length up to (say) 1020 (a very large number, but far from Vast) from an 128-character alphabet - sequences that are interpreted as computer programs written in a given programming language, which Husfeldt takes to be Lisp, but any Turing-complete language will do. As is the case in the libraries of Babel and Mendel, most sequences are just gibberish, but there is a Vast but Vanishing subset of interesting programs.
Husfeldt accepts that the human brain is probably far from an optimal arrangement of matter to produce intelligence, and he accepts functionalism. This leads him to belive (as Bostrom does, and Yudkowsky, and me) that somewhere in the Library of Turing, there is some program that far outstrips our feeble human powers of intelligence. But can we find it? Here is Husfeldt:
    Given that the description of a superintelligence exists somewhere in the library, all that remains is to find it. If you don’t work in computer science, this task seems to be relatively trivial. After all, even a mindless exhaustive search will find the volume in question. While this approach is not a particularly tempting exercise for a human, computers are supposed to be good at performing mindless, well-defined, repetitive, and routine tasks at high speed and without complaining. Thus, sooner or later we stumble upon the monster; the only debate is whether the search time is measured in years, generations, or geological time scales.

    But this is a fallacy. It is a fallacy because of the unreasonable growth rate of the exponential function, and the powerlessness of exhaustive search.

The point here is that, although presumably Vast, the set of superhumanly intelligent programs in the Library of Turing is also Vanishing, and therefore geological time scales will be far far from sufficient for brute force to succeed.

If the Library of Turing entirely lacked structure, this would be the end of the argument: if there were no structure, there would be no way to improve on brute force search, so there would be no hope (or, to be pedantically precise, a Vanishingly small hope) to come up with a superhumanly intelligent computer program. Intelligent design proponent William Dembski, in his book No Free Lunch, tried (for the purpose of concluding that we have been deliberately designed by an intelligent being) to employ this type of argument to prove that Darwinian evolution is impossible. He hid away the (utterly unreasonable) unstructuredness assumption behind mathematical smokescreens, so as to render it undetectable to most readers, but he failed to make it undetectable to yours truly.

The unstructuredness assumption is just as unreasonable for the Library of Turing as it is for the Library of Mendel, since if the former lacked structure, we would not be able to write useful computer programs. Now, Husfeldt, unlike Dembski, is an honest thinker, so of course he makes no attempt to pretend that the Library of Turing is unstructured, and he admits that there might be ways to improve on brute force search sufficiently well that a superhumanly intelligent program can be found, but intuits that it can't be done:
    Could there be another way of discovering the superintelligence than exhaustive search? Certainly. After all, nature has discovered one of the monsters, the brain of Homo sapiens, starting with very simple "brains" hundreds of millions of years ago, and refining them stepwise by natural selection and mutation in environments that favoured cognition. Thus, there is some gradient, some sensible set of stepwise refinements, that Nature has followed through the Library of Turing to arrive at Einstein’s brain. We just don’t know how to recognise, nor efficiently follow this gradient. In the enthusiasm surrounding artificial intelligence in the 1960s we might have thought that we were on such a gradient. If so, we have abandoned it. The current trend in artificial intelligence, away from symbolic reasoning and towards statistical methods like machine learning, that do not aim to build cognitive models, strikes me as an unlikely pathway.

    Given our current understanding of the limits of computation, there are many relatively innocent-looking computational problems that are computationally hard. After more than a generation of very serious research into these problems, nobody knows anything better than exhaustive search for many of them. In fact, while the amazing features of your smartphone may tell you a different story, the main conclusion of a generation of research in algorithms is bleak: for most computational problems we don’t know what to do.

Here Husfeldt's intuition and mine part from each other. I agree with him that most likely P≠NP, but I don't see why that would be such a blow to our prospects of finding a superintelligent program. We can do a lot of wonderful things without solving NP-hard problems in polynomial time, and I think the success that Nature has had in coming up with the brain of Homo sapiens and many other impressive things is very suggestive. The Library of Turing is probably at least as structured as the Library of Babel, offering at least as navigable a landscape to search in if we should choose to imitate Nature's method of evolution by natural selection. And we have the bonus option of using our own intelligence to make clever macro-moves in the landscape. I am not in a position to tell whether symbolic reasoning is a more promising approach than machine learning, but there seem to be many potential ways forward. I think there's a good chance (or risk!) we'll create superintelligence before the end of the persent century, and perhaps a lot sooner than that.

This divergence of our intuitions notwithstanding, I find Husfeldt's essay interesting and stimulating, and it ends on a constructive note, suggesting a number of research directions that may turn out worthwhile even in case he is right about the inaccessability of "the monster in the Library of Turing". There's just one passage I find a little bit misleading:
    Computation is a resource, exponential growth is immense, and the universe is finite.

    Bostrom pays little attention to this problem. For instance, in his discussion of current efforts on brain simulation, he writes:

      Success at emulating a tiny brain, such as that of C. elegans, would give us a better view of what it would take to emulate larger brains. At some point in the technology development process, once techniques are available for automatically emulating small quantities of brain tissue, the problem reduces to one of scaling.
    Well, to me, scaling is the problem.
Here (and in combination with the essay's overall focus on exponential complexity), Husfeldt seems to suggest that the problem of emulating a brain of size n would suffer from a combinatorial explosion and the accompanying exponential increase in computational complexity. Does he really mean this? I don't want to claim that whole brain emulation is an easy project (it most certainly isn't!), but to me the scaling problem here sounds like it should land in a linear complexity in n, or perhaps a low-degree polynomial, but not exponential, as I don't see where the combinatorial explosion would be coming from.

fredag 10 april 2015

Snart dags för 2015 års Vetenskapsfestival

Ett säkert vårtecken är att Vetenskapsfestivalen i Göteborg närmar sig. I år äger den rum 15-19 april, och har temat liv och död. Som vanligt (se t.ex. vad jag gjorde 2013 och 2014) finns jag med på ett hörn eller två - i år är det följande två programpunkter jag medverkar i. En och annan läsare kanske höjer ett ögonbryn över min medverkan i den första av dessa (arrangerad av ett religiöst samfund som jag utträdde ur redan som högljutt ateistisk tonåring), medan den andra inte ger lika stor anledning till förvåning.
  • Inom ramen för en serie föredrag och samtal anordnade av Svenska kyrkan talar jag lördagen den 18 april klockan 12:00 över ämnet Om människans plats i universum. Lokal är Kjell Härnqvistsalen, Hus A, Pedagogen (vid Grönsakstorget).
  • Söndagen den 19 april klockan 11:00-17:55 på Stadsbiblioteket (vid Götaplatsen) anordnar Institutionen för data- och informationsteknik på Chalmers en serie föreläsningar under rubriken Liv, död... och datorer. Som utgångspunkt tas Alan Turings banbrytande insatser kring mitten av 1900-talet:
      Alan Turing är den moderna datavetenskapens odiskutable fader. Under sitt tragiskt korta liv lade han de logiska och matematiska grunderna till datavetenskap och byggde själv en av världens första datorer. Han knäckte Enigma, tyskarnas koder under andra världskriget med datorer. Han var en föregångare både inom artificiell intelligens och i användningen av datorer för biologi. I denna serie föreläsningar, demonstrationer och diskussioner utforskar vi Turings idéer och deras inverkan på våra liv idag.
    Min egen insats i detta program blir då jag, klockan 16:15-16:45, samtalar med datalogen Dag Wedelin över ämnet Datorer som dödar - farorna med artificiell superintelligens.
Som en liten bonus kan jag också nämna att min egen institution som vanligt bjuder på en kväll i matematikens tecken, torsdagen den 16 april klockan 18:00-21:00 i sal Euler på Chalmers (Campus Johanneberg, adress Skeppsgränd 3). Just i år är jag inte med på denna programpunkt, men Vilhelm Verendel kommer att inleda kvällen med att, under rubriken En statistisk modell av liv och död i universum, berätta om en studie han och jag gjort gemensamt.

torsdag 9 april 2015

Pingstpastorerna och presidenten

Den kristna dagstidningen Dagen bjuder idag på en debattartikel där 22 pingstpastorer torgför sin unkna människosyn och sina rent medeltida vidskepligheter, och bland annat levererar följande tankegång:
    Vi menar att praktiserande homosexualitet, utifrån vad Bibeln säger, är synd. Det har funnits en samstämmighet om detta genom hela den protestantiska reformationen, och även dessförinnan fanns det en klar teologisk övertygelse i frågan.

    Revisionism är ett modernt påfund som har till uppgift att vrida på bibeltexter för att få dem att säga motsatsen till vad de innehåller.

    Vi söker inte identiteten i etiketteringar men ser det som en synd mot både den enskilda människan, församlingarna och oss själva om vi inte är tydliga i frågor där Bibeln tveklöst säger att om du lever på det sättet så ärver du inte Guds rike. Med andra ord, i så fall missar du himlen.

Fy för den lede, säger jag. Men för att ändå försöka göra något positivt att detta, så ger pastorernas syn på Bibeln som ofelbar sanningskälla anledning att påminna om ett härligt utbrott av president Bartlet i TV-serien The West Wing - ett utbrott som jag härmed repriserar från en bloggpost jag skrev 2012:

tisdag 7 april 2015

Försiktighetens pris

Läsare i huvudstadsregionen får mer än gärna komma till ett seminarium jag medverkar i imorgon (onsdagen den 8 april) kl 15.15 på Institutet för Framtidsstudier, Holländargatan 13 i Stockholm. Christian Munthe, professor i praktisk filosofi vid Göteborgs universitet, kommer att tala över ämnet och jag är inbjuden diskussionsinledare.

måndag 6 april 2015

Till alla barn och ungdomar

Jag vet inte hur många mindreåriga läsare denna blogg har, men följande är till er, för att ni skall få ett hum om hur världen gestaltade sig på vår tid:

torsdag 2 april 2015

Bayesiansk skattning av klimatkänsligheten

En av de viktigaste storheterna när det gäller att bedöma storleken på kommande klimatförändringar är den så kallade klimatkänsligheten - den ökning i global jämviktsmedeltemperatur som en fördubbling av atmosfärens CO2-halt svarar mot. Osäkerheten vad gäller dess värde är emellertid stor. IPCC:s AR4-rapport, som kom 2007, angav ett trolighetsintervall om 2°C till 4,5°C, vilket, till följd av ett antal forskningsrapporter som pekade mot att klimatkänsligheten skulle kunna vara något lägre, breddades till intervallet 1,5°C till 4,5°C i deras AR5-rapport från 2014.

Det finns en rad olika sätt att uppskatta klimatkänsligheten, baserat på många olika slags data på olika tidsskalor. Som jag framhöll i ett blogginlägg för ett par år sedan så är det viktigt att inte snöa in sig på enbart en eller ett par studier; istället bör man försöka se till den vetenskapliga helhet som bildas av de många studier som gjorts på området.1 Jag har nu glädjen att berätta att jag själv varit med på ett hörn i arbetet med att uppskatta klimatkänsligheten, genom min medverkan i den nya studien Equilibrium climate sensitivity in light of observations over the warming hiatus av Daniel Johansson, Brian O’Neill, Claudia Tebaldi och yours truly, publicerad häromdagen i tidskriften Nature Climate Change. Här använder vi oss av så kallad bayesiansk statistik2 för att få fram en uppskattning baserad på instrumentdata, mestadels från 1900-talet och framåt. Våra resultat är inte alls särskilt sensationella: 90% av sannolikhetsmassan i vår a posteriorifördelning för klimatkänsligheten landar i intervallet 2°C till 3,2°C, vilket ligger klart inom ramen för IPCC:s sammanfattande bedömningar. Vi har också tittat närmare på hur uppskattningen varierar beroende på vilket slutdatum man sätter för instrumentdata, för att på så vis försöka förstå vad den inbromsning i uppvärmningstakt som under och åren kring 00-talet kunnat skönjas har för effekt på klimatkänslighetsuppskattningen. Vi finner en viss men ganska liten sådan effekt, men vår studie pekar mot att den observerade inbromsningen har mer att göra med klimatsystemets interna variabilitet (manifesterad i bland annat väderfenomenet El Niño) än med att klimatkänsligheten skulle vara lägre än man tidigare trott.

Se även Chalmers färska nyhetsmeddelande om saken: Studie från Chalmers bekräftar värde för klimatkänslighet.

Fotnoter

1) Vilket är precis vad IPCC gör när de bildar sina trolighetsintervall.

2) Möjligen kan detta att jag arbetar med bayesianska metoder förvåna en och annan läsare som tagit del av mitt försvar på senare tid av frekventistiska begrepp som p-värde och statistisk signifikans. Jag kallades nyligen "NHST-statistiker" (där NHST står för null hypothesis significance testing) av en tjomme som förstår väldigt lite av statistikens teori och praktik men har desto högljuddare åsikter, men den beteckningen är ett missförstånd: jag har en pragmatisk inställning till statistikens olika metoder, och bekänner mig inte till någon särskild ideologi rörande vilka som går an att använda (annat än att de bör vara korrekta), utan inser att statistiska problem är av många olika slag och därför kräver delvis olika statistiska verktygslådor.