20 juni 2007

Informationsdopad vetenskap

Torquetum, en medeltida analog dator.

Google TechTalks förra året talade den mångårige Wired-redaktören Kevin Kelly om den vetenskapliga metodens utveckling under det kommande seklet, ett tema han återkommer till och utvecklar i ett pågående blogg/bokprojekt.

Av alla mänsklighetens innovationer är uppfinnandet av den vetenskapliga metoden en av de viktigaste, eftersom den öppnar nya dörrar.

Vetenskapen är inte statisk och formuleras inte i singular, snarare är det en uppsättning verktyg, som under århundradena har kompletterats och utvecklats. Från de antika grekernas formulerande av falsifierbara hypotithenai till den nutida vetenskapen har – inte utan bakslag – metoder som bibliotek, indexering, kontrollerade experiment, encyklopedier och universitet, placebo, blindtester med mera tillkommit. Verktygen och metoderna, har i varje tidsålder utgjort ramen för vilka upptäckter som varit möjliga att göra, vilka frågor som kunnat formuleras och hur.

Under de kommande 50 åren, förutspår Kevin Kelly, kommer de vetenskapliga metoderna att förändras mer än under de senaste 400 åren.

Den förändrande faktorn är, förstås, den exponentiellt växande informationskapaciteten. Det gäller både mängden insamlad information, mängden informationsinsamlande sensorer, beräkningskraften för att jämföra och behandla stora datamängder (både kvantitativt och kvalitativt) och omvandla informationen till kunskap och nya teorier.

Några exempel:

  • Det traditionella sättet att ställa upp en hypotes som därefter prövas, kommer ersättas med multipla konkurrerande hypoteser (”multiple competing hypotheses”) som kan prövas en masse och i realtid på ett och samma dataurval.

  • Kombinatoriska svepningar ("Combinatorial Sweep"), när en hypotes inte kan formuleras eller avgränsas så kan istället ett helt område sökas av för att någonstans producera en lösning. Idag, när mediciner utvecklas, har labben många gånger en vag eller obefintlig kunskap om vilka föreningar som ger önskad effekt. Det är ett tidsödande och dyrt arbete att pröva sig fram, men med ökad förmåga att tillverka miljoner olika versioner av (t ex) ett protein och pröva var och en av dem, ökar kapaciteten och hastigheten tusenfallt.

  • Simulationer, som i första ledet matas med eller konstrueras ur externa data, kommer vara det viktigaste vetenskapliga verktyget under det kommande seklet. Simulationerna blir i sin tur de största producenterna av ofantliga datamängder (eftersom även alla de negativa resultaten kan vara användbara och därför bör sparas) som kan användas i andra simulationer.

    Simulation, mätning och hypoteser förstärker ömsesidigt varandra i 2000-talets vetenskap. Vart och ett av de tre benen fulltankat på informations- och sensorssteroider, en informationsdopad vetenskap.

    Massiv realtidsinsamling av data kan generera massiva mängder realtidsformulerande hypoteser som kan prövas i massiva realtidssimulationer som sedan återkopplar till och påverkar datainsamling och hypoteser.

    Spännande tider för vetenskapen. Kvar finns, som alltid, att i demokratisk ordning bestämma vad kraften och resurserna skall ägnas åt. Vilka områden ska vi utforska? Vad gör vi med resultaten? För vems skull bygger vi den sammankopplade maskinen?

    Annorstädes: Felicia Gilljam skriver om en ny syn på RNA:s funktion i "administrationen" av DNA, Lenin's Tomb om de nya krigen som utkämpas i (och mot) städerna, Philip Plait gör ett försök att popularisera paradoxer kring svarta hål, Lewism tipsar om ritingarna till den internationella genbanken i Svalbard och Pruned gör en mäktig utrensning av opublicerade länkar.

    Andra bloggar om: , , , , ,
  • 6 kommentarer:

    Anonym sa...

    Är du här inne på att datakörning kan generera hypoteser och sedan också testa dem?
    Det låter spännande, men fortfarande gäller att det är människor som gör programmen :-).

    Annars köper jag resonemanget, det låter helt sannolikt som framtidsscenario.

    Erik Berg sa...

    Jag hoppades på en kommentar från dig :-) Det är ju lite ditt område, vetenskapsteori.

    Om vi nu tänker i ett femtioårs-perspektiv, det oerhört lång tid när det kommer till dator- och programvaruutveckling... Någon gång inom den tidsramen tror jag vi kommer övergå till program som skrivits av andra program. Datorprogram kan optimera och felsöka koden betydligt säkrare och snabbare än någonsin någon människa.

    Genetisk programmering är ett angreppssätt som generar kod som lär sig och anpassar sig efter miljön och skriver nästa kodgeneration på egen hand.

    Så ja, varför skulle inte datakörning kunna resultera i att programmet på egen hand formulerar och prövar nya hypoteser? Visst förutsätter framgångsrika hypoteser att man har en vid överblick och kan tänka oförutsebart, men också det kan ett avancerat program skrivas för att göra.

    Björn Nilsson sa...

    Återigen en intressant bloggpost. Tillåt mig ett par reflexioner: Om dataprogram på ett intelligent sätt kan skapa nya dataprogram (det handlar alltså om program som utforskar och reagerar på omgivningen utan mänsklig hjälp) är inte steget långt bort att vi har maskiner som kan tillverka maskiner - maskiner som kan arbeta utan mänskliga operatörer. Jag har för mig att självaste Marx hade någon fundering åt det hållet.

    Enligt marxistisk ekonomi skulle då mervärdesproduktionen falla bort, eftersom själva det levande mervärdeskapande arbetet är borta. Just det mervärdeskande arbete som är förutsättning för kapitalismen. Maskiner skapar inget mervärde. Naturligtvis kommer kapitalister att försöka monopolisera tekniken för att bevara vinsterna ändå, men i längden tvivlar jag på att det är möjligt att låsa in de fina programmen. Och då får nog folk sluta "spara" i aktier!

    Om man till det lägger klimatkriser och energikriser som kanske snart är här (världsproduktionen av olja har snart nått toppen och börjar falla) är utsikterna för kapitalismen inte så lysande framöver. Men - som vanligt - vi märker ingen större vilja hos vänsterpolitiker att hugga tag i de här fascinerande framtidsperspektiven. Eller har jag missat något?

    Anonym sa...

    Ditt inlägg är mycket intressant och det stimulerar verkligen till att fundera lite över det som du beskriver. Dessutom håller jag med dig om att det viktigaste mänsklighetens innovationer är uppfinnandet av den vetenskapliga metoden.

    Anonym sa...

    Det vetenskapliga broderskapets tröghet mot utveckling och motstånd mot nya fakta, nya kunskaper och erfarenheter förändras inte i den ”utvecklade vetenskapliga metoden”.
    Mina erfarenheter är att samma typ av ortodoxa trosföreställningar som hindrade Gallileo och Kopernikus stoppar utvecklingen idag vidare från den vilseförda moderna fysikens kosmologi och kvant- och relativitetsteorier.

    Anonym sa...

    Av okunnighet utelämnade jag http:// till min webb-sida som därför inte länkas.
    Min webb-sida är intressant i sammanhanget och ska vara http://www.theuniphysics.info