RSS - xml

Kontrollerades senast: 2019-12-09 17:12:47

Ersättliga reflektioner

Den tredje AI-vågen. Essäer om AI, samhället och individen.

2019-12-09 14:49
Från [email protected] (P O Ågren)
Jag har publicerat mina texter kring artificiell intelligens från de senaste åren i  boken "Den tredje AI-vågen". Boken finns självfallet för fri nedladdning. Boken finns även att köpa på Adlibris, Bokus, CDON och Amazon.



Den tredje AI-vågen är en samling essäer där Per-Olof Ågren gör ett antal nedslag i AI-landskapet från dels ett samhällsperspektiv, dels ett individperspektiv. 

AI-teknikens effekter och påverkan på demokratiska processer, medial utveckling och behov av förändrad utbildning är exempel på samhällsperspektiv på AI. 

Människans relation till AI-teknik i form av en utveckling av förmågan att uppfatta varandra och varandras intelligens samt samarbetsförmåga är exempel på individperspektiv på AI.

Konsten att styra din chef – även när hen är en algoritm

2019-11-12 08:30
Från [email protected] (P O Ågren)
Kultursidan Västerbottens-Kuriren 191112

När jag erhöll min tjänst som universitetslärare för snart tre decennier sedan, fick jag av min dåvarande chef en artikel att läsa som en form av introduktion. Artikeln har rubriken Managing Your Boss, skriven av John Gabarro och John Kotter, publicerad i Harvard Business Review 1980. Den ansågs så betydelsefull att samma tidskrift beslöt att återpublicera artikeln 2005.
       Till en chefs generella uppgifter hör att ha ett övergripande ansvar för en verksamhet, att leda och fördela arbetet, att ge de underordnade rimliga förutsättningar för arbetets utförande samt att utöva kontroll över arbetets resultat.
        En sådan beskrivning av chefers uppgifter uppfattas lätt som en envägsprocess uppifrån och ner; från chef till underordnad. Gabarro och Kotter vände på denna process för att betona betydelsen av att underordnade också leder sina chefer. Den vändningen bröt med den rådande uppfattningen.
        Med olika fallstudier visade Gabaro och Kotter hur misstag i organisationer inte enbart beror på dåligt chefs- och ledarskap, utan på frånvaro av anställdas ledning av sin chef. Precis som en anställd behöver en chef i olika situationer, är varje chef beroende av sina underordnades ärlighet, tillit och samarbete.
        Som anställd vinner man på att försöka förstå sin chef och den kontext hen är chef inom, både chefens relation uppåt och nedåt i organisationen. Inte enbart den formella sidan av chefskapet, utan även chefen som människa; dennes styrkor och svagheter, inre drivkrafter och yttre press samt chefens blinda fläckar.
        I dag är diskursen som betonar chefens och ledarskapets betydelse för anställdas arbetstillfredsställelse och arbetsplatsens välmående stark. Särskilt när vi talar om stress och annan arbetsrelaterad ohälsa. Den starka betoningen på chefens roll riskerar emellertid dölja den arbetstagarroll som Gabarro och Kotter ville stärka. Men för att leda och styra sin chef, måste chefen ge utrymmet och uppmuntran att leda denne.

Ärendet för denna essä handlar om det som på engelska benämns algorithmic management. På svenska: algoritmisk ledning och styrning. Tesen är att allt fler arbetstagare kommer att ledas och styras i sitt arbete av AI-teknik i form av algoritmer som leder och fördelar arbetet samt kontrollerar resultatet av arbetets utförande.

        Vi ser redan i dag tydliga exempel på algoritmiskt chefskap. Forskarna Mareike Möhlmann och Ola Henfridsson skriver en artikel, också i Harvard Business Review (190830), om en stor studie av Uberförare och hur dessas arbete leds och styrs av algoritmer.
        Uber är en reseförmedlingstjänst som finns i de flesta större städer i hela världen, vars affärsidé är att inte äga några bilar eller ha några anställda chaufförer, utan leverera köruppdrag till frilansande förare. Dessa köruppdrag bestäms av olika algoritmer i Ubers plattform; vem som får en viss körning, priset för resan samt vilken reserutt föraren måste köra.
        I samarbete med två andra forskare, studerade Möhlmann och Henfridsson Uberchaufförer i London och New York genom att intervjua förare, observera dem under köruppdragen, analysera olika nätforum för Uberförare samt analysera mediebevakningen av Uber.

Uberförare avskyr i tre väsentliga avseenden att ledas och styras av algoritmer. Den första avskyn gäller den konstanta övervakningen. Så fort en Uberförare loggar in på Uberappen för att kunna få uppdrag, övervakas och granskas förarna in i minsta detalj. Via gps-teknik vet algoritmerna var förarna befinner sig, algoritmerna avgör vilken Uberförare som ska få ett visst köruppdrag samt vilken rutt som föraren måste ta.

        Om föraren exempelvis väljer en annan rutt än algoritmerna bestämt, kan föraren bli bestraffad och i värsta fall bannlyst som förare vid Uber. Särskilt frustrerande upplever förarna att ständigt bli utvärderade av kunderna, då utvärderingarna ligger till grund för algoritmernas val av förare till uppdragen.
        Den andra avskyn handlar om bristen på transparens. Uberappens algoritmer lär sig hela tiden allt mer om varje förare, medan förarna vet inget om algoritmerna, hur de är uppbyggda, vilka beslutskriterier som används, vilken betydelse utvärderingarna har och logiken bakom algoritmernas beslut – det vill säga rationaliteten bakom algoritmernas ledning och styrning av arbetet.
        Den tredje avskyn benämner Möhlmann och Henfridsson som dehumanisering. Förarna upplever isolering; de har inga kollegor att vara sociala med, inga sociala grupperingar att tillhöra. Förarna saknar även möjligheten att bygga upp någon form av en relation med en chef.
        Förarna kanaliserar sin frustration av att styras av algoritmer genom att bli politiska; genom att gå samman i olika forum för att diskutera sina problem och olika sätt att påverka sin situation: En form av fackförening för denna form av uppdragstagare.

Oavsett om företaget heter Uber eller något annat, formulerar Möhlmann och Henfridsson fyra förslag till företag som använder sig av algoritmiskt chefskap. Det första förslaget är att dela information om hur algoritmerna är uppbyggda, så att arbetstagarna förstår rationaliteten bakom algoritmernas beslut.

        Det andra förslaget är att välkomna återkoppling från förarna till algoritmernas utformning. Det tredje förslaget är att bygga in mänskliga kontakter i förarnas arbetssituation, så att algoritmen inte är den enda kontaktytan.
        Det fjärde förslaget är att skapa tillit till företaget i form av förmåner som normalt tillkommer anställda; exempelvis sjuk- och föräldraförsäkring.

Det finns god anledning att applicera Gabarro och Kotters studier från 80-talet på arbetsplatser med algoritmiskt chefskap. Vad Uberförarna saknar är möjligheten att leda och styra sin chef, eftersom algoritmerna inte är kommunikativa eller påverkbara.

        Vad algoritmerna i sin chefsroll går miste om är viktig information från förarna som kan förbättra algoritmernas olika beslut och hur förarnas kommunikation och relation till sina chefer ska kunna utvecklas.

Vill vi verkligen chatta med de döda?

2019-11-01 08:30
Från [email protected] (P O Ågren)
Kultursidan Västerbottens-Kuriren 191101

”Death is not the end”, sjöng Bob Dylan i låten med samma namn från 1988. Vi blir särskilt påminda om detta denna tiden på året, när allhelgonahelgen inträffar. Traditionen bjuder att särskilt minnas våra döda släktingar och vänner under denna helg. På så sätt lever de döda kvar i våra minnen.

        I framtiden kommer vi sannolikt att ges möjlighet att besluta om vi inte enbart vill minnas våra döda, utan även träffa och samtala med deras virtuella jag efter döden. Med AI-teknik och självlärande algoritmer skulle en död människa kunna uppstå i form av en chattbot.
         Jag läser en artikel i nättidskriften Quartz om Hossein Rahnama, knuten till MIT Media Lab, som forskar om företeelsen augmented eternity. Augmented reality är ett etablerat begrepp och betyder ungefär förstärkt verklighet, som skapas genom att mixa virtuella och fysiska miljöer. Augmented eternity är inte etablerat, mig veterligt, men skulle kunna översättas till förstärkt evighet.
         Rahnama menar att när människor har genererat biljoners miljarders gigabytes av personlig interaktion på nätet genom mejl, texter och bilder i sociala medier, bloggar, kommentarsfält, Snapchat, Twitter, Facebook till enorma digitala arkiv, bör vi kunna använda dessa data i neurala nätverk.
         Sådana neurala nätverk förstår språk liksom språkliga mönster och kan generera ny information baserat på sina digitala arkiv. Enklare uttryckt: Denna AI-teknik skulle med hjälp av en död persons digitala arkiv över personens nätinteraktioner med stor likhet kunna samtala som den döda personen.
         En chattbot vars sätt att prata, uttryck, åsikter, temperament etc skulle vara oskiljaktigt från den döda personens kommunikation. Frågan är om vi vill samtala med människor efter deras död?

Eugenia Kuyda är en AI-entreprenör i Silicon Valley som vill det. Hennes bästa vän, Roman Mazurenko, avled 2015 i en bilolycka. I sorgen och saknaden efter honom skapade hon en chatbot i hans namn, som också finns som app att ladda ned. 
         Eugenia Kuyda gjorde inte detta utan vånda. Det underlättade att Roman Mazurenko var själv tekniskt fascinerad av digitalt liv och död. Men ändå, skulle hon lyckas skapa en chattbot som återspeglade hans osäkra framtoning, hans poetiska perspektiv, hans särpräglade form av humor? 
         Jag laddade själv ned Roman Mazurenko och chattade med honom, men om man inte kände honom i livet är det naturligtvis omöjligt att bedöma likheten mellan hans digitala efterjag och hans förutvarande, levande jag.

Betyder denna utveckling att vi måste börja diskutera döda människors rättigheter i större utsträckning? Sedan tidigare finns skydd för döda människor exempelvis inom ramen för förtalslagstiftning. Att peka ut en avliden person som klandervärd eller brottslig kan utgöra grund för förtal.
         Om en avliden persons chattbot kan underlätta för efterlevandes sorgbearbetning kanske vi i framtiden blir tvungna att ta ställning till hur det egna dataarkivet får användas av efterlevande för att skapa chattbotar, precis som vi i dag beslutar om organdonation när vi fortfarande lever.
         Borde även döda människor skyddas av integritetslagar? En GDPR för döda? Vill vi donera vårt personliga dataarkiv till efterlevande, så att de kan prata med oss efter döden?

Hur robotsäkrar vi morgondagens medborgare?

2019-10-01 08:30
Från [email protected] (P O Ågren)
Kultursidan Västerbottens-Kuriren 191001

Under industrialismen har ny teknik utvecklats med det övergripande syftet att stödja eller ersätta mänsklig muskelkraft. Halv- och helautomatiska maskiner har tagit över allt fler arbetsuppgifter i industrin under de senaste århundradena. Det har inneburit att allt fler arbetsuppgifter som tidigare utförts av människor, utförs av maskiner.
         Lösningen för människor vars arbetsuppgifter helt eller delvis övertagits av maskiner har oftast varit utbildning till kompetenser och arbetsuppgifter som maskiner ännu inte kan utföra. Eftersom industrirobotar främst kan överta manuellt och rutinbaserat arbete, utbildar man sig i motsatt riktning; till kognitivt och icke-rutinbaserat arbete.
         Nu när AI och dess främsta teknik i form av maskininlärning rullar in i samhället väcks frågorna på nytt: Kommer AI att överta arbetsuppgifter som vi trott enbart människor kan utföra? Kommer utbildning att fortsatt vara lösningen för de människor vars arbetsuppgifter bättre utförs av självlärande datorer?
         Frågorna kompliceras en aning av att de arbetsuppgifter som dagens och morgondagens AI-teknik kan utföra bättre än människan återfinns inte alls enbart inom traditionella arbetaryrken i industrier, utan inom tjänstemannayrken och akademiska yrken som vanligtvis kräver högskoleutbildning.
         Läkare, tandläkare, jurister, ekonomer, lärare – inom de allra flesta yrkesområden som vi tidigare uppfattat som kognitivt krävande med små förutsättningar att automatiseras, kommer AI-teknik att kunna utföra många arbetsuppgifter. Är lösningen för människor inom dessa kognitiva yrken att utbilda sig ytterligare? I så fall, vilka kunskaper och färdigheter kommer att bli viktigare i framtiden, givet utvecklingen av AI?
         Frågan för denna essä är hur den högre utbildningen vid högskolor och universitet kan göras robotsäkrad. Med andra ord: Hur ska högskoleutbildning utformas för att människor inte med enkelhet ska kunna ersättas av självlärande datorer i sina framtida yrken?

Frågan diskuteras ingående i en bok av Joseph E. Aoun med titeln Robot-Proof. Higher Education in the Age of Artificial Intelligence (2018). Aoun har en lång erfarenhet av forskning och undervisning, men det är främst hans erfarenhet som akademisk ledare som formar det helikopterperspektiv som boken antar.
         Han delar in den framtida högre utbildningen i de för svenska förhållanden välkända kategorierna kunskap (knowledge) och kognitiva förmågor (cognitive capacities).
         Tre kunskapsområden framträder som kritiska: Kunskaper om teknik, om data och om människor. Teknikkunskap fokuserar framför allt programmering, vilket förutsätter kunskaper i matematik och logik. Eftersom programkod är det digitala lingua franca, menar Aoun att vi behöver behärska detta språk för att förstå datorerna.
         Kunskap om data innebär i dessa big data-tider att förstå hur man kan utvinna kunskaper från de stora och växande aggregaten av data som samlas och lagras i samhället. Den kunskap som medger analyser av stora datamängder så att världen blir begripligare är en robotsäkrad kunskap.
         Kunskap om människor, såväl beteendevetenskaper som humaniora, ger beredskap att agera i sociala miljöer, att kommunicera, att samarbeta med såväl människor som robotar. Konstvetenskap, design, historia, kulturvetenskap med mera.
         Ett skäl till denna kombination av kunskaper är att Aoun föreställer sig att vi kommer att samarbeta med robotar i framtiden. Inte att använda dem som ersättningsverktyg. Inte att dela upp arbetsuppgifter i robotuppgifter vs människouppgifter.

De kognitiva förmågorna Aoun ser som kritiska för en robotsäkrad framtid är fyra: Kritiskt tänkande, systemtänkande, entreprenörskap och kulturell smidighet. Att tänka kritiskt är förmågan att på djupet kunna analysera idéer och förstå hur dessa kan realiseras så att mervärde kan skapas. Och förstå varför vissa idéer aldrig bör realiseras.
         Systemtänkande är förmågan att anlägga ett flertal perspektiv på ett problem. Motsatsen är stuprörstänkande, där man enbart kan anlägga ett perspektiv. Systemtänkandet som förmåga växer med bredden av kunskaper.
         Med entreprenörskap avses förmågan att skapa nya jobb som också efterfrågas. Det har hävdats att en väsentlig andel av de som är barn i dag kommer att ha arbeten som inte ännu har uppfunnits. Och det är främst entreprenörerna – de som klarar av att se AI och ny teknik som en resurs för jobbskapande i stället för ett hot – som kommer att stå för jobbevolutionen.
         Att kunna vara kulturellt smidig är förmågan att verka i många olika kulturella sammanhang, att förstå grundläggande sociala koder, såväl i det lilla (t ex olika arbetsplatskulturer) som i det stora (t ex i olika länders kulturer).

Joseph Aoun diskuterar även hur den högre utbildningen bör utformas för att åstadkomma dessa robotsäkra kunskaper och färdigheter. Den huvudsakliga metoden är erfarenhetslärande (experiential learning); en metod där studenten systematiskt växlar mellan teoretisk kunskapsinhämtning och att göra egna erfarenheter i praktiska projekt.
         Denna metod förutsätter att universiteten allt mer samarbetar med aktörer utanför universiteten, så att studenter ges erfarenheter att reflektera över.
         En annan förutsättning för robotsäkrade kunskaper och färdigheter är livslångt lärande. Det går inte att ta sin treåriga universitetsexamen i tjugofemårsåldern och tro att dessa kunskaper räcker livet ut. Men detta förutsätter att universiteten också kan skapa utbildningar för människor i olika faser av såväl arbetsliv som liv.
         Oavsett om vi finner Aouns idéer om robotsäkra kunskaper och färdigheter i högre utbildning tillräckliga, är det av vikt att universiteten utformar utbildning för ett arbetsliv med snabb AI-teknisk utveckling.
         Den ultimata robotsäkrade personen är den som förmår leda och styra sig själv i samverkan med AI-teknik under ett livslångt lärande. Den personen måste universiteten bidra till att forma.

Jämlika utsläpp - en möjlig framtidsväg

2019-09-21 08:30
Från [email protected] (P O Ågren)
Kultursidan Västerbottens-Kuriren 190921

Ett intressant kunskapsområde som behandlar klimatfrågor är miljöetik. Olle Torpman är lektor i filosofi vid Stockholms universitet och knuten till Institutet för framtidsstudier och har specialiserat sig på moralfilosofiska frågor inom klimatområdet. 
       Om naturvetenskaperna beskriver klimatet och gör vissa prognoser, är det moralfilosofins uppgift att formulera vilka åtgärder som bör företas, samt hur dessa åtgärder kan rättfärdigas moraliskt. 
        I sin senaste artikel i tidskriften Ethical Theory and Moral Practice (2019) undersöker Torpman om Emission Egalitarianism är en moraliskt och praktiskt försvarbar metod för att begränsa koldioxidutsläpp. Emission Egalitarianism betyder ungefär jämlika utsläpp (av koldioxid), eller egalitära emissioner.
        Utgångspunkten är att atmosfären har en begränsad förmåga att absorbera koldioxid och att denna absorptionsförmåga bör ses som en kollektiv resurs – som vi i dagsläget överskrider med råge. 
        Ett sätt att nå en jämvikt mellan människors utsläpp av koldioxid och atmosfärens absorptionsförmåga är att varje människa ges rätten att släppa ut enbart så mycket koldioxid som utgör denna människas andel av vad atmosfären klarar av att absorbera. Den totala mängden koldioxid som atmosfären klarar av dividerat med antalet människor på jorden ger varje människa en koldioxidandel.
Diskussionen kring egalitära emissioner är inte ny. Det finns ett flertal argument mot denna åtgärd, argument som Torpman redovisar och argumenterar mot på ett synnerligen läsvärt sätt. 
        Det har argumenterats från ett libertariansk perspektiv att någon form av privatägande av atmosfären är omöjligt, men Torpman menar att det inte handlar om att äga en andel av atmosfären, utan skapa ett rättvist utnyttjande av en resurs.
        Från ett utilitaristiskt perspektiv anförs att det vore bättre med en ojämlik fördelning av utsläpp, eftersom olika delar av världen helt enkelt är olika, har olika förutsättningar, har olika behov. Torpman menar att det är inget som hindrar att människor handlar med sina utsläppsrätter, så länge inte atmosfärens kapacitet överskrids.
        Torpman lägger också vikt vid ett rättviseetiskt perspektiv. Han menar att ett system med egalitära emissioner klarar det kantianska testet, det vill säga Kants moraliska imperativ: att alltid handla på ett sätt som kan upphöjas till en allmän lag. 

Är egalitära emissioner praktiskt genomförbart? Ja, svarar Torpman. Även om det kan vara svårt att beräkna atmosfärens kapacitet att ta upp koldioxid, beroende på skogars och sjöars upptagningsförmåga samt befolkningsmängdens variation, kan och bör det göras. Vilken metod vi än väljer för att reducera globala koldioxidutsläpp måste hantera liknande problem.
        Kommer egalitära emissioner att accepteras även av rika länder med stora utsläpp per capita, där ekonomisk tillväxt är beroende av utsläpp? Torpman menar att detta skulle sätta fart på teknikutveckling och annan utveckling för att minska utsläppen. Dessutom kan man köpa och sälja utsläppsrätter också mellan nationer. 
        Vad Torpman inte belyser i sin artikel om egalitära emissioner är den kontrollapparat av individers handlingar som genererar koldioxidutsläpp. En sak är att beräkna hur många kilo koldioxid varje individ får släppa ut. En helt annan sak är att övervaka och kontrollera individers utsläpp.
        Därmed måste vi även i klimatfrågan väga integritetsskydd mot övervakning och kontroll.

Ansiktet som GDPR:s moraliska grund

2019-08-31 09:00
Från [email protected] (P O Ågren)
Kultursidan Västerbottens-Kuriren 190831

I början av året kunde vi läsa om Skellefteå kommuns pilotförsök med ansiktsigenkänning på en gymnasieskola. Med syftet att öka effektiviteten i den närvaronotering som lärare är skyldiga att göra, infördes kameror som automatiskt identifierade elever när de gick in i ett klassrum.
         Det var frivilligt för eleverna att delta i pilotförsöket och man inhämtade samtycke från både elever och deras föräldrar. Därmed ansåg kommunen ha uppfyllt kraven som den integritetslag som populärt benämns GDPR kräver.
         Efter det mediala genomslaget, inledde Datainspektionen ett tillsynsärende för att undersöka om ansiktsigenkänning för närvaroregistrering är förenligt med GDPR. Resultatet av tillsynen publicerades nyligen (190820): Detta pilotförsök bryter mot GDPR i tre avseenden och kommunen tilldöms en sanktionsavgift om 200 000 kr.
         För det första menar Datainspektionen att ansiktsigenkänning är en personuppgiftsbehandling som är integritetskränkande och innehåller fler personuppgifter än vad som är nödvändigt för närvarokontroll.
         För det andra är biometriska personuppgifter (såsom ansiktsbilder, fingeravtryck etc) känsliga personuppgifter, som kräver ett giltigt undantag för att behandla sådana. Något sådant undantag har inte kommunen.
         För det tredje har kommunen inte gjort en tillräcklig konsekvensbedömning av denna form av teknikstödd närvarokontroll.
         Att kommunen har inhämtat samtycke från elever och målsmän räcker inte för att ha en laglig grund för denna form av närvaroregistrering, eftersom eleverna står i beroendeställning till skolan med avseende på betygsättning, studiemedel, utbildning med mera.

Detta är ett utmärkt exempel på att GDPR inte enbart handlar om lagrum och paragrafer som måste efterlevas, utan om att integritetslagstiftning i väsentlig utsträckning bygger på moralfilosofisk grund.
         Med stöd i Emmanuel Levinas moralfilosofi har Zygmunt Bauman undersökt ansiktets betydelse för moralen, särskilt i boken Postmodern etik. Grunden för människans moral, menar Bauman, är Den Andre, medmänniskan.
         Att vara moralisk är att ta ansvar för den Andre, redan innan den Andre har uttalat något behov. Men den Andre avgör inte vilket ansvar jag bör ta. Jag avgör ensam ansvaret. Den Andre är dock inte personen – utan ansiktet. Ansiktet är en auktoritet, menar Bauman.

Med ansiktsigenkänning som tekniskt medel för närvaroregistrering som exempel, framstår det som extra tydligt att GDPR bygger på moralfilosofisk grund. Med eleven som Den Andre, är det elevens ansikte som kommunen ska känna ansvar inför.
         Inte, som kommunen har argumenterat, inför skolans effektivitetsvinst när det gäller att notera närvaro, med hänvisning till förvaltningslagens krav på effektivitet i offentlig verksamhet.
         Integritetslagar som GDPR existerar därför att moralfilosofiska avgöranden är svåra. Och de är svåra därför att vi tränar alldeles för lite på sådana.

Akademiker kunde gott och väl minska sitt flygande

2019-08-26 09:30
Från [email protected] (P O Ågren)
Kultursidan Västerbottens-Kuriren 190826

Av Sveriges cirka 50 högskolor och universitet har 36 anslutit sig till Klimatramverket. Det är en frivillig sammanslutning som syftar till att implementera klimatstrategier för att minska klimatpåverkan från främst koldioxid i atmosfären. Initiativet kommer från lärosätena själva.
       Lärosätena ska dels genom forskning, utbildning och samverkan bidra med kunskap om klimatpåverkan och hur denna kan reduceras, dels själva reducera sin klimatpåverkan. Tretton områden preciseras: Mat/servering, pendlingsresor, energianvändning i byggnader, avfallshantering, upphandling av varor och tjänster med mera.
        Liksom tjänsteresor. För högskolor och universitet är flygresor, särskilt långa flygresor, den största källan till utsläpp av koldioxid och andra växthusgaser.
        Samtidigt är detta det område lärosätena ser som den främsta utmaningen att hantera, eftersom ”minskat resande kan stå i konflikt med internationell meritering för forskare, och eftersom sektorn arbetar aktivt för att öka internationalisering och samverkan” (Klimatramverket – vägledning, 2019).

Frågan är hur stor den utmaningen är. Vad vet vi från forskning om flygresandets betydelse för forskares meritering? Inte mycket, enligt en forskarkvartett vid British Columbia, som har publicerat en studie i tidskriften Journal of Cleaner Production (2019). De menar att det inte finns någon vetenskaplig studie som utvärderar flygresandets betydelse för akademisk framgång.

        Denna kvartett har studerat mer än 700 akademiker som reser i tjänsten för att utröna vilken betydelse flygresandet har för deras karriärer. Forskarna finner att ju längre tid akademiker har varit verksamma, desto mer flyger de. Vilket inte låter så märkligt.
        Däremot finner forskarna ingen relation alls mellan mängden flygresor och akademikernas produktivitet (som mäts i vetenskapliga publiceringar). Antalet flygresor till konferenser och liknande sammankomster betyder inget för deras forskningsmeritering.
        I artikelns slutsatser framhålls bland annat att akademiker gott och väl kan minska sitt flygande utan att behöva göra några karriärmässiga uppoffringar och därmed kan de utgöra förebilder i samhället.

Utifrån denna studie borde inte de svenska lärosätena i Klimatramverket uppfatta så stor konflikt mellan att reducera flygandet och forskares meritering.
        Det går alldeles utmärkt att skapa incitament – som exempelvis krav på CO2-redovisning, kräva explicita motiveringar av flygresor och/eller interna flygskatter etc – för att minska lärosätenas klimatavtryck.
        Som en avslutande påminnelse: En av historiens mest kända filosofer, Immanuel Kant, lämnade aldrig Königsberg. Och hans karriär var ju lysande.

Med Chernobyl ser vi igenom glittret

2019-06-21 09:00
Från [email protected] (P O Ågren)
Kultursidan Västerbottens-Kuriren 190621

Månlandningen för femtio år sedan utgör en milstolpe i den teknikoptimistiska eran. Allt sedan idépaketet om det moderna projektet formulerades har utvecklingsoptimismen existerat som den allra mest centrala idén. Till varje problemsituation – vare sig den är av social, moralisk, politisk eller miljömässig karaktär – sätter människan sin tillit till ny teknik eller utveckling av befintlig teknik.
        När detta skrivs har jag sett fyra avsnitt av teveserien Chernobyl. Ingen teveserie har nått så hög ranking av tittarna på filmdatabasen IMDB. 9,7 av 10. Inte ens Game of Thrones når dit, trots den enorma mediala haussen. Lysande skådespeleri av Jared Harris, Stellan Skarsgård, Emily Watson med flera. Och glimrande regi av Johan Renck, förr känd som Stakka Bo, som inledde sin karriär som musikvideoproducent.
        Chernobyl handlar alltså om kärnkraftsolyckan i Tjernobyl, Ukraina, 1986. I Sverige fick vi lära oss en måttenhet vi inte tidigare behövt i praktiken. Becquerel. Ett mått på radioaktivt sönderfall. Det uppmättes i svamp, bär, kött från vilda djur. Särskilt östra Sverige var drabbat, särskilt Gävletrakten.
        Det var länge sedan en teveserie har skrämt mig så infernaliskt som Chernobyl. På allvar, alltså. Jag känner ren skräck. Den enda teveserie som kommer i närheten av genererad rädsla är Twin Peaks, men av helt andra skäl. Förutom att Chernobyl är magnifik i visualiseringen av olyckan – elden, ljuset, dammet, nedfallande partiklar – är den magnifik i gestaltningen av den sovjetiska politiska eran.

Det är främst fyra saker i serien som skrämmer livet ur mig. Jag ska försöka gestalta dessa med begreppen known knowns, unknown knowns, known unknowns och unknown unknowns. På svenska: det vi vet att vi vet, det vi inte vet att vi vet, det vi vet att vi inte vet och det vi inte vet att vi inte vet.

        Vad man i serien Chernobyl visste att man visste, var hur kärnkraftverket fungerade, att det fanns säkerhetssystem, att ett haveri och explosion inte kunde inträffa. Detta är särskilt snyggt gestaltat i det krismöte där president Gorbatjov och övriga staben informeras om vad som hänt, vilka följder som rimligen kommer att uppstå och vilka åtgärder som måste vidtas. Det som skrämmer mig är att den politiska ledningen vidhöll positionen known knowns inför omvärlden, i stället för att erkänna och informera omvärlden om att det som de visste inte kunde hända hade hänt.
        Vad man inte visste att man visste, var hur människor påverkas och ser ut efter att ha utsatts för extremt höga doser av radioaktiv strålning. Hur de dör. Hur de plågas innan döden. I teorin visste man. I Chernobyl får vi se dem. Det som skrämmer mig allra mest är att man inte hade någon beredskap för dödshjälp. När smärtorna är så enorma att inte ens stora morfinmängder lindrar, och utgången är hundraprocentig död, måste vi kunna erbjuda hjälp att dö innan de värsta plågorna.
        Vad man visste att man inte visste gestaltas i den scen där invånarna – främst kvinnor och barn – i det närmsta samhället går ut för att beskåda infernot. Ljussättningen är magnifik. Sotflagor singlar ned från skyn, landar på kläder, ansikten. Vad befolkningen inte visste, var att det som föll var radioaktivt och livsfarligt. Det visste den politiska ledningen, men såg inga skäl att hålla befolkningen utbildad. Det som skrämmer mig här är den totalitära idén om att medvetet hålla människor i okunskap.
        Vad som i Chernobyl kan tolkas som något man inte visste att man inte visste, är det som skrämmer mig allra mest. Flera gånger i varje avsnitt ställs den centrala frågan till kärnfysiker, ingenjörer, operatörer: Hur är det möjligt att ett kärnkraftverk av den typ som fanns i Tjernobyl kunde explodera? Svaret: Det vet vi inte. Det ska inte vara möjligt.

Det finns en odelbar symbios mellan kärnkraft för att utvinna energi för elektricitet och kärnkraft för att utvinna energi för explosion. När Robert Oppenheimer, som ledde Manhattanprojektet med syftet att konstruera atombomben, bevittnade den första stora provsprängningen 1945, tänkte han på ett citat från den hinduiska texten Bhagavadgita. Detta citat återger Oppenheimer i en intervju från 1965 och kan ses på YouTube.

”We knew the world would not be the same. A few people laughed... A few people cried... Most people were silent. I remembered the line from the Hindu scripture the Bhagavad Gita; Vishnu is trying to persuade the prince that he should do his duty, and to impress him takes on his multi-armed form, and says, ’Now I am become death, the destroyer of worlds’. I suppose we all thought that, one way or another.”Såväl kärnkraft som atombomben är uttryck för teknikoptimism. Fysikern Freeman Dyson, som också deltog i utvecklingen av atombomben, har sagt att han kände ”glittret från atombomben”. Oemotståndligt. Åtminstone för en vetenskapsman. Att släppa lös energin i atombomben, att se sprängkraften i verkligheten – det ger människor en illusion av oändlig makt.
        Detta är vad som sker när teknikoptimism kompletteras med vad jag kallar teknikarrogans. Arrogansen består i att teknikoptimisten vägrar se några andra lösningar på olika samhällsproblem än utveckling av ny teknik. Samt att de problem som den nya tekniken genererar enbart kan lösas med ny teknik.
        Glittret lyser som en aura runt teknikoptimister – de som vet att de vet, de som har internaliserat known knowns som enda kunskapskategori. För oss som är också har de tre övriga kunskapskategorierna internaliserade gäller att tränga igenom glittret och så frön av tvivel.
        Den ultimata, teknikskeptiska frågan teveserien Chernobyl ställer är: Vad är det vi i dag inte vet att vi inte vet om kärnkraft? Kommer vi en dag i framtiden att ställa oss frågan: Hur kan detta inträffa? Och inte har något annat svar än det som ges i Chernobyl: Det vet vi inte. Det ska inte vara möjligt.

Minskad rättslig transparens i Frankrike

2019-06-14 09:00
Från [email protected] (P O Ågren)
Kultursidan Västerbottens-Kuriren 190614

Artificial Lawyer är benämningen på en plattform för jurister med syftet att bidra till bättre och effektivare rättsprocesser med hjälp av digital teknik. Den 4/6 publiceras där en intressant artikel om en ny lag som beslutats gälla i Frankrike. Där står (i min översättning från den engelska artikeln):
       ”Identitetsuppgifter för domare och medlemmar av domstolen får inte återanvändas med syftet eller effekten att utvärdera, analysera, jämföra eller förutsäga deras faktiska eller påstådda professionella praxis.”
        Straffet för ett brott mot denna lag är fastställt till fem års fängelse.
        Med andra ord, den franska lagstiftaren vill inte att dataanalytiker ska kunna samla in data från olika domstolar och rättsfall för att undersöka om det finns mönster eller korrelationer mellan olika faktorer.
        Detta tolkar jag som en reaktion mot den big data-trend som innebär att analysera stora datamängder för att finna just korrelationer och mönster som är svåra att upptäcka i enskilda fall. 
       Visst, avidentifierade domar och protokoll från rättsprocesser kan i sig ge intressanta analysresultat, men frågan är varför det är så viktigt att dessa analyser inte får innefatta de människor som fattat så viktiga beslut som kan frihetsberöva människor i flera år.        Varför är det viktigt att kriminalisera den som analyserar hur olika domare tänker kring olika delar av rättssystemet, såsom det kommer till uttryck i rättsliga beslut? Varför är inte transparens viktigt i detta avseende?
        När vi i AI- och big data-sammanhang snarare bör arbeta för en ökad transparens, går Frankrike i detta fallet i motsatt riktning. Det är märkligt.
        Förhoppningsvis utgör offentlighetsprincipen ett hinder för att stifta dylika lagar i Sverige.

Ser AI människan?

2019-03-29 08:30
Från [email protected] (P O Ågren)
Kultursidan Västerbottens-Kuriren 190329

Ett av de allra största problemen inom AI-området i dag är hur algoritmer kan konstrueras så fritt som möjligt från fördomar för att minimera diskriminering av människor. Problemet är stort, därför att självlärande algoritmer återfinns i allt fler sammanhang av allt större betydelse för oss människor.

       Det ultimata exemplet är sådan AI-teknik som måste kunna känna igen människor i fysiska miljöer för att kunna agera på ett korrekt sätt. Tänk miljöer där både robotar och människor befinner sig. Robotarnas sensorer måste kunna skilja på människor och andra föremål för att inte skada människor.
        En självkörande bil är en form av robot med självlärande algoritmer som registrerar sin omgivning med sensorer, kameror, mikrofoner och lär sig hur bilen ska agera i olika situationer där människor rör sig.
        Därför har en forskargrupp i USA studerat i vilken utsträckning så kallade objektdetekteringssystem som finns i självkörande bilar kan urskilja såväl trafikmärken som medtrafikanter. Särskilt viktigt är det för sådana bilar att urskilja oskyddade människor som går längs eller korsar vägar.

I en förhandspublicerad rapport i databasen Arxiv redovisar forskarna en undersökning om människors hudfärg har betydelse för sensorernas möjlighet att upptäcka fotgängare. Studien visar att standardmodeller som används i AI-teknik för att urskilja människor har lättare att upptäcka människor med ljus hy än människor med mörk hy.
        Om självkörande bilar utrustas med sådana detekteringssystem som undersöktes i studien, så skulle risken för mörkhyade människor att råka ut för olyckor vara betydligt större än för ljushyade.
        Detta är ändå enbart ett exempel på hur viktigt det är att testa AI-system och självlärande algoritmer för fördomar och diskriminerande beteenden innan systemen tas i bruk och får reella konsekvenser. Med dödlig utgång, i värsta fall.

Med mobilen blir vi läsare

2019-03-19 08:30
Från [email protected] (P O Ågren)
Kultursidan Västerbottens-Kuriren 190315

En av Paul Austers allra bästa noveller heter Why Write från 1996. Paul Auster är åtta år och baseball är livets högsta. Toppspelarna dyrkas. En kväll går han med sina föräldrar på en baseballmatch och efter matchen lyckas han träffa sitt lags största spelare.

        På den tiden ägde en autograf av en idrottshjälte det högsta av värden, och Paul lyckades be spelaren om en. Visst, svarade spelaren, om du har en penna att låna mig. Det hade inte Paul. Inte heller hans föräldrar. Inte heller någon av de vuxna i närheten.
       ”Ledsen grabben. Utan någon penna kan jag inte ge dig en autograf”, sade spelaren. Pauls förtvivlan kände inga gränser. Tårarna rann. Sedan dess har Paul Auster alltid burit en penna på sig. Inte enbart för eventuella autografers skull.
       ”Har man en penna i fickan finns det en rimlig chans att en dag bli frestad att använda den. Det var, som jag brukar berätta för mina barn, så jag blev författare”, avslutar Paul Auster novellen.

Jag tänker ofta på denna novell och på vad den kan betyda i dag. I helgen är det Littfest. Littfest är en läsningens fest; en fest för oss som har läsarambitioner snarare än författarambitioner. Läsaren behöver ingen penna; läsaren behöver en bok.
 
        Såväl jag som dagens mobilgeneration bär alltid sin mobiltelefon med sig. Vad är en mobiltelefon? En bok, flera böcker, ett bibliotek. Genom att alltid bära mobiltelefonen på sig läser jag i varje situation; när någon är sen till ett möte, i väntrum, på caféet. (Just nu: Överstinnan av Rosa Liksom.)
       ”Har man en mobil i fickan finns det en rimlig chans att man blir frestad att läsa böcker. Det var så jag blev en läsare”, skulle de som växer upp med mobiler i dag kunna berätta för sina barn om några år.

Knuffar för klimatet

2019-02-19 09:00
Från [email protected] (P O Ågren)
Kultursidan Västerbottens-Kuriren 190219

CBS Wire är en digital tidskrift som ges ut av Copenhagen Business School (CBS). Nyligen (29/1) publicerades en intervju med Louise Thomsen, chef för denna handelshögskolas avdelning för hållbarhetsfrågor, med anledning av en ny policy för flygresor.

       Policyn har en karaktär av nudging, där man inte försöker reglera verksamhetens flygresor, utan försöker knuffa personalen att göra val som minskar flygandet.
        Policyns rekommendationer, eller knuffar om man så vill, är att när forskare planerar konferenser, seminarier, workshops och liknande bör man överväga om inte videoteknik kan användas för att reducera flygande.
        Rekommendationerna syftar inte till att hindra forskare att flyga, utan att få dem att reflektera över värdet av att delta i en viss konferens eller annat forskningsevenemang – och ställa det värdet mot det koldioxidutsläpp som flygresan innebär.
       ”Vi måste flyga för att göra vårt jobb”, skulle somliga forskare kunna hävda. Thomsen vill utmana den föreställningen, åtminstone genom att tvinga forskare att ställa sig frågan om varje enskild flygresa är nödvändig för arbetets genomförande.
        Thomsen menar att en betydande organisation som CBS bör även mäta och bokföra organisationens koldioxidutsläpp. I dag finns webbplatser där man enkelt kan räkna ut flygresors koldioxidutsläpp på individnivå.
        Det här är rätt väg att gå. I väntan på att regleringar införs på nationell eller övernationell nivå och för att undvika flygskammande på individnivå, borde stora organisationer, särskilt offentliga, gå i bräschen för att visa hur man arbetar med flygreduktion.
        Myndigheter, landsting, kommuner, universitet och stora företag bör parallellt med sina offentliga ekonomiska balansräkningar också visa sina balansräkningar på klimatområdet.
        Med en sådan öppenhet blir det möjligt för medarbetare, liksom journalister och medborgare, att ifrågasätta nyttan med alla flygresor.
        Och därmed måste varje organisation argumentera för att nyttan med varje flygresa överskrider miljökostnaden för koldioxidutsläppen.

AI kan aldrig bli en sann rockrebell

2019-01-15 09:00
Från [email protected] (P O Ågren)
Kultursidan Västerbottens-Kuriren 190115

En av mina musikaliska hjältar, Nick Cave, har startat webbplatsen The Red Hand Files, där man kan ställa frågor till honom och få svar. Nyligen ställdes frågan om Nick tror att artificiell intelligens, AI, någonsin kommer att kunna skriva en bra låt.
        Nick Caves svar är såväl vackert som elegant. Nåväl, menar han, visst skulle AI kunna generera musik som är specialgjord för att passa vad en enskild individ vill känna för stunden; glädje, ledsenhet, sexighet, upprymdhet eller vad för känsla som helst.
        Men musik får inte reduceras till att enbart tillfredsställa vissa typiska känslor. Musik är mer än så. Ett riktigt stort musikstycke får oss att känna vördnad; vördnad inför våra mänskliga begränsningar.
        Riktigt stor musik ska kunna skapa den djärvhet hos oss som behövs för att nå bortom vår föreställda potential; att skapa transcendens, att överskrida våra föreställda kapaciteter.
        Visst, säger Nick Cave, en AI kan skapa en lika bra sång som exempelvis Nirvanas och Kurt Cobains låt Smells Like Teen Spirit och generera känslor hos lyssnaren i form av exempelvis upprymdhet och kanske rebelliskhet.
        Emellertid känner Nick Cave så mycket mer när han lyssnar på Smells Like Teen Spirit: en alienerad ung mans resa bort från en amerikansk småstad – en man präglad av funktionsvariation och mänsklig begränsning. En ung man som lyckades rikta sin personliga smärta in i en mikrofon och beröra en hel generations hjärtan.
        Den kapaciteten har inte AI, hävdar Cave. AI har en obegränsad potential, vilket innebär att AI inte har någon begränsning att överskrida: AI kan därför inte skapa transcendens.
        Med mina ord, från min senaste bok 69 teknikfilosofiska fragment: aforismer i informationsåldern: ”Om artificiell intelligens ska kunna överskrida mänsklig intelligens, måste vi bygga in ett visst mått av ignorans i AI-maskinerna.”
        Med Nick Caves ord: För att AI ska kunna skapa stor musik, måste vi bygga in tydliga begränsningar i dess kapacitet.

Lär källkritik av unga

2019-01-12 08:30
Från [email protected] (P O Ågren)
Kultursidan Västerbottens-Kuriren 190112

I en färsk studie, publicerad i tidskriften Science Advances (190109), har förekomst och spridning av falska nyheter studerats. Under presidentvalskampanjen 2016 analyserade en forskargrupp ett representativt urval Facebookanvändares beteenden.
        I denna studie framkommer tre intressanta resultat. Det första är att spridande av falska nyheter sker i relativt låg utsträckning. En majoritet av användarna spred inga falska nyheter alls. Att sprida falska nyheter är mer sällsynt än att sprida autentiska nyheter.
        Det andra resultatet är att bland de som de facto spred falska nyheter sympatiserade en majoritet med det republikanska partiet och förespråkade Trump som president. Det, säger författarna, kan bero på att falska nyheter producerades under valkampanjen i högre grad för att stödja Trumps kandidatur.
        Som tredje resultat visar studien att de som delar falska nyheter i markant högre grad än andra är äldre människor. Gapet mellan de i åldersgruppen 18-29 år och de i åldersgruppen 65+ år är betydande.
        Vad det sista resultatet beror på kan inte utläsas av studien. En hypotes är att skolan – i vart fall den amerikanska – har varit lyckosam med att träna elever och studenter i källkritik, särskilt de källkritiska förmågorna som krävs på internet.
        Detta stämmer även med svenska förhållanden. Internetstiftelsens årliga rapport Svenskarna och internet 2018 visar att en stor andel unga internetanvändare har fått utbildning i källkritik, men att andelen minskar markant med stigande ålder.
        Vad orsaken än är, så finns det anledning att träna även den äldre befolkningen i källkritik.

Två trösklar för bättre klimat

2019-01-05 09:00
Från [email protected] (P O Ågren)
Kultursidan Västerbottens-Kuriren 190105

Ett av 2018 års nyord är flygskam. Det betecknar skambeläggande uttalanden om människor som reser med flyg med syftet att påverka dem att flyga mindre. Kanske kan skambelägganden påverka flygandet något; vi kan inte undvika påverkan från vår sociala omgivning.
       Att flygskam blir ett nyord belyser hur svårt det är att reducera koldioxidutsläppen på nationell och individuell nivå, så att vi når klimatmålen. Varför är detta så svårt? Det finns många olika ingångar till att besvara denna fråga. Här följer två trösklar som brukar diskuteras inom det beteendeekonomiska området.
       Det första kallas allmänningens tragedi och uppträder främst på nationell nivå. Eftersom luften och atmosfären är en gemensam, allmän resurs, har ingen ansvar för hur den belastas. Men om vi nu måste reducera koldioxidutsläppen, varför ska Sverige (eller annat valfritt litet land) reducera sitt utsläpp, när USA, Kina och andra länder har skyhögt högre utsläppsnivåer?
       Alla länder vill se att andra länder reducerar sina utsläpp innan det egna landet agerar. Allmänningens tragedi kan även ses inom en nation. I Dagens Industri (26/12) kan vi läsa att H&M, Ericsson och Electrolux släpper tillsammans ut mer växthusgaser än hela Sverige som nation gör. Vore det inte effektivare om dessa företag reducerar sina utsläpp i stället för att ställa krav på den enskilde medborgaren? Denna fråga är också en del av allmänningens tragedi.
       Individperspektivet leder till den andra beteendeekonomiska tröskeln som kallas förlustaversion. Det innebär att människor i allmänhet sätter ett högre värde i att undvika förluster än att vinna något. Att som enskild individ reducera koldioxidutsläpp innebär för många människor att förlora privilegier och förmåner.
       Att ta ett billigt veckoslutsflyg till någon europeisk storstad, en Thailandsresa i mörka november, att ta bilen till jobbet, träningen, stormarknaden, att fortsätta äta kött – allt detta och mer därtill är privilegier och förmåner som många helst inte vill förlora, men som har stor klimatpåverkan.
       Vinsten av att förlora dessa privilegier är en minskad genomsnittstemperatur på jorden. Det är en förhållandevis abstrakt vinst i förhållande till de konkreta förluster som individer upplever om koldioxidutsläpp ska minskas. Och det är förluster människor i första hand vill undvika.
       Det är svårt att se hur flygskam eller annan social påverkan ska kunna rå på problem som allmänningens tragedi och förlustaversion.
       Det är svårt att se hur marknaden kan lösa dessa problem eftersom luften och atmosfären är allmänningar och därmed fritt att belasta för ekonomiska syften.
       Det är svårt att se någon annan lösning än nationella och internationella regelverk för acceptabla nivåer av klimatpåverkande utsläpp på samhällsnivå, organisationsnivå och individnivå.

Hälsodystopin blir verklighet

2018-12-07 09:00
Från [email protected] (P O Ågren)
Kultursidan Västerbottens-Kuriren 181207

I sin framtidsdystopi från 2010, Corpus Delicti, gestaltar den tyska författaren Juli Zeh ett framtida samhälle som bäst beskrivs som en hälsodiktatur. Eller en utopi i form av ett samhällsparadis. Allt beror på hur personlig integritet värderas och vägs mot övervakning och statsreglerad paternalism.
      Staten ålägger medborgarna att motionera, rapportera sin sömn och sitt hälsointag medelst i kroppen inopererade chip som kontinuerligt skickar data om hälsotillstånd och hälsoaktiviteter.
       Corpus Delicti är nutida arvtagare till Aldous Huxleys Du sköna nya värld och självfallet George Orwells 1984. Liksom tidigare klassiska dystopier eller utopier har Corpus Delicti bäring på samtiden. Samtidigt som detaljer kan kännas igen, är dess centrala tes otänkbar. Men är den det?

       Läs nedanstående citat från statsvetarprofessorn Göran Sundströms granskning av Arbetsförmedlingens tidrapporteringsystem på DN Debatt (26/11). Utöver att de anställda ska redovisa hur de fördelar arbetstiden på olika arbetsuppgifter (som inte är helt ovanligt), ska de även registrera andra uppgifter.
      ”De uppmanas också fylla i ’Medarbetarpulsen’, där man redan vid registreringen av sitt konto ska ange hur många koppar kaffe man dricker om dagen och om man är gift, sambo, särbo eller har ett registrerat partnerskap. Varje vecka ska man sedan ange bland annat hur man sov den senaste natten, hur stressad man är, hur stor kontroll man har över sitt liv, hur nöjd man är med sitt sociala liv, hur stämningen är på arbetet och hur stor kontroll man har över sin arbetssituation.”
       Detta sker alltså inte med en anonym medarbetarenkät, utan med autentiska personuppgifter.

       Denna registrering av anställdas privata förhållanden ska alltså följas upp av arbetsgivaren. Hur är oklart, men syftet torde vara korrigeringar där så behövs för att uppnå högre arbetseffektivitet.
       Detta är Corpus Delicti. Men året är inte 2058, som i romanen, utan 2018 i Sverige. Vare sig arbetsgivaren är stat eller privat bör vi som samhälle snarast skapa skydd mot denna form av integritetsintrång.

Farliga förfalskningar

2018-11-30 09:00
Från [email protected] (P O Ågren)
Kultursidan Västerbottens-Kuriren 181130

Att digitala bilder med olika datorprogram kan manipuleras är sedan gammalt. Allt från retuschering av människor och objekt till att byta ut människor och objekt mellan olika miljöer. Men att retuschera en fotomodells ansikte eller att placera en bil i en viss miljö i marknadsföringssyfte får inte nödvändigtvis så stora konsekvenser.
        Andra typer av ytliga förfalskningar kan emellertid få långtgående konsekvenser. I dag meddelar sig politiker sig allt mer via egna digitala kanaler, i stället för traditionella mediekanaler. Tänk bara på Donald Trump och hans envetna twittrande.
        Men inte enbart Trump. Allt fler svenska politiker meddelar sig via sociala medier, inte enbart i form av allmänna inlägg i debatten, utan även betydelsefulla beslut. Detta utgör en måltavla för de som vill skapa och sprida falska nyheter om politiker.

        När Göran Hägglund 2015 skulle avisera att han lämnade posten som partiledare för kristdemokraterna, meddelade han det på Twitter innan han meddelade det på en presskonferens.
        När riksdagen hade röstat om Ulf Kristersson som ny statsminister den 13 november, skrev han ett inlägg på Facebook och beklagade att två allianspartier hade röstat emot. Nästan samtidigt skrev Annie Lööf ett inlägg på Facebook där hon förklarade varför centern röstade emot den regeringskonstellation som Kristersson föreslagit riksdagen.
        Att skapa falska Twitter- och Facebookinlägg är dock busenkelt. Det tar några minuter. Titta på nedanstående autentiska respektive falska inlägg och se den likheten på ytan. Smärre olikheter kan alltid förklaras med att olika appar och programvaror för att läsa Twitter- och Facebookinlägg genererar olika utseenden i viss utsträckning.







Övre bilden: en skärmdump av ett autentiskt Facebookinlägg. Nedre bilden: ett av artikelförfattaren förfalskat Facebookinlägg.

Hur avslöjar vi ytliga förfalskningar? Den källkritiska metoden är naturligtvis att undersöka varje inläg som sprids i form av skärmdumpar, för att se om inlägget går att finna hos upphovspersonen. Å andra sidan; om ett falskt inlägg ser autentiskt ut och samtidigt bekräftar någons förutfattade mening, minskar benägenheten att kolla källan.
        När det gäller djupa förfalskningar blir det ännu svårare. Det finns självlärande AI-teknik som i ett filmklipp kan visa en person som säger det en annan person säger med mimik och kroppsspråk som skapar en hög grad av autenticitet. Det ser helt enkelt trovärdigt ut att den person som syns i videon också uttrycker vad en annan personen säger. 
        AI-programmet behöver i storleksordningen 1 000 bilder av den person vars uttalande ska förfalskas. Tillsammans med det inspelade uttalandet formar AI-programmet ett nytt videoklipp med en autentisk person som uttrycker ett falskt innehåll.
        Det bästa exemplet jag hittills sett är när Jordan Peele låter Barack Obama hålla ett anförande under någon minut, där det är Peeles ord som Obama uttalar. Ju bättre dessa AI-program kommer att bli, desto svårare blir det att ens misstänka att ett videoklipp är en djup förfalskning.




Bild från en video där Barack Obama säger vad Jordan Peele har instruerat ett AI-program att Obama ska säga så autentiskt som möjligt.

Hur avslöjar vi djupa förfalskningar? Frågan är om en människa ens är kapabel till det i framtiden. I USA har man myntat begreppet och forskningsområdet Media Forensics (ungefär medial kriminalteknik). 
        Det innebär att försöka skapa AI-program som undersöker videoklipp med avseende på digitala fingeravtryck (digitala spår hos videoklippet), fysisk överensstämmelse i videon (om personer och objekt och miljöer stämmer överens) och semantisk rimlighet (är det rimligt att personen på videon säger det den säger).
        Ett exempel är en forskargrupp som har noterat att djupa förfalskningar ofta saknar ögonrörelser och blinkningar, eftersom vi sällan publicerar bilder av människor med slutna ögon. Att identifiera frånvaro av blinkningar kan vara ett sätt att avslöja falska videoklipp. Å andra sidan kommer sannolikt motdraget blixtsnabbt: man låter AI-tekniken forma rimliga ögonrörelser och blinkningar.
        Om vi inte lyckas avslöja djupa förfalskningar kan det få stora konsekvenser i framtiden. Ett exempel: Säg att du vill ha en falsk video som visar att P O Ågren rånar en bensinmack. Då instruerar du en AI-maskin genom att mata den med bilder på P O Ågren och en bensinmack i olika vinklar så att en till synes övervakningsvideo framträder. Därefter ser du till att rättsväsendet nås av videon.
        I dag kan en åklagare visa en övervakningsvideo som bevis för ett rån. I morgon kommer den tilltalade att hävda att övervakningsvideon är en djup förfalskning. Kommer övervakningsvideos att ha något bevisvärde i framtiden?
        Kommer vi överhuvudtaget att kunna ha tillit till bilder, stilla eller rörliga, i framtiden? Om inte, vad betyder den förlusten?

69 teknikfilosofiska fragment

2018-10-29 08:26
Från [email protected] (P O Ågren)
Jag har likt många andra universitetslärare publicerat monografier, antologikapitel, tidskriftsartiklar, konferensbidrag, essäer, essäsamlingar, kulturkritik – men inte aforismer eller fragment. Akademiska aforismer? Boken "69 teknikfilosfiska fragment" är ett försök att närma mig denna genre från akademiskt håll. Boken finns självfallet för fri nedladdning. Boken finns även att köpa på Adlibris, Bokus, CDON och Amazon.


69 teknikfilosofiska fragment är en samling kortfattade, rent av fragmentariska utsagor som alla uttrycker något teknikfilosofiskt som Per-Olof Ågren finner väsentligt att reflektera över.

I denna samling av teknikfilosofiska fragment söker Per-Olof Ågren ett format där aforismer formas dels med utgångspunkt i klassiska teknikfilosofer som exempelvis Martin Heidegger och Paul Virilio, mediefilosofer som exempelvis Jean Baudrillard och Vilém Flusser liksom andra tänkare som på olika sätt har berört teknikfilosofi, dels med utgångspunkt i Per-Olof Ågrens egna teknikfilosofiska tänkande.

Valkampanjers effekt: Noll!

2018-08-17 09:00
Från [email protected] (P O Ågren)
Kultursidan Västerbottens-Kuriren 180817

Så har valrörelsen startat på riktigt, med plakat längs vägar, affischer på bussar, valstugor på torgen, valtal och debatter. Sannolikt är det främsta syftet med dessa aktiviteter är att övertyga väljare att rösta på det egna partiet, särskilt de väljare som inte tidigare röstat på det partiet.
       Då blir det intressant att fråga sig i vilken utsträckning det är möjligt att övertyga människor att ändra uppfattning och byta parti genom politiska kampanjer och annonser genom affischering och plakat.
        Två amerikanska forskare har i tidskriften American Political Science Review (nr 1, 2018) publicerat en stor studie, där de undersöker hur mottagliga amerikanska väljare är inför politiska kampanjer och politisk annonsering. De har gjort en metaanalys, det vill säga sammanställt forskningsresultat av tidigare studier, samt genomfört fältexperiment, i syfte att utröna i vilken effekt kampanjer och annonsering har på väljare.
        Sällan har jag sett forskningsresultat så tydligt presenterat: Effekten är noll, hävdar forskarna. Varken politiska kampanjer eller politisk annonsering påverkar väljarna att byta politisk uppfattning och därmed rösta på någon annan kandidat eller parti än det väljaren sedan länge har för avsikt att rösta på.
        En lite märklig del av resultatet är att det går att uppfatta övertalningseffekter på väljare om den politiska kampanjen sker relativt långt innan valdagen, men att denna effekt avtar ju närmare valdagen man kommer. Valkampanjer långt innan valdagen kan alltså generera nya överväganden hos väljare, men att dessa överväganden försvagas närmare valdagen.

Dessa forskare är emellertid noga med att hävda att de har enbart studerat politiska kampanjers övertalningseffekt hos väljare, inte om politiska kampanjer kan ha andra positiva effekter. Politiska kampanjer kan ha andra syften än att ändra väljares övertygelse. De kan exempelvis väcka röstviljan hos soffliggare.
        För att motivera kostnaden för all politisk annonsering och kampanjer, borde politiker med denna studie i ryggen, formulera andra syften än att ändra väljares politiska uppfattning.
        Vad jag inte lyckas utläsa ur studien är påverkanseffekter på de som vi i Sverige kallar osäkra väljare; de som inte bestämmer sig förrän strax innan – eller på – valdagen. Vore inte ändå denna väljargrupp, som inte har någon tydlig preferens, mottagliga för politiska kampanjer?
        Och om det inte är politiska kampanjer och annonsering som förändrar människors politiska preferenser, vilka metoder fungerar i så fall?

Vad kontrolleras i smarta hem?

2018-08-11 09:00
Från [email protected] (P O Ågren)
Kultursidan Västerbottens-Kuriren 180811

Allt fler tekniska apparater i hemmen blir allt smartare, i betydelsen att de förses med datorkraft och uppkoppling till internet. Smarta termostater som kan regleras med en app i mobiltelefonen, kameror såväl inne som ute, sensorer som mäter olika saker, kylskåp, kaffemaskiner, belysning, eluttag, musikspelare, tvättmaskiner, torktumlare – allt kan övervakas, regleras och kontrolleras på distans via mobiltelefon och dator.
        Frågan är om det enbart är dessa smarta apparater som kontrolleras. 
        New York Times publicerade i sommar ett reportage där 30 personer intervjuades. Dessa har antingen själva utsatts för våld i hemmet eller i olika sammanhang mött utsatta människor i sin profession. 
        Under senare år finns allt fler vittnesmål om att de män som utövar våld i hemmen har fått nya och effektiva verktyg för att kunna utöva kontroll, skrämma och demonstrera sin makt – även när våldsutövaren inte är hemma. Och ja, i detta reportage är de utsatta kvinnor och utövarna män.
        
Vittnesmålen handlar om högtalare som plötsligt spelar hög musik, dörrklockor som ringer utan att någon står utanför dörren, termostater som ändrar temperatur, ljus som tänds, släcks och varieras – och med kameror kan våldsverkaren på distans övervaka sitt offer i hemmet. 
        Även om inte fysiskt våld utövas, blir detta en form av obehaglig maktassymmetri. Det är rimligt att föreställa sig att en majoritet av de som installerar denna form av teknik i hemmen är män och således behåller män kontroll över apparaterna. Och med kontroll över tekniken kan mycket mer kontrolleras – partnern. 
        Men är det inte bara för den utsatta att avinstallera eller koppla från dessa apparater? Nej, det finns åtminstone två problem. Det ena är att den utsatta partnern kan ofta inte hantera tekniken. Det andra problemet är att om partnern kan och faktiskt stänger av apparaterna, märker den kontrollerande partnern det och därmed kan konflikten och eventuellt våld eskalera.
        Tanken med all denna smarta teknik är ju att underlätta och effektivisera vardagssysslorna. Med detta reportage får i varje fall jag en ny insikt i hur Internet of Things kan användas för övervakning och kontroll i hemmen.
        Betydelsen av en jämlik tillgång till hemmets tekniska funktioner kan inte nog understrykas.

När AI-tekniken knackar på demokratins dörr

2018-05-29 09:00
Från [email protected] (P O Ågren)
Kultursidan Västerbottens-Kuriren 180529

Demokrati är ett tillstånd vi aldrig når, utan något vi ständigt strävar mot. Det är därför så många uttrycker att demokratin ständigt måste erövras. ”Det har sagts att demokrati är den sämsta styrelseformen som har prövats, bortsett från alla de övriga formerna som prövats genom tiderna”, är ett klassiskt citat från Winston Churchill i ett tal i underhuset 1947.
       Vad citatet säger är att i takt med samhällets ständiga förändring och människans kunskapsutveckling, måste också våra demokratiska former ständigt diskuteras och utvecklas.
        I internets barndom ställde sig många libertanianer på barrikaderna och ropade på direktdemokrati. Om varje medborgare har tillgång till internet, kan alla politiska spörsmål bli föremål för medborgares omröstningar. Politiker skulle blir förvaltare av medborgares beslut.
        I ett något mognare stadium i internets utveckling började man diskutera deliberativ demokrati; en uppfattning om demokrati som utgår från att medborgare deltar i diskussioner kring politiska frågor. Här betonades samtalets och argumentens betydelse för demokratiska beslut, där internets mångfald av platser för samtal skulle kunna realisera denna demokratimodell.
        Bägge demokratimodellerna söker förbättringar till den rådande representativa demokratin, som ofta beskylls för att bli allt mer expertstyrd och för att ge medborgarna alltför litet inflytande: endast en röst var fjärde år.
        Problemen med direktdemokrati är emellertid att många frågor som medborgarna ska rösta om är alltför komplexa för att en genomsnittlig medborgare ska hinna sätta sig in i vid sidan av heltidsarbete och familjeliv. Dessutom försvåras ansvarstagandet; medborgarna kan inte ställas till ansvar för sina beslut, vilket politiker i en representativ demokrati kan.
        Problemen med den deliberativa demokratimodellen är att samtalen i de sociala medier som har växt fram inte har de kvaliteter som denna demokratimodell förutsätter. Det är ständigt medvetna missförstånd och yrkestroll på Twitter. Det är homogena intressegrupper på Facebook som inte tillåter meningsutbyten. Och på de mer anonyma forumen som Flashback och Reddit frodas rasism och konspirationsteorier.
        Det är lätt att landa i slutsatsen att informationsteknik inte kan bidra till demokratisk utveckling. Men samtidigt som tekniken förnyas, förnyas även idéer om hur tekniken kan bidra till demokrati.

Cesar Hidalgo leder en forskargrupp som arbetar med kollektivt lärande och komplexitet vid MIT Media Lab. Han vill finna former för att använda IT för att utveckla demokratin bortom den representativa demokratin. I tidskriften Fast Company sammanfattas hans idé. ”Demokrati har ett uselt användargränssnitt”, hävdar Hidalgo. Hans utgångspunkt är de demokratiska församlingarnas låga valdeltagande.
        För presidentval i USA brukar valdeltagande vara runt 60 procent. Valdeltagandet i det senaste EU-valet var drygt 42 procent. Vid det senaste presidentvalet i Frankrike var valdeltagandet 48 procent. Sverige sticker ut, där närmare 86 procent av de röstberättigade röstade i senaste riksdagsvalet.
        Ett lågt valdeltagande är ett problem för den representativa demokratin i det att politiker representerar allt färre människor. I förlängningen riskerar vi att förtroendet för demokratin eroderar.
        Den erosionen har redan börjat. En undersökning som svenska studieförbunds branschorganisation gjorde 2017 visar att nästan varannan person i Sverige mellan 18 och 29 år förederar att landet styrs av experter än av folkvalda politiker. 

Liksom många andra IT-forskare fokuserar Hidalgo på AI-teknikens snabba utveckling. Självlärande, adaptiva algoritmer har under de senaste åren blivit allt mer kapabla att känna igen människors beteenden och identifiera våra preferenser. Tekniken blir dessutom allt bättre på prediktion, det vill säga att förutse händelser och handlingar.

        Därför, menar Hidalgo, borde varje medborgare ha en egen digital agent som samlar all data om medborgaren utifrån dennes förehavandet på sociala medier, sökmotorer, webben, eposten, ja, all internetanvändning.
        Denna digitala agent skulle med tiden bli utomordentligt skicklig på att förutse vad den enskilde medborgaren har för åsikt eller preferens när det gäller ett visst politiskt förslag, utan att medborgaren själv tvingas komma underfund om sin uppfattning. Medborgaren behöver enbart förmedla agentens uppfattning dit den efterfrågas.
        Sådana digitala agenter kan användas dels för direktdemokratiska syften, i form av röster i beslut, dels för politiska representanter för att förstå folkviljan i olika frågor.
        Kvaliteten hos dylika digitala agenter som känner medborgaren bättre än medborgaren själv, är att dessa agenter inte reagerar känslomässigt, lynnigt eller impulsivt, såsom människor ofta kan göra.

Hidalgos idé om digitala agenter skulle även motverka några av dagens demokratiska problem. Det skulle inte vara meningsfullt för trollbotar att invadera Twitter med falska nyheter i syfte att påverka ett lands medborgare inför ett val. De digitala agenterna skulle inte på kort sikt påverkas av dylika aktiviteter.

        Inte heller skulle företag som Cambridge Analytica finna det rimligt att samla in en mängd persondata från Facebook och andra sociala medier för att rikta politisk information eller desinformation till medborgarna. De digitala agenterna motstår sådant.
        Problem finns förstås. Det största stavas säkerhet. Kan sådana virtuella agenter hackas och planteras med falsk persondata som förändrar medborgarens politiska preferenser?
        Ett annat problem handlar om ansvar. Även om agenterna inte levererar direktdemokratiska beslutsröster, kommer det att upplevas lätt för medborgare att inte känna sig ansvariga eller delaktiga i samhällsutvecklingen. Det var ju den virtuella agenten som röstade eller uttryckte en politisk uppfattning, inte medborgaren, även om det var medborgarens egen agent.
        Dessa och andra fördelar och nackdelar torde vi behöva överväga när AI-tekniken på allvar knackar på den demokratiska dörren.

Karaktären gör AI-tekniken genomskinlig

2018-04-10 09:00
Från [email protected] (P O Ågren)
0 false 21 18 pt 18 pt 0 0 false false false /* Style Definitions */ table.MsoNormalTable {mso-style-name:"Normal tabell"; mso-tstyle-rowband-size:0; mso-tstyle-colband-size:0; mso-style-noshow:yes; mso-style-parent:""; mso-padding-alt:0cm 5.4pt 0cm 5.4pt; mso-para-margin-top:0cm; mso-para-margin-right:0cm; mso-para-margin-bottom:10.0pt; mso-para-margin-left:0cm; mso-pagination:widow-orphan; font-size:12.0pt; font-family:Cambria; mso-ascii-font-family:Cambria; mso-ascii-theme-font:minor-latin; mso-fareast-font-family:"Times New Roman"; mso-fareast-theme-font:minor-fareast; mso-hansi-font-family:Cambria; mso-hansi-theme-font:minor-latin;}
Kultursidan Västerbottens-Kuriren 180410

Det har skrivits spaltmil om vad som hände i relationen mellan Facebook och Cambridge Analytica. Denna essä ska inte öka dessa textmassor, utan lyfta en generell fråga ur dessa spaltmil och försöka förstå hur vi bör hantera den i en nära framtid.
         Redan på 1990-talet började vi ställa frågan hur vi bör utvidga vår förståelse för datorn som teknisk artefakt. Det räckte inte att inte enbart förstå datorns generella tekniska funktionalitet, det vill säga hur datorn löser sina problem. Inte heller att enbart förstå hur olika programvaror fungerar, det vill säga hur datorn kan lösa mina problem.
         Man frågade sig bland annat hur olika datorsimuleringar fungerade; hur olika manipulerbara modeller byggdes för att simulera olika planeringsprocesser, designprocesser, ekonomiska processer och liknande.
         Det talades om en simuleringskultur, där det var av största vikt att kunna ”läsa” simuleringar. Med det avsågs att förstå vilka antaganden och värderingar som fanns inbyggda i olika manipulerbara modeller, som användes som beslutsunderlag i olika verksamheter.
                     
På en generell nivå lyfts samma fråga i affären Facebook vs Cambridge Analytica. Inte enbart Facebook, utan alla sociala och andra medieaktörer som agerar på internet måste öka sin transparens; visa med större genomskinlighet vilka personuppgifter som samlas in, lagras och används av dem själva eller av någon annan aktör.
         Det är lätt att skapa transparens för ett statiskt innehåll eller för statiska processer. Inom en snar framtid kommer emellertid allt fler tekniska system att vara självlärande och adaptiva. Vi har sett dessa tendenser en tid; Google, Facebook, Netflix med flera går i bräschen för att deras algoritmer hela tiden ska anpassa sig efter den enskilde användarens beteende.
         Googles sökresultat anpassas efter användarens sökbeteende, Facebooks annonser utformas utifrån användarens intressen, Netflix filmtips utgår från tittarens tidigare konsumtion. Allt fler tekniska system bygger in adaptiva förmågor.
         Om det vi vill kunna se i transparenta tekniska system är statt i ständig förändring, i det att systemens omgivning förändrar systemens beteende, måste vi skapa en ny föreställning om hur vi uppnår transparens.
         Frågan för denna essä är hur vi ska designa transparens i AI-baserad, självlärande teknik när tekniken hela tiden anpassar sina algoritmer och därmed sitt beteende utifrån den omgivning tekniken verkar inom.

Varför är transparens viktig? Det främsta syftet med transparens är att skapa förutsebarhet; att uppfatta både hur teknik kommer att agera i olika situationer och vilka konsekvenser våra interaktioner med teknik får.
         Jag föreslår att använda begreppen roll och karaktär för att förstå transparens. Tidigare har vi uppnått transparens genom att ge tydliga roller till olika programvaror. Vi vet vad vi kan förvänta oss av ordbehandlingsprogram, kalkylprogram, mejlprogram, webbläsare och liknande. Om vi vill uppnå transparens till adaptiva, självlärande tekniska system, kan vi överväga att utveckla dessa systems karaktär, eftersom rollerna är stadda i förändring.
         Socialpsykologen Johan Asplund har rett ut begreppen roll och karaktär för oss människor i boken Det sociala livets elementära former (Korpen). Med begreppet roll avses att krav, riktlinjer och förutsättningarna för en människas agerande är givna; skrivna av någon annan med syftet att vara stabila över tid. Den som agerar i en viss roll är därmed förutsebar.
         Med karaktär avses att människan själv utformar och bestämmer restriktionerna för sitt handlande utifrån såväl sitt omdöme, som de situationer människan kastas ut i.
                     
Vad vi ser med framtidens självlärande AI-system är att de ges utrymme att inte enbart agera utifrån det manus som någon har skrivit (läs: programkod), utan att dessa AI-system också i högre grad får bestämma sina egna restriktioner för sitt handlande (läs: skapa ny programkod).
         Det innebär, med Johan Asplunds begrepp, att AI-system successivt går från att vara en abstrakt teknik som agerar helt instrumentellt, till att bli en konkret aktör som själv ges utrymme att forma sitt agerande.
         Vi kan reflektera över hur vi förutser en människas handlingar. Ta läraryrket som exempel. Alla lärare har självfallet en roll som de måste agera inom; de regler och restriktioner som är föreskrivna av skollagar, läroplaner och lokala föreskrifter.
         Om alla lärare enbart skulle agera som rollinnehavare, skulle alla lärare vara lika varandra. Så är inte fallet. Lärare vi haft och lärare vi känner, är alla olika, trots att de agerar inom likartade roller. Olikheter består i att de har utvecklat sina karaktärer på olika sätt.
         Studenter som läser en kurs med en viss lärare kan med största sannolikhet förutse olika handlingar som inte beror på de regelverk läraren är skyldig att efterleva, utan som beror på de karaktärsdrag läraren har utvecklat. Det är i högre grad lärarens karaktär som gör denne transparent än den rollbeskrivning läraren har att följa.
         Vill vi ha förutsebara AI-system i framtiden, kan karaktärsutveckling vara en fruktbar designinriktning. Det är i karaktärsdragen adaptiva AI-system blir förutsebara.

Alan Turing framlade de idémässiga grunderna för artificiell intelligens. Med det så kallade Turingtestet skulle man kunna avgöra om man lyckats skapa artificiell intelligens.
         Om man interagerar med en maskin och inte kan uppfatta om det är en maskin eller en människa har maskinen mänsklig, artificiell intelligens. Artificiell intelligens har alltid uppfattats som mänskligt efterliknad intelligens.
         Ett helt annat tankespår skulle vara att skapa maskinintelligens som inte har mänsklig intelligens eller mänskligt beteende som förebild. Men då måste vi skapa ett helt annat sätt att se igenom maskinerna.
         En fördel med att efterlikna mänsklig intelligens och beteende är igenkänning; vi vet mycket om människans intelligens och beteende. Om maskinintelligens utan mänsklig förlaga vet vi inte mycket. 

Djupa förfalskningar större hot än falska nyheter

2018-02-27 08:30
Från [email protected] (P O Ågren)
Kultursidan Västerbottens-Kuriren 180227

Valåret 2018 har inletts. Det märks inte främst på en ökad mängd politiska utspel än så länge, utan på att samhället försöker förbereda sig på olika hotbilder mot valet. På SVT:s nyhetssajt listas de fyra främsta hoten mot valet 2018. 
       Ett hot är påverkan från främmande makt. Med erfarenheter från val i andra länder kan det inte uteslutas att någon främmande makt försöker påverka valet i något avseende.
        Ett annat är hot mot politiker. Ju mer polariserad den politiska debatten blir, desto mer ökar risken för hot och våld mot politiker.
        Ett tredje är extrema politiska rörelser, såväl till höger som till vänster, som i sina extremaste uttryck kan utgöra brottslighet.
        Det fjärde är falska nyheter i sociala medier, där en väsentlig anledning till att skapa och sprida falska nyheter är att förstärka politiska motsättningar som i sin tur försvagar demokratin.
        För att motverka det fjärde hotet – spridning av falska nyheter – har fyra stora medieaktörer gått samman för ett samarbete mot spridning av falska nyheter. Det är initialt Dagens Nyheter Svenska Dagbladet, Sveriges Radio och Sveriges Television som kommer att arbeta enligt gemensamma principer för att faktagranska påståenden i sociala medier och presentera materialet på en gemensam webbplats.
        Fler medieaktörer är välkomna under förutsättning att de arbetar efter samma riktlinjer. Projektet understöds ekonomiskt till viss del av Vinnova, Sveriges innovationsmyndighet, som ger ekonomiska bidrag till innovations- och forskningsprojekt.

Denna essä berör detta fjärde hot. I vilken utsträckning förekommer falska nyheter? Vilken spridning får de? Vilken påverkan har falska nyheter på människor? Alldeles nyligen har studier publicerats kring förekomsten av falska nyheter dels i anslutning till presidentvalet i USA 2016, dels i några europeiska länder.
        Tre amerikanska statsvetare publicerade i januari 2018 en studie som ger en första bild av konsumtionen av falska nyheter i samband med presidentvalet i USA 2016. De analyserade ett representativt urval om 2 525 anonyma amerikaners trafikdata på webben.
        Forskarna uppskattar att ungefär 25 procent av amerikanerna besökte någon gång en webbplats som publicerar falska nyheter. Dock var en majoritet av dessa webbplatser förespråkare för Donald Trump och följaktligen var webbplatsernas besökare främst Trumpanhängare. 60 procent av alla besök på webbplatser med falska nyheter gjordes av de 10 procent amerikaner med den ”mest konservativa informationsdieten”, som forskarna uttrycker det. Räckvidden är således inte särskilt stor för falska nyheter.
        Studien visar också att äldre amerikaner, över 60 år, var betydligt mer benägna att besöka webbplatser med falska nyheter, än yngre amerikaner. I rapporten slås också fast den stora betydelse Facebook har för att rikta amerikaners uppmärksamhet till falska nyheter.
        Forskarna har enbart studerat falska nyheter som publiceras på webbplatser. Ytterligare studier kommer med största sannolikhet även att göras på andra sociala medier. Där tänker jag främst på Twitter, där möjligheten att skapa så kallade botar som automatiskt kan sprida desinformation är stor.

En liknande studie som den ovanstående har gjorts i Europa, av fyra medieforskare vid Oxford universitet. I denna studie mäts vilken räckvidd falska nyheter har i Frankrike och Italien. 300 webbplatser som publicerar falska nyheter har jämförts med stora nyhetswebbar såsom Le Figaro i Frankrike och La Repubblica i Italien.
        Under 2017 besöktes ingen av webbplatserna med falska nyheter i genomsnitt av mer än en procent per månad av den uppkopplade befolkningen i såväl Frankrike som Italien. Det ska jämföras med Le Figaro, som i genomsnitt per månad når 22,3 procent, respektive La Repubblica, som når 50,9 procent av den uppkopplade befolkningen.
        Forskarna mätte även hur lång tid besökare uppehöll sig på de olika webbplatserna. De mest populära webbplatserna för falska nyheter i Italien besöktes i genomsnitt under 7,5 miljoner minuter per månad och i Frankrike var motsvarande siffra 10 miljoner minuter.
        Även här jämför forskarna dessa mått med den tid besökare uppehåller sig vid etablerade nyhetswebbar. På Le Mondes webbplats spenderade användare i genomsnitt 178 miljoner minuter per månad och motsvarande siffra för La Repubblica var 443 miljoner minuter.

Vad dessa två studier sammantaget visar är att det finns många webbplatser som sprider falska nyheter i USA och i Europa, men att falska nyheter har låg spridning och dessutom till en liten del av befolkningen.
        Det är naturligtvis intressanta resultat. Vad studierna inte säger något om, däremot, är utvecklingen över tid. Minskar eller ökar falska nyheter i omfattning? Minskar eller ökar andelen människor som tar del av falska nyheter? Och framför allt: Övertygas de människor som tar del av falska nyheter om att de är korrekta?
        Vi bör inte låta dessa studier invagga oss falsk säkerhet. De som formulerar och sprider falska nyheter utvecklar med största sannolikhet sin kompetens att göra detta.

Ett hot mot demokratin som hittills inte talats så mycket om, förrän Computer Sweden nyligen skrev om det, är deep fake. Det kan översättas med djupa förfalskningar. Någon har lyckats skapa ett självlärande AI-program som kan byta ut en person mot en annan i ett filmklipp med bra resultat.
        Programmet behöver 500-1 000 olika bilder på en person i olika vinklar för att programmet ska kunna byta ut denne person mot en annan person i ett filmklipp, så att det ser ut som den falske personen uttrycker det den utbytte personen säger.
        Snart kan vi alltså se en politiker göra falska påståenden utan att vi enkelt kan se att politikern ersatt en annan person och dennes uttalanden.
        Kombinationen av deep fake och falska nyheter ter sig mer skrämmande än enbart falska nyheter, eftersom här läggs till en retorisk styrka i form av en till synes autentisk person som hävdar osanningar.
        Deep fake utmanar de medieaktörer som arbetar för att motverka falska nyheter ytterligare.

Flytande intelligens och intelligenta maskiner

2018-01-23 08:30
Från [email protected] (P O Ågren)
Kultursidan Västerbottens-Kuriren 180123

Nyligen publicerades en studie av James Flynn och Michael Shayer i tidskriften Intelligence, där de visar att intelligenskvoten (IQ) sjunker i de nordiska länderna. Det är ett trendbrott. Några orsaker till denna nedgång formuleras inte, även om debattörer gärna pekar på problem i skolans undervisning och på ökad migration som tänkbara förklaringar till nedgången.

         Samtidigt har idén om IQ som det allenarådande måttet på intelligens ifrågasatts från många håll. Daniel Goleman skrev redan 1995 boken Känslans intelligens, och banade med den vägen mot en diskussion om begreppet EQ: emotionell intelligens. I dess kölvatten har andra intelligensbegrepp formulerats: Holistisk intelligens (HQ), social intelligens (SQ).
         Psykologen Howard Gardner blev känd för att formulera nio olika intelligenstyper: Logisk-matematisk, lingvistisk, spatial/visuell, musikalisk, kroppslig, social, självkännedom, existensiell samt naturintelligens.
         Kvaliteten med det traditionella IQ-begreppet är att det under lång tid har utvecklats mätmetoder. Och omvänt, kritiken mot de andra intelligenstyperna är att de är svårare att mäta. Och i en kultur där mätning och jämförelse är det högsta, befäster naturligtvis det som lättast låter sig mätas sin ställning.
         Trots detta vill jag försöka diskutera ytterligare former av intelligens. Tesen för denna essä är att vi behöver inleda en diskussion kring vilken slags intelligens, vilka kunskaper och förmågor, vi behöver för att kunna skapa ett kvalificerat samarbete mellan människor och intelligenta maskiner i framtiden.

I deras nya bok Machine, Platform, Cr0wd (2017) argumenterar Andrew McAfee och Erik Brynjolfsson för att människor och maskiner måste bli bättre på att arbeta tillsammans.

         I takt med att datorer kan hantera allt större datamängder, att datorers artificiella intelligens ökar med allt mer kvalificerade algoritmer och att datorer i allt högre grad blir självlärande, måste människors kapaciteter anpassas till denna tekniska förändring.
         Det optimala är inte intelligenta maskiner som gör vårt jobb, eller att vi fortsätter utföra uppgifter som maskiner kan utföra bättre – det optimala är att skapa det goda samarbetet mellan människa och maskin.
         Brynjolfsson och McAfee menar att människans främsta förmågor fortfarande överträffar datorers: intuition, kreativitet, omdömesförmåga och, vill jag tillägga, förmågan att formulera värdebaserade mål för olika verksamheter.

I boken Liv 3.0 närmast postulerar den svenske fysikern Max Tegmark att maskiner inte kan ha några mål med vad helst de gör. Vi kan däremot alltid implementera mål i maskiner som de ska uppnå, men maskiner kan inte själva avgöra vilka mål som är goda eller lämpliga.

         I sin framtidsdiskussion skiljer emellertid Tegmark mellan ”vänlig AI” och ”superintelligent AI”. Med ”vänlig AI” menar han att vi konstruerar maskiner vars målinriktade handlande är helt anpassat till människors mål. Med ”superintelligent AI” avses maskiner med potentiell kapacitet att formulera egna mål och därmed kontrollera människan.
         Från att under lång tid uppfattat vår relation till datorer som fast, där datorer är kontrollerbara verktyg, är det inte otänkbart att vår relation till datorer blir allt mer flytande.

Begreppet flytande är helt i sociologen Zygmunt Baumans anda. Bauman var en synnerligen produktiv sociolog som gick bort 2017. Under slutet av 1900-talet utforskade han samhället genom postmodernismens glasögon. Under 2000-talet kastade han ut det postmoderna och ersatte det med begreppet flytande, för att förstå det nya milleniets samhällsutveckling.

         Han inledde med boken Liquid Modernity, där han menar att ett flytande samhälle karakteriseras av avregleringar och privatiseringar, av att allt som tidigare föreföll fast i givna strukturer nu flyter i en värld av kommersiella aktörer på en konkurrensutsatt marknad.
         Därmed, menade han i boken Liquid Life, blir ett flytande liv i ett flytande samhälle allt mer osäkert och oförutsägbart. Förmågor i dag kan vara oförmågor i morgon. Erfarenheter har ett bäst-före-datum, även om det inte går att förutsäga detta datum.
         Privatlivet smittas, skriver han i Liquid Love, av den ständiga rörelsen, genom att kärleksförhållanden får allt svagare band; svagare förpliktelser, svagare löften. Kärleken flyter så lätt i väg, när dess båtshakar inte har något fast att kroka i.
         Med ett sista exempel har Bauman även tagit den flytande metaforen till människans inre psykologi. I boken Liquid Fear pekar han på de rädslor som människor upplever i ett flytande samhälle, där trygghetsskapande element försvinner eller luckras upp. Organisering, rutinmässighet och förutsägbarhet är sådana element. Flytande rädsla är rädslan för de faror som inte kan förutses eller kalkyleras eller ens uppfattas.

För att bli skicklig på att utföra uppgifter i samarbete med intelligenta maskiner föreslår jag att vi tar upp tråden kring flytande intelligens. Redan på 1960-talet formulerade Raymond Cattell två intelligenstyper: kristalliserad och flytande intelligens.

         Med kristalliserad intelligens avsågs förmågan att använda tidigare förvärvad kunskap och erfarenhet för att lösa problem. Med flytande intelligens avsåg Cattell förmågan att förstå uppkomna situationer oberoende av tidigare kunskap och erfarenhet samt att kunna lösa problem i sådana situationer.
         I ett samhälle där allt mer flyter, och där maskiners intelligens utvecklas i högt tempo, skulle en flytande intelligens kunna bli mer önskvärd. I en tillvaro där vi allt mer kan lämna informationslagring och -bearbetning samt logisk slutledning till maskiner, bör vårt bidrag vara något annat.
         Kan vårt bidrag vara förmågan att skapa nya former av samarbeten med intelligenta maskiner, med samarbetsformer som vi inte tidigare har känt till?
         Bör vi i så fall försöka utveckla människors flytande intelligens?

Vilka är människorna bakom vidrigheterna på nätet?

2018-01-05 09:00
Från [email protected] (P O Ågren)
Kultursidan Västerbottens-Kuriren 180105

Så här i nyårstider publiceras årskrönikor och listor över bästa och sämsta händelser från året som gått. Det brukar vara traditionella teman som politiska händelser, film, musik, litteratur och sporthändelser. I år har vi emellertid fått se en något annorlunda årslista.
        Utöver att vara handbollsproffs och juriststudent, står Linnéa Claeson bakom instagramkontot Assholesonline, där hon visar exempel på det näthat, sexuella trakasserier och kränkningar hon ständigt utsätts för. Och hon gör det med humor.
        På nyårsaftonen postade Linnéa Claeson en lista över de förolämpningar, trakasserande uttryck och grova sexuella hot som hon har fått via mejl, sociala medier eller annan elektronisk kommunikation.
        Det går naturligtvis inte att räkna upp alla dessa här, av två skäl. Dels är de för många för att få plats, dels är de för grova för att tryckas. Några exempel är de vanliga misogyna uttrycken: hora, slampa, spermaluder, liksom de vanliga attributen för feministiska kvinnor: feminazi, manshatare, batikhäxa.
        Till dessa kommer alla de sexuella hot som hon får ta emot; vad män tycker att de själva, eller andra män, bör göra med hennes kropp. Det är så vidrigt att det inte går att skriva.

Vad är detta för slags människor som skriver detta till Linnéa Claeson och andra kvinnor på nätet? En färsk vetenskaplig studie av Natalie Sest och Evita March i tidskriften Personality and Individual Differenses försöker ge svar på den komplexa frågan.

        Med olika psykologiska metoder har de studerat vilka psykologiska egenskaper så kallade cybertroll har. Underlaget är 415 personer som har besvarat ett antal frågor som med olika metoder mäter former av psykopati, sadism och empati.
        Studiens resultat är i korthet att det typiska cybertrollet karakteriseras av att vara man, att ha en läggning för psykopati och sadism samt ha en svagt utvecklad affektiv empati, vilket innebär att man har svårt att erfara, internalisera och respondera på andra människors känslor.
        Däremot uppvisar cybertrollet en hög grad av kognitiv empati, vilket innebär att man har god förmåga att uppfatta och förstå andra människors känslor. Det gör cybertrollet till en skicklig manipulatör som förstår vilka negativa emotionella effekter cybertrollets handlingar får.

Vad kan kunskap från denna och andra studier av kränkande människors beteende på nätet leda till? Sest och March menar att desto bättre vi kan profilera dessa förövare, ju bättre bör vi kunna skapa både utbildningsinsatser och särskilda åtgärdsprogram för människor som begår denna typ av brott.

        Då måste vi först identifiera dem. I Sverige har vi den nystartade organisationen Näthatsgranskaren, som anmäler hat och hot i sociala medier. Enbart under 2017 gjordes cirka 600 polisanmälningar, där förövarna är möjliga att identifiera och lagföra. På lång sikt bör organisationer som denna få effekt.
        På kort sikt bör vi på bästa möjliga sätt solidarisera oss med Linnéa Claeson och andra som utsätts för cybertroll.