Kuva: Topias Dean, Sitra

Publicerad 08.01.2019

Hur kan teknologi användas på fel sätt?

Ibland har nya tjänster, produkter och teknologi överraskande biverkningar. Tänk om man som utgångspunkt för framtidsfunderingarna skulle ta hur teknologin kunde användas på ett annat sätt än vad den som utvecklat den hade tänkt?
Författare
Ledande Expert, Förutsägelse, Sitra
Mikko Dufva är Sitras framtidsexpert. Han arbetar med att studera framtidens trender, spänningar mellan dem och visioner om framtiden.

När man funderar på framtiden tänker man ofta att saker kommer att gå smidigt och att människor kommer att bete sig förhållandevis rationellt eller på samma sätt som man själv skulle bete sig i en idealisk situation. Verkligheten är vanligtvis lite märkligare och diffusare. Människor använder ny teknologi och produkter på sätt som ingenjörerna inte har tänkt på. Dessutom har teknologin överraskande och icke önskvärda följder, i synnerhet när den blir allmännare. För att kunna förbereda sig på mer överraskande användningsändamål och vid behov förebygga dem, är det nyttigt att se över sakerna utifrån hur de missbrukas och utifrån deras biverkningar.

Oavsiktliga följder av digitaliseringen

Det utlovas att digitaliseringen och artificiell intelligens ska förändra vårt samhälle och vårt sätt att göra saker på ett betydande sätt. Smarta avtal och friktionsfri penningtrafik förändrar vårt sätt att handla, bildigenkänningsalgoritmer identifierar cancer och sorterar vårt bildbibliotek samtidigt, och AI-assistenter organiserar våra vardagsbestyr. Denna utveckling har dock sina nackdelar.

Det har blivit så lätt att behandla bild, ljud och video att ögonen inte längre går att lita på. Med hjälp av artificiell intelligens är det relativt enkelt att lägga till Nicolas Cage i alla filmer eller få Barack Obama att säga vad som helst på video. Videor med fejknyheter sprids lätt som riktiga. Google Duplex lovar att artificiell intelligens kan ringa frisören åt oss, men kommer vi snarare att använda det för att sköta socialt komplicerade situationer, som futuristen Gerd Leonhard säger?

Användningen av artificiell intelligens i systemen som stöder beslutsfattande har lett till att gamla fördomar upprepas Eftersom algoritmerna fungerar utifrån befintliga datahelheter, upprepar de lätt våra gamla förhandsuppfattningar, till exempel så att de tolkar sjukskötare som kvinnor och läkare som män. Å andra sidan förstår artificiell intelligens inte heller vad vi menar, utan försöker uppfylla sina mål på sätt som kan verka underliga för oss.

Ny teknologi kan leda till märkliga resultat eller bekräfta gamla värderingar och föreställningar.

Problemet är att vi inte vet hur en algoritm fattar beslut eller att vi inte kan förstå det. En lösning på det här problemet har bland annat AlgorithmWatch-initiativet, som tar fram ställen där algoritmerna får bestämma och samtidigt efterlyser öppenhet i kriterierna för beslutsfattande.

Missbruk och oavsiktliga konsekvenser kan också öppna upp nya möjligheter. Till exempel kan Gmails autosvar användas för att testa om ens egen idé är bra. Det går att leka med lärande algoritmers konstigheter och dåliga robotar kan ha framgång på Youtube. Nackdelarna med utvecklingen kan också hjälpa oss att se andra alternativ.

Energislukande algoritmer

Digitaliseringen framställs ofta som skinande och virtuell. Saker finns i moln och informationen rör sig i en bana över jorden. I verkligheten finns den digitala infrastrukturen i ledningar, växlar och datacentraler. Det går åt energi att upprätthålla denna infrastruktur. AI-applikationer kräver också mycket energi, vilket leder till utmaningar till exempel med självkörande bilar. En av de snabbast växande energiförbrukarna är ändå blockkedjeteknologin.

Den gällande verksamhetsmodellen för blockkedjor förutsätter vanligtvis stor datakapacitet för att validera kedjan och skapa nya kedjor. Stor datakapacitet kräver å sin sida mycket ström. Till exempel har det beräknats att kryptovalutan Bitcoin som bygger på en blockkedja förbrukar lika mycket energi som Irland och mängden ökar. Energiförbrukningen kan också sjunka om verksamhetsmodellen ändras.

Teknologisktspökeri

Ibland kan teknologi kännas magiskt. Förstärkt verklighet och virtuell verklighet formar det vi ser, vilket kan påverka vår uppfattning om vad som är verkligt. Dessutom skapar det flera olika slags verkligheter, vilket gör att vi inte kan vara helt säkra på vad någon annan tittar på, eller hur de ser på oss. Till exempel slogs i misstag Facebooks skämteffekter på mitt under Helsingin Sanomats livesändning från valet, men journalisterna visste inte om att de såg ut som trollkarlar eller astronauter när de talade.

Även om vi lär algoritmer att se som vi ser, gestaltar de världen på sitt eget vis. Ett bra exempel på det är de bilder neuronnäten genererar och som känns psykedeliska eller fasansfulla. MIT har till och med gjort en ”mardrömsmaskin”, som producerar rysliga bilder på löpande band.

Smarta enheter och fel kan göra smarta hem till ett spökhus. När belysning och uppvärmning styrs av algoritmer, känns det som om huset lever sitt eget liv. Smarta högtalare har skrattat mitt i natten och det går att ge dem kommandon som människoörat inte uppfattar. När den osynliga digitala världen på allt fler sätt är kopplad till olika apparater och föremål i den fysiska världen via internet, kan följderna kännas snarare som spökerier än som framsteg. Ofta vet vi inte heller hur mycket information smarta enheter samlar in och skickar till företags servrar.

Ny teknologi ger individen makt

Dubbel användning av teknologi, det vill säga att utnyttja den både för fredliga ändamål och för krigsändamål, har alltid varit en utmaning. Kärnkraften är ett bra exempel på det: vi vill inte förbjuda energiproduktion, men vi vill förhindra atombomber. Teknologin behöver förvaltas väl och kräver internationella avtal.

När det kommer till ny teknologi är det en extra utmaning att det är relativt enkelt att få tillgång till dem för individer eller små grupper. Till exempelgör syntetisk biologi det möjligt att planera och producera patogener enkelt. För att dämpa hoten samarbetar FBI med de som sysslar med syntetisk biologi och uppmuntrar till självkontroll.

Drönare, eller små rotorförsedda farkoster, kombinerade med ansiktsigenkänning kan bli framtidens precisionsvapen. Drönare av olika slag utnyttjas redan nu för militära ändamål och med hjälp av dem har det till exempel också genomförts anonyma attacker mot Rysslands bas i Syrien. Blockkedjeteknologi möjliggör en anonym marknad för lönnmord, där man kan slå vad om när en person dör. Den som gissar närmast vinner hela potten.

När det kommer till ny teknologi är det alltså bra att fundera på hur den kunde användas för att förstöra eller hur kriminella kunde utnyttja den. Då kan man förbereda sig på mer överraskande användningsändamål och vid behov förebygga dem. Samtidigt får man reda på vilka spänningar som finns när det kommer till teknologin: till exempel möjliggör öppenheten och spridningen av blockkedjor en ny typ av vrksamhetsmodeller utan mellanhänder, vilket å andra sidan också innebär att enskilda instanser inte kan övervaka verksamheten.

Verktyg: Missbruk av teknologi

På vilket sätt kan teknologi missbrukas och vad kan det eventuellt leda till?

Gör så här:

  • Samla svaga signaler om situationer där människor har använt ny teknologi på ett annat sätt än vad som är meningen eller där användningen har haft oförutsedda konsekvenser.
  • Komplettera samlingen med idéer om på vilka alla sätt ny teknologi kunde användas fel.
  • Vilka helheter framkommer i samlingen? Vilka spänningar berättar de om?

Svaga signaler

Artikeln är en del av Sitras arbete Svaga signaler, som presenterar överraskande utveckling som inte är uppenbar men möjlig. Målet med arbetet är att ta fram antaganden om framtiden, utmana uppfattningar om framtiden och vidga utbudet av möjliga framtidsscenarier – och att erbjuda verktyg för att utnyttja svaga signaler. Läs mer här: Svala signaler.

Vad handlar det om?