Photo: Miikka Pirinen

Julkaistu 14.01.2019

Eettinen tekoäly tarvitsee eettistä dataa

Laadukas data on tekoälyn elintärkeä polttoaine. Datan kerääminen ja sen hyödyntäminen reilulla tavalla edellyttää yhteisiä pelisääntöjä. Datan eettinen käsittely tulee sisällyttää myös EU-ryhmän tekoälyä koskeviin linjauksiin, jotka ovat parhaillaan kommentoitavina.
Kirjoittajat
Johtava asiantuntija, Sitra
Laura Halenius on IHAN® – ihmislähtöisen datatalous projektin yhteiskunnallisesta markkinoinnista ja päättäjäviestinnästä vastaava johtava asiantuntija.
Vanhempi neuvonantaja, Uudistumiskyky, Sitra
Antti Larsio toimii neuvonantajana ICT-strategioihin ja tietoteknologiaan liittyvissä asioissa painottuen julkisen sektorin toiminnan kehittämiseen.

Viime kesänä EU nimesi korkean tason tekoälyasiantuntijaryhmän, jota johtaa Suomen tekoälyohjelmaakin johtava Pekka Ala-Pietilä. EU-ryhmä on nyt julkistanut alustavat tekoälyn etiikan linjaukset Draft Ethics Guidelines for Trustworthy AI, jotka ovat kommentoitavina 18.1.2019 asti.

Luonnostekstissä käsitellään tekoälyn käytön etiikkaa jaotellen se 1) tekoälyn käytön eettisen tarkoitukseen, 2) ohjeistukseen datan hyödyntämiseen sekä sen luotettavuuteen ja 3) käytännön toteutuksen arviointikriteereihin. Luonnoksessa on haluttu keskittyä tiukasti luotettavaan tekoälyn käyttöön, ja siltä osin Ala-Pietilän ryhmä on tehnyt erinomaista työtä. Valitettavasti luonnoksesta on kuitenkin jäänyt pois siihen olennaisesti liittyvä tarkastelu itse datan keräämisestä ja sen etiikasta.

Viimeaikainen uutisointi on tuonut esille, että datan hyödyntäminen yrityksissä on vielä melkoinen villi länsi. Osa valtioistakin kerää dataa ja hyödyntää sitä piittaamatta kansalaisten yksityisyydestä. Suomen Kuvalehdessä toimituspäällikkö Jussi Eronen nostaa pääkirjoituksessaan esiin räikeät ihmisoikeusrikkomukset Kiinassa (SK 2, 11.1.2019). Tällainen toiminta on mahdollista vain datalla, jota meistä kerätään ja jota käytetään meitä vastaan. Keskustelua datan eettisyydestä siis tarvitaan enemmän kuin koskaan.

Tekoälyn eettisyys riippuu sen käyttämästä datasta

Ennen kuin eri analytiikan välineillä, joista tekoäly on vain yksi, voidaan jalostaa dataa, sitä pitää ensin kerätä, organisoida, muokata ja tallentaa. Kaikkiin näihin vaiheisiin liittyy paljon eettisiä kysymyksiä.

Tekoäly ei voi olla eettistä, ellei sen keräämä raaka-aine, data, ole eettistä.

Lähtökohtaisesti yksilön dataa ei pitäisi sallia kerättävän ilman lupaa, koska oikeus yksityisyyteen on perusoikeutemme.

Pitäisikö digitaaliseen maailmaan luoda yksilönsuoja, joka vastaa kirje- puhelinsalaisuuksien suojaamista, myös meitä koskevan digitaalisen datan osalta?

Toukokuussa 2018 voimaan astuneen tietosuoja-asetus GDPR:n mukaan Euroopassa yritysten ja muiden organisaatioiden pitää pyytää käyttäjältä lupa, kun ne keräävät dataa ja profiloivat ihmisiä. Hyvä alku, mutta jatkotyötä tarvitaan.

Datan keräämisen ja hyödyntämiseen liittyvät ongelmat

Ongelmista ensimmäinen liittyy siihen, miten lupa datan keräämiseen pyydetään. Vain harva käyttäjä ymmärtää mitä oikeastaan hyväksyy hyväksyessään palvelun käyttöehdot. Käyttöehtoja tekevien lakimiesten perisynti kun on, että heidän laatimiaan asiakirjoja ymmärtävät vain toiset lakimiehet. Myös ajankäytöllisesti kaikkien palveluiden käyttöehtojen lukeminen on palveluiden käyttäjälle käytännössä mahdotonta. Tutkimusyhtiö Carnegie Mellonin mukaan keskiverto amerikkalaisella menisi 76 työpäivää vuodessa, jos hän lukisi kaikkien käyttämiensä palveluiden käyttöehdot.

Käyttöehtojen ymmärrettävyyteen pitäisi siis kiinnittää erityisen paljon huomiota eikä lupaa pitäisi pyytää kuin sellaiseen tietoon, jota palvelun toteutus välttämättä vaatii.

Luvan myöntämisen yhteydessä luvan antajalle pitää jäädä selkeä kuva, mitä dataa kerätään ja miten sitä käytetään jatkossa.

Käyttäjää pitäisi informoida myös siitä, että kyseisestä datasta voidaan tehdä palveluntuottajan omia tulkintoja, luokituksia ja tietoja voidaan yhdistää muihin asioihin ja ihmisiin. Näitä johdettuja tietoja voidaan myös käyttää kaupallisiin tarkoituksiin.

Joidenkin palveluiden kohdalla käyttäjällä ei välttämättä edes ole muuta vaihtoehtoa kuin hyväksyä käyttöehdot saadakseen esimerkiksi työn tai opiskelun kannalta välttämättömät palvelut käyttöönsä. Meilläkin monet yhteiskunnan toimijat pakottavat kansalaisten käyttämään Youtubea ja Google Docsia ymmärtämättä, että samalla pakotetaan käyttäjät luovuttamaan omaa dataansa kyseisille toimijoille esimerkiksi markkinointitarkoituksiin. Onko käyttäjien pakottaminen hyväksymään omalta kannaltaan huono sopimus eettisesti kestävä toimintatapa?

Toinen kysymys datan keräämiseen liittyen on, kuinka pitkään yrityksellä säilyy oikeus kerätä tietoa käyttäjästä hänen kerran hyväksyttyään käyttöehdot? Ei ole kohtuullista olettaa, että käyttäjä ymmärtää, edes luettuaan palvelun käyttöehdot, suostuvansa jopa vuosia kestävään tiedonkeruuseen.

Kolmas datan keräämiseen liittyvä kysymys on kerättävän datan määrä. Datan kerääminen ihmisten kaikesta toiminnasta vähentää ihmisten mahdollisuutta anonymiteettiin, joka myös suojaa kansalaisia. Tulevaisuudessa voidaan päätyä jopa tilanteeseen, jossa ihmiset alkavat rajoittaa tekemisiään siksi, että eivät halua heistä kerättävän tietoa. Tämä voisi johtaa yksilönvapauksien heikkenemiseen ja tästä syystä sillä voisi olla suuria vaikutuksia yhteiskuntaamme.

Neljäs, etenkin yhteiskunnallisessa päätöksenteossa huomioon otettava kysymys liittyy tiedonkeruun otantaan. Miten varmistetaan, että analyyseissa käytettävä data ei ole jo valmiiksi vääristynyttä? Datankeruun ulkopuolelle saattavat jäädä sellaiset ryhmät, kuten yhteiskunnan huono-osaisimmat, jotka käyttävät digitaalisia palveluita keskivertoa vähemmän. Ellei asiaan kiinnitetä huomiota, datan analysointiin perustuvat yhteiskunnalliset päätökset saattavatkin heikentää datankeruun ulkopuolelle jäävien yksilöiden asemaa entisestään.

Nopea kehitys vaatii itsesääntelyä regulaation laahatessa perässä

Lainsäädäntö ja oikeuskäytäntö luovat datan keräämiselle ja hyödyntämiselle reunaehdot. Edellä mainittu tietosuoja-asetus on hyvä askel oikeaan suuntaan. Asetus pakottaa organisaatiot pohtimaan myös dataan ja sen käyttöön liittyviä eettisiä kysymyksiä. Se on kuitenkin vasta tienviitta jättäen monia käytännön toimintatapoja auki. Siksi tarvitaan myös eri toimijoiden itsesääntelyä. Nyt tuleekin panostaa siihen, että tekoälyn ja datankäytön etiikkaa kehitetään itsesäätelyn kautta mahdollisimman pitkälle.

Toivomme, että keskustelu digitaalisesta etiikasta tavoittaa mahdollisimman laajasti niin päättäjät kuin tavalliset ihmiset ja saa meidät yhdessä pohtimaan esimerkiksi datan keräämisen ja hyödyntämisen vaikutuksia elämäämme.

Digitaalinen etiikka pitää nostaa yritysten ja valtionhallinnon asialistalle ennen kuin kansalaisten ja asiakkaiden luottamus horjuu. Luottamuksen rakentaminen kestää pitkään, mutta sen voi tuhota hetkessä. Luottamus taas on se liima, joka digitaalisessa yhteiskunnassa tarvitaan, jotta data voi liikkua ja uusia arkeamme helpottavia digitaalisia palveluita syntyä.

Mietitään yhdessä, mitä arvovalintoja tekisimme nyt, jos aloittaisimme puhtaalta pöydältä suunnittelemaan digitaalista yhteiskuntaa tuleville sukupolville.

#IHAN

Mistä on kyse?