Tämä blogimerkintä on syntynyt osana kirjoittajien opintoja, tehtävänä oli pohtia tekoälyn ja robotiikan eettisiä kysymyksiä syyslukukaudella 2020.
Tekoäly herättää monia kysymyksiä, joihin ei ole helppoja vastauksia. Mitä enemmän kysymyksiä esittää, sitä enemmän kysymyksiä asia herättää. Haluaisitko että tekoäly päättää puolestasi, mihin suostut? Kenen vastuulla päätös silloin on? Kuinka pitkälle jokaisen tulisi saada päättää siitä, mihin hänen tietojaan käytetään? Voiko tekoäly olla inhimillistä?
Tekoälyjen käyttö ja käyttäjätietojen massakerääminen on arkipäiväistynyt, mutta monesti käyttäjät eivät ole tietoisia asiasta. Järjestelmät, joilla käyttöehtoja ja tekoälyn toimintaa pystyy paremmin ymmärtämään, tulevat olemaan elintärkeitä tällaisessa ympäristössä. Tällaiset kehittämisprojektit ovat vasta alkuvaiheissaan ja niiden laillisuus ja etiikka tulevat olemaan ensiarvoisen tärkeässä asemassa luomaan ymmärrettävää tulevaisuutta.
Se, että tekoäly automaattisesti päättää puolestasi, kuulostaa hurjalta. Voisiko tekoälyn tekemä päätös olla kuitenkin perustellumpi, koska tekoälyn mahdollisuudet prosessoida tietoa ovat paljon ihmisaivoja laajemmat?
Artikkelissa AI and the Ethics of Automating Consent on maininta Privacy Assistant – projektista. Privacyassistant.org – sivustolla mainitaan seuraavasti (vapaasti suomennettuna): “Me näemme henkilökohtaiset tietoturva-avustajat älykkäinä agentteina, jotka oppivat käyttäjänsä mieltymykset ajan kuluessa, puoliautomaattisesti määrittäen asetukset ja päättäen yksityisyysasetukset käyttäjän puolesta.” Kuulostaa mukavalta ja elämää helpottavalta. Tämän Privacy Assistant – projektin tavoite on siis helpottaa käyttäjän päätöksentekoprosessia.
Käyttöehdot paremmin haltuun
Tiedätkö, mihin kaikkeen suostut mennessäsi jollekin internetsivulle? Nykyään ihmiset hyväksyvät käyttöehtoja erittäin kevyesti. Rekisteröinnin kohdalla rasti ruutuun tai ihan vain sivujen tai sovelluksen käyttäminen tarkoittaa, että suostut tietojesi keräämiseen ja käyttämiseen. Vaikka palveluntarjoajan tarkoitus olisikin, että käyttäjä on ehtoihin tutustunut ja ymmärtänyt ne, nykymaailman käyttöehdot ovat usein kymmeniä sivuja pitkiä ja täynnä lakipykäliä, joten vaikka käyttäjä ne kävisikin läpi, ei ole takuuta, että käyttäjä ymmärtää mihin on suostumassa.
Mitäpä jos ihmisen sijasta käyttöehtoihin tutustuisikin tekoäly?
- Ihminen luo itsestään tekoälyn avulla profiilin.
- Tekoäly voi tarkistaa, minkälaiseen käyttöön tämä ihminen on valmis tietonsa luovuttamaan.
- Tämän jälkeen tekoäly voisi vertailla käyttöehtoja profiiliin ja todeta, onko käyttöehdot tälle ihmiselle hyväksyttävät.
- Jos kaikki näyttää olevan ihmisen suostumus tottumusten sisällä, tekoäly antaa suostumuksen.
- Jos ehdoissa on konflikteja tämän ihmisen profiiliin, tekoäly luo selitykset jokaisesta ristiriidasta ehtojen ja profiilin välillä.
- Ristiriitatilanteessa ihminen voi muodostaa tiedostetun päätöksen hyväksyä tai hylätä ehdot.
Mutta voiko tämä tekoäly tehdä paremmin ymmärretyn suostumuksen kuin ihminen? Testeissä todettiin että lähes 80% tekoälyn valinnoista olivat käyttäjien tahtojen mukaisia. Tämä saattaa kuulostaa kauhistuttavan suurelta virhemäärältä. Joka viides tekoälyn arvio olisi väärin, mutta kun sitä vertaa ihmisten nykyiseen tietoon ja ymmärrykseen käyttöehdoista, vaikuttaa tekoäly tekevän ihmistä paremmin ymmärretyn suostumuksen. Ja teknologian ja tekoälyn parantuessa tarkkuus voi vain parantua.
Voiko sanoa, että ihminen on hyväksynyt käyttöehdot, jos ei ole ikinä nähnytkään niitä? Mistä voidaan olla varmoja, että käyttäjän on suostumusprofiilia luodessa ymmärtänyt jokaisen päätöksen. Mitä tehdään, kun ihmisen tahdonvastainen suostumus on annettu tekoälyn tekemän virheellisen päätöksen takia?
Kenen vastuulla päätös on
Jos päätöksen tekee kone, kuka siitä on vastuussa? Käyttäjä, joka on ottanut järjestelmän käyttöön? Voiko tekoäly olla vastuussa aktiivisena toimijana, vai kantaako esimerkiksi lain silmissä vastuun aina joko algoritmin kehittäjä, käyttäjä tai esimerkiksi algoritmin käytön hyväksynyt viranomainen?
Kun määritetään päätöksestä vastuussa olevaa tahoa, oleellista on tietää
- kuka on vastuussa datasta, jonka pohjalta tekoäly toimii
- mikä on ohjelmoitu toimintaperiaate
- kuinka suuri on ollut käyttäjän oma osallisuus, esimerkiksi määrittäessä oman profiilinsa asetuksia.
Todennäköisesti toistaiseksi erilaisten tekoälyjen omissa käyttöehdoissa mainitaan käyttäjän olevan vastuussa. Melkoinen dilemma olisikin, jos tekoäly huomaisi, että käyttäjä ei profiilinsa perusteella hyväksyisi tekoäly-ohjelman omia käyttöehtoja.
Lähteet
- Artikkeli (Georgetown University) 2018.
- Privacyassistant.org
- Opas tekoälyn etiikkaan (PDF), AIsociety.fi
Kirjoittajat
Hyvinvointi- ja terveysteknologian kolmannen vuoden opiskelijat Juho Oksa, Suvi Sihvola ja Valtteri Rauhala.
Hyvinvointi- ja terveysteknologia on yksi tieto- ja viestintätekniikan tutkinto-ohjelman ammatillisista pääaineista. Hyvinvointi- ja terveysteknologiaan erikoistuneet insinöörit hallitsevat itse teknologian lisäksi teknologian käytännön soveltamiseen, käytettävyyteen ja regulaatioon liittyvät näkökulmat.
Ei kommentteja