Avainsana: hyvinvointi- ja terveysteknologia

Tekoälyn keskeiset ongelmat

6.11.2020
Mikko Kettunen, Niklas Koro & Jake Pärssinen

Tämä blogimerkintä on syntynyt osana kirjoittajien opintoja, tehtävänä oli pohtia tekoälyn ja robotiikan eettisiä kysymyksiä syyslukukaudella 2020. “Tekoäly eli keinoäly on tietokone tai tietokoneohjelma, joka kykenee tekemään älykkäinä pidettäviä toimintoja. Tekoälyn tarkempi määrittely on avoin, koska älykkyyttä itsessään on vaikea määritellä” [1]. Tekoäly on vielä todella uusi ja hyvin nopeasti kehittyvä asia, jonka osalta on hyvä huomioida myös kehityksen mukana tulevat ongelmat ja riskit. Keskeiset ongelmat liittyvät tietoturvaan, käyttökohteisiin ja kehittäjien ennakkoluuloihin. Ongelmakohtiin tulisi keskittyä jo varhaisessa vaiheessa, ennen kuin ongelmat kasvavat suuremmiksi. Voiko tekoäly olla rasistinen? Tekoäly on itsenäisesti toimiva ja oppiva tietokone tai ohjelma, jonka toiminnassa saattavat näkyä sen valmistaneen henkilön tai henkilöiden omat mahdolliset mielipiteet ja ennakkoluulot. Tästä aiheesta on useita ikäviä esimerkkejä. Vuonna 2017 saippuan annostelija tunnisti ainoastaan valkoihoisen henkilön kädet, mutta ei lainkaan tummaihoisen käsiä. Kyseisiä annostelijoita valmistava yritys kertoi, että ongelma johtui siitä, että laitetta ei ollut  testattu tummalle iholle. Toinen ikävä esimerkki paljastui vuonna 2019 Georgian teknillisessä yliopistossa tehdyssä tutkimuksessa. Kävi ilmi, että itseohjaavat autot ajavat helpommin tummaihoisten kuin valkoihoisten jalankulkijoiden päälle. Jälleen kerran syy tähän oli se, että kyseinen teknologia oli suunniteltu tunnistamaan valkoinen iho, mutta ei tummaa [2]. Tekoälyn rasistisiin ja syrjiviin ongelmiin voitaisiin luoda maailmanlaajuiset standardit, joille olisi perustettu jokin tekoälyjen toimia seuraava ja tarkastava taho. Näin yksittäisten henkilöiden takia vääristyneet tekoälyt voitaisiin karsia pois jo ennen kuin ne pääsevät markkinoille. Tekoäly, susi lampaan vaatteissa? Tekoälyä voidaan käyttää tarkoituksiin, jotka ovat ristiriidassa yleisten moraalikäsitysten kanssa. Yksi hyvä esimerkki tästä on kasvojentunnistuksen kehittäminen. Julkisilla paikoilla käytettävä automaattinen kasvojentunnistus voi olla hyödyllistä esimerkiksi rikollisten etsinnässä, mutta tätä samaa teknologiaa voidaan myös käyttää vähemmän hyviin tarkoituksiin. Esimerkiksi jokin autoritäärinen valtio voi alkaa käyttämään samaa teknologiaa poliittisten aktivistien tunnistamiseen. Onko tällaisten teknologioiden kehittäminen alkuunkaan eettistä, ja voidaanko näitä ongelmia edes ratkaista laeilla ja säännöstelyillä? Pystyitkö elämään suurennuslasin alla? Tekoälyä pystytään käyttämään ihmisten seuraamiseen esimerkiksi kasvojentunnistuksen ja sijaintitietojen avulla. Näiden myötä saadaan kerättyä todella yksityiskohtaista tietoa henkilöiden liikkeistä ja toiminnasta. Eettisestä näkökulmasta pohdittuna tämä saattaa poistaa ihmisiltä oikeuden yksityisyyteen, jos heidän liikkeitään tarkkaillaan jatkuvasti. Kuinka moni on halukas luopumaan yksityisyydestään ja hyväksymään sen, että tekoäly pystyy seuraamaan hyvinkin tarkasti mitä tietty henkilö tekee päivän aikana? Näiden tietojen joutuessa vääriin käsiin tai vääriin tarkoituksiin käytettäväksi, voi jopa turvallisuus olla uhattuna. Lähteet Tekoäly, aukeaa Wikipedia The race problem with Artificial Intelligence, artikkeli aukeaa metro.co.uk Surveillance Redefined: Advances in Vision AI Drive China’s Leading Security Market, blogimerkintä aukeaa cometlabs.io  Website uses artificial intelligence to generate realistic human faces from scratch, uutinen aukeaa globalnews.ca Kirjoittajat Hyvinvointi- ja terveysteknologian kolmannen vuoden opiskelijat Mikko Kettunen, Niklas Koro ja Jake Pärssinen. Hyvinvointi- ja terveysteknologia on yksi tieto- ja viestintätekniikan tutkinto-ohjelman ammatillisista pääaineista. Hyvinvointi- ja terveysteknologiaan erikoistuneet insinöörit hallitsevat itse teknologian lisäksi teknologian käytännön soveltamiseen, käytettävyyteen ja regulaatioon liittyvät näkökulmat.

Päätökset verkossa eivät olekaan omiasi

9.10.2020
Juho Oksa, Suvi Sihvola & Valtteri Rauhala

Tämä blogimerkintä on syntynyt osana kirjoittajien opintoja, tehtävänä oli pohtia tekoälyn ja robotiikan eettisiä kysymyksiä syyslukukaudella 2020. Tekoäly herättää monia kysymyksiä, joihin ei ole helppoja vastauksia. Mitä enemmän kysymyksiä esittää, sitä enemmän kysymyksiä asia herättää. Haluaisitko että tekoäly päättää puolestasi, mihin suostut? Kenen vastuulla päätös silloin on? Kuinka pitkälle jokaisen tulisi saada päättää siitä, mihin hänen tietojaan käytetään? Voiko tekoäly olla inhimillistä? Tekoälyjen käyttö ja käyttäjätietojen massakerääminen on arkipäiväistynyt, mutta monesti käyttäjät eivät ole tietoisia asiasta. Järjestelmät, joilla käyttöehtoja ja tekoälyn toimintaa pystyy paremmin ymmärtämään, tulevat olemaan elintärkeitä tällaisessa ympäristössä. Tällaiset kehittämisprojektit ovat vasta alkuvaiheissaan ja niiden laillisuus ja etiikka tulevat olemaan ensiarvoisen tärkeässä asemassa luomaan ymmärrettävää tulevaisuutta. Se, että tekoäly automaattisesti päättää puolestasi, kuulostaa hurjalta. Voisiko tekoälyn tekemä päätös olla kuitenkin perustellumpi, koska tekoälyn mahdollisuudet prosessoida tietoa ovat paljon ihmisaivoja laajemmat? Artikkelissa AI and the Ethics of Automating Consent on maininta Privacy Assistant - projektista. Privacyassistant.org – sivustolla mainitaan seuraavasti (vapaasti suomennettuna): “Me näemme henkilökohtaiset tietoturva-avustajat älykkäinä agentteina, jotka oppivat käyttäjänsä mieltymykset ajan kuluessa, puoliautomaattisesti määrittäen asetukset ja päättäen yksityisyysasetukset käyttäjän puolesta.” Kuulostaa mukavalta ja elämää helpottavalta. Tämän Privacy Assistant - projektin tavoite on siis helpottaa käyttäjän päätöksentekoprosessia. Käyttöehdot paremmin haltuun Tiedätkö, mihin kaikkeen suostut mennessäsi jollekin internetsivulle? Nykyään ihmiset hyväksyvät käyttöehtoja erittäin kevyesti. Rekisteröinnin kohdalla rasti ruutuun tai ihan vain sivujen tai sovelluksen käyttäminen tarkoittaa, että suostut tietojesi keräämiseen ja käyttämiseen. Vaikka palveluntarjoajan tarkoitus olisikin, että käyttäjä on ehtoihin tutustunut ja ymmärtänyt ne, nykymaailman käyttöehdot ovat usein kymmeniä sivuja pitkiä ja täynnä lakipykäliä, joten vaikka käyttäjä ne kävisikin läpi, ei ole takuuta, että käyttäjä ymmärtää mihin on suostumassa. Mitäpä jos ihmisen sijasta käyttöehtoihin tutustuisikin tekoäly? Ihminen luo itsestään tekoälyn avulla profiilin. Tekoäly voi tarkistaa, minkälaiseen käyttöön tämä ihminen on valmis tietonsa luovuttamaan. Tämän jälkeen tekoäly voisi vertailla käyttöehtoja profiiliin ja todeta, onko käyttöehdot tälle ihmiselle hyväksyttävät. Jos kaikki näyttää olevan ihmisen suostumus tottumusten sisällä, tekoäly antaa suostumuksen. Jos ehdoissa on konflikteja tämän ihmisen profiiliin, tekoäly luo selitykset jokaisesta ristiriidasta ehtojen ja profiilin välillä. Ristiriitatilanteessa ihminen voi muodostaa tiedostetun päätöksen hyväksyä tai hylätä ehdot. Mutta voiko tämä tekoäly tehdä paremmin ymmärretyn suostumuksen kuin ihminen? Testeissä todettiin että lähes 80% tekoälyn valinnoista olivat käyttäjien tahtojen mukaisia. Tämä saattaa kuulostaa kauhistuttavan suurelta virhemäärältä. Joka viides tekoälyn arvio olisi väärin, mutta kun sitä vertaa ihmisten nykyiseen tietoon ja ymmärrykseen käyttöehdoista, vaikuttaa tekoäly tekevän ihmistä paremmin ymmärretyn suostumuksen. Ja teknologian ja tekoälyn parantuessa tarkkuus voi vain parantua. Voiko sanoa, että ihminen on hyväksynyt käyttöehdot, jos ei ole ikinä nähnytkään niitä? Mistä voidaan olla varmoja, että käyttäjän on suostumusprofiilia luodessa ymmärtänyt jokaisen päätöksen. Mitä tehdään, kun ihmisen tahdonvastainen suostumus on annettu tekoälyn tekemän virheellisen päätöksen takia? Kenen vastuulla päätös on Jos päätöksen tekee kone, kuka siitä on vastuussa? Käyttäjä, joka on ottanut järjestelmän käyttöön? Voiko tekoäly olla vastuussa aktiivisena toimijana, vai kantaako esimerkiksi lain silmissä vastuun aina joko algoritmin kehittäjä, käyttäjä tai esimerkiksi algoritmin käytön hyväksynyt viranomainen? Kun määritetään päätöksestä vastuussa olevaa tahoa, oleellista on tietää kuka on vastuussa datasta, jonka pohjalta tekoäly toimii mikä on ohjelmoitu toimintaperiaate kuinka suuri on ollut käyttäjän oma osallisuus, esimerkiksi määrittäessä oman profiilinsa asetuksia. Todennäköisesti toistaiseksi erilaisten tekoälyjen omissa käyttöehdoissa mainitaan käyttäjän olevan vastuussa. Melkoinen dilemma olisikin, jos tekoäly huomaisi, että käyttäjä ei profiilinsa perusteella hyväksyisi tekoäly-ohjelman omia käyttöehtoja. Lähteet Artikkeli (Georgetown University) 2018. Privacyassistant.org Opas tekoälyn etiikkaan (PDF), AIsociety.fi Kirjoittajat Hyvinvointi- ja terveysteknologian kolmannen vuoden opiskelijat Juho Oksa, Suvi Sihvola ja Valtteri Rauhala. Hyvinvointi- ja terveysteknologia on yksi tieto- ja viestintätekniikan tutkinto-ohjelman ammatillisista pääaineista. Hyvinvointi- ja terveysteknologiaan erikoistuneet insinöörit hallitsevat itse teknologian lisäksi teknologian käytännön soveltamiseen, käytettävyyteen ja regulaatioon liittyvät näkökulmat.