Tämä blogimerkintä on syntynyt osana kirjoittajien opintoja, tehtävänä oli pohtia tekoälyn ja robotiikan eettisiä kysymyksiä syyslukukaudella 2020.
“Tekoäly eli keinoäly on tietokone tai tietokoneohjelma, joka kykenee tekemään älykkäinä pidettäviä toimintoja. Tekoälyn tarkempi määrittely on avoin, koska älykkyyttä itsessään on vaikea määritellä” [1].
Tekoäly on vielä todella uusi ja hyvin nopeasti kehittyvä asia, jonka osalta on hyvä huomioida myös kehityksen mukana tulevat ongelmat ja riskit. Keskeiset ongelmat liittyvät tietoturvaan, käyttökohteisiin ja kehittäjien ennakkoluuloihin. Ongelmakohtiin tulisi keskittyä jo varhaisessa vaiheessa, ennen kuin ongelmat kasvavat suuremmiksi.
Voiko tekoäly olla rasistinen?
Tekoäly on itsenäisesti toimiva ja oppiva tietokone tai ohjelma, jonka toiminnassa saattavat näkyä sen valmistaneen henkilön tai henkilöiden omat mahdolliset mielipiteet ja ennakkoluulot. Tästä aiheesta on useita ikäviä esimerkkejä. Vuonna 2017 saippuan annostelija tunnisti ainoastaan valkoihoisen henkilön kädet, mutta ei lainkaan tummaihoisen käsiä. Kyseisiä annostelijoita valmistava yritys kertoi, että ongelma johtui siitä, että laitetta ei ollut testattu tummalle iholle. Toinen ikävä esimerkki paljastui vuonna 2019 Georgian teknillisessä yliopistossa tehdyssä tutkimuksessa. Kävi ilmi, että itseohjaavat autot ajavat helpommin tummaihoisten kuin valkoihoisten jalankulkijoiden päälle. Jälleen kerran syy tähän oli se, että kyseinen teknologia oli suunniteltu tunnistamaan valkoinen iho, mutta ei tummaa [2].
Tekoälyn rasistisiin ja syrjiviin ongelmiin voitaisiin luoda maailmanlaajuiset standardit, joille olisi perustettu jokin tekoälyjen toimia seuraava ja tarkastava taho. Näin yksittäisten henkilöiden takia vääristyneet tekoälyt voitaisiin karsia pois jo ennen kuin ne pääsevät markkinoille.
Tekoäly, susi lampaan vaatteissa?
Tekoälyä voidaan käyttää tarkoituksiin, jotka ovat ristiriidassa yleisten moraalikäsitysten kanssa. Yksi hyvä esimerkki tästä on kasvojentunnistuksen kehittäminen. Julkisilla paikoilla käytettävä automaattinen kasvojentunnistus voi olla hyödyllistä esimerkiksi rikollisten etsinnässä, mutta tätä samaa teknologiaa voidaan myös käyttää vähemmän hyviin tarkoituksiin. Esimerkiksi jokin autoritäärinen valtio voi alkaa käyttämään samaa teknologiaa poliittisten aktivistien tunnistamiseen.
Onko tällaisten teknologioiden kehittäminen alkuunkaan eettistä, ja voidaanko näitä ongelmia edes ratkaista laeilla ja säännöstelyillä?

Kiinassa ihmisten liikkeiden seuraaminen tekoälyllä on jo arkipäivää [3]. Kuva Arno Senoner / Unsplash
Pystyitkö elämään suurennuslasin alla?
Tekoälyä pystytään käyttämään ihmisten seuraamiseen esimerkiksi kasvojentunnistuksen ja sijaintitietojen avulla. Näiden myötä saadaan kerättyä todella yksityiskohtaista tietoa henkilöiden liikkeistä ja toiminnasta.
Eettisestä näkökulmasta pohdittuna tämä saattaa poistaa ihmisiltä oikeuden yksityisyyteen, jos heidän liikkeitään tarkkaillaan jatkuvasti. Kuinka moni on halukas luopumaan yksityisyydestään ja hyväksymään sen, että tekoäly pystyy seuraamaan hyvinkin tarkasti mitä tietty henkilö tekee päivän aikana? Näiden tietojen joutuessa vääriin käsiin tai vääriin tarkoituksiin käytettäväksi, voi jopa turvallisuus olla uhattuna.
Lähteet
- Tekoäly, aukeaa Wikipedia
- The race problem with Artificial Intelligence, artikkeli aukeaa metro.co.uk
- Surveillance Redefined: Advances in Vision AI Drive China’s Leading Security Market, blogimerkintä aukeaa cometlabs.io
- Website uses artificial intelligence to generate realistic human faces from scratch, uutinen aukeaa globalnews.ca
Kirjoittajat
Hyvinvointi- ja terveysteknologian kolmannen vuoden opiskelijat Mikko Kettunen, Niklas Koro ja Jake Pärssinen.
Hyvinvointi- ja terveysteknologia on yksi tieto- ja viestintätekniikan tutkinto-ohjelman ammatillisista pääaineista. Hyvinvointi- ja terveysteknologiaan erikoistuneet insinöörit hallitsevat itse teknologian lisäksi teknologian käytännön soveltamiseen, käytettävyyteen ja regulaatioon liittyvät näkökulmat.
Ei kommentteja