Tekoälystä on tullut yksi tekniikan alan suosituimmista puheenaiheista viime vuosina. Aiheesta riittääkin keskusteltavaa, sillä tekoälyn implementoiminen arkiseen elämään herättää valtavasti kysymyksiä siitä, mikä tekoälyn roolin tulisi olla. Paljon erimielisyyksiä puhujien keskuudessa on syntynyt varsinkin eettisistä ongelmista liittyen vastuunkantoon mahdollisissa ongelmatilanteissa. Kenen vastuulla esimerkiksi on, jos tekoäly tekee henkilövahinkoon johtavan virheen?
Heikko ja vahva tekoäly
Tekoälyn määrittelyssä on paljon ongelmia muun muassa sen suhteen, mikä lasketaan tekoälyksi ja mikä ei. Usein törmätään määrittelyihin heikosta ja vahvasta tekoälystä, joista heikko tekoäly kykenee muuttamaan itsenäisesti yksittäistä prosessia, johon se on ohjelmoitu, kun taas vahvaa tekoälyä ei välttämättä erota ihmisestä ollenkaan. On mielenkiintoista, miten tekoälylle voidaan asettaa eettisiä tai moraalisia toimintaoletuksia, jos sitä kohdellaan yhteiskunnassa kuin orjaa, jolla ei ole täysiä oikeuksia elämäänsä.[1.] Mikä on se raja, joka vedetään vastuunkantoon, ja mitkä
ovat kriteerit, joilla se perustellaan? Antiikin kreikassa Aristoteles jo ajatteli tätä dilemmaa ja tiivisti ajatuksensa vapaaseen tahtoon ja tietoisuuteen. Mikäli olennolla ei olisi näitä, ei sitä myöskään voitaisi asettaa vastuuseen teoistaan[3].
Riippuen tekoälyn lopullisesta toteutustavasta olisi kiintoisaa tietää, voiko esimerkiksi itseään ajava auto katkeroitua siitä, ettei sen anneta olla, mitä se todellisuudessa haluaisi olla, eli vaikkapa lentokone. Tällöin vahvan tekoälyn ohjaama auto voisi alkaa täysin ihmisen huomaamatta kapinoida ihmistä vastaan muuttumalla vähemmän turvalliseksi ja hankkiutua tilanteisiin, joissa se saa oman toimintansa näyttämään sallitulta ja hyväksytyltä.[2.] Heikon tekoälyn ohjaama auto taas on ohjelmoitu joidenkin senhetkisten kriteerien perusteella riittävän turvalliseksi. Sama pätee myös
muihin tekoälyjärjestelmiin, kuten kuvantamislaitteisiin ja niiden tulkinta- algoritmeihin, jotka toimivat diagnostiikan apuvälineinä.[2;3.]
Onko mahdollista varmentaa, mitä ei itse ymmärrä?
Mikäli tekoälyn turvallisuuden rajoista kirjoitetaan joskus laki, valtiot voivat käytännössä etukäteen määritellä, kuinka monen ihmisen kuolema voi olla hyväksyttävissä. Tällöin laitteen valmistajalta putoaa tietyssä mielessä vastuu laitteen turvallisuudesta, kunhan laissa määritelty kuolonuhrien määrä ei ylity.[2.] Olisi kuitenkin kiinnostava miettiä tilannetta, jossa valmistaja itse asiassa kykenisi valmistamaan paremman laitteen kuin mitä laissa vaaditaan. Tekoälyn turvallisuuden määrittelee pitkälti sen ”ohjelmiston” optimointi, jonka kehityksestä vastaa tekoälyn valmistaja. On epäselvää ja järjestelmäriippuvaista, miten raskasta työtä tekoälyn ohjelmistokehitys tulee tulevaisuudessa olemaan, mutta selvää on se, että mitä optimoidummaksi valmistaja ohjelmiston haluaa, sitä kalliimmaksi sen kehitys valmistajalle tulee. Valmistaja törmää eettiseen ongelmaan: valmistaako
mahdollisimman turvallinen järjestelmä, vai sijoittaako vähemmän rahaa riittävän hyvään, huonompaan järjestelmään.
Yksinkertaisimmillaan tämänhetkisessä maailmassa vastuu tekoälyn toiminnasta kaatuisi sen valmistajan tai sitä käyttävän asiantuntijan niskaan, koska tekoäly mielletään koneeksi. Jos kuitenkin vastassa on pitkälle kehittynyt vahva tekoäly, joka on luonut paljon omia näkemyksiään, voidaanko enää edes olettaa, että edes asiantuntija ymmärtäisi tekoälyn johtopäätöksiä. Onko mahdollista varmentaa, mitä ei itse ymmärrä? Yksi vaihtoehto olisi rajoittaa tekoälyä tietyillä osa-alueilla, jotta se olisi ymmärrettävämpi ja käyttäjäystävällisempi.[3.] Herää kuitenkin eettinen ongelma, jos ajatellaan samanlaista toimintamallia ihmiseen. Kestäisikö kukaan ihminen järjissään,
jos toinen ihminen voisi lukea kaapelilla toisen ihmisen ajatuksia? Miten ihminen tässä tilanteessa eroaisi enää koneesta, kun vapaata tahtoa voitaisiin pahimmassa tapauksessa jopa muokata ja vähintäänkin rajoittaa?
Tekoälyn käyttö siirtää usein harkintavaltaa ulkoisille toimijoille, kuten it-asiantuntijoille sekä data-analyytikoille, joiden työtä on vaikeampi tutkia julkisesti. Esimerkiksi hallitus käyttää yksityisiä tekoälyjärjestelmiä päätöksenteon tukena todellisuudessa tietämättä lainkaan, miten tekoäly päätöksensä tekee. Tekoälyn käyttöön osallistuu aina toimijoita, jotka eivät ole riittävän tietoisia omasta vastuustaan estää tekoälystä johtuvia haittoja tai jotka eivät ole motivoituneita ymmärtämään järjestelmää.[4.] Toisaalta ihmiset eivät välttämättä edes ole itse tietoisia, onko tekoäly osallistunut päätöksentekoon heihin kohdistuvissa asioissa.
Miltä näyttää siis tulevaisuus tekoälyn suhteen? Tuleeko tekoäly kehittymään niin pitkälle, että vastuun antamista sille voidaan edes moraalifilosofiselta saati sitten lainsäädännölliseltä kannalta miettiä, vai jatkuuko vastuun kantaminen yrityksillä ja asiantuntijoilla? Se, missä lainsäädännön toivoisi tulevan vastaan, on tietynlaisten raamien luominen tekoälyn kehitykselle, jotta yritys- ja asiantuntijavastuuta ei voi pitää kohtuuttomana.
Lähteet:
- Mitä tekoäly on?. Verkkosivusto. Saatavana osoitteessa <https://xn--tekolyeua.info/mita_tekoaly_on/>. Luettu 23.09.2021
- Hevelke, A., Nida-Rümelin, J. Responsibility for Crashes of Autonomous Vehicles: An Ethical Analysis. Sci Eng Ethics 21, 619–630 (2015). Saatavana osoitteessa
<https://doi.org/10.1007/s11948-014-9565-5>. - Neri, E., Coppola, F., Miele, V. et al. Artificial intelligence: Who is responsible for the diagnosis?. Radiol med 125, 517–521 (2020). Saatavana osoitteessa
<https://doi.org/10.1007/s11547-020-01135-9>. - Santoni de Sio, F., Mecacci, G. Four Responsibility Gaps with Artificial Intelligence: Why they Matter and How to Address them. Philos. Technol. (2021). Saatavana osoitteessa <https://doi.org/10.1007/s13347-021-00450-x>.
- AI Truth Machine / LIT Law Lab, Johannes Kepler University (AT). Kuva. Saatavana osoitteessa <https://www.flickr.com/photos/arselectronica/50224297163>.
- Samee, Shadman. Beetle beside the runway. Kuva. Saatavilla osoitteessa
<https://www.flickr.com/photos/shadman_samee/39989484632/>.
Kirjoittajat:
Hyvinvointi- ja terveysteknologian opiskelijat Aapo Kokko ja Julius Marttunen sekä
sähkö- ja automaatiotekniikan opiskelijat Benjami Lindqvist ja Julius Velasco.
Ei kommentteja