Sokea tietämättömyys vai tiedostettu hyväksyntä?

Whatsapp on suosittu pikaviestipalvelu, joka oli maailman kolmanneksi ladatuin sovellus 2010-luvulla. Miljoonat ihmiset käyttävät sovellusta päivittäin, mutta kuinka moni on lukenut sovelluksen käyttöehdot ja yksityisyyden suojan? Whatsapp on jakanut jo vuodesta 2016 lähtien sen käyttäjätietoja emoyhtiölle Facebookille muun muassa puhelinnumerosi, ip-osoitteen ja useita lokitiedostoja liittyen sovelluksen käyttöön. Tämän vuoden alussa Whatsapp teki linjauksen, että kaikki ehdot on hyväksyttävä sen uhalla, että sovelluksen käyttö estyy asteittain, lopulta kokonaan. Käyttöehdot ovat monimutkaisia dokumentteja, jotka sisältävät tärkeitä asioita, mutta moni näihin ei tutustu; miksi? [1.] Käyttöehdot 101 Käyttöehdot ovat laillisia dokumentteja, jotka suojaavat yritystä ja selittävät käyttäjälle säännöt, joita alustalla tulee noudattaa. Yleensä käyttöehtoihin on sisällytetty myös tietosuojakäytännöt, jotka puolestaan kertovat käyttäjälle, kuinka hänestä kerätään tietoa, ja kuinka yritys ja kolmannet osapuolet käyttävät tätä tietoa. Sokeasti käyttöehtojen hyväksyminen voi pahimmillaan antaa yritykselle oikeuden myydä käyttäjän tietoja eteenpäin, seurata hänen käyttäytymistään, hänen kännykkänsä tunnisteita tai laitteen IP osoitetta. Facebookin tapauksessa käyttöehtojen hyväksyminen ei rajoitu ainoastaan sen sivuille, vaan yritys kerää tietoa kaikilta laitteilta, joilla henkilö on kirjautunut käyttäjälle. Kaikki tämä on kätketty käyttöehtoihin vaikealukuisella juridisella tekstillä, jotta peruskäyttäjät eivät niitä ymmärtäisi. Useat suuryritykset käyttävät käyttöehtojen kirjoittamisessa omia juristejaan tai ulkopuolisia juridiikan palveluja, jotta käyttöehdoista saataisiin kaiken kattavia suojamuureja käyttäjiä vastaan. [2 : 3, s 14.] Käyttäjälle ei siis jätetä kuin kaksi vaihtoehtoa: joko käyttäjä hyväksyy ehdot ja pääsee käyttämään yrityksen tarjoamaa alustaa tai kieltäytyy ja jättäytyy sosiaalisen median ulkopuolelle. Yksityisyyden paradoksi Käyttöehdot ovat todella pitkiä ja niiden lukeminen on työlästä. Tästä syntyykin mielenkiintoinen kysymys, kuinka moni käyttäjistä sattuu lukemaan ne ennen kuin hyväksyy ehdot. Kaksi professoria Michiganin ja Yorkin yliopistosta loivat testin fiktiivisellä sosiaalisen median sivulla käyttäjille ja tarkoituksena oli selvittää, kuinka moni lukee sivun palveluehdot. Kyselyssä ilmeni, että jopa 74 % hyväksyi ehdot sokeasti, vain neljännes vastanneista avasi ehdot, joista 97 % käytti vain muutaman minuutin yli 4000 sanan käyttöehtojen lukemiseen. [4, s. 17.] Testin tulosten analyysissä kolme merkittävää tekijää nostettiin ylös: informaation ylikuormitus, läpinäkyvyys ja tekstin vaikea ymmärtäminen. Testi viittaa yksityisyyden paradoksiin, jossa käyttäjä arvostaa omaa yksityisyyttään, mutta silti hyväksyy yksityisyyteen liittyviä käyttöehtoja sokeasti. Samalla kuitenkin yksilön tekemät päätökset ovat suoraan ristiriidassa käyttäjän yksityisyyden arvostuksen kanssa, kun käyttöehdot hyväksytään sokeasti. Ongelma läpinäkyvyydessä Sosiaalisen median jätti yritysten toimintaa tiedonkeruun kanssa on vaikea ymmärtää, jos vaikealukuisten käyttöehtojen kohdat jäävät kokonaan lukematta. Kehittäjän tekemien käyttöehtojen tulisi olla selviä, yksinkertaisia ja läpinäkyviä loppukäyttäjälle. Yksinkertainen toiminto, kuten kuvan poistaminen Instagramista, ei oikeasti tarkoita sitä, että käyttäjän poistaessa kuvan profiilista se poistuisi koko sovelluksesta. Instagramin käyttöehtojen mukaan kuva on vielä poistamisen jälkeen 90 päivää sivuston hallussa, ottamatta huomioon sitä, onko jokin toinen käyttäjä tallentanut kuvan ja jakanut sitä eteenpäin. Tätä esimerkiksi ei mainita silloin, kun käyttäjä poistaa kuvan. Hyväksyäkö vai eikö hyväksyä? Ehtojen hyväksyminen ei tee käyttäjästä lammasta muiden joukossa, samalla kun käyttöehtojen hylkääminen ei tee henkilöstä mitenkään parempaa ihmistä muihin verrattuna. Todellisuus on se, että yrityksellä on oikeus määrätä sellaiset käyttöehdot, jotka se kokee tarpeellisiksi. Suurin osa käyttäjistä hyväksyy käyttöehdot ja antaa samalla oikeudet tiedonkeruuseen, jotta heidän käyttökokemuksensa parantuisi. Molemmat osapuolet siis voittavat. Se, että käyttäjä ei halua antaa tietoja yrityksille, ei tarkoita sitä, että hän salaa jotain, mutta siitä ei ole kyse. Facebook kerää miljardien ihmisten tietoja, joten yhden henkilön osuus siitä on mikroskooppisen pieni. Kylmä totuus on se, että käyttäjälle yhteisöön kuuluminen on hyödyllisempää kuin sosiaalisen median yrityksen saama hyöty yksittäisen käyttäjän tiedoista. Molemmat siis hyötyvät: toinen rahallisesti ja toinen yhteisöllisesti. Nykymaailmassa sosiaalisten verkostojen osuus on valtava ja niiden ulkopuolelle jääminen väistämättä johtaa jonkinasteiseen syrjäytymiseen. Lähteet: Newman, L. 2021. WhatsApp’s New Privacy Policy Just Kicked In. Here’s What You Need to Know. Verkkosivusto. Saatavana osoitteessa:<https://www.wired.com/story/whatsapp-privacy-policy-facebook-data-sharing/> Luettu 22.09.2021. Thompson, C. 2015. What you really sign up for when you use social media. Verkkosivusto. Saatavana osoitteessa:<https://www.cnbc.com/2015/05/20/what-you-really-sign-up-for-when-you-use-socialmedia.html> Luettu 22.09.2021. Elshout, M. Elsen, M. Leenheer, J. Loos, M. & Luzak, J. 2016. Study on consumers’ attitudes towards Terms and Conditions. Verkkosivusto. Saatavana osoitteessa:<https://ec.europa.eu/info/sites/default/files/terms_and_conditions_final_report_en.pdf> Luettu 23.09.2021. Obar, J. & Oeldorf-Hirsch, A. 2016. The biggest lie on the internet: Ignoring the privacy policies and terms of service policies of social networking services. Verkkosivusto. Saatavana osoitteessa <https://www.ftc.gov/system/files/documents/public_comments/2016/10/00067-129185.pdf> Leuttu 23.09.2021 Kuva <https://www.someecards.com/usercards/viewcard/MjAxMi1mY2RjNzVjZTJlNjdlZmIw/?tagSlug=news> Kirjoittajat: Hyvinvointi- ja terveysteknologian kolmannen vuoden opiskelijat Tuomas Turunen, Ilkka Törmälä ja Henrik El-Khouri.

Itseohjautuvat autot moraalisessa tienristeyksessä

Lähitulevaisuudessa tullaan näkemään monien alojen täydellinen automatisoituminen, eikä autoala ole tässä poikkeus. Tässä blogissa käsitellään itseohjautuviin autoihin liittyviä eettisiä ongelmia, joista esimerkkeinä käytämme kirjoittamisen aikana kuumina aiheina olevia Teslan ja monien muiden suurten autovalmistajien itseohjautuvia autoja. Vaadittava teknologia itseohjautuvien autojen siirtymiseen pysyvästi ideasta käytäntöön on jo olemassa. Ensin pitäisi kuitenkin päättää, miten ne käyttäytyvät liikenteessä ja kuka sen päätöksen tekee. Kun tietä ylittää punaisia valoja päin toiselta puolelta koditon henkilö ja toiselta toimitusjohtaja, kumman pitäisi selvitä ylityksestä? Tämänkaltaiset päätökset voivat olla itseohjautuvien autojen ratkaistavissa jo pian. Siihen, miten itseohjautuva auto ohjelmoidaan käyttäytymään, vaikuttaa entistä suuremmissa määrin ihmisten henkilökohtaiset lähtökohdat. Ihmisten moraalista kompassia ohjaavat muun muassa heidän sosiaaliset näkemyksensä ja kyky osoittaa empatiaa riippumatta siitä, kuinka korkealla henkilö on yhteiskunnallisessa hierarkiassa. Mitä suuremmat erot maassa on ihmisten sosiaalisessa statuksessa, sitä todennäköisemmin he valitsevat itseohjautuvan auton uhraamaan kodittoman ihmisen. Ihmiset maista, joissa ero köyhien ja rikkaiden välillä on suhteellisen pieni, eivät tutkimusten mukaan käänny selkeästi kumpaakaan osapuolta vastaan. Vaihtoehtoisesti ihmiset haluaisivat auton tilanteen salliessa ohjaamaan itsensä tieltä ulos tai jopa viereiseen betoniseinään, riskeeraten matkustajan hengen [1]. Autonvalmistajat tekevät tietyllä tapaa moraalisen valinnan jo päätettäessään missä ja kuka heidän itseohjautuvat autot suunnittelevat. Pitäisikö autonvalmistajien siis keskittää itseohjautuvien autojen kehitys johonkin tiettyyn maahan, joka vastaisi mahdollisimman hyvin heidän omaa moraalista kantaansa tässä asiassa? Valmistajilta on kuitenkin turha odottaa suoraa vastausta kysymykseen siitä, kenet heidän itseohjautuva auto on ohjelmoitu uhraamaan tilanteessa, jossa törmäys ihmiseen ei ole enää estettävissä. Isona pelkona itseohjautuvien autojen kehittyessä on tietenkin se, että kuljettajat tulevat menettämään työnsä. Tämän myötä tulee esille myös toinen ongelma: Miten itseohjautuvat autot aikovat valita tulevaisuudessa asiakkaansa? Pelkona on, että autonvalmistajat antavat teknologian identifioida ihmisiä ja luoda erilaisia “profiileja” heistä ulkonäön, taustan sekä rodun perusteella. Silloin auto pystyisi valitsemaan ns. parhaat ja varakkaimmat asiakkaat, jolloin kaikki ihmiset eivät mahdollisesti saisi tasavertaista palvelua. Tämänkaltainen toimintamalli voi myös pidemmällä aikavälillä tuoda esille isoja ongelmia, jos tietty väestö joutuu kärsimään sen seurauksena. EU:ssa laaditaan parhaillaan yhteistä sääntelyä itseohjautuville autoille [3]. Haasteita riittää niin tietoturvallisuuteen liittyvissä kuin eettisissäkin kysymyksissä. Kuinka taata tasa-arvoinen kohtelu kaikille ihmisryhmille? Erityisesti miten otetaan huomioon liikuntavammaiset tai lapset liikenteessä? Teknologia kehittyy niin nopeasti, että lainsäädäntö laahaa auttamatta perässä. EU:n on tärkeä tehdä yhteistyötä jäsenmaiden kanssa varmistaakseen yhteneväiset lait, jotta kansalaisten luottamus itseohjautuviin autoihin voidaan taata. Lainsäädännön on ehdottoman tärkeää olla ajan tasalla, tai liikennettä uhkaavat viidakon lait. Lähteet: Self driving car dilemmas reveal that moral choices are not universal. (24.10.2018). Haettu osoitteesta https://www.nature.com/articles/d41586-018-07135-0 Gitlin, J. Real robotaxi gets a step closer in San Francisco. (13.5.2021). Haettu osoitteesta https://arstechnica.com/cars/2021/05/real-robotaxi-service-gets-a-step-closer-in-san-francisco/ Itseohjautuvat autot pian todellisuutta EU:ssa. (14.1.2019). Haettu osoitteesta https://www.europarl.europa.eu/news/fi/headlines/economy/20190110STO23102/itseohjautuvat-autot-pian-todellisuutta-eu-ssa Kirjoittajat: Hyvinvointi- ja terveysteknologian pääaineopiskelijat Jan Buben, Pekko Lehto ja Mika Åberg Hyvinvointi- ja terveysteknologia on yksi tieto- ja viestintätekniikan tutkinto-ohjelman ammatillisista pääaineista.

Kenelle kaatuu vastuu tekoälystä?

Tekoälystä on tullut yksi tekniikan alan suosituimmista puheenaiheista viime vuosina. Aiheesta riittääkin keskusteltavaa, sillä tekoälyn implementoiminen arkiseen elämään herättää valtavasti kysymyksiä siitä, mikä tekoälyn roolin tulisi olla. Paljon erimielisyyksiä puhujien keskuudessa on syntynyt varsinkin eettisistä ongelmista liittyen vastuunkantoon mahdollisissa ongelmatilanteissa. Kenen vastuulla esimerkiksi on, jos tekoäly tekee henkilövahinkoon johtavan virheen? Heikko ja vahva tekoäly Tekoälyn määrittelyssä on paljon ongelmia muun muassa sen suhteen, mikä lasketaan tekoälyksi ja mikä ei. Usein törmätään määrittelyihin heikosta ja vahvasta tekoälystä, joista heikko tekoäly kykenee muuttamaan itsenäisesti yksittäistä prosessia, johon se on ohjelmoitu, kun taas vahvaa tekoälyä ei välttämättä erota ihmisestä ollenkaan. On mielenkiintoista, miten tekoälylle voidaan asettaa eettisiä tai moraalisia toimintaoletuksia, jos sitä kohdellaan yhteiskunnassa kuin orjaa, jolla ei ole täysiä oikeuksia elämäänsä.[1.] Mikä on se raja, joka vedetään vastuunkantoon, ja mitkä ovat kriteerit, joilla se perustellaan? Antiikin kreikassa Aristoteles jo ajatteli tätä dilemmaa ja tiivisti ajatuksensa vapaaseen tahtoon ja tietoisuuteen. Mikäli olennolla ei olisi näitä, ei sitä myöskään voitaisi asettaa vastuuseen teoistaan[3]. Riippuen tekoälyn lopullisesta toteutustavasta olisi kiintoisaa tietää, voiko esimerkiksi itseään ajava auto katkeroitua siitä, ettei sen anneta olla, mitä se todellisuudessa haluaisi olla, eli vaikkapa lentokone. Tällöin vahvan tekoälyn ohjaama auto voisi alkaa täysin ihmisen huomaamatta kapinoida ihmistä vastaan muuttumalla vähemmän turvalliseksi ja hankkiutua tilanteisiin, joissa se saa oman toimintansa näyttämään sallitulta ja hyväksytyltä.[2.] Heikon tekoälyn ohjaama auto taas on ohjelmoitu joidenkin senhetkisten kriteerien perusteella riittävän turvalliseksi. Sama pätee myös muihin tekoälyjärjestelmiin, kuten kuvantamislaitteisiin ja niiden tulkinta- algoritmeihin, jotka toimivat diagnostiikan apuvälineinä.[2;3.] Onko mahdollista varmentaa, mitä ei itse ymmärrä? Mikäli tekoälyn turvallisuuden rajoista kirjoitetaan joskus laki, valtiot voivat käytännössä etukäteen määritellä, kuinka monen ihmisen kuolema voi olla hyväksyttävissä. Tällöin laitteen valmistajalta putoaa tietyssä mielessä vastuu laitteen turvallisuudesta, kunhan laissa määritelty kuolonuhrien määrä ei ylity.[2.] Olisi kuitenkin kiinnostava miettiä tilannetta, jossa valmistaja itse asiassa kykenisi valmistamaan paremman laitteen kuin mitä laissa vaaditaan. Tekoälyn turvallisuuden määrittelee pitkälti sen ”ohjelmiston” optimointi, jonka kehityksestä vastaa tekoälyn valmistaja. On epäselvää ja järjestelmäriippuvaista, miten raskasta työtä tekoälyn ohjelmistokehitys tulee tulevaisuudessa olemaan, mutta selvää on se, että mitä optimoidummaksi valmistaja ohjelmiston haluaa, sitä kalliimmaksi sen kehitys valmistajalle tulee. Valmistaja törmää eettiseen ongelmaan: valmistaako mahdollisimman turvallinen järjestelmä, vai sijoittaako vähemmän rahaa riittävän hyvään, huonompaan järjestelmään. Yksinkertaisimmillaan tämänhetkisessä maailmassa vastuu tekoälyn toiminnasta kaatuisi sen valmistajan tai sitä käyttävän asiantuntijan niskaan, koska tekoäly mielletään koneeksi. Jos kuitenkin vastassa on pitkälle kehittynyt vahva tekoäly, joka on luonut paljon omia näkemyksiään, voidaanko enää edes olettaa, että edes asiantuntija ymmärtäisi tekoälyn johtopäätöksiä. Onko mahdollista varmentaa, mitä ei itse ymmärrä? Yksi vaihtoehto olisi rajoittaa tekoälyä tietyillä osa-alueilla, jotta se olisi ymmärrettävämpi ja käyttäjäystävällisempi.[3.] Herää kuitenkin eettinen ongelma, jos ajatellaan samanlaista toimintamallia ihmiseen. Kestäisikö kukaan ihminen järjissään, jos toinen ihminen voisi lukea kaapelilla toisen ihmisen ajatuksia? Miten ihminen tässä tilanteessa eroaisi enää koneesta, kun vapaata tahtoa voitaisiin pahimmassa tapauksessa jopa muokata ja vähintäänkin rajoittaa? Tekoälyn käyttö siirtää usein harkintavaltaa ulkoisille toimijoille, kuten it-asiantuntijoille sekä data-analyytikoille, joiden työtä on vaikeampi tutkia julkisesti. Esimerkiksi hallitus käyttää yksityisiä tekoälyjärjestelmiä päätöksenteon tukena todellisuudessa tietämättä lainkaan, miten tekoäly päätöksensä tekee. Tekoälyn käyttöön osallistuu aina toimijoita, jotka eivät ole riittävän tietoisia omasta vastuustaan estää tekoälystä johtuvia haittoja tai jotka eivät ole motivoituneita ymmärtämään järjestelmää.[4.] Toisaalta ihmiset eivät välttämättä edes ole itse tietoisia, onko tekoäly osallistunut päätöksentekoon heihin kohdistuvissa asioissa. Miltä näyttää siis tulevaisuus tekoälyn suhteen? Tuleeko tekoäly kehittymään niin pitkälle, että vastuun antamista sille voidaan edes moraalifilosofiselta saati sitten lainsäädännölliseltä kannalta miettiä, vai jatkuuko vastuun kantaminen yrityksillä ja asiantuntijoilla? Se, missä lainsäädännön toivoisi tulevan vastaan, on tietynlaisten raamien luominen tekoälyn kehitykselle, jotta yritys- ja asiantuntijavastuuta ei voi pitää kohtuuttomana. Lähteet: Mitä tekoäly on?. Verkkosivusto. Saatavana osoitteessa <https://xn--tekolyeua.info/mita_tekoaly_on/>. Luettu 23.09.2021 Hevelke, A., Nida-Rümelin, J. Responsibility for Crashes of Autonomous Vehicles: An Ethical Analysis. Sci Eng Ethics 21, 619–630 (2015). Saatavana osoitteessa <https://doi.org/10.1007/s11948-014-9565-5>. Neri, E., Coppola, F., Miele, V. et al. Artificial intelligence: Who is responsible for the diagnosis?. Radiol med 125, 517–521 (2020). Saatavana osoitteessa <https://doi.org/10.1007/s11547-020-01135-9>. Santoni de Sio, F., Mecacci, G. Four Responsibility Gaps with Artificial Intelligence: Why they Matter and How to Address them. Philos. Technol. (2021). Saatavana osoitteessa <https://doi.org/10.1007/s13347-021-00450-x>. AI Truth Machine / LIT Law Lab, Johannes Kepler University (AT). Kuva. Saatavana osoitteessa <https://www.flickr.com/photos/arselectronica/50224297163>. Samee, Shadman. Beetle beside the runway. Kuva. Saatavilla osoitteessa <https://www.flickr.com/photos/shadman_samee/39989484632/>. Kirjoittajat: Hyvinvointi- ja terveysteknologian opiskelijat Aapo Kokko ja Julius Marttunen sekä sähkö- ja automaatiotekniikan opiskelijat Benjami Lindqvist ja Julius Velasco.