Avainsana: tekoäly

Kaikki keinot käyttöön työllistymisen haasteisiin – ajatuksia SMART-mallista

26.11.2024

Työpaikan saamisessa tarvitaan avuksi työkaluja ja menetelmiä. Mutta miten valita toimivimmat? Tässä artikkelissa on muutamia ajatuksia työnhakuun sopivista tukikeinoista projektinhallinnan näkökulmasta. Tekoälykin on otettu avuksi. Eikö työllistyminen olekaan projekti? Työllistyminen voisi pintapuolisesti tarkastellen olla projekti: se vaatii työtä, yksi kerta riittää ja siinä on selkeä tavoite. Onnistuneen projektin tueksi tarvitaan SMART-menetelmää, sen tiedän kokeneena projektipäällikkönä. SMART-menetelmää käytetään projektinhallinnassa yleisesti tarkistuslistana projektin tavoitteiden kuvaamisessa. Siispä olisi hyvä tehdä työpaikkaa etsiville ohje siitä, kuinka SMART-menetelmää voi käyttää työllistymisessä. Työllistymisprojektissa ensimmäisenä mieleeni tuleva tavoitteenasettelu on tämä: töihin pitäisi päästä, mahdollisimman nopeasti ja mahdollisimman hyvällä palkalla. Kivaa täytyy olla ja hyvä porukka. Tämä on SMART-mallin näkökulmasta hyvä tavoite sikäli, että työllistyminen on konkreettinen (Specific) ja mitattavissa oleva (Measurable) tavoite. Lisäksi vastuuhenkilökin on selvillä (Assignable). Mutta tässä tavoitteen muotoilussa olevat aikataulu-, palkka- ja laatutavoitteet ovat epämääräisiä. Ne eivät ole konkreettisia ja vaikka esimerkiksi palkka on numeroilla mitattava, ei tavoitetta ole asetettu lukuna. Siksi nämä tavoitteen osat eivät ole välttämättä realistisia (Realistic) ja tietyssä ajassa toteutettavia (Time-bound). Tässä vaiheessa olen entistä vakuuttuneempi siitä, että SMART-mallin soveltamisesta työnhaussa on syytä tehdä ohje. Kokeilen, kuinka pitkälle ohjeen laatimisessa pääsee tekoälyn avulla. ChatGPT 3.5 vinkkaa seuraavaa: “sen sijaan että asettaisit tavoitteen ‘haluan olla parempi kitaransoittaja’, voit tehdä sen SMART-periaatteen mukaisesti: ‘haluan oppia soittamaan kolme uutta kitarakappaletta kuukauden sisällä, käyttäen päivittäin vähintään tunti harjoitteluun’. Mielestäni tekoälyn suosittelema esimerkki on enemmänkin toimintasuunnitelma kuin projektimääritelmä. Laatutason määrittely puuttuu ja tarvittava työmäärä on esitetty muodossa “vähintään”, kun sen pitäisi yleensä olla muotoa “enintään”. SMART-mallin soveltaminen työllistymiseen ei siis ole ihan suoraviivainen asia, ainakaan tekoälyllä tehtynä. Joudun näin ollen toteamaan, että ohjeen laatimisesta ei selviä ilman omaa pohdintaa ja työpanosta. Työnhaku on kaikkea paitsi yksinkertaista Työpaikan hankkiminen ei itse asiassa sovi kovin hyvin projektiajatteluun. Erityisesti kun työpaikan saaminen osoittautuu vaikeaksi ja pitkittyy, muuttuu hakeminen prosessinomaiseksi. Samat työvaiheet toistuvat kulloiseenkin tilanteeseen sovitettuina. Jatkuva itselle sopiva työllistyminen on lähes elämänmittainen prosessi, johon kannattaa panostaa vaikka olisikin töissä. Niin sanottuja varmoja eläkevirkoja ei enää juuri ole. Projektinhallinnan menetelmät pyrkivät varmistamaan, että projektin toteutus onnistuu. Tärkeää onnistumiselle on projektin tavoitteen hyvä määrittely ja tässä SMART-menetelmä on erinomainen apu. Mutta projektinhallinnan menetelmien menestyksekäs hyödyntäminen edellyttää myös sitä, että lähtötilanne tunnetaan hyvin ja että ulkoisia epävarmuuksia ja riskejä voidaan hallita. Työpaikan haussa näin ei ole, sillä työmarkkinatilanne muuttuu koko ajan työpaikkojen avautuessa ja sulkeutuessa. Tähän ei työnhakija pysty käytännössä mitenkään vaikuttamaan eikä myöskään kilpailuun. Samoja työpaikkoja hakee moni muukin. Yksittäinen henkilö ei myöskään pysty tekemään työnhakua määräänsä enempää eli työnhaku on huomattavasti sekä aikataulu- että resurssirajoitteista. Työnantajien kannalta tarkasteltuna tyypilliset rekrytointiprosessit koostuvat varsin vakiintuneista vaiheista, joilla rajataan harkittavien työnhakijoiden joukkoa. Työnhakijan on selvittävä kaikista vaiheista eteenpäin ja viimeisestä vaiheesta selvittyään hän saa työpaikan. Työpaikan hakemiseen ja saamiseen työnhakijalle kuuluvat vaiheet voivat olla prosessinomaisia, kuten esimerkiksi kulloinkin avoinna olevien työpaikkojen etsintä ja verkostoituminen. Toiset vaiheet ovat projektinomaisia, kuten esimerkiksi hakemuksen tekeminen tiettyyn avoinna olevaan työpaikkaan. Menetelmät ja työkalut on valittava tehtävän luonteen mukaan Työnhakijat voivat parantaa mahdollisuuksiaan selvitä rekrytoinnin vaiheista eteenpäin sekä panostamalla yksittäiseen vaiheeseen, kun se on ajankohtainen, että investoimalla aikaansa omien valmiuksien kehittämiseen. Näitä valmiuksia ovat työnhakuun tarvittavien dokumenttien, portfolion ja sosiaalisen median sisältöjen laatu sekä kyky muokata ansioluetteloa ja hakukirjettä kunkin haettavan työpaikan vaatimuksia vastaavalla tavalla. Myös työnhaun prosessin eri vaiheiden osaaminen on tällainen valmius. Paremmat valmiudet kasvattavat todennäköisyyttä menestyä rekrytointiprosessissa ja mahdollistavat osallistumisen useampiin rekrytointiprosesseihin samaan aikaan. Olen oivaltanut, että työnhakijalle olisi hyödyllistä tarkastella omia työllistymisvalmiuksiaan kypsyysmalliajattelun avulla. Näin erityisesti, jos työnhaku pitkittyy. Itse asiassa myös jokaisen töissä olevan olisi hyödyllistä tarkastella työllistymisvalmiuksiaan kypsyysmallin avulla varautumistoimena ja oman uranhallinnan osana. Nyt kun ymmärrän, mitä oikeastaan haluan, löytyvät oikeat kysymykset tekoälylle helpommin. ChatGPT:n tekstiä tiivistäen: kypsyysmalli on kehys tai työkalu, joka auttaa organisaatioita, yrityksiä tai prosesseja arvioimaan tai mittaamaan niiden nykyistä suorituskykyä tai kehitysvaihetta tietyllä alueella. SMART- ja kypsyysmallin työnhakuun soveltuva vertailu tekoälyllä Lopulta pääsen tekoälyn kanssa asiaan eli sanoittamaan tätä tekstiä varten vertailua SMART-mallin ja kypsyysmallin soveltuvuudesta työllistymisvalmiuksien kehittämiseen: SMART-malli soveltuu hyvin konkreettisten tavoitteiden asettamiseen ja seurantaan. Työllistymisvalmiuksien kehittämisessä se voisi auttaa yksilöä asettamaan selkeitä ja mitattavia tavoitteita, kuten hankkimaan uusia taitoja tietyllä aikataululla tai saavuttamaan tietyn tason osaamisessa. Kypsyysmalli voi auttaa yksilöä hahmottamaan, missä vaiheessa hänen työllistymisvalmiutensa ovat ja mitä askelia tarvitaan kehittymiseen. Se voi tarjota laajemman viitekehyksen eri osa-alueiden kehittämiseen, kuten ammatillisiin taitoihin, pehmeisiin taitoihin tai verkostoitumiseen. Hyödyllistä olisi yhdistää molemmat lähestymistavat: asettaa SMART-tavoitteita osana suurempaa kypsyysmallia, jolloin yksilö voi seurata konkreettista edistymistään samalla kun hän hakee laajempaa kehitystä työllistymisvalmiuksissaan. Johtopäätöksenä totean, että työllistymistä tukevassa Uraohjain+-hankkeessa tehdään siis opastus sekä SMART-menetelmän että kypsyysmallin hyödyntämisestä työnhaussa. Ja tekoälyn. Kirjoittaja Tapani Martti (DI, AmO) on lehtori Metropoliassa ja toimii työllistymistä tukevaa palvelua kehittävässä, EU:n osarahoittamassa Uraohjain+-hankkeessa Metropolian osuuden projektipäällikkönä ja it-alan asiantuntijana.

Tuoko tekoäly mitään uutta TKI-toimintaan tutkimusetiikan näkökulmasta?

http://Puunvärisellä%20pöydällä%20avoinna%20vanha%20kirja,%20jonka%20sisäkansilehdellä%20pieni%20robottikäsivarsi,%20kirjan%20vieressä%20kolme%20metallinväristä%20pelinoppaa.
17.6.2024
Susanna Näreaho

Tutkimus- tai tutkimus-, kehittämis- ja innovaatiotoiminnan (TKI) näkökulmasta nykyiset tekoälysovellukset eivät voi korvata tutkijan osaamista, asiantuntemusta ja vastuuta. Mutta niitä voidaan käyttää tutkijan aikaa ja resursseja säästävänä työkaluna, kun vain käytön eettiset näkökulmat huomioidaan. Tekoälyn eettisestä käytöstä TKI-prosessissa on linjattu Metropolia ammattikorkeakoulussa toukokuun 2024 alkupuolella. Nykyisille tekoälysovelluksille on tunnistettu käyttökohteita ainakin seuraavissa tutkimusprosessin vaiheissa (1): tutkimussuunnitelma ja rahoitushakemus (esim. ideointi ja suunnittelu) kirjallisuuskatsaus toteutus (esim. aineiston kerääminen, analysointi, mallien luominen) raportointi (esim. tekstin ja kuvien generointi ja muokkaaminen) julkaisujen arviointi Mitä on tekoälyn eettinen käyttö TKI-toiminnassa? Hyvän tieteellisen käytännön ja vastuullisen tutkimuksen periaatteet pätevät kaikkeen TKI-toimintaan, riippumatta siitä, hyödynnetäänkö siinä tekoälyä vai ei. Tutkija on aina vastuussa tutkimuksensa eettisestä ja vastuullisesta toteutuksesta, eikä vastuuta voi siirtää työkalulle. Tutkijana vastaat itse tulostesi luotettavuudesta ja oikeellisuudesta, muiden tutkijoiden työn kunnioituksesta ja tutkittaviin kohdistuvan riskin minimoinnista (2,3). Tekoälyn käyttö tutkimusprosessin eri vaiheissa saattaa vaarantaa edellä mainitut perusperiaatteet, ellet kiinnitä niihin erityistä huomiota. Voitko olla varma tulosten luotettavuudesta ja oikeellisuudesta? Tietojenkäsittelytieteessä tunnettu GIGO-konsepti ”garbage in, garbage out” pätee erityisen hyvin tekoälyn tuotokseen. Tekoälyä koulutetaan suurilla datamassoilla, jotka voivat sisältää tahallisia tai tahattomia vinoumia. Lisäksi vinoumat voivat muuttua mallin kehittyessä. Tekoälyn tuotos voi olla yllättävä ja vaikuttaa jopa innovatiiviselta, mutta voitko luottaa käytetyn datan laatuun ja olla varma tuloksen oikeellisuudesta? Sinun on arvioitava, onko esittelemälläsi tuloksella ylipäätään mitään tietoarvoa. Voitko viitata toisten tutkijoiden työhön asianmukaisesti ja hyvää tieteellistä käytäntöä noudattaen? Tieteellisen tekstin tekijänä vastaat itse siitä, että kunnioitat muiden tutkijoiden oikeuksia viittaamalla heidän työhönsä asianmukaisesti. Käyttäessäsi tekoälyä työvälineenä sinun pitää aina arvioida, pystytkö jäljittämään alkuperäiset lähteet ja viittaamaan niihin hyvän tieteellisen käytännön mukaisesti ja tekijänoikeuksia kunnioittaen. Onko tutkimuksesi arvioitavissa ja toistettavissa? Jotta tutkimus on arvioitavissa ja toistettavissa, käytetyt menetelmät ml. tekoäly on kuvattava avoimesti ja riittävällä tarkkuudella. Tekoälyn käytön yksityiskohtainen dokumentointi on erityisen tärkeää, koska usein päivittyvien tekoälysovellusten toimintaa ei välttämättä ole mahdollista toistaa täysin samanlaisin tuloksin. Kuvaa siksi aina vähintään: a) käyttämiesi sovellusten versiot ja sovellusten käyttötarkoitukset, b) käyttämäsi kehotteet ja niillä saadut vastaukset ja tuotokset sekä c) tekniset yksityiskohdat ja parametrit, jotka mahdollistavat tulosten tarkistamisen. Käytettyyn sovellukseen tulee viitata asianmukaisesti hyvää tieteellistä käytäntöä noudattaen paitsi tutkimustuloksia julkaistaessa, myös kaikissa muissa tutkimuksen elinkaaren aikana syntyvissä dokumenteissa (esim. tutkimussuunnitelmassa, rahoitushakemuksessa, sopimuksissa, tutkittavien tiedotteissa ja erilaisissa lupahakemuksissa) Tarvitseeko tutkittavien tietää, jos aiot käyttää tekoälyä? Ihmiseen kohdistuvan tutkimuksen merkittävä eettinen riski liittyy tutkittavien tietosuojaan. Tutkittavien anonymiteetti voi pettää, ja yksittäinen tutkittava saattaa olla tunnistettavissa paitsi tuloksista, myös jatkokäyttöön tallennetusta ja jopa avatusta tutkimusaineistosta. Tekoälyn käyttö saattaa lisätä tätä riskiä merkittävästi: vaikka sovellukseen syöttämäsi aineisto ei sisältäisi henkilötietoja, ”kaikkea verkosta löytyvää materiaalia yhdistävä” tekoäly saattaa palauttaa aineistoon tietoja, joilla yksittäinen tutkittava onkin tunnistetavissa kohtuullisin keinoin. Siksi sinun on aina kerrottava tutkittaville, jos aiot käsitellä tutkimusaineistoa tekoälysovelluksen avulla. Näin tutkittavat tietävät mahdollisesta riskistä, ja voivat tehdä tietoon perustuvan päätöksen osallistua tai olla osallistumatta tutkimukseen. Ja lopuksi: entä kun olet riskit punninnut ja edelleen haluat hyödyntää tekoälyä TKI-toiminnassa? Tekoälysovellus on sähköinen työväline, ja sen hankinta ja käyttöönotto tapahtuu kunkin organisaation omien ohjeiden mukaisesti, Metropoliassa Tietohallintopalveluiden kautta. Prosessissa arvioidaan mm. ettei ehdotettu työväline ole ristiriidassa Metropolian tietoturvaperiaatteiden kanssa. Tekoälysovellukset, niiden käyttökohteet ja riskit muuttuvat koko ajan. Edellä kuvatut TKI-toiminnan eettisyyteen liittyvät riskikohdat tunnistettiin keväällä 2024 työryhmässä, joka valmisteli ”Tekoälyn eettinen käyttö TKI-toiminnassa - Metropolian linjaukset”. Linjauksia sovelletaan kaikkeen Metropolian TKI-toimintaan ja niitä tarkentavia ohjeita ja suosituksia annetaan tarvittaessa TKI-toiminnan eri vaiheisiin. Kirjoittaja Susanna Näreaho (FT, dosentti) toimi aiemmin ympäristöalan tutkijana. Nykyisin hän työskentelee erityisasiantuntijana Metropoliassa vastuullisen TKI-toiminnan parissa. Vastuullinen TKI-toiminta on tapa tuottaa, julkaista ja arvioida tietoa luotettavasti ja yhteisesti hyväksytyillä tavoilla. Susanna on muun muassa Tutkimuseettisen neuvottelukunnan jäsen, Pääkaupunkiseudun ammattikorkeakoulujen ihmistieteiden eettisen toimikunnan entinen puheenjohtaja ja mukana työryhmässä, mikä valmistelee luontoon ja ympäristöön kohdistuvan tutkimuksen eettisiä suosituksia. Teksti pohjautuu ”Tekoälyn eettinen käyttö TKI-toiminnassa - Metropolian linjaukset” dokumenttiin. Metropolian TKI-johtajan 7.5.2024 hyväksymän linjauksen tekijät ovat: Susanna Näreaho, Joona Koiranen, Mika Hämäläinen, Roope Rannikko, Anni Salonen, Sanna Saarnia, Lotta Kuosmanen ja Kimmo Leiviskä. Se on julkaistu CC-Nimeä -lisenssillä. Lähteet Glerean, Enrico and Silva, Pedro E. S. (2023). Artificial Intelligence and Research Work. (zenodo.org) Hyvä tieteellinen käytäntö ja sen loukkausepäilyjen käsittely Suomessa. (tenk.fi) Tutkimuseettisen neuvottelukunnan HTK-ohje 2023. Ihmiseen kohdistuvan tutkimuksen eettiset periaatteet ja ihmistieteiden eettinen ennakkoarviointi Suomessa. (tenk.fi) Tutkimuseettisen neuvottelukunnan ohje 2019. Lisää aiheesta Aalto-yliopiston ohjeistus: Tekoälyn vastuullinen käyttö tutkimusprosessin aikana (aalto.fi) (poimittu 27.4.2024) Arenen suositukset tekoälyn hyödyntämisestä ammattikorkeakouluille (arene.fi) 10.5.2023. Ehdotus Euroopan parlamentin ja neuvoston asetus tekoälyä koskevista yhdenmukaistetuista säännöistä (tekoälysäädös) ja tiettyjen unionin säädösten muuttamisesta (eur-lex.europa.eu) (SEC (2021) 167 final) ERA Forum Stakeholders’ document: Living guidelines on the Responsible Use of Generative AI in Research (ec.europa.eu), 2024 Itä-Suomen yliopiston ohjeistus: Tekoälyn käyttö opetuksessa ja tutkimuksessa (kamu.uef.fi) (poimittu 27.4.2024)

Tekoäly yritystoiminnan tukiälynä

http://Tekoälyllä%20generoitu%20piirroskuva%20kaksikerroksisesta%20harjakattoisesta%20talosta,%20jonka%20aukinaisesta%20seinästä%20näkee%20nukkekotimaisesti%20sisälle,%20steampunk-henkisiä%20tietokoneita%20ja%20kalustusta.
26.10.2023
Aarne Klemetti

Tekoäly (artificial intelligence, AI) voi olla tukena, kun yritys haluaa parantaa tehokkuutta, vähentää kustannuksia tai kehittää asiakaskokemusta, tuotteita ja palveluja. Tämä blogikirjoitus esittelee tekoälyn soveltamismahdollisuuksia erityisesti pienten ja keskisuurten yritysten yleisten tarpeiden näkökulmasta. Yrityksillä on luonnollisesti myös varsinaiseen liiketoimintaan liittyviä vaatimuksia, joita pitää käsitellä sekä yritys- että toimialakohtaisesti. Tekoälyn tehokkuus on yksi sen arvostetuimmista ja pelätyimmistä puolista. On tärkeää, että yritykset arvioivat huolellisesti tekoälyn mahdolliset hyödyt ja haitat ennen sen käyttöönottoa. Yritykset voivat vähentää mahdollisia haittoja hyvällä suunnittelulla ja toteutuksella. Tekoälyn hyödyt ja haitat yritystoiminnassa Tekoäly on väsymätön toimija siinä ympäristössä, johon se on opetettu. Koneen herpaantumaton tarkkaavaisuus voi ehkäistä ihmisen väsymyksestä johtuvia inhimillisiä virheitä. Usein tekoälyjärjestelmiä otetaan käyttöön rutiininomaisten tai työläiden tehtävien automatisoimiseksi. Tällä tavoitellaan kustannussäästöjä, jota perustellaan esimerkiksi siten, että työntekijöiden aikaa vapautuu tuottavampiin tehtäviin tai luovempiin töihin. Automatisointi näkyy esimerkiksi asiakaspalvelun tehostamisessa. Tekoäly jaksaa toistaa samaa tehtävää eli tarjota tietoa ja tukea asiakkaille ympäri vuorokauden. Se tunnistaa ja ratkaisee asiakaspalvelutarpeita sekä osaa yksilöidä asiakaskokemusta. Uusien tuotteiden ja palveluiden kehittämiseksi tekoälyjärjestelmää voidaan käyttää tukena esimerkiksi uusien markkinoiden tunnistamiseen, asiakaskäyttäytymisen analysointiin sekä uusien ominaisuuksien kehittämiseen. Tehokkuuden kääntöpuolena on mahdollista, että tekoälyjärjestelmiä voidaan käyttää korvaamaan ihmisten työtä. Tämä voi johtaa työpaikkojen menetykseen, erityisesti niissä toiminnoissa, jotka ovat toistuvia ja rutiininomaisia. Yritysten on ratkaistava, mihin suuntaan ne haluavat viedä kehitystä. Järjestelmiä voidaan käyttää myös keräämään ja analysoimaan henkilökohtaisia tietoja. Jos näitä tietoja ei käytetä asianmukaisesti, se voi johtaa yksityisyyden loukkaamiseen. On mahdollista, että tekoälyjärjestelmiä kehitetään ja käytetään tavalla, joka voi johtaa tasa-arvoisuuden heikkenemiseen. Esimerkiksi käyttämällä huonosti suunniteltua aineistoa tekoälyjärjestelmien opettamiseen voidaan aiheuttaa syrjintää työmarkkinoilla tai sosiaalisesti. Tekoäly henkilöstöhallinnon tukena Tekoälyllä on potentiaalia parantaa merkittävästi henkilöstöhallinnon tehokkuutta ja tarkkuutta. Se voi myös auttaa yrityksiä säästämään rahaa ja tarjoamaan paremman työntekijäkokemuksen. Tekoälyä voidaan käyttää henkilöstöhallinnossa esimerkiksi seuraavasti: Rekrytointiprosessi: Hakemusten käsittelyn automatisointi, ansioluetteloiden analysointi ja haastatteluihin kutsuttavien henkilöiden valikoiminen. Se voi myös parantaa rekrytointiprosessin osuvuutta. Perehdytys ja koulutus: Erilaisten perehdytys- ja koulutusaineistojen tuottaminen tai työntekijöiltä edellytettyjen perehdytysten tai koulutusten suoritusten valvonta. Työntekijän suorituskyvyn arviointi: henkilöstön lisäkoulutus- tai kehitysmahdollisuuksien tunnistaminen. Palkkauksen ja etujen hallinta: palkka- ja etujärjestelmien kilpailukyvyn tai yrityksen etujen mukaisuuden varmistaminen. Työsuhdehallinto: automatisoitu lomien ja sairasvapaiden hallinnointi, työsopimusten laatiminen ja työsuhteiden päättyminen. Tekoäly voi tukea yrityksiä myös, kun ne haluavat varmistaa työsopimustensa vastaavan alan työsopimusehtoja. Tekoäly toiminnanohjauksen apuna Tekoälyllä on potentiaalia parantaa merkittävästi toiminnaohjauksen tehokkuutta ja tarkkuutta. Tekoälyä voidaan käyttää resurssienhallinnassa työntekijöiden, laitteiden ja materiaalien tehokkaaseen hallintaan. Tämä voi auttaa yrityksiä varmistamaan, että heidän resurssinsa ovat käytettävissä oikeaan aikaan oikeassa paikassa. Tuotannon hallinnassa tekoäly tukee tuotannon prosessien optimointia, esimerkiksi tuotannonlinjojen nopeuttamisessa ja virheiden vähentämisessä. Tämä voi auttaa yrityksiä parantamaan tuotantokapasiteettiaan ja vähentämään kustannuksia. Tekoälyä voidaan käyttää kustannusten seurantaan ja analysointiin, esimerkiksi materiaali-, työvoima- ja energiakustannusten seuraamiseen. Tämä voi auttaa yrityksiä tunnistamaan kustannuksia, joissa voidaan säästää. Laadunhallinnassa tekoäly voi tukea esimerkiksi tuotteiden ja palveluiden laadun mittaamisessa ja parantamisessa. Tämä voi auttaa yrityksiä kehittämään asiakastyytyväisyyttä ja vähentämään tuotepalautuksia. Logistiikan hallinnassa tekoälyä voidaan käyttää prosessien optimointiin, esimerkiksi toimitusten seuraamiseen, varastotilan hallintaan ja kuljetusten suunnitteluun. Tämä voi auttaa yrityksiä parantamaan toimitusvarmuutta ja vähentämään kustannuksia. Toimitusketjun hallintaa tekoälyn avulla Valmistavassa tuotannossa toimitusketju on keskeisessä roolissa. Tekoälyn hyödyntäminen eri toiminnoissa voi auttaa yrityksiä parantamaan toimitusvarmuutta, ennakoitavuutta ja asiakaspalvelua sekä vähentämään kustannuksia. Toiminnoittain sitä voidaan lähestyä seuraavasti: Varastonhallinta: tuotteiden ja materiaalien varastotilan hallinnan, tilausten ennakoinnin sekä toimitusaikojen optimointi. Kuljetusten hallinta: suunnittelun, aikataulujen seurannan ja jäljittämisen optimointi. Tilausten käsittely: tilausten automatisointi, vastaanotto, maksujen käsittely ja toimitusten suunnittelu. Riskien hallinta: toimitusketjun häiriöiden tunnistaminen ja ennustaminen. Tietojen analysointi: toimitusketjun tietojen analysointi, esimerkiksi kysynnän ennustaminen, tehokkuuden mittaaminen ja suorituskyvyn parantaminen. Tekoälyllä on potentiaalia parantaa toimitusketjujen tehokkuutta, tarkkuutta ja joustavuutta. Tämä voi auttaa yrityksiä tekemään parempia päätöksiä toimitusketjun hallinnassa. Maksuliikenteen hallinta tekoälyn avustamana Tekoälyä voidaan käyttää osto- ja myyntireskontran hallintaan monin tavoin. Tekoälyllä on potentiaalia parantaa merkittävästi yritysten osto- ja myyntireskontran toiminnan tehokkuutta, tarkkuutta ja joustavuutta. Tekoäly tukee taloushallintoa esimerkiksi seuraavasti: Laskujen käsittelyn automatisointi, tietojen tarkistaminen ja maksaminen. Maksujen hallinta, käsittely, seuranta ja viivästymisvaroitusten lähettäminen. Tämä voi auttaa yrityksiä varmistamaan, että heidän laskunsa maksetaan ajallaan. Riskien hallinnan parantaminen, esimerkiksi maksuhäiriöiden tunnistaminen ja ennustaminen. Tietojen analysointi, esimerkiksi osto- ja myyntidata, trendien tunnistaminen ja ennusteet. Tekoälyn tarjoama tuki voi auttaa yrityksiä tekemään parempia päätöksiä osto- ja myyntitoiminnan hallinnassa. Myynti ja markkinointi tekoälyn tuella Tekoälyä voidaan käyttää myynnin ja markkinoinnin parantamiseen monin tavoin, esimerkiksi prospektointiin eli potentiaalisten asiakkaiden löytämiseen ja heidän kontaktitietojensa keräämiseen. Lisäksi tekoälyä voidaan käyttää kohdennettuun mainontaan, esimerkiksi mainosten näyttämiseen toimijoille, jotka ovat todennäköisemmin kiinnostuneita tarjottavista tuotteista tai palveluista. Asiakaspalvelussa tekoälyä voidaan käyttää esimerkiksi asiakkaiden kysymyksiin vastaamiseen, ongelmien ratkaisemiseen ja palautteen keräämiseen. Tekoälyä voidaan käyttää esimerkiksi myyntidatan analysointiin, trendien tunnistamiseen ja ennusteisiin. Nämä voivat auttaa yrityksiä tekemään parempia päätöksiä myynnissä ja markkinoinnissa. Jääkö ihmisen tehtäväksi vain arvioida tekoälyn käytön hyödyllisyyttä? Tekoäly tukiälynä tarjoaa pk-yrityksille mahdollisuuksia omien tukitoimintojen optimointiin ja automatisointiin. Edellä on esitetty potentiaalisia sovellusalueita perusteluineen. Käyttöönottoa harkittaessa kannattaa kuitenkin punnita huolellisesti mahdolliset hyödyt ja haitat. Mukaan pitää joka tapauksessa lähteä, ainakin selvittämään nykytilaa, oletettua tulevaisuutta ja sopivuutta omiin toimintoihin. Nämä ovat parhaiten saavutettavissa yhteistyökumppanien kanssa, jolloin myös erilaisten vertaisarviointien tekeminen on helpompaa ja joustavampaa. Metropolia-vetoisessa Yritysten vihreä siirtymä, muutoskyvykkyys ja digitalisaatio (REACT, Etelä-Suomi) -hankkeessa tuotettavissa mikro-opintokokonaisuuksissa ja osassa järjestettäviä työpajoja on ollut mukana myös tekoälyä hyödyntäviä osuuksia. Niistä saatuja kokemuksia ja laajojen kielimallien palveluja on hyödynnetty tässä tekstissä. Kirjoittaja Aarne Klemetti (DI) on tutkijaopettaja Metropolia Ammattikorkeakoulun ICT ja tuotantotalous -osaamisalueella. Hän toimii tekoälyasiantuntijana Yritysten vihreä siirtymä, muutoskyvykkyys ja digitalisaatio (REACT, Etelä-Suomi) -hankkeessa. Lisälukemista Tekoäly (wikipedia.org) Tekoäly 4.o raportti: Suomella mahdollisuus olla eettisen, digitaalisen ja vihreän siirtymän edelläkävijä (valtioneuvosto.fi) Artificial Intelligence pros and cons (rockcontent.com)

Tekoälyn vaikutuksista tekijänoikeuksiin

http://Robottikallo,%20tekoälyn%20generoimaa%20taidetta.
15.5.2023

ChatGPT:n tuotua tekoälyn hyödyntämisen mahdollisuudet konkreettisesti ihmisten tietoisuuteen, eri alojen ammattilaiset ovat sekä riemastuneet että huolestuneet tulevaisuudesta. Viestinnän asiantuntijana olen lähes päivittäin tekemisissä luovien sisältöjen kanssa. Tässä blogimerkinnässä kerron Suomen lainsäädännön näkökulmasta tekoälyn hyödyntämisen vaikutuksista tekijänoikeuksiin. Tekijänoikeudella turvataan teoksen tekijän oikeuksia Tekijänoikeuksien kehittyminen on käynnistynyt Euroopassa 1700-luvulta eteenpäin, kun filosofinen ihmiskäsitys kehittyi tunnistamaan yksilön persoonan yhteisöstä erillisenä, luovana toimijana (1). Tänä päivänä yhtä, yhtenäistä kansainvälistä tekijänoikeuslakia ei ole olemassa. Jokaisella maalla on oma lainsäädäntönsä. Nykyisellään suomalaisen tekijänoikeuden perusolettamus on, että tekijänoikeuslain alaisia luovia teoksia voi luoda vain luonnollinen henkilö, jonka tuotoksen tulee olla itsenäinen ja omaperäinen teos. Tekijänoikeudesta säädetään tekijänoikeuslaissa, § 1 määrittelee tekijänoikeuden kuuluvan sille, joka on luonut kirjallisen tai taiteellisen teoksen. (2) Tekijänoikeudet taiteelliseksi tulkittavissa olevassa työssä kuuluvat teoksen luojalle. Teoskynnyksen ylittäminen on oleellista. Tekijyydestä on säädetty tekijänoikeuslain § 7 tekijäolettama (3), jossa tekijänä pidetään sitä, jonka "nimi taikka yleisesti tunnettu salanimi tai nimimerkki yleiseen tapaan pannaan teoksen kappaleeseen tai ilmaistaan saatettaessa teos yleisön saataviin". Onko kone vain hyödyllinen apuri? Digitalisaation äärellä on eletty jo vuosikymmeniä. Myönteistä on, että verkossa kaikki data leviää laajemmille yleisöille helpommin. Kielteistä on se, ettei teosten leviämisestä verkossa ole tekijälle välttämättä taloudellista hyötyä. Vaikka erilaisia tekijänoikeuden edunvalvontaorganisaatioita on olemassa, verkossa tekijänoikeuksien noudattamista on haastavaa valvoa. Nopeasti kehittyvät tekoälysovellukset haastavat käsityksiämme tulevaisuuden työelämästä. Ihanteellisessa tilanteessa massiivisen laskenta- ja mallinnustehokkuuden hyödyntäminen vapauttaa ihmisen työaikaa rutiinitehtävistä luovempaan työhön. Tekoälyn tehoilla voidaan generoida eli tuottaa myös luovia sisältöjä: kuvia, tekstejä, musiikkia ja elokuvia. Tekoäly mahdollistaa nopean visuaalisen, tekstin ja musiikin tuotannon. Se voi tukea monia luovia projekteja automatisoimalla eli käytännössä nopeuttamalla editointivaiheita. Internetissä on nähtävillä tekoälyn tuottamaa aineistoa, jota on ihmissilmin voitu arvioida jopa irvokkaaksi. Tekoäly ei pahastu kritiikistä, vaan se oppii tuottamaan miellyttävämpiä kokonaisuuksia. (4) Entäpä, kenelle syntyy tekijänoikeus, kun ihminen ja tekoäly luovat teoksen yhdessä? Lähtökohta on, että teoksen tekijä on luonnollinen henkilö. Tekoälyä ei tunnisteta luonnolliseksi henkilöksi. Näin ollen tekoäly ei voi olla taiteellisen työn tekijä. Se ei kuitenkaan tarkoita, etteikö tekoälyllä luotu teos voisi nauttia tekijänoikeuden suojaa. Tekoälyn avulla generoitu teos voi olla tekijänoikeuden alainen, kun tekijä on käyttänyt tekoälyä apunaan itsenäisen ja omaperäisen teoksensa luomisessa tekijänoikeusvapaa, kun tekoäly on generoinut teoksen täysin itsenäisesti, automaatiolla. Todellisuus kehittyy ensin, lainsäädäntö seuraa perästä Tekoälyn aiheuttamat haasteet tulevat todennäköisesti tulevaisuudessa kasvamaan yhä suuremmiksi, kun ohjelmiston kehittäjän tai käyttäjän rooli koneen luovassa työssä vähenee entisestään (5). Jos filosofit 1700-luvulla pohtivat ihmisen kykyä toimia luovan työn tekijänä, tulevaisuuden filosofit pääsevät pohtimaan, voiko kone tulla tietoiseksi olemassaolostaan, saada luonnollisen henkilön aseman, ja siten luoda tekijänoikeuksia nauttivia teoksia. Oikeus ei ole tarkkarajaisen muuttumaton, vaan kysymyksiä käsitellään ja säädöksiä tulkitaan tapauksittain. Samalla luodaan perustaa pysyville oikeuskäytännöille. Lainsäädäntö seuraa toimintaympäristöjen muutoksia omassa tahdissaan. Tekoälyn kehittyessä riittävän pitkälle, paineet uudistaa lainsäädäntöä ja sittemmin oikeuskäytäntöä kasvavat. Näiden kautta lopulta koetellaan mahdolliset tulevaisuuden tulkinnat tekoälyn ja ihmisälyn luovuuden eroista. EU:n tekoälydirektiivin (6) kehittämisessä ja standardisoimisprosesseissa erilaisille teknologisille ratkaisuille kehittyvät kaupallista tuotekehitystä jäljessä, mutta perusajatus säädösten kehittäjillä on yhteinen ja selkeä: koneen ei pidä sallia toimia ihmistä vastaan. Lähteet Riku Neuvonen: Yleistä ja yksityistä etua - Tekijänoikeuden oikeutusperusteet (helda.helsinki.fi) Teoksessa Muuttuva tekijä. (2020). Helsingin yliopisto. Tekijänoikeuslaki (TekijäL) 1. 1 § (22.5.2015/607) (finlex.fi) Tekijänoikeuslaki (TekijäL) 1. 7 § (22.5.2015/607) (finlex.fi) Pitcher, Laura. Why Is AI Art So Cringe? (Vice.com)  20.1.2023 Vice Magazine. Wang, Sofia (2022). Tekoäly ja luovuus - Voisiko luova kone kuulua tekijänoikeussuojan piiriin? (twobirds.com) Blogikirjoitus 8.3.2022 European Commission: Regulatory framework proposal on artificial intelligence.

Tekoäly asiantuntija-artikkelin kirjoittamisen tukena

http://Koodikielen%20nollia%20ja%20ykkösiä%20riveissä%20sinimustalla%20pohjalla.
11.2.2023

Virheellisen ja valheellisen tiedon levittäminen verkossa on kimurantti ongelma. Halusin kirjoittaa asiantuntija-artikkelin tekoälyn roolista virheellisen tiedon leviämisessä. Tukeuduin ensimmäistä kertaa urallani tekoälyyn artikkelin sisällön jäsentelyssä. Kokeilun jälkeen ymmärsin, miksi tulevaisuuden asiantuntijatyössä tekoäly tulee kaikkien työpöydälle. Keskusteleva ChatGPT vastaa kysymyksiin Kysyttäessä, mikä on ChatGPT, tekoäly esittelee itsensä seuraavasti: "ChatGPT on OpenAI:n kehittämä tekoälyn keskustelumalli. Se käyttää syvällisen oppimisen tekniikkaa, jota kutsutaan muuntajiksi, luodakseen ihmisen kaltaisia vastauksia tekstinsyötteisiin. Malli on koulutettu laajalla tekstidatan korpuksella, ja se pystyy suorittamaan erilaisia kielellisiä tehtäviä, kuten tekstin tuottamista, tekstin täydentämistä ja kysymyksiin vastaamista. ChatGPT on suunniteltu vastaamaan monenlaisiin aiheisiin, kuten yleistietoon, historiaan ja tieteeseen, ja se voi käydä keskusteluja, jotka ovat sekä mukaansatempaavia että informatiivisia." Kirjoitin kysymyksen tekoälyn roolista disinformaation leviämisessä ChatGPT-tekoälyohjelman jutusteluruutuun. Sain runsaasti tekstimassaa silmänräpäyksessä. Tekoäly ei tarjonnut itselleni täysin uutta tietoa. Sen sijaan se koosti virkkeitä, jotka tarjosivat useita eri näkökulmia kysymykseeni. Tekoäly listasi erilaisia ilmiöön liittyviä avaintermejä, joista kaikkia en olisi ehkä muistanut huomioida. Tekoäly antaa siis lisäkapasiteettia asiantuntijatyölle. Olennaisen tiedon suodattaminen, esimerkiksi artikkelin näkökulman valinta ja ajatusten kiteyttäminen, jäävät edelleen asiantuntijan tehtäväksi. DeepL tarjoaa sujuvia käännöksiä Nappasin ChatGTP:n tuottaman englanninkielisen tekstin talteen. Artikkeliani varten käänsin sen DeepL Translate -ohjelmalla suomeksi. Saksalaisen tekoäly-yrityksen DeepL GmbH:n kehittämä DeepL käyttää neuraalista konekäännöstekniikkaa (NMT). DeepL:n tuottamat käännökset pyrkivät luonnolliseen kieleen. Oma kokemus on, että se tuottaa toimivia käännöksiä suomen ja englannin välillä. Palvelu on käytettävissä maksuttomasti. Asiantuntijan avaintaito on kyky arvioida ja muokata tekoälysisältöjä Kun tekoälyn tuottama tietosisältö oli käännetty englannista suomeksi, silmäilin tekstiä ja ryhdyin muokkaamaan sitä mieleisekseni. ChatGPT tuottaa nopeasti tekstikappaleita, jotka näyttävät ensivilkaisulla vakuuttavilta. Tekoäly tuottaa tarjoamansa tietosisällöt teksteiksi rakenteella, joka sille on opetettu. Se on edukseen, kun asioita halutaan luetella. Mutta jos tekstiä käydään tarkemmin lävitse, tulee selväksi, että sisällössä on turhaa toisteisuutta. Alla on vertailun vuoksi ChatGPT:n ja ihmisen kirjoittamat tekstikappaleet. Kyseessä on tekoälyn rooli virheellisen tiedon levittämisessä verkossa. Tunnistatko tekoälyn ja ihmisen kirjoittaman tietosisällön eron? Tekoäly on työkalu ja, kuten mitä tahansa työkalua, sitäkin voi käyttää hyvään tai pahaan. Tekoälyllä on kuitenkin yhteiskuntaan merkittävästi suurempi vaikutus kuin monella muulla välineellä, minkä takia etiikalla ja vastuullisuudella on sen hyödyntämisessä suuri rooli. Tekoälyn sovellusten ja päätösvallan lisääntyessä pelkkä tekninen ongelmanratkaisu ei enää riitä sen kehittämiseen. Eettisen päätöksenteon mahdollistaminen ja varmistaminen on huomattavasti laajempi kysymys, jonka ratkomiseen tarvitaan laajasti osaajia eri aloilta. (1) Tekoälyn vaikutus väärän tiedon leviämiseen riippuu viime kädessä siitä, miten teknologiaa kehitetään ja käytetään. On tärkeää varmistaa, että tekoälyjärjestelmät suunnitellaan ja niitä käytetään tavalla, joka edistää avoimuutta ja vastuullisuutta, eikä niitä käytetä väärän tiedon vahvistamiseen tai yleisen luottamuksen heikentämiseen. Yhteenvetona voidaan todeta, että tekoälyllä voi olla merkittävä rooli väärän tiedon tuottamisessa ja torjumisessa, ja meidän on yhteiskuntana varmistettava, että teknologiaa kehitetään ja käytetään vastuullisella ja eettisellä tavalla. (2) Tietosisältöjen erot eivät päällisin puolin ole kovin suuria. Teksteistä on erotettavissa, että ensimmäinen pyrkii esittämään kiteytetysti laajoja toisiinsa kytkeytyviä syy-seuraussuhteita, kun toinen luettelee pintapuolisemmin ilmiötä. Artikkelia kirjoittavan asiantuntijan työn kannalta merkitystä on vain sillä, miten lukija kokee lopullisen tekstin hyödyllisyyden. Tekoäly tukee ihmisen työtä Suunnittelemani artikkeli tekoälyn roolista virheellisen ja väärän tiedon levittämisessä voi hyötyä jossain määrin tekoälyn käytöstä. En ole aihepiirin syväasiantuntija, joten harkitsen vielä koko kirjoituksen lopullista näkökulmaa. Mietin, mitä uutta sanottavaa tähän aiheeseen minulla viestinnän asiantuntijana voisi olla. Tekoälyn tarjoama tuki tiedonkeruulle on valjastettavissa osaksi asiantuntijatyön rutiineja. Koen, että ChatGTP on tällä hetkellä välineenä kuin laajennettu Google-haku. Oleellisinta jokaiselle asiantuntijalle tässä vaiheessa tekoälyn kehitystä on olla tietoinen sekä tekoälyn laajoista hyödyistä että mahdollisista haitoista. Tulevaisuutta kohti tärkeintä on, että tekoälyjä kehitetään vastuullisesti ja ihmisten hyväksymien eettisten periaatteiden mukaisesti. "Yhteiskunnan tehtävänä on varmistaa, että tekoälyä kehitetään ja käytetään vastuullisesti ja eettisesti ja että sen hyödyt maksimoidaan ja mahdolliset haitat minimoidaan." - ChatGPT 11.2.2023 Lähteet Laitio, Paula: Tekoälyn älykkyydestä vastaa ihminen. Blogi 12.9.2021 (vere.fi) ChatGPT 11.2.2023 https://chat.openai.com/chat

Tekoälyn keskeiset ongelmat

6.11.2020
Mikko Kettunen, Niklas Koro & Jake Pärssinen

Tämä blogimerkintä on syntynyt osana kirjoittajien opintoja, tehtävänä oli pohtia tekoälyn ja robotiikan eettisiä kysymyksiä syyslukukaudella 2020. “Tekoäly eli keinoäly on tietokone tai tietokoneohjelma, joka kykenee tekemään älykkäinä pidettäviä toimintoja. Tekoälyn tarkempi määrittely on avoin, koska älykkyyttä itsessään on vaikea määritellä” [1]. Tekoäly on vielä todella uusi ja hyvin nopeasti kehittyvä asia, jonka osalta on hyvä huomioida myös kehityksen mukana tulevat ongelmat ja riskit. Keskeiset ongelmat liittyvät tietoturvaan, käyttökohteisiin ja kehittäjien ennakkoluuloihin. Ongelmakohtiin tulisi keskittyä jo varhaisessa vaiheessa, ennen kuin ongelmat kasvavat suuremmiksi. Voiko tekoäly olla rasistinen? Tekoäly on itsenäisesti toimiva ja oppiva tietokone tai ohjelma, jonka toiminnassa saattavat näkyä sen valmistaneen henkilön tai henkilöiden omat mahdolliset mielipiteet ja ennakkoluulot. Tästä aiheesta on useita ikäviä esimerkkejä. Vuonna 2017 saippuan annostelija tunnisti ainoastaan valkoihoisen henkilön kädet, mutta ei lainkaan tummaihoisen käsiä. Kyseisiä annostelijoita valmistava yritys kertoi, että ongelma johtui siitä, että laitetta ei ollut  testattu tummalle iholle. Toinen ikävä esimerkki paljastui vuonna 2019 Georgian teknillisessä yliopistossa tehdyssä tutkimuksessa. Kävi ilmi, että itseohjaavat autot ajavat helpommin tummaihoisten kuin valkoihoisten jalankulkijoiden päälle. Jälleen kerran syy tähän oli se, että kyseinen teknologia oli suunniteltu tunnistamaan valkoinen iho, mutta ei tummaa [2]. Tekoälyn rasistisiin ja syrjiviin ongelmiin voitaisiin luoda maailmanlaajuiset standardit, joille olisi perustettu jokin tekoälyjen toimia seuraava ja tarkastava taho. Näin yksittäisten henkilöiden takia vääristyneet tekoälyt voitaisiin karsia pois jo ennen kuin ne pääsevät markkinoille. Tekoäly, susi lampaan vaatteissa? Tekoälyä voidaan käyttää tarkoituksiin, jotka ovat ristiriidassa yleisten moraalikäsitysten kanssa. Yksi hyvä esimerkki tästä on kasvojentunnistuksen kehittäminen. Julkisilla paikoilla käytettävä automaattinen kasvojentunnistus voi olla hyödyllistä esimerkiksi rikollisten etsinnässä, mutta tätä samaa teknologiaa voidaan myös käyttää vähemmän hyviin tarkoituksiin. Esimerkiksi jokin autoritäärinen valtio voi alkaa käyttämään samaa teknologiaa poliittisten aktivistien tunnistamiseen. Onko tällaisten teknologioiden kehittäminen alkuunkaan eettistä, ja voidaanko näitä ongelmia edes ratkaista laeilla ja säännöstelyillä? Pystyitkö elämään suurennuslasin alla? Tekoälyä pystytään käyttämään ihmisten seuraamiseen esimerkiksi kasvojentunnistuksen ja sijaintitietojen avulla. Näiden myötä saadaan kerättyä todella yksityiskohtaista tietoa henkilöiden liikkeistä ja toiminnasta. Eettisestä näkökulmasta pohdittuna tämä saattaa poistaa ihmisiltä oikeuden yksityisyyteen, jos heidän liikkeitään tarkkaillaan jatkuvasti. Kuinka moni on halukas luopumaan yksityisyydestään ja hyväksymään sen, että tekoäly pystyy seuraamaan hyvinkin tarkasti mitä tietty henkilö tekee päivän aikana? Näiden tietojen joutuessa vääriin käsiin tai vääriin tarkoituksiin käytettäväksi, voi jopa turvallisuus olla uhattuna. Lähteet Tekoäly, aukeaa Wikipedia The race problem with Artificial Intelligence, artikkeli aukeaa metro.co.uk Surveillance Redefined: Advances in Vision AI Drive China’s Leading Security Market, blogimerkintä aukeaa cometlabs.io  Website uses artificial intelligence to generate realistic human faces from scratch, uutinen aukeaa globalnews.ca Kirjoittajat Hyvinvointi- ja terveysteknologian kolmannen vuoden opiskelijat Mikko Kettunen, Niklas Koro ja Jake Pärssinen. Hyvinvointi- ja terveysteknologia on yksi tieto- ja viestintätekniikan tutkinto-ohjelman ammatillisista pääaineista. Hyvinvointi- ja terveysteknologiaan erikoistuneet insinöörit hallitsevat itse teknologian lisäksi teknologian käytännön soveltamiseen, käytettävyyteen ja regulaatioon liittyvät näkökulmat.

Päätökset verkossa eivät olekaan omiasi

9.10.2020
Juho Oksa, Suvi Sihvola & Valtteri Rauhala

Tämä blogimerkintä on syntynyt osana kirjoittajien opintoja, tehtävänä oli pohtia tekoälyn ja robotiikan eettisiä kysymyksiä syyslukukaudella 2020. Tekoäly herättää monia kysymyksiä, joihin ei ole helppoja vastauksia. Mitä enemmän kysymyksiä esittää, sitä enemmän kysymyksiä asia herättää. Haluaisitko että tekoäly päättää puolestasi, mihin suostut? Kenen vastuulla päätös silloin on? Kuinka pitkälle jokaisen tulisi saada päättää siitä, mihin hänen tietojaan käytetään? Voiko tekoäly olla inhimillistä? Tekoälyjen käyttö ja käyttäjätietojen massakerääminen on arkipäiväistynyt, mutta monesti käyttäjät eivät ole tietoisia asiasta. Järjestelmät, joilla käyttöehtoja ja tekoälyn toimintaa pystyy paremmin ymmärtämään, tulevat olemaan elintärkeitä tällaisessa ympäristössä. Tällaiset kehittämisprojektit ovat vasta alkuvaiheissaan ja niiden laillisuus ja etiikka tulevat olemaan ensiarvoisen tärkeässä asemassa luomaan ymmärrettävää tulevaisuutta. Se, että tekoäly automaattisesti päättää puolestasi, kuulostaa hurjalta. Voisiko tekoälyn tekemä päätös olla kuitenkin perustellumpi, koska tekoälyn mahdollisuudet prosessoida tietoa ovat paljon ihmisaivoja laajemmat? Artikkelissa AI and the Ethics of Automating Consent on maininta Privacy Assistant - projektista. Privacyassistant.org – sivustolla mainitaan seuraavasti (vapaasti suomennettuna): “Me näemme henkilökohtaiset tietoturva-avustajat älykkäinä agentteina, jotka oppivat käyttäjänsä mieltymykset ajan kuluessa, puoliautomaattisesti määrittäen asetukset ja päättäen yksityisyysasetukset käyttäjän puolesta.” Kuulostaa mukavalta ja elämää helpottavalta. Tämän Privacy Assistant - projektin tavoite on siis helpottaa käyttäjän päätöksentekoprosessia. Käyttöehdot paremmin haltuun Tiedätkö, mihin kaikkeen suostut mennessäsi jollekin internetsivulle? Nykyään ihmiset hyväksyvät käyttöehtoja erittäin kevyesti. Rekisteröinnin kohdalla rasti ruutuun tai ihan vain sivujen tai sovelluksen käyttäminen tarkoittaa, että suostut tietojesi keräämiseen ja käyttämiseen. Vaikka palveluntarjoajan tarkoitus olisikin, että käyttäjä on ehtoihin tutustunut ja ymmärtänyt ne, nykymaailman käyttöehdot ovat usein kymmeniä sivuja pitkiä ja täynnä lakipykäliä, joten vaikka käyttäjä ne kävisikin läpi, ei ole takuuta, että käyttäjä ymmärtää mihin on suostumassa. Mitäpä jos ihmisen sijasta käyttöehtoihin tutustuisikin tekoäly? Ihminen luo itsestään tekoälyn avulla profiilin. Tekoäly voi tarkistaa, minkälaiseen käyttöön tämä ihminen on valmis tietonsa luovuttamaan. Tämän jälkeen tekoäly voisi vertailla käyttöehtoja profiiliin ja todeta, onko käyttöehdot tälle ihmiselle hyväksyttävät. Jos kaikki näyttää olevan ihmisen suostumus tottumusten sisällä, tekoäly antaa suostumuksen. Jos ehdoissa on konflikteja tämän ihmisen profiiliin, tekoäly luo selitykset jokaisesta ristiriidasta ehtojen ja profiilin välillä. Ristiriitatilanteessa ihminen voi muodostaa tiedostetun päätöksen hyväksyä tai hylätä ehdot. Mutta voiko tämä tekoäly tehdä paremmin ymmärretyn suostumuksen kuin ihminen? Testeissä todettiin että lähes 80% tekoälyn valinnoista olivat käyttäjien tahtojen mukaisia. Tämä saattaa kuulostaa kauhistuttavan suurelta virhemäärältä. Joka viides tekoälyn arvio olisi väärin, mutta kun sitä vertaa ihmisten nykyiseen tietoon ja ymmärrykseen käyttöehdoista, vaikuttaa tekoäly tekevän ihmistä paremmin ymmärretyn suostumuksen. Ja teknologian ja tekoälyn parantuessa tarkkuus voi vain parantua. Voiko sanoa, että ihminen on hyväksynyt käyttöehdot, jos ei ole ikinä nähnytkään niitä? Mistä voidaan olla varmoja, että käyttäjän on suostumusprofiilia luodessa ymmärtänyt jokaisen päätöksen. Mitä tehdään, kun ihmisen tahdonvastainen suostumus on annettu tekoälyn tekemän virheellisen päätöksen takia? Kenen vastuulla päätös on Jos päätöksen tekee kone, kuka siitä on vastuussa? Käyttäjä, joka on ottanut järjestelmän käyttöön? Voiko tekoäly olla vastuussa aktiivisena toimijana, vai kantaako esimerkiksi lain silmissä vastuun aina joko algoritmin kehittäjä, käyttäjä tai esimerkiksi algoritmin käytön hyväksynyt viranomainen? Kun määritetään päätöksestä vastuussa olevaa tahoa, oleellista on tietää kuka on vastuussa datasta, jonka pohjalta tekoäly toimii mikä on ohjelmoitu toimintaperiaate kuinka suuri on ollut käyttäjän oma osallisuus, esimerkiksi määrittäessä oman profiilinsa asetuksia. Todennäköisesti toistaiseksi erilaisten tekoälyjen omissa käyttöehdoissa mainitaan käyttäjän olevan vastuussa. Melkoinen dilemma olisikin, jos tekoäly huomaisi, että käyttäjä ei profiilinsa perusteella hyväksyisi tekoäly-ohjelman omia käyttöehtoja. Lähteet Artikkeli (Georgetown University) 2018. Privacyassistant.org Opas tekoälyn etiikkaan (PDF), AIsociety.fi Kirjoittajat Hyvinvointi- ja terveysteknologian kolmannen vuoden opiskelijat Juho Oksa, Suvi Sihvola ja Valtteri Rauhala. Hyvinvointi- ja terveysteknologia on yksi tieto- ja viestintätekniikan tutkinto-ohjelman ammatillisista pääaineista. Hyvinvointi- ja terveysteknologiaan erikoistuneet insinöörit hallitsevat itse teknologian lisäksi teknologian käytännön soveltamiseen, käytettävyyteen ja regulaatioon liittyvät näkökulmat.

Tekoälyn etiikka pohdinnassa – tuhoisa terminaattori vai hellä hoivabotti?

30.1.2020
Tiina Huhtanen

“Olemme kokeneet, mihin teknologia johtaa palvellessaan ihmismielen tuhoisaa puolta. Tälle kuolettavalle yhdistelmälle täytyy tehdä jotakin. Keinot julmuuden harjoittamiseksi ja joukkomurhien tekemiseksi on kehitetty huippuunsa, eikä teknologiaa voi enää pysäyttää. Nyt on käännyttävä ihmismielen puoleen.”  –Jonathan Glover, Ihmisyys. 1900-luvun moraalihistoria. Kun kuulee sanan ”tekoäly”, vain harva kokee täysin neutraaleja tunteita. Tekoälyyn liittyy vahvoja ennakkoluuloja ja toisaalta myös epärealistisia odotuksia. Jonkun mielestä koneet ja robotit vievät ihmisten työt, toisen mielestä tekoälyllä ratkaistaan jopa ihmiskunnan suurimmat ongelmat sodista ilmastonmuutokseen. Määritelmällisesti tekoäly tarkoittaa sitä, että koneen avulla luodaan, mallinnetaan tai jäljitellään niitä ihmisen toimintoja, jotka tulkitaan älyllisiksi. Kehityksessä käytetään esimerkiksi tietojenkäsittelytiedettä, matematiikkaa, kielten tutkimusta ja sosiolingvistiikkaa.[1] Myös eettiset kysymykset ovat tekoälyn tutkimuksen ja kehittämisen keskiössä. Selvää on, että teknologia kehittyy huimaa vauhtia ja tulevaisuudessa perinteisten ihmistöiden rinnalla nähdään myös tehtäviä, jotka korvaantuvat osittain tai kokonaan roboteilla. Teollisen vallankumouksen jälkeen pelättiin samoin ihmistyön häviämistä, mutta tosiasiassa teknologinen kehitys tarkoitti tuolloin vapaa-ajan lisääntymistä mekaanisten töiden siirtyessä enenevässä määrin ihmisiltä koneille. Samalla mahdollistui myös täysin uusien, ennen tuntemattomien, ammattikuntien synty. Tämän päivän tekoälyn asiantuntijat vaikuttavat olevan yksimielisiä siitä, että ihmisyyttä koneet eivät tule korvaamaan.[2]  Eettisen kysymyksen voi kääntää myös robotiikan hyväksi: jos teknologian käyttö lisää esimerkiksi potilasturvallisuutta, olisi epäeettistä olla käyttämättä sitä.[3] Tekoälyyn ja robotiikkaan liittyviä eettisiä kysymyksiä tämä yksimielisyys ei kuitenkaan poista. Tekoäly on hyvä kumppani, mutta potentiaalisesti huono isäntä. Terveysalalla eettiset kysymykset ovat erityisen keskeisessä asemassa. Tällä hetkellä näyttää siltä, että tekoäly ei tule korvaamaan hoivatyötä, mutta sen avulla voidaan vapauttaa inhimillisiä resursseja siihen käyttöön, joka aina tuntuu olevan kortilla: aikaan. Aikaan olla toista ihmistä lähellä ja aikaan kohdata ihminen ihmisenä. Tekoälyn etiikasta on tehty lukemattomia arvokoodistoja. Tässä blogissa käsittelen näistä yhtä, niin sanottua Montrealin julistusta, koska siinä tiivistyy kirkkaana ne haasteet ja toisaalta hyödyt, mitä eettisellä tutkimusotteella voidaan saavuttaa myös tekoälyn kanssa. Montrealin julistuksen periaatteet ovat: hyvinvoinnin autonomian kunnioittamisen yksityisyyden ja intimiteetin suojelun solidaarisuuden demokraattisen osallistumisen oikeudenmukaisuuden diversiteetin säilyttämisen varovaisuuden vastuullisuuden ja kestävän kehityksen periaatteet.[4] Seuraavassa tarkastelen näitä periaatteita siten kuin pyrimme Peili-hankkeessa huomioimaan eettiset kysymykset sovelluksen ja siihen liittyvän chatbotin kehityksessä. Peili-hankkeessa kehitetään sovellusta ehkäisemään nuorten miesten syrjäytymistä. Sovellukseen on tarkoitus tehdä myös tekoälypohjainen chatbot, joka voi paitsi antaa vinkkejä vaikkapa harrastusryhmän löytämiseen, opiskelupaikan hakuun tai CV:n (curriculum vitae, ansiolista) teroittamiseen, myös oppimalla ”tutustua” käyttäjäänsä ja antaa hänelle henkilökohtaisempia ja paremmin osuvia vinkkejä ja tietoa. Hyvinvoinnin periaate Tekoälyjärjestelmien avulla pitää pyrkiä hyvinvoinnin kasvuun. Peili-sovelluksen tavoitteena on auttaa kohderyhmää hyödyntämään omaa potentiaaliaan niin, että omat haaveet ja vahvuudet saadaan valjastettua tulevaisuuden tavoitteiden realisoitumiseen. Autonomian kunnioittamisen periaate Tekoälyjärjestelmien tulee kunnioittaa ihmisten itsemääräämisoikeutta ja lisätä ihmisten elämän- ja ympäristön hallintaa. Peilisovellus ei perustu hoitosuhteeseen, eikä tavoitteita määritellä ylhäältä käsin, vaan sovelluksen käyttäjän omista lähtökohdista ja pohdinnoista käsin. Sovellus auttaa löytämään omat vahvuudet ja kehittämään niitä. Yksityisyyden ja intimiteetin suojelun periaate Ihmisten yksityisyyttä on suojeltava, jotta tekoälyjärjestelmät eivät pääse tunkeutumaan ihmisten tietoihin, keräämään arkaluontoista dataa ja arkistoimaan sitä. Peili-sovelluksen keräämät tiedot eivät tule olemaan minkään yksittäisen toimijan hallussa eikä niitä käytetä markkinointikäyttöön. Peili-sovelluksen tekoäly tukee käyttäjän omia valintoja, ja tietoa kerätään käyttäjän omia tarpeita varten. Ulkopuoliset eivät voi järjestelmästä onkia yksilöitäviä tietoja.  Solidaarisuuden periaate Tekoälyjärjestelmien kehityksen ja käytön tulee tukea ihmisten ja sukupolvien välistä keskinäistä solidaarisuutta. Toteutuessaan Peili-sovellus antaa käyttäjälleen tasa-arvoisemman lähtökohdan työn, harrastuksen tai muun mielekkään tekemisen hakemiseen. Sovellus tukee sitä, että kukaan ei jäisi yhteiskunnan järjestelmien ulkopuolelle, vaan pääsisi paremman elämänhallinnan kautta toimimaan itse osana yhteiskuntaa ja sen kehitystä. Demokraattisen osallistumisen periaate Kaikilla tulee olla pääsy tekoälyjärjestelmien käyttöön, niiden tulee olla ymmärrettäviä ja oikeutettuja. Peili-sovelluksen tekoäly on vapaasti jokaisen tarvitsevan käytössä ja se on maksuton. Sen edelleen kehittäminen tapahtuu yhteistyössä käyttäjien kanssa, jotta sen sisällöt olisivat mahdollisimman ymmärrettäviä. Osallistamisen kautta kohderyhmä pääsee itse vaikuttamaan sovelluksen kehittämiseen. Oikeudenmukaisuusperiaate Tekoälyjärjestelmien kehityksen ja käytön tulee edistää oikeudenmukaisen ja tasa-arvoisen yhteiskunnan luomista. Peili-sovelluksen on tarkoitus tarjota kaikille tasa-arvoisia mahdollisuuksia löytää omat vahvuutensa ja päästä toteuttamaan itseään. Diversiteetin sisällyttämisen periaate Tekoälyjärjestelmien kehityksen ja käytön tulee olla yhteensopiva sosiaalisen ja kulttuurisen monimuotoisuuden säilyttämisen kanssa. Järjestelmät eivät saa rajoittaa elämäntapavalintoja tai henkilökohtaisia kokemuksia. Peili-sovelluksen tekoäly tukee jokaisen omaa yksilöllisyyttä ja arvoa. Tekoälyn kehitys perustuu tasa-arvoisten mahdollisuuksien luomiseen myös heille, jotka uhkaavat jäädä yhteiskunnassa syrjään. Varovaisuusperiaate Tekoälyä kehittävien ihmisten tulee noudattaa varovaisuutta ja ennakoida tekoälyjärjestelmien käytön haitallisia seurauksia. Peili-sovelluksen kehityksessä kiinnitetään jatkuvasti huomiota eettisiin ja moraalisiin periaatteisiin. Sovellus ei anna terveysneuvontaa eikä hoito-ohjeita. Mikäli käyttäjällä on tarve saada apua terveystoimijoilta, tekoäly ohjaa käyttäjän palvelevaan numeroon, jossa vastaa ihminen, ei kone. Tekoäly oppii, mutta sen oppimista rajoitetaan eettisin periaattein. Vastuullisuusperiaate Tekoälyjärjestelmien kehittäminen ja käyttö ei saa vähentää ihmisen päätöksenteon vastuuta. Peili-sovellus on apuväline, mutta ei päätöksentekijä. Sen tehtävä on antaa ihmiselle mahdollisuuksia löytää ratkaisuja elämän solmukohdissa, mutta se ei tee päätöksiä ihmisen puolesta. Sisällöistä vastaa aina elävä ihminen, vastuuta ei siirretä koneelle tai tekoälylle. Kestävän kehityksen periaate Tekoälyjärjestelmien kehittäminen ja käyttö tulee toteuttaa niin, että taataan maapallon vahva ympäristöllinen kestävyys.  Peili-sovellus auttaa käyttäjiä löytämään heidän oman, täyden potentiaalinsa. Tämä pitää sisällään kestävät, omaa ja muiden hyvinvointia tukevat, ratkaisut. Jokainen nuori, jonka potentiaali saadaan valjastettua oman paremman tulevaisuuden rakentamiseen, rakentaa parempaa ja toimivampaa yhteiskuntaa meille kaikille.[5] Tekoälyn ei siis tarvitse olla pelkoja nostattava tulevaisuuden dystopian ylivertainen ihmisten alistaja. Sitä ei tarvitse myöskään ylistää ratkaisuksi kaikkiin ihmisten ongelmiin. Kuten tämän blogin alussa oleva lainaus julistaa: nyt on käännyttävä ihmismielen puoleen. Inhimillisyys ja tahto tehdä hyvää antavat hyvän pohjan myös inhimillisesti älykkään tekoälyn kehittämiseen. Sellaisen, joka ymmärtää ihmisen tunteita, hyveitä ja heikkouksia. Lähteet: Andersson, Cristina – Haavisto, Ilkka – Kangasniemi, Mari – Kauhanen, Antti – Tikka, Taneli – Tähtinen, Lauri – Törmänen, Antti 2016. Robotit töihin: Koneet tulivat – mitä tapahtuu työpaikoilla? EVA-rapotti. Helsinki: Taloustieto Oy. Glover, Jonathan 2003. Ihmisyys. Helsinki: Like.  Honkela, Timo 2017. Rauhankone. Tekoälytutkijan testamentti. Helsinki: Gaudeamus. Ollila, Maija-Riitta 2019. Tekoälyn etiikkaa. Helsinki: Otava. Wachter, Robert 2017. The Digital Doctor: Hope, Hype, and Harm at the Dawn of Medicine’s Computer Age. New York: McGraw-Hill Education. Kirjoittaja Tiina Huhtanen on teologian tohtori ja sairaanhoitajaopiskelija, joka työskentelee Peili-hankkeen terveyden edistämisen assistenttina.

Tekoäly ehkäisee syrjäytymistä

11.6.2019
Vesa Ollikainen

Syrjäytymisen ehkäisemiseksi etsitään ratkaisuja. Auttaisiko tekoäly? Mitä hyödyllisen tekoälysovelluksen tulisi tehdä ja miten sen pitäisi toimia? Muodostetaanko samankaltaisista käyttäjistä heimoja, vai suositteleeko sovellus tukijärjestöjä? Tekoälysovellusten kehittämistä ei voi erottaa eettisistä pohdinnoista. Esimerkiksi vuorovaikutus tekoälyn kanssa kätkee monta kysymystä. Filosofi Maija-Riitta Ollila kirjoittaa nykyajan ”hellästi tuuppivasta tekoälystä”, joka ohjaa toimintaamme huomaamattomilla tavoilla, parhaimmillaan hyvää tekevien valintojen suuntaan. Toisaalta hellä tuuppiminen voi väärissä käsissä muuttua jatkuvaksi ja velvoittavaksi valvonnaksi, ja yksilön autonomian loukkaamiseksi [1]. Margaret A. Boden pohti tekoälyn ja yhteiskunnan suhdetta terävässä artikkelissaan jo 1970-luvulla [2] ennakoiden ”some-peukuttamisen”. Hän kirjoitti automatisoitumisen ja ”älykkäiden koneiden” vaikutuksesta yksilön osallisuuteen ja yhteiskuntiin. Boden näki tulevaisuusvisiossaan, että liian helppo vaikuttaminen yhteiskunnallisiin asioihin nappeja napsutellen omalta kotisohvalta kotipäätelaitteella voi paradoksaalisesti vähentää yksilön osallistumisen tunnetta ja vieraannuttaa yhteiskunnasta. Boden näki uhkana ”tietokone-eliitin” muodostumisen: vain eliitin jäsenet ymmärtävät, miten laskenta toimii, ja heistä tulee ainoita, jotka eivät koe syrjäytyneensä yhteiskunnasta [2]. Boden tarjosi tähän ratkaisuna ohjelmoinnin ja tietojenkäsittelyn ajatusmallien opettamisen kouluissa. Kuin vastauksena vuosikymmenten takaisen artikkelin toiveeseen, vuoden 2016 alussa ikäkaudelle sopiva ohjelmoinnin opetus otettiin Suomessa mukaan valtakunnallisiin opetussuunnitelman perusteisiin [3]. Ohjelmoinnin käsitteen sisään mahtuvat sangen hyvin myös tekoälyn perusteet. Tekoälyn perusteiden oppiminen tekee mahdolliseksi eettisen pohdinnan, joka ei jää tuuleen heilumaan. Ratkaisujen vaikutusta on helpompi arvioida, kun on hankittu käsitys siitä, mikä tekoälyn saralla on mahdollista, mitä tekoäly voi datasta oppia, ja miten se tapahtuu. Tekoäly ei ole aina monimutkaista. Sen taustalla on koneoppimismenetelmiä, joiden tavoitteena on klusteroida (ryhmitellä) tai luokitella havaintoja tai ennustaa jonkin muuttujan arvoja. Monet menetelmistä ovat varsin suoraviivaisia: niiden toimintaperiaatteen ymmärtäminen ei vaadi juurikaan matemaattista osaamista. Ratkaisuja voi ottaa käyttöön valmiina moduuleina ja rakentaa niistä kokonaisuuden, joka ratkaisee oman haasteen. Tätä voi verrata Lego-palikoilla rakenteluun: taitavaksi linnojen ja kaivinkoneiden rakentelijaksi voi oppia ilman, että tarvitsee sorvata ensimmäistäkään Lego-palikkaa itse. Työpajoja nuorille Metropolian PEILI-hankkeen työpajoissa syrjäytymisvaarassa olevat nuoret miehet kehittävät tekoälysovellusta yhdessä asiantuntijoiden kanssa. Nuoret määrittelevät tekoälyyn pohjautuvan mobiilisovelluksen, jonka tavoitteena on auttaa löytämään työ- ja koulutuspolkuja ja vahvistamaan sosiaalisia verkostoja. Määrittelyn tavoitteena on sovelluksen rajaaminen ja sen ominaisuuksien kuvaaminen. Työpajojen erääksi lähtökohdaksi on valittu tekoälymenetelmien avaaminen nuorille: jotta tekoälysovellusta voi määritellä, on ymmärrettävä, mitä tekoäly on. Työpajojen ohjelmasta puolet rakentuvat tälle lähtökohdalle, puolet sosiaalialan ja terveyden edistämisen tavoitteille. Tekoälyn salat avataan PEILI-työpajojen osallistujille tutustumalla menetelmien toimintaperiaatteisiin kiinnostavien esimerkkien kautta. Tuokiot rakentuvat seuraavasti: johdanto, jossa avataan jotain tekoälyn tavoitetta: klusterointi, luokittelu, suosittelu sen toteuttavaa algoritmia eli ratkaisumenetelmää: k-means, päätöspuu, assosiaatiosäännöt työskentely Weka-koneoppimisohjelmistolla tietoaineiston parissa aineiston esikäsittely analyysi tulosten tulkinta johtopäätösten teko purku ja pohdinta, jossa keskustellaan tuloksista, sovellettavuudesta ja eettisistä kysymyksistä Työpajoissa ilmenee, kuinka rajallisella panoksella voidaan ymmärrettävästi avata tekoälymenetelmiä. Nuoret kokevat aihepiirit innostavaksi, ja saavat työkaluja heitä palvelevan sovelluksen määrittelyyn niin teknologisia kuin eettisiä seikkoja huomioiden. Joku voi toki epäillä, että pikatietoiskuilla ”vedetään mutkat suoriksi” − onhan nykyaikainen tekoäly muutakin kuin yksinkertaisia menetelmiä ja helposti avattavia esimerkkejä. Taustalla olevat ongelmat ovat silti selkeitä: esimerkiksi eräs tämän hetken muotiongelmista, kuvantunnistus, on luokitteluongelma, jossa kukin kuvan kohteista osoitetaan johonkin etukäteen määrätyistä luokista. Tällaisia luokkia (kuten “kissa” tai “liikennemerkki”) on toki erittäin suuri määrä. Luokittelijoiden taustalla oleva matematiikka on kuvailtavissa ja havainnollistettavissa ymmärrettävästi. Erinomainen esimerkki tästä on Andrew Glassnerin  kirjoittama yli 1700-sivuinen oppikirja [4], jossa hän avaa kuvantunnistuksessa käytettyjä ns. konvoluutioneuroverkkoja matemaattisesti osaamattomalle yleisölle. Kun kiinnostus saadaan nuoressa heräämään ymmärrettävillä esimerkeillä, voi hän motivoitua hankkimaan lisätietoa itse ja arvioimaan tekoälyratkaisujen vaikutuksia omaan elämään. Tekoälyä tarpeeseen PEILI-työpajojen sovelluksen määrittelytyö on tätä kirjoitettaessa kesken. Ensimmäisessä työpajassa nuoret miehet määrittelivät syrjäytymistä ehkäisevän sovelluksen käyttötarpeita, ja toisessa tarkentui nuorten näkemys siitä, millainen sovellus toimii heidän hyödykseen ja millaista vuorovaikutuksen sen kanssa tulisi olla. Ilmeni, että työpajoissa olleet nuoret kaipaavat keskustelubottia, joka löytää sopivimmat tukijärjestöt sekä ehdottaa työ- ja koulutuspaikkoja ja tapahtumia. Botti tarjoaa myös anonyymin yhteyden samankaltaisiin käyttäjiin. Kyseessä on suosittelujärjestelmä, jonka tuuppii hellästi kohti nuoren itsensä asettamia tavoitteita. PEILI-hankkeen työpajoja suunniteltaessa ja toteutettaessa olen päässyt paitsi opettamaan tekoälyn perusteita myös keskustelemaan nuorten kanssa siitä, millaista tekoälyä he haluavat. Samalla minulle on vahvistunut käsitys siitä, että tekoälymenetelmien perusteiden osaaminen on kansalaistaito, joka on helposti hankittavissa. Se on myös suunta, johon ohjelmoinnin opetusta kouluissa tulee viedä. Kun perusteet ovat hallussa, voi tekoälyn vaikutuksista elämään keskustella paljon paremmin. Lähteet [1]       Ollila, Maija-Riitta. Tekoälyn etiikkaa. Otava, 2019, e-kirjan luvun 6 aliluvut “Hellästi tuuppiva tekoäly” ja “Kevyttä holhoamista”. [2]       Boden, Margaret A., Social implications of intelligent machines. ACM ’78 Proceedings of the 1978 annual conference - Volume 2, s. 746-752. [3]       Opetushallitus, Perusopetuksen opetussuunnitelman perusteet 2014. Saatavilla sähköisesti: https://www.oph.fi/saadokset_ja_ohjeet/opetussuunnitelmien_ja_tutkintojen_perusteet/perusopetus [linkin toimivuus tarkastettu 30.4.2019] [4]       Glassner, Andrew, Deep Learning from basics to practice, vol. 1 ja 2, Imaginary Institute, Seattle, 2018. Kirjottaja Vesa Ollikainen (FT, tietojenkäsittelytiede) työskentelee lehtorina Metropolia ammattikorkeakoulun ICT ja tuotantotalous -osaamisalueella. Hän opettaa ohjelmistotuotannon, tiedonhallinnan ja tekoälyn alaan kuuluvia opintojaksoja sekä toimii tietotekniikan asiantuntijana PEILI-hankkeessa.