Tekoäly vaatii oman ajattelun jatkuvaa uudistamista
Kokeilitko tekoälyä, mutta se ei tuottanutkaan haluttua lopputulosta? Tai ehkäpä päädyit kuluttamaan aikaa tekoälyn tekemien virheiden korjaamiseen. Voi toki olla, että käyttämäsi tekoäly ei ole vielä riittävän hyvä ratkaisemaan ongelmaasi, mutta on myös hyvin todennäköistä, että käytit tekoälyä väärin vanhoihin toimintamalleihin nojaten. Tekoälyn saa toimimaan paremmin silloin, kun uskaltaa kyseenalaistaa omaa tekemistään; onko asiat pakko hoitaa aina juuri tällä tavalla? Sähköposti vie faksiin nähden tuplasti työaikaa Ajatellaanpa maailmaa, jossa työntekijä on tottunut nakuttamaan dokumentin kirjoituskoneella ja sen jälkeen faksaamaan sen vastaanottajalle. Homma hoituu yksinkertaisesti: valmis dokumentti faksiin ja nappia painamalla se lähtee liikkeelle. Kun työntekijälle kerrotaan, että hänen tulee käyttää sähköpostia faksin sijaan, hän turhautuu. Nythän työhön menee kaksi kertaa enemmän aikaa! Ensin dokumentti pitää kirjoittaa kirjoituskoneella, ja koska sitä ei saa mitenkään syötettyä suoraan tietokoneeseen, se pitää vielä kirjoittaa uudelleen tekstinkäsittelyohjelmalla ennen kuin sen voi lähettää sähköpostilla. Kai sitä työaikaa voi tehokkaamminkin käyttää? Sähköpostinhan piti helpottaa arkea! Vasta kun työntekijä kyseenalaistaa toimintansa, ja muuttaa sitä, hän saa todellisen hyödyn irti sähköpostista. Miksi dokumentti pitää kirjoittaa ensin kirjoituskoneella? Voisiko sen sittenkin kirjoittaa suoraan tietokoneella? Onko dokumentista pakko olla paperiversiota edes olemassa jossain mapissa lojumassa? Vanhassa toimintatavassa roikkumiseen monet nokkelat osaavat keksiä hyviä syitä. Esimerkiksi tietokoneella kirjoittaessa lukutaito ja tarkkuus heikkenee, sillä kirjoitusvirheet korostuvat automaattisesti ja virheet voi korjata liian helposti - tietokoneella voi siis kirjoittaa vähän sinnepäin kun taas kirjoituskone vaatii oikeaa ammattitaitoa ja niin edelleen. Mutta nämä syyt ovat vain tekosyitä. Maailma muuttuu ja meidän on syytä muuttua sen mukana. Ei tekoälyä voi käyttää kun… Korkeakoulumaailmassa toistuvat herkästi samat argumentit tekoälyn käyttöä vastaan. Opiskelijat eivät koskaan opi tieteellisen kirjoittamisen käytänteitä, jos he kirjoittavat kaiken tekoälyllä. Tähän haluaisin esittää kysymyksen: mihin tieteellisen kirjoittamisen käytänteitä tarvitaan? Mielestäni ei enää yhtään mihinkään. Annetaan tekoälyn tehdä se, mitä se osaa tehdä hyvin ja jätetään ihmiselle se, mitä tekoäly ei saa aikaan. Minä tunnen monia akateemisesti erittäin lahjakkaita ja viisaita ihmisiä, jotka eivät yksinkertaisesti ole hyviä kirjoittajia. Kirjoittamisen taito ja kyky tutkia ja tuottaa uutta tietoa eivät kulje käsi kädessä. On suorastaan väärin, että tähän asti akateemista menestystä on mitattu kyvyllä järjestellä sanoja peräkkäin kaunopuheiseen muotoon. Kirjoittaminen on ajattelua ja jos sitä ei tee, niin ei opi ajattelemaan. Tämä argumentti saa minut surulliseksi. Minun käy sääliksi niitä, jotka eivät osaa ajatella ilman kirjoittamista. Ajatella ja pohtia voi paremmin ilman kynää ja paperia, kun sille varaa aikaa. Esimerkiksi tunnin kävelylenkki ulkona saa ajatuksen juoksemaan täysin eri tavalla kuin tyhjän paperin tuijottaminen. Ja kävelylenkki on jotain, mitä tekoäly ei tule ikinä tekemään kenenkään puolesta. Tekoäly vie paljon sähköä ja tuhoaa ympäristöä. Jos tähän argumenttiin haluaa tukeutua, niin toivon, että henkilö ei myöskään käytä sosiaalista mediaa tai katso videoita tai kuuntele musiikkia suoratoistona. Toivottavasti hän ei myöskään pelaa videopelejä tai muutenkaan käytä tietokonetta tai puhelinta kun vain välttämättömyyksien hoitamiseen. Toki tekoäly vie sähköä, mutta niin vie kaikki muukin. Jos tällä argumentilla välttelee pelkästään tekoälyä eikä mitään muuta datakeskusten tuottamaa palvelua, kuulostaa se jokseenkin tekopyhältä. “Ei tekoäly osaa kirjoittaa” Välillä ihmettelen sitä, miten ihmiset jaksavat käyttää tekoälyä ideoinnissa ja rakenteen hahmottelussa apuna. Tämän jälkeen he turhautuvat siihen, että ei se tekoäly osannutkaan kirjoittaa artikkelia. Tämä on esimerkki siitä, miten vanhat toimintatavat estävät tekoälyn tehokkaan käytön. Moni roikkuu kiinni siinä ajatuksessa, että teksti on jotenkin kirjoittamisen lopullinen päämäärä. Mielestäni teksti itsessään on sivuseikka, ellei kyse ole kaunokirjallisuudesta. Tekstiä tärkeämpää on ajatuksen välittäminen. Ajatuksen - siis juuri sen mitä ihmisellä itsellään pitää olla. Minä saan tekoälyltä täysin kelvollisia artikkeleita ulos, kun annan tekoälylle haluamani artikkelirakenteen sekä kirjoitan tekoälylle auki artikkelin pääajatuksen, ja avaan ajattelun ja argumentoinnin pääkohdat rakenteeseen otsikoiden alle. Ja kappas, tekoäly kirjoittaakin juuri sellaisen artikkelin, kuin halusin. Jos joku kohta on pielessä, niin pyydän tekoälyä korjaamaan sen itse. Mitään yksittäisiä lauseita pidempiä kokonaisuuksia en ala käsin muokkaamaan. Tietysti voi olla, että tekoälyn teksti ei täysin miellytä tai se ei tunnu omalta. Tärkeämpää on kuitenkin kysyä itseltään, sanotaanko tässä nyt se, mitä minä halusin sanoa. Tuskin ChatGPT tulee koskaan kirjoittamaan samalla tavalla kuin minä, mutta ei se haittaa. Ulkoasu saattaa näyttää vieraalta, mutta jos sisältö edustaa minun ajatteluani, niin olen tyytyväinen. Olen hylännyt vanhakantaisen ajatuksen tekstin omistajuudesta. Minulle riittää, että olen ajatuksen omistaja. Mitä tulevaisuuden työelämä vaatii? Nyt ja enenevissä määrin tulevaisuudessa meidän on iroittauduttavat vanhoista käytänteistä. Mitään ei tule tehdä koska pitää ja on pakko, eikä todellakaan koska “on se hyvä jos”. Miksi pitää? Miksi on pakko? Mitä tässä todella havitellaan? Annetaan tekoälylle se älyllinen osa työstä valmiina, joka vaatii asiantuntijuutta ja annetaan tekoälyn tehdä kaikki muu sen ympärillä. Tämä vaatii luovuutta ja itsekriittisyyttä. Valitettavasti meidän koulutusjärjestelmämme ei tue luovuuden kehittymistä kaikilla aloilla. Tämä on sääli, sillä jatkuva oman toiminnan mukauttaminen tekoälyn kehittyessä ei onnistu ilman luovuutta. Haastan sinut, hyvä lukija, pohtimaan, miten sinä voisitkin tehdä työsi toisin. Aloita purkamalla pois pakkoja ja kyseenalaista sitä, miksi ylipäätään teet, mitä teet. Jos tämä teksti aiheutti sinussa vastareaktioita, toivon, että pohdit tarkasti, mistä vastareaktiot kumpuavat. Kysymys on lopulta siitä kummalla puolella historiaa haluat olla tekoälyvallankumouksen jälkeen.
Metropolian tekoälytutkimus vahvasti esillä kansainvälisessä työpajassa
Metropolia ja Itä-Suomen yliopisto järjestivät yhdessä IWCLUL-työpajan (International Workshop on Computational Linguistics for Uralic Languages), joka kokosi yhteen suomensukuisten kielten tutkijoita ympäri Eurooppaa. Työpaja järjestettiin osana kansainvälistä ACL-yhteisöä ja se tarjosi ajankohtaisen katsauksen uralilaisten kielten kieliteknologiseen tutkimukseen erityisesti tekoälyn ja suurten kielimallien aikakaudella. Laaja kattaus Metropolian tutkimusta Metropolian tekoälytutkimus oli työpajassa poikkeuksellisen vahvasti edustettuna. Työpajaan hyväksyttiin neljä Metropoliassa tehtyä täyttä artikkelia, jotka käsittelivät sekä pedagogisia että kieliteknologisia kysymyksiä useista näkökulmista. Artikkelissa From NLG Evaluation to Modern Student Assessment in the Era of ChatGPT: The Great Misalignment Problem and Pedagogical Multi-Factor Assessment (P-MFA) tarkasteltiin tekoälyn vaikutusta korkeakouluopetuksen arviointikäytäntöihin. Tutkimus toi esiin niin sanotun Great Misalignment Problem -ilmiön, jossa arviointi ei enää mittaa sitä, mitä sen on tarkoitus mitata, kun opiskelijat voivat tuottaa korkeatasoisia lopputuloksia generatiivisten kielimallien avulla. Artikkelissa esiteltiin uusi Pedagogical Multi-Factor Assessment (P-MFA) -malli, joka painottaa oppimisprosessia, monipuolista näyttöä ja pedagogista läpinäkyvyyttä yksittäisten tuotosten sijaan. Wasedan yliopiston kanssa kirjoitetussa artikkelissa Benchmarking Finnish Lemmatizers across Historical and Contemporary Texts arvioitiin suomen kielen lemmatisointityökaluja sekä nykykielisessä että historiallisessa aineistossa. Tutkimus hyödynsi Project Gutenberg -korpusta ja toi ensimmäistä kertaa Trankit-työkalun mukaan suomen lemmatisoinnin vertailuun. Keskeinen tulos oli, että Murre-esikäsittely parantaa merkittävästi lemmatisointituloksia murteellisissa ja historiallisissa teksteissä, kun taas nykysuomessa sen vaikutus on vähäinen. Kuvassa Aki Morooka kertoo normalisointikokeista Ajankohtainen tekoälyn sovellus ennakointiin esiteltiin artikkelissa ORACLE: Time-Dependent Recursive Summary Graphs for Foresight on News Data Using LLMs. Tutkimuksessa kehitettiin uusi menetelmä, jossa uutisaineistosta rakennetaan ajallisesti eteneviä rekursiivisia tiivistysgraafeja suurten kielimallien avulla. ORACLE-menetelmä mahdollistaa uutistiedon kehityskulkujen ja tulevien suuntausten tarkastelun tavalla, joka yhdistää ajallisen rakenteen ja kielimallipohjaisen tiivistämisen. Neljäs Helsingin yliopiston kanssa kirjoitettu artikkeli, Evaluating OpenAI GPT Models for Translation of Endangered Uralic Languages: A Comparison of Reasoning and Non-Reasoning Architectures, keskittyi uhanalaisten uralilaisten kielten konekäännökseen. Tutkimuksessa vertailtiin OpenAI:n GPT-mallien päättelyyn perustuvia ja ei-päättelyyn perustuvia arkkitehtuureja ja analysoitiin niiden suoriutumista matalan resurssin kielissä. Tulokset tarjoavat arvokasta tietoa siitä, millaiset kielimalliratkaisut soveltuvat parhaiten pienten ja uhanalaisten kielten tukemiseen. Metropolian salamapuheet: ketteriä avauksia ajankohtaisiin teemoihin Metropolian näkyvyys IWCLUL-työpajassa ei rajoittunut täysiin tutkimusartikkeleihin, vaan se ulottui vahvasti myös salamapuheisiin. Salamapuheet tarjosivat tiiviin mutta sisällöllisesti painavan katsauksen nopeasti kehittyviin tutkimuslinjoihin, jotka ovat keskeisiä uralilaisten ja muiden pienten kielten kieliteknologialle. Salamapuhe UralicMCP: Turning LLMs into Experts in Endangered Languages with MCP esitteli uuden Model Context Protocol (MCP) -pohjaisen laajennuksen UralicNLP-kirjastoon. UralicMCP:n keskeinen ajatus on liittää suurille kielimalleille sääntöpohjaisia kieliteknologisia työkaluja, kuten morfologinen analysaattori, taivutin, lemmatisaattori ja sanakirjat. Tämä mahdollistaa sen, että kielimallit voivat suorittaa NLP-tehtäviä myös sellaisissa uhanalaisissa uralilaisissa kielissä, joista niillä ei ole juurikaan koulutusdataa. Salamapuheessa esitetyt kokeet osoittivat, että MCP:n avulla kielimallit voivat onnistua tehtävissä, jotka olisivat muuten niille mahdottomia. Lev Kharlashkin otti kantaa karjalan nykytilaan Toinen salamapuhe, From Toki Pona to Uralic: A Grammar-Constrained Pipeline for Low-Resource Language Generation, käsitteli metodologista lähestymistapaa matalan resurssin kielimallien kouluttamiseen. Työssä hyödynnettiin Toki Ponan kaltaista äärimmäisen kontrolloitua kieltä testialustana kieliopillisesti ohjatulle synteettisen datan tuotannolle. Tavoitteena ei ollut itse Toki Pona, vaan skaalautuva menetelmä, joka voidaan siirtää morfologisesti rikkaisiin uralilaisiin kieliin. Salamapuhe toi esiin, miten eksplisiittinen kieliopillinen ohjaus ja tarkistettu synteettinen data voivat kompensoida suurten aineistojen puutetta. Salamapuhe Did Karelian Survive the Year? A Small Data Update tarjosi ajantasaisen tilannekuvan karjalan kielen digitaalisesta elinvoimasta. Puheessa esiteltiin kevyt mutta toistettava tiedonkeruuprosessi, jolla analysoitiin karjalankielistä verkkosisältöä erityisesti uutis- ja artikkeliteksteissä. Tulokset osoittivat, että karjalaa tuotetaan verkossa aktiivisesti, erityisesti lyhyissä uutismuodoissa, ja että pienikin, säännöllisesti päivitettävä aineisto voi tarjota merkityksellistä tietoa uhanalaisen kielen nykytilasta. Neljäs Metropolian salamapuhe, Evaluating Finnish Dialect Normalization in GPT Models with and without Reasoning, keskittyi suomen murteiden normalisointiin kielimalleilla. Tutkimuksessa vertailtiin perinteisesti hienosäädettyjä GPT-tyylisiä malleja ja erikseen päättelyllä (chain-of-thought) varustettuja malleja. Tulokset osoittivat, että vahva suomen kielen esikoulutus on ratkaisevampaa kuin eksplisiittinen päättely, ja että päättelyyn perustuva hienosäätö voi jopa heikentää normalisointituloksia tässä tehtävässä. Salamapuhe toi esiin tärkeitä havaintoja siitä, milloin ja miten päättelykykyä kannattaa hyödyntää kieliteknologisissa sovelluksissa. Artur Roos kertoi, mitä uralilaset kielet voivat oppia synteettisiltä kieliltä Tutkimuksesta käytäntöön: tekoäly pienten kielten tukena IWCLUL-työpaja teki näkyväksi sen, miten Metropolian tekoälytutkimus yhdistää teoreettisen kielentutkimuksen, käytännöllisen kieliteknologian ja yhteiskunnallisen vaikuttavuuden. Sekä pitkät tutkimusartikkelit että salama-artikkelit osoittivat, että suuria kielimalleja ei tarkastella Metropoliassa irrallisina yleisratkaisuina, vaan välineinä, joita voidaan ohjata, rajata ja täydentää kielitieteellisellä asiantuntemuksella. Yhteinen nimittäjä Metropolian esityksille oli uhanalaisten kielten todellisuus: rajalliset aineistot, rikas morfologia ja tarve läpinäkyville, ylläpidettäville ratkaisuille. Olipa kyse arvioinnin uudelleenajattelusta opetuksessa, uralilaisten kielten käännöksestä, karjalan kielen digitaalisesta elinvoimasta tai murteellisen suomen normalisoinnista, tutkimus painotti ratkaisuja, jotka toimivat myös silloin, kun valmista dataa tai täydellisiä malleja ei ole. Työpaja vahvisti Metropolian roolia kansainvälisessä kieliteknologiayhteisössä toimijana, joka tuo yhteen tekoälyn, avoimen lähdekoodin ja kieliyhteisöjen tarpeet. Samalla se osoitti, että pienten kielten tutkimus ei ole tekoälyn kehityksen sivupolku, vaan yksi sen tärkeimmistä testialustoista: juuri siellä joudutaan tekemään näkyväksi ne oletukset, rajoitteet ja valinnat, joihin kielimallit muuten kätkeytyvät.
Metropoliassa kehitetään tekoälyratkaisuja sisäisiin tarpeisiin
Kehityspäällikkö Mika Hämäläisen johdolla Metropolian tekoälytiimi kehittää erilaisia suuriin kielimalleihin pohjautuvia ratkaisuja organisaation haasteiden ratkaisemiseksi. Kantavana ajatuksena on todellisten ongelmien ratkaiseminen käyttäjälähtöisesti ja ketterästi. Suuret kielimallit kehittyvät jatkuvasti, joten tekoälyä ei itsessään tarvitse enää kehittää – meidän tehtävämme onkin ennemmin ottaa tekoäly käyttöön ja tuoda se osaksi arkea helppokäyttöisessä muodossa. Tiimissämme työskentelevät tällä hetkellä ohjelmistokehittäjät Lev Kharlashkin, Melany Macías Morán ja Leo Huovinen sekä opiskelijaharjoittelijat Yehor Tereshchenko, Sheng Tai ja Aki Morooka. Kehittämämme työkalut ovat nimeltään OpintoHain, Oraakkeli, Hankehakemusapuri, Ops-työkalu sekä Moodlen tekoälylaajennus. OpintoHain OpintoHain kehitettiin osana Sonja Saarikiven luotsaamaa projektia, jonka tarkoituksena oli luoda työkalu jatkuvan oppijan käyttöön. Kohderyhmänä ovat Metropolian ulkoiset henkilöt, jotka haluavat päivittää omaa osaamistaan ja tulla Metropoliaan opiskelemaan esimerkiksi yhden kurssin tai mahdollisesti jopa sopivan YAMK-tutkinnon. Vastasimme haasteeseen kehittämällä Metropolian avoimen korkeakoulun opintotarjonnan tuntevan chatbotin. Taustalla työkalulla on RAG-malli, joka tuntee Metropolian kurssit ja tutkinnot sekä moniagenttijärjestelmä, jossa on erilliset agentit kurssien ja tutkintojen suosittelua varten sekä opinto-ohjausta varten. OpintoHain-työkalua voi testata Metropolian verkkosivuilla. Oraakkeli Ennakointi on noussut Metropoliassa entistä tärkeämpään rooliin – kaikkien pitäisi ennakoida, mutta miten? Lähdimme ratkaisemaan ongelmaa Oraakkeli-työkalulla, joka lukee sisään verkkoaineistoja kuten uutisia ja työpaikkailmoituksia. Näiden pohjalta, voimme analysoida dataa vektorisoimalla sekä klusteroimalla. Olemme jo kehittäneet menetelmiä esimerkiksi heikkojen signaalien ja megatrendien tunnistamiseen, muutosajureiden tunnistamiseen, datapohjaiseen skenaariotyöhön sekä moniagenttiseen Delphi-menetelmän toteuttamiseen automaattisesti. Kantava ajatus on se, että tekoäly pureskelee ennakointidataa valmiiseen muotoon, jotta loppukäyttäjä saisi ennakointitiedosta mahdollisimman suuren hyödyn, vaikkei hän välttämättä itse ennakoinnista juuri mitään tietäisikään. Oraakkelin viemisessä käytäntöön tukemaan todellisia käyttötapauksia meitä auttaa Maani Nyqvistin luotsaama ennakointityöryhmä sekä ennakointiguru Marita Huhtaniemi. Hankehakemusapuri Ulkoisen rahoituksen merkitys on kasvussa korkeakoulumaailmassa. Kilpailu rahoituksesta on kovaa ja usein vahvatkin hakemukset jäävät ilman rahoitusta. Rakennamme tekoälytyökalua yhdessä TKI- ja projektipalveluiden johtajan Maarit Haatajan ja hänen tiiminsä kanssa lisäämään Metropolian mahdollisuuksia saada ulkoista rahoitusta. Erityisesti EU:n horisonttihauissa on tärkeää, että jokaista hakukuulutuksen kohtaa on käsitelty hakemuksessa. Hyväkin hakemus saattaa jäädä vaille rahoitusta, jos hakemuksesta puuttuu maininta edes yhdestä alakohdasta. Hankehakemusapuri analysoi automaattisesti hakukuulutuksen ja vertaa sitä hakemustekstiin. Hakemuksesta puuttuvat kohdat ilmoitetaan selkeästi käyttäjälle, joka voi halutessaan korjata ne itse tai pyytää tekoälyä lisäämään hakemukseen puuttuvat kohdat automaattisesti. Työkalu osaa myös tunnistaa riskit sekä jakaa projektin työpaketteihin. Ops-työkalu Opintosuunnitelmien eli opsien kirjoittaminen on aikaa vievä prosessi. Kurssikohtaisesti opseissa pitäisi näkyä niin kestävän kehityksen tavoitteet kuin Arene-kompetenssit. Tätä varten kehitimme Ops-työkalun, joka mm. analysoi opsit ja näyttää tutkintojen sisällön Arenen ja kestävän kehityksen näkökulmista. Työkalun kehityksessä Metsälintu Pahkin toimi arvokkaana linkkinä tutkintovastaavien suuntaan. Lue työkalua kuvaava tieteellinen julkaisu. Moodlen tekoälylaajennus Moodlen tekoälylaajennus on kehitetty opettajia varten, jotta he pystyisivät tuottamaan omiin kurssimateriaaleihinsa pohjaavia tehtäviä automaattisesti suoraan Moodleen. Kantava ajatus on ollut tuoda tekoäly suoraan osaksi tuttua työkalua, eikä suinkaan erilliseksi järjestelmäksi. Opettajien suuntaan linkkinä toimi yliopettaja Tricia Cleland-Silva. Lue työkalua kuvaava tieteellinen julkaisu.