Tekijä: Mika Hämäläinen
Metropolian tekoälytutkimus vahvasti esillä kansainvälisessä työpajassa
Metropolia ja Itä-Suomen yliopisto järjestivät yhdessä IWCLUL-työpajan (International Workshop on Computational Linguistics for Uralic Languages), joka kokosi yhteen suomensukuisten kielten tutkijoita ympäri Eurooppaa. Työpaja järjestettiin osana kansainvälistä ACL-yhteisöä ja se tarjosi ajankohtaisen katsauksen uralilaisten kielten kieliteknologiseen tutkimukseen erityisesti tekoälyn ja suurten kielimallien aikakaudella. Laaja kattaus Metropolian tutkimusta Metropolian tekoälytutkimus oli työpajassa poikkeuksellisen vahvasti edustettuna. Työpajaan hyväksyttiin neljä Metropoliassa tehtyä täyttä artikkelia, jotka käsittelivät sekä pedagogisia että kieliteknologisia kysymyksiä useista näkökulmista. Artikkelissa From NLG Evaluation to Modern Student Assessment in the Era of ChatGPT: The Great Misalignment Problem and Pedagogical Multi-Factor Assessment (P-MFA) tarkasteltiin tekoälyn vaikutusta korkeakouluopetuksen arviointikäytäntöihin. Tutkimus toi esiin niin sanotun Great Misalignment Problem -ilmiön, jossa arviointi ei enää mittaa sitä, mitä sen on tarkoitus mitata, kun opiskelijat voivat tuottaa korkeatasoisia lopputuloksia generatiivisten kielimallien avulla. Artikkelissa esiteltiin uusi Pedagogical Multi-Factor Assessment (P-MFA) -malli, joka painottaa oppimisprosessia, monipuolista näyttöä ja pedagogista läpinäkyvyyttä yksittäisten tuotosten sijaan. Wasedan yliopiston kanssa kirjoitetussa artikkelissa Benchmarking Finnish Lemmatizers across Historical and Contemporary Texts arvioitiin suomen kielen lemmatisointityökaluja sekä nykykielisessä että historiallisessa aineistossa. Tutkimus hyödynsi Project Gutenberg -korpusta ja toi ensimmäistä kertaa Trankit-työkalun mukaan suomen lemmatisoinnin vertailuun. Keskeinen tulos oli, että Murre-esikäsittely parantaa merkittävästi lemmatisointituloksia murteellisissa ja historiallisissa teksteissä, kun taas nykysuomessa sen vaikutus on vähäinen. Kuvassa Aki Morooka kertoo normalisointikokeista Ajankohtainen tekoälyn sovellus ennakointiin esiteltiin artikkelissa ORACLE: Time-Dependent Recursive Summary Graphs for Foresight on News Data Using LLMs. Tutkimuksessa kehitettiin uusi menetelmä, jossa uutisaineistosta rakennetaan ajallisesti eteneviä rekursiivisia tiivistysgraafeja suurten kielimallien avulla. ORACLE-menetelmä mahdollistaa uutistiedon kehityskulkujen ja tulevien suuntausten tarkastelun tavalla, joka yhdistää ajallisen rakenteen ja kielimallipohjaisen tiivistämisen. Neljäs Helsingin yliopiston kanssa kirjoitettu artikkeli, Evaluating OpenAI GPT Models for Translation of Endangered Uralic Languages: A Comparison of Reasoning and Non-Reasoning Architectures, keskittyi uhanalaisten uralilaisten kielten konekäännökseen. Tutkimuksessa vertailtiin OpenAI:n GPT-mallien päättelyyn perustuvia ja ei-päättelyyn perustuvia arkkitehtuureja ja analysoitiin niiden suoriutumista matalan resurssin kielissä. Tulokset tarjoavat arvokasta tietoa siitä, millaiset kielimalliratkaisut soveltuvat parhaiten pienten ja uhanalaisten kielten tukemiseen. Metropolian salamapuheet: ketteriä avauksia ajankohtaisiin teemoihin Metropolian näkyvyys IWCLUL-työpajassa ei rajoittunut täysiin tutkimusartikkeleihin, vaan se ulottui vahvasti myös salamapuheisiin. Salamapuheet tarjosivat tiiviin mutta sisällöllisesti painavan katsauksen nopeasti kehittyviin tutkimuslinjoihin, jotka ovat keskeisiä uralilaisten ja muiden pienten kielten kieliteknologialle. Salamapuhe UralicMCP: Turning LLMs into Experts in Endangered Languages with MCP esitteli uuden Model Context Protocol (MCP) -pohjaisen laajennuksen UralicNLP-kirjastoon. UralicMCP:n keskeinen ajatus on liittää suurille kielimalleille sääntöpohjaisia kieliteknologisia työkaluja, kuten morfologinen analysaattori, taivutin, lemmatisaattori ja sanakirjat. Tämä mahdollistaa sen, että kielimallit voivat suorittaa NLP-tehtäviä myös sellaisissa uhanalaisissa uralilaisissa kielissä, joista niillä ei ole juurikaan koulutusdataa. Salamapuheessa esitetyt kokeet osoittivat, että MCP:n avulla kielimallit voivat onnistua tehtävissä, jotka olisivat muuten niille mahdottomia. Lev Kharlashkin otti kantaa karjalan nykytilaan Toinen salamapuhe, From Toki Pona to Uralic: A Grammar-Constrained Pipeline for Low-Resource Language Generation, käsitteli metodologista lähestymistapaa matalan resurssin kielimallien kouluttamiseen. Työssä hyödynnettiin Toki Ponan kaltaista äärimmäisen kontrolloitua kieltä testialustana kieliopillisesti ohjatulle synteettisen datan tuotannolle. Tavoitteena ei ollut itse Toki Pona, vaan skaalautuva menetelmä, joka voidaan siirtää morfologisesti rikkaisiin uralilaisiin kieliin. Salamapuhe toi esiin, miten eksplisiittinen kieliopillinen ohjaus ja tarkistettu synteettinen data voivat kompensoida suurten aineistojen puutetta. Salamapuhe Did Karelian Survive the Year? A Small Data Update tarjosi ajantasaisen tilannekuvan karjalan kielen digitaalisesta elinvoimasta. Puheessa esiteltiin kevyt mutta toistettava tiedonkeruuprosessi, jolla analysoitiin karjalankielistä verkkosisältöä erityisesti uutis- ja artikkeliteksteissä. Tulokset osoittivat, että karjalaa tuotetaan verkossa aktiivisesti, erityisesti lyhyissä uutismuodoissa, ja että pienikin, säännöllisesti päivitettävä aineisto voi tarjota merkityksellistä tietoa uhanalaisen kielen nykytilasta. Neljäs Metropolian salamapuhe, Evaluating Finnish Dialect Normalization in GPT Models with and without Reasoning, keskittyi suomen murteiden normalisointiin kielimalleilla. Tutkimuksessa vertailtiin perinteisesti hienosäädettyjä GPT-tyylisiä malleja ja erikseen päättelyllä (chain-of-thought) varustettuja malleja. Tulokset osoittivat, että vahva suomen kielen esikoulutus on ratkaisevampaa kuin eksplisiittinen päättely, ja että päättelyyn perustuva hienosäätö voi jopa heikentää normalisointituloksia tässä tehtävässä. Salamapuhe toi esiin tärkeitä havaintoja siitä, milloin ja miten päättelykykyä kannattaa hyödyntää kieliteknologisissa sovelluksissa. Artur Roos kertoi, mitä uralilaset kielet voivat oppia synteettisiltä kieliltä Tutkimuksesta käytäntöön: tekoäly pienten kielten tukena IWCLUL-työpaja teki näkyväksi sen, miten Metropolian tekoälytutkimus yhdistää teoreettisen kielentutkimuksen, käytännöllisen kieliteknologian ja yhteiskunnallisen vaikuttavuuden. Sekä pitkät tutkimusartikkelit että salama-artikkelit osoittivat, että suuria kielimalleja ei tarkastella Metropoliassa irrallisina yleisratkaisuina, vaan välineinä, joita voidaan ohjata, rajata ja täydentää kielitieteellisellä asiantuntemuksella. Yhteinen nimittäjä Metropolian esityksille oli uhanalaisten kielten todellisuus: rajalliset aineistot, rikas morfologia ja tarve läpinäkyville, ylläpidettäville ratkaisuille. Olipa kyse arvioinnin uudelleenajattelusta opetuksessa, uralilaisten kielten käännöksestä, karjalan kielen digitaalisesta elinvoimasta tai murteellisen suomen normalisoinnista, tutkimus painotti ratkaisuja, jotka toimivat myös silloin, kun valmista dataa tai täydellisiä malleja ei ole. Työpaja vahvisti Metropolian roolia kansainvälisessä kieliteknologiayhteisössä toimijana, joka tuo yhteen tekoälyn, avoimen lähdekoodin ja kieliyhteisöjen tarpeet. Samalla se osoitti, että pienten kielten tutkimus ei ole tekoälyn kehityksen sivupolku, vaan yksi sen tärkeimmistä testialustoista: juuri siellä joudutaan tekemään näkyväksi ne oletukset, rajoitteet ja valinnat, joihin kielimallit muuten kätkeytyvät.
Metropoliassa kehitetään tekoälyratkaisuja sisäisiin tarpeisiin
Kehityspäällikkö Mika Hämäläisen johdolla Metropolian tekoälytiimi kehittää erilaisia suuriin kielimalleihin pohjautuvia ratkaisuja organisaation haasteiden ratkaisemiseksi. Kantavana ajatuksena on todellisten ongelmien ratkaiseminen käyttäjälähtöisesti ja ketterästi. Suuret kielimallit kehittyvät jatkuvasti, joten tekoälyä ei itsessään tarvitse enää kehittää – meidän tehtävämme onkin ennemmin ottaa tekoäly käyttöön ja tuoda se osaksi arkea helppokäyttöisessä muodossa. Tiimissämme työskentelevät tällä hetkellä ohjelmistokehittäjät Lev Kharlashkin, Melany Macías Morán ja Leo Huovinen sekä opiskelijaharjoittelijat Yehor Tereshchenko, Sheng Tai ja Aki Morooka. Kehittämämme työkalut ovat nimeltään OpintoHain, Oraakkeli, Hankehakemusapuri, Ops-työkalu sekä Moodlen tekoälylaajennus. OpintoHain OpintoHain kehitettiin osana Sonja Saarikiven luotsaamaa projektia, jonka tarkoituksena oli luoda työkalu jatkuvan oppijan käyttöön. Kohderyhmänä ovat Metropolian ulkoiset henkilöt, jotka haluavat päivittää omaa osaamistaan ja tulla Metropoliaan opiskelemaan esimerkiksi yhden kurssin tai mahdollisesti jopa sopivan YAMK-tutkinnon. Vastasimme haasteeseen kehittämällä Metropolian avoimen korkeakoulun opintotarjonnan tuntevan chatbotin. Taustalla työkalulla on RAG-malli, joka tuntee Metropolian kurssit ja tutkinnot sekä moniagenttijärjestelmä, jossa on erilliset agentit kurssien ja tutkintojen suosittelua varten sekä opinto-ohjausta varten. OpintoHain-työkalua voi testata Metropolian verkkosivuilla. Oraakkeli Ennakointi on noussut Metropoliassa entistä tärkeämpään rooliin – kaikkien pitäisi ennakoida, mutta miten? Lähdimme ratkaisemaan ongelmaa Oraakkeli-työkalulla, joka lukee sisään verkkoaineistoja kuten uutisia ja työpaikkailmoituksia. Näiden pohjalta, voimme analysoida dataa vektorisoimalla sekä klusteroimalla. Olemme jo kehittäneet menetelmiä esimerkiksi heikkojen signaalien ja megatrendien tunnistamiseen, muutosajureiden tunnistamiseen, datapohjaiseen skenaariotyöhön sekä moniagenttiseen Delphi-menetelmän toteuttamiseen automaattisesti. Kantava ajatus on se, että tekoäly pureskelee ennakointidataa valmiiseen muotoon, jotta loppukäyttäjä saisi ennakointitiedosta mahdollisimman suuren hyödyn, vaikkei hän välttämättä itse ennakoinnista juuri mitään tietäisikään. Oraakkelin viemisessä käytäntöön tukemaan todellisia käyttötapauksia meitä auttaa Maani Nyqvistin luotsaama ennakointityöryhmä sekä ennakointiguru Marita Huhtaniemi. Hankehakemusapuri Ulkoisen rahoituksen merkitys on kasvussa korkeakoulumaailmassa. Kilpailu rahoituksesta on kovaa ja usein vahvatkin hakemukset jäävät ilman rahoitusta. Rakennamme tekoälytyökalua yhdessä TKI- ja projektipalveluiden johtajan Maarit Haatajan ja hänen tiiminsä kanssa lisäämään Metropolian mahdollisuuksia saada ulkoista rahoitusta. Erityisesti EU:n horisonttihauissa on tärkeää, että jokaista hakukuulutuksen kohtaa on käsitelty hakemuksessa. Hyväkin hakemus saattaa jäädä vaille rahoitusta, jos hakemuksesta puuttuu maininta edes yhdestä alakohdasta. Hankehakemusapuri analysoi automaattisesti hakukuulutuksen ja vertaa sitä hakemustekstiin. Hakemuksesta puuttuvat kohdat ilmoitetaan selkeästi käyttäjälle, joka voi halutessaan korjata ne itse tai pyytää tekoälyä lisäämään hakemukseen puuttuvat kohdat automaattisesti. Työkalu osaa myös tunnistaa riskit sekä jakaa projektin työpaketteihin. Ops-työkalu Opintosuunnitelmien eli opsien kirjoittaminen on aikaa vievä prosessi. Kurssikohtaisesti opseissa pitäisi näkyä niin kestävän kehityksen tavoitteet kuin Arene-kompetenssit. Tätä varten kehitimme Ops-työkalun, joka mm. analysoi opsit ja näyttää tutkintojen sisällön Arenen ja kestävän kehityksen näkökulmista. Työkalun kehityksessä Metsälintu Pahkin toimi arvokkaana linkkinä tutkintovastaavien suuntaan. Lue työkalua kuvaava tieteellinen julkaisu. Moodlen tekoälylaajennus Moodlen tekoälylaajennus on kehitetty opettajia varten, jotta he pystyisivät tuottamaan omiin kurssimateriaaleihinsa pohjaavia tehtäviä automaattisesti suoraan Moodleen. Kantava ajatus on ollut tuoda tekoäly suoraan osaksi tuttua työkalua, eikä suinkaan erilliseksi järjestelmäksi. Opettajien suuntaan linkkinä toimi yliopettaja Tricia Cleland-Silva. Lue työkalua kuvaava tieteellinen julkaisu.
Metropolia mukana järjestämässä tekoälyyn keskittyvää NLP4DH-konferenssia Yhdysvalloissa
Mika Hämäläinen Metropolia Ammattikorkeakoulusta toimi tänäkin vuona NLP4DH-konferenssin pääjärjestäjänä. Konferenssisarjan pääteema on kieliteknologian ja digihumanismin yhteensovittaminen. Vuona 2025 konferenssi järjestettiin korkea-arvoisen NAACL-konferenssin yhteydessä Albuquerquessa. NLP4DH järjestettiin Taos-salissa Kaksi päivää soveltavaa tekoälyä NLP4DH:ssa oli kaksi päivää täyttä asiaa Konferenssi tavoitti laajan joukon eri tieteenalojen edustajia. Esitelmiä oli niin kirjallisuudesta, murteista, ironiasta kuin tekoälyn psykologiastakin. Tutkimustuloksia esiteltiin monen kielen näkökulmasta kuten espanjan, arabian, islannin, tanskan ja sanskritin näkökulmasta. Tohtori Yuri Bizzoni valmistautumassa esitelmäänsä Tohtori Yuri Bizzoni, joka toimi myös konferenssin yhtenä järjestänä, esitteli konferenssissa kirjallisuuteen liittyvää tutkimustaan. Hän oli soveltanut ChatGPT:n edeltäjää, GPT-2-mallia, korpuksensa analysointiin. Yhdysvaltain politiikka pakotti osallistujia verkkoon Puolet tutkijoista osallistui konferenssiin etänä. Moni vaihtoi etäosallistumiseen viimetingassa vedoten Yhdysvaltain ulkopolitiikkaan. Huolet vaikuttivat jokseenkin ylimitoitetuilta – kukaan osallistujista ei joutunut rajalla mielivaltaisen kohtelun uhriksi. Yhdysvaltain huippuyliopistoista oli kattava edustus konferenssissa. Tutkijoita oli MIT:stä, Harvardista, Johns Hopkins -yliopistosta sekä Cornell-yliopistosta. Osallistujia saapui paikalle myös mm. Japanista, Uudesta Seelannista, Kiinasta ja Kolumbiasta. Posterisessio ei ollut ottaa loppuakseen Postereita pystyttämässä olleita tutkijoita Posterille oli varattu puoli tuntia aikaa iltapäiväkahvien jälkeen. Ilmoitin osallistujille, että posterisessio on ohi, nyt saa lähteä, muttei ole pakko. Jokaisella posterilla keskustelu kävi sen verran kuumana, että sessio jatkui vielä puoli tuntia suunniteltua pidempään. So Miyagawa hetkeä ennen posterisession alkua Konferenssia järjestämässä ollut apulaisprofessori So Miyagawa esitteli RAG-pohjaista mallia, jonka avulla hän sai suuret kielimallit ymmärtämään muinaisegyptiä. Kielimallit, jotka normaalisti eivät osaa tuottaa muinaisegyptiä, pystyivät RAG-mallin takana olevan sanakirjan kautta tulkitsemaan muinaisten tekstien merkityksen.
Tekoälytutkimusta NAACL-konferenssissa
Tekoälytutkimukseen erikoistunut NAACL-konferenssi järjestettiin Albuquerquessa, Breakin Bad -sarjan kotikaupungissa. Konferenssin pääteemana on kieliteknologia, ja se järjestetään vuosittain – useimmiten Pohjois-Amerikassa. Breaking Bad -hahmot ikuistettuina konferenssipaikalla Kielimallien arviointi puhutti Konferenssissa oli esillä useita artikkeleita, jotka käsittelivät kielimallien arviointia, eli evaluaatiota. Arviointi on jo pitkään ollut kieliteknologisen tutkimuksen Akileen kantapää – monimutkaiset ongelma redusoituvat yksittäisiin numeerisiin keskiarvoihin. Esimerkiksi konekäännöstutkimuksen lopputulos voi olla 50 BLEU-pistettä – ei mitään sen syvällisempää. Yhdysvaltojen poliittinen kehitys näkyi osallistujamäärässä NAACL-konferenssi ei tarjonnut arvioinnin suhteen mitään mullistavaa. Tästä hyvänä esimerkkinä mainittakoon konferenssin parhaaksi artikkeliksi valikoitunut tutkimus, joka tuotti uuden datasetin, jonka avulla suuria kielimalleja voidaan arvioida. Tässäkin pyrkimyksenä oli tuottaa numeerisia arvoja. Vinoumat esillä Moni artikkeli tutki suurten kielimallien vinoumia ja turvallisuutta. Suuret kielimallit on koulutettu datalla, ja data on aina vinoutunutta. Täten ei ole ihmekään, että suurissa kielimalleissa esiintyy vinoumia. Tärkeää on, että tunnistamme erilaisia vinoumia tutkimuksen kautta, jotta tiedämme, milloin malleihin kannattaa luottaa. Postereilla oli kävijöitä tavallista vähemmän Vinoumista voit lukea esimerkiksi seuraavista artikkeleista: Uncovering Bias in Large Vision-Language Models at Scale with Counterfactuals, LLMs Are Biased Towards Output Formats! Systematically Evaluating and Mitigating Output Format Bias of LLMs ja Unmasking Implicit Bias: Evaluating Persona-Prompted LLM Responses in Power-Disparate Social Scenarios. Turvallisuudesta puolestaan seuraavista: SafetyQuizzer: Timely and Dynamic Evaluation on the Safety of LLMs, SafeQuant: LLM Safety Analysis via Quantized Gradient Inspection ja RAG LLMs are Not Safer: A Safety Analysis of Retrieval-Augmented Generation for Large Language Models. Kieliteknologian rooli Mielenkiintoisin tutkimus oli siirtynyt pois kieliteknologian fokuksesta, eli uusien laskennallisten mallien kehittämisestä. Konferenssissa esitellyt uudet mallit olivat kuin tuulahdus menneisyydestä, ajalta ennen suuria kielimalleja. Tekoälyn kehitys on siirtynyt akateemisesta maailmasta yhä vahvemmin suurten yritysten käsiin, joten akateemikot voivat enää lähinnä katsoa vierestä ja tutkia olemassa olevia malleja.
Ottaako tekoäly vallan?
Tekoälyn huima kehitys on saanut ihmiset pohtimaan, voiko tekoäly viedä joku päivä vallan meiltä omiin käsiinsä. Hyssyttelijöitä riittää muistuttamaan, kuinka kaikki on ihmisen käsissä ja lopulta kaikesta vastaa ihminen. Vai vastaako? Tekoäly ei ehkä ota valtaa siinnä suhteessa, että se orjuuttaisi ihmiskunnan, mutta valtaa ja vastuuta ulkoistamme sille tehokkaasti jo tänä päivänä. Me palvomme konetta Kömpelöt ja huonosti suunnitellut järjestelmät ovat läsnä arjessamme. Meidän on jo nyt käytettävä aikaa klikkailemalla nappuloita oikeassa järjestyksessä tai muistettava tehdä jotain jossakin järjestelmässä. Ja jos epäonnistumme näissä koneen palvontamenoissa, joudumme uhraamaan lisää työaikaa koneen alttarilla toistelemalla taikasanoja, kuten ”ei, nyt meni väärin”, ”hetkonen, mikähän tähän tuli” ja ”mistä sinne taas mentiinkään”. Mitä enemmän aikaa uhraamme miellyttääksemme konetta, sitä enemmän se lämmittää koneen suoritinta – ihminen on orjuutettu. Ihmisen on painettava nappuloita oikeassa järjestyksessä, ettei kone suutu ja rankaise Entäpä kuinka usein olet joutunut elämässäsi tilanteeseen, jossa asialle ei voinut tehdä mitään, sillä kone ei antanut? Näitä tilanteita on varmasti tullut eteen monta. HSL:n lippu jäi ostamatta, koska sovellus jumitti tai ruokakaupassa jäi bonukset saamatta, kun ei se nyt vain tunnistanut korttia. Onneksi kaikesta tästä vastaa lopulta ihminen, joka onnistuu vain levittelemään käsiään, sillä todellinen valta tilanteessa on koneella. Tekoäly ohjaa meitä jo nyt Kuka saa päättää, mihin totuuteen me uskomme? Hyvin pitkälle päätösvalta on ulkoistettu tekoälyille. Meillä on usein tapana selvittää asiat googlaamalla, mutta Google ei suinkaan tarjoille meille vastauksia niiden hyödyllisyyden tai todenperäisyyden mukaan, vaan vastaukset järjestelee meille tekoäly. Missä on se ihminen, joka ottaa vastuun silloin, kun Google-haun tekoäly tarjoaa meille valheellista tietoa tai pimittää meiltä asioita? Ei missään – valta on tekoälyllä. Tekoälyn on helppo oppia vetämään oikeista naruista Suuret kansainväliset verkkokaupat kuten Amazon ja Temu ohjaavat käyttäjiä tekoälyn avulla tiettyjen tuotteiden pariin surutta. Joskus halvinta mahdollista vaihtoehtoa on jopa hankalaa löytää, kun älykäs haku on tunnistanut, että kyllä sinä enemmänkin voit tuotteesta maksaa. Vastuu on tietysti ihmisellä – mitäs ostit? Annamme innokkaasti lisää valtaa tekoälylle Tuskin mikään tässä kirjoituksessa tulee kenellekään yllätyksenä; yllättävintä on arvojen ristiriitaisuus. Samat ihmiset voivat yhtä aikaa kauhistella tekoälyn ylivaltaa ja olla ulkoistamassa lisää valtaa tekoälylle, jotta oma työ helpottuu. Hauskimpia esimerkkejä korkeakoulumaailmasta ovat Turnitin ja esseiden automaattinen tarkastaminen tekoälyllä. Me ihmiset annamme innoissamme tekoälylle avaimia valtapositioihin Annetaan vaan tekoälylle valta päättää siitä, kenen lopputyö hylätään tai hyväksytään ja kuka saa minkäkin arvosanan esseestä. Vastuu on lopulta opettajalla, joka on kykenemätön arvioimaan tekoälyn luotettavuutta. Mikä tässä yhtälössä voisikaan mennä pieleen?
Toistaako tekoäly vain oppimaansa?
Tekoälyä syytetään usein väittäen, että se kykenee ainoastaan toistamaan opetusaineistoaan, ja siten se tuottaa aina plagiaatteja ja keskiarvoista tuotosta. Onko näissä väitteissä mitään perää? Väite 1: Tekoäly hakee vastauksen tietokannastaan Olen törmännyt tähän väitteeseen usein. Tekoäly hakee vastauksen tietokannastaan, ja siksi se plagioi tai ei löydä oikeaa vastausta. Suurilla kielimalleilla ja kuvia tuottavilla tekoälymalleilla ei ole käytössään oletuksena minkäänlaista tietokantaa, vaan mallit ovat oppineet tuottamaan vastauksen itsenäisesti. Tekoälyn tuottama kuva tai vaikkapa runo ei siis löydy sellaisenaan tietokannasta. Suuret kielimallit eivät käytä tietokantoja, mutta niihin voidaan sellainen yhdistää Nykyään suuret kielimallit voidaan toki yhdistää tietokantaan. Tällä hetkellä yleisin tapa tehdä näin on niin kutsuttu RAG-malli (Retrieval Augmented Generation). Tässä ratkaisussa tekoäly voi hakea tietokannasta tietoa vastauksen tueksi. Tekoäly kuitenkin kirjoittaa vastauksensa itse. Väite 2: Tekoäly tarjoaa vain keskivertoja vastauksia Tämä väite on hankalampi, sillä generatiivisia tekoälymalleja on monenlaisia. Kuvia tuotetaan usein diffuusiomalleilla, jotka lähtevät liikkeelle satunnaisesta pikselien sekamelskasta ja muuntavat pikselisekamelskaa asteittain paremmaksi kuvaksi. Kohteena tekoälyllä on jonkinlainen keskiarvoistus optimaalista vastauksesta, joten sen pyrkimys on kohti keskivertoa. Diffuusiomalleja ajetaan iteratiivisesti – jokainen iteraatio tuottaa paremman kuvan, joka on myös lähempänä keskivertoa. Jostain pikselisekamelskan ja keskiverron optimin väliltä löytyy iteraatio, jonka aikana tekoäly tuottaa hyviä kuvia, mutta jossa kuvat eivät ole vielä konvergoituneet kaikki samannäköisiksi keskiverroiksi. Nämä kuvat eivät ole suinkaan keskivertoja, vaikka jotain samaa niissä keskiverron optimin kanssa vääjäämättä onkin. Päivityksen myötä Adoben FireFly alkoi tuottamaan parempia, joskin erittäin samanlaisia kuvia Entä sitten suuret kielimallit? Suuret kielimallit toki pyrkivät tuottamaan parhaan mahdollisen vastauksen, mikä promptista riippuen hyvin usein tuottaa jonkinlaista keskivertoa vastausta. Suurissa kielimalleissa on kuitenkin ominaisuus, jolla voi säätää lämpötilaa (temperature), mikä vaikuttaa siihen, kuinka keskivertoja tai luovia vastauksia kielimalli tuottaa. Lämpötilaa säätämällä mallin saa ääripäissä tuottamaan todella kuivaa tekstiä tai suoranaista satunnaista siansaksaa. Emergoitunut äly Suurten kielimallien älykkyys on emergenttiä. Ne osaavat yleistää oppimaansa täysin uudenlaisiin tehtäviin. Tämä tarkoittaa yksinkertaisesti sitä, että tekoälymallit osaavat tuottaa vastauksia sellaisiin kysymyksiin, millaisia ne eivät koulutusaineistossaan koskaan nähneetkään. Nämä vastaukset eivät itsessään ole keskivertoa toistoa jo opitusta, sillä tekoäly ei voi toistaa vain oppimaansa ”hauki on kala” -tapaisesti. Koulutusdata ohjaa Adoben FireFlyta niin vahvasti, ettei se kykene tuottamaan reunoihin asti täyttä viinilasia Kuvia tuottavien tekoälymallien älykkyys ei osoita saman tasoista emergenssiä, sillä opetusmateriaali ohjaa niiden tuotoksia tekstiä tuottavia malleja enemmän. Usein kuvia tuottavilta malleilta voi olla lähes mahdotonta saada tietynlaisia kuvia ulos. Keskivertoa vai ei? Väite, että tekoäly tuottaa vain keskivertoja vastauksia, vetää mutkat liian suoriksi. Koulutusdata ohjaa tekoälyä mallista riippuen enemmän tai vähemmän, mutta se ei tarkoita sitä, että tekoäly kykenisi tuottamaan vain tylsiä itsestäänselvyyksiä. Tekoäly ei myöskään toista vain oppimaansa, sillä se on koulutettu tarjoamaan vastauksia myös ongelmiin, jollaisiin se ei ole ennen törmännyt.
Katsooko tekoäly vain menneisyyteen?
Viime aikoina eteeni on tullut mielenkiintoinen argumentti: ChatGPT katsoo vain menneisyyteen, mutta ihminen voi katsoa tulevaisuuteen. Ajatus juontaa juurensa siihen, että tekoäly koulutetaan vanhalla datalla ja esimerkiksi ChatGPT:n tietämys maailmasta rajoittuu koulutusaineiston viimeiseen päivämäärään asti. Tämä ei kuitenkaan yksiselitteisesti tarkoita sitä, että tekoäly katsoo vain menneisyyteen. Koneoppiminen katsoo aina kohti tuntematonta Koneoppimisen perusperiaate on ollut aina kouluttaa tekoäly vanhalla datalla ja testata sitä uudella, ennennäkemättömällä, datalla. Näin on voitu varmistaa, että tekoäly toimii halutulla tavalla myös kohdatessaan täysin uutta dataa. Koneoppiminen tähtää siihen, että tekoäly toimii myös uuden datan kanssa Ennen suuria kielimalleja kieliteknologiset koneoppimismallit kärsivät usein siitä, etteivät ne toimineet hyvin täysin uudenlaisella datalla. Esimerkiksi tuotearvioilla koulutettu tekoäly ei onnistunut kovinkaan hyvin tunnistamaan positiivisia ja negatiivisia ilmauksia kaunokirjallisessa tekstissä. Nämä rajoitteet ovat kuitenkin poistuneet suurten kielimallien myötä, sillä suuret kielimallit kykenevät yleistämään oppimaansa monta erilaista tehtävää varten. Miksi ihminen katsoisi sen enempää tulevaisuuteen? Kun me ihmiset kohtaamme jotain uutta, meidän on usein toimittava vanhan tiedon varassa. Meidänkin ”koulutusdatamme” päättyy aina nykyhetkeen. Jos kadulla meitä vastaan kävelee talutushihnassa oleva tunnistamaton karvainen möykky, oletamme loogisesti, että kyseessä on koira. Tämä oletus pohjaa vanhaan tietoon. Jos kyseessä onkin jokin meille täysin vieras eläinlaji, hämmästymme kohtaamista. Tekoälykin pohjaa olemassa olevaan tietoon kohdatessaan uusia asioita. Erotuksena ihmiseen on se, että tällä hetkellä meillä ei ole käytössä tekoälytyökaluja, jotka voisivat dynaamisesti oppia kokemuksistaan ja päivittää itseään. Tekoäly tulee täten aina ajattelemaan, että karvainen möykky on koira, kunnes sen koulutusaineistoon lisätään tieto siitä, että nyt on löytynyt täysin uusi lemmikiksi sopiva eläinlaji. Ihminen oppisi tämän välittömästi. Tulevaisuuden ennakointi on päättelyä Siinnä missä ihminenkin ennakoi tulevaa päättelyn avulla soveltaen esimerkiksi skenaariotyöskentelyä, tekoälykin voi ennakoida tulevaa päättelemällä. Suuret kielimallit osaavat jo päätellä ja suorittaa ajatusta vaativia töitä. Tekoäly voi siis katsoa tulevaisuuteen, mikäli sitä ohjataan oikein kehotteilla tekemään ennakointia. Monet tekoälytyökalut kuten ChatGPT ja Perplexity osaavat myös hakea lisää tietoa verkosta, jolloin ne voivat pohjata päättelynsä tuoreeseen tietoon.
Voidaanko tekoälyä käyttää muutoksen ennustamiseen MLPESTEL-mallilla?
Khalid Alnajjar ja Mika Hämäläinen tutkivat MBA-tutkinnon opinnäytetyössään tekoälyn kykyä ennustaa muutoksia yritysten toimintaympäristössä. Tätä tehtävää varten he hyödynsivät suurta kielimallia ja kehittivät uuden teoreettisen viitekehyksen nimeltä MLPESTEL. Paradigman muutos, joka mahdollisti ennustamisen Perinteisesti koneoppimisen tekniikat ovat perustuneet kaavojen oppimiseen datasta yksittäisiä tehtäviä varten. Tämän vuoksi tällaiset mallit ovat pystyneet tekemään ennusteita vain hyvin rajatuilla sovellusalueilla, kuten säätietojen tai taloudellisten trendien ennustamisessa. Kuitenkin suurten kielimallien aikakauden myötä tekoälylle on muodostunut kyky tehdä päättelyä myös kapeiden aihealueiden ulkopuolella sekä tekstuaalisen datan, eikä vain numeerisen datan, pohjalta. Tarve uudelle viitekehykselle Vaikka suuret kielimallit, kuten ChatGPT, omaavat uskomattomia kykyjä päättellä ja käsitellä erilaistia kehotteita, ne eivät pysty ennustamaan muutosta pelkän yksittäisen kehotteen avulla. Suuret kielimallit osaavat päätellä, mutta niiden on saatava käyttöönsä tarvittavat työkalut – aivan kuten me ihmistenkin. Lisäksi näin monimutkainen tehtävä on jaettava pienempiin osaongelmiin. MLPESTEL-viitekehys (Alnajjar & Hämäläinen, 2024) Tutkijat kehittivät uuden viitekehyksen nimeltä MLPESTEL, joka ammentaa inspiraationsa perinteisesti liiketaloustieteessä käytetystä PESTEL-mallista sekä ekologisten järjestelmien teoriasta (EST), jota yleensä hyödynnetään lapsen sosiaalisen kehityksen ymmärtämisessä. PESTEL on keskeinen tutkimuksen liiketoiminnallisen sovellusalueen kannalta, kun taas EST:tä käytettiin jakamaan jokainen PESTEL-kategoria neljään eri alajärjestelmään: mikro-, ekso-, meso- ja makrotasoon. Lopputuloksena syntynyt viitekehys oli ihmiselle varsin monimutkainen analysoitavaksi, mutta ei lainkaan liian vaativa suurelle kielimallille, joka pystyy helposti toimimaan tällaisella monimutkaisuuden tasolla. Tekoälypohjaisen ennustamisen ensimmäiset tulokset Tutkijat tutkivat menetelmänsä käyttökelpoisuutta analysoimalla suuren kielimallin ennustuskykyä MLPESTEL-viitekehyksen avulla kahden kansainvälisen yrityksen, Nokian ja Teslan, kohdalla. Menetelmä onnistui ennustamaan oikein 5G-teknologian tuoman mahdollisuuden Nokialle sekä maailmanlaajuisen sirupulan aiheuttamat haasteet, jotka vaikuttivat Teslaan. Opinnäytetyössä saadut tulokset ovat lupaavia ja toimivat todisteena konseptin toimivuudesta. Suuret kielimallit (LLM) ovat saavuttaneet kypsyystason, jossa niitä voidaan hyödyntää ennustamistehtävissä. MLPESTEL-viitekehys on laajentanut teoreettisia mahdollisuuksia liiketoimintaympäristön muutosten ennustamiseen. Tämä tutkimus on avannut tietä tuleville tutkimuksille suurten kielimallien ohjaamasta ennustamisesta ja tulevaisuuden tutkimuksesta. Tulokset toimivat ponnahduslautana laajemman ennakointialustan kehittämiselle Metropoliassa.
Suomen sukukielten tekoälytutkimusta esiteltiin Metropoliassa
Metropoliassa järjestettiin The 9th International Workshop on Computational Linguistics for Uralic Languages -tapahtuma, eli tuttavallisemmin IWCLUL. Tapahtuma kokosi Arabian kampukselle suuren joukon kansainvälisiä tutkijoita, jotka tulivat esittelemään omaa kieliteknologista tutkimustaan, joka liittyi Uralilaisiin, eli suomensukuisiin, kieliin. Haasteena uhanalaisuus Uralilaisista kielistä vain suomi, viro ja unkari ovat isoja kieliä, joilla on oman valtion virallinen tuki. Muut uralilaiset kielet ovat enemmän tai vähemmän uhanalaisia. Puhujamäärät vaihtelevat niittymarin 360 000 ja ersän 300 000 puhujasta aina koltansaamen 300 ja uumajansaamen 5 puhujaan. Osalla kielistä ei ole enää äidinkielisiä puhujia jäljellä. Toivoa ei kuitenkaan ole menetetty näidenkään kielten osalta, kuten Liivi-instituutin johtaja Valts Ernštreits tapaa todeta: “aina kun viimeisen liivin puhujan uskotaan kuolleen, uusi viimeinen puhuja ilmestyy jostai pirtistä”. Jack Rueter muistutti populaarikulttuurin merkityksestä myös uhanalaisten kielten kontekstissa Moderni kieliteknologia vaatii paljon dataa, mikä osaltaan hankaloittaa pienten kielten tekoälykehitystä. Dataa on usein niukasti jos ollenkaan ja siinä on paljon variaatiota. Oikeinkirjoitussäännöt eivät usein ole yhtä selkeästi määriteltyjä ja puhujakunnan selkärankaan iskostettuja kuin valtakielten kohdalla. Suuret kielimallit puhuttivat Suuret kielimallit kuten ChatGPT eivät tällä hetkellä puhu yhtäkään pientä uralilaista kieltä, mutta tutkijat olivat keksineet tapoja saada kielimalleilta vastauksia ulos muotoilemalla kehotteen oikealla tavalla. Oman esitelmäni lisäksi myös Flammie Pirinen ja Niko Partanen raportoivat tutkimuksensa tuloksia. IWCLUL järjestettiin talkoovoimin. Kuvassa Lev Kharlashkin on kutsumassa seuraavan puhujan paikalle Suurten kielimallien ongelma myös suomen, viron ja unkarin kohdalla on se, että ne jakavat sanat pienempiin osiin, tokeneihin, englannin kielen perusteella. Tähän Iaroslav Chelombitkolla ja Aleksei Dorkinilla oli esittää ratkaisuehdotuksia. Metropolian arvot esillä Myös Metropoliassa tehty työ kestävän kehityksen ja tekoälyn saralla oli esillä tapahtumassa. Melany Macías esitteli tutkimustamme, jossa tekoäly oppii ennustamaan kestävän kehityksen tavoitteita suomeksi englanninkielisen datan perusteella. Melany Macías esitteli kestävän kehityksen tavoitteiden ennustamisen tarkkuutta
Mitä ovat suurten kielimallien tuottamat upotukset eli embeddingit?
Tavallinen käyttäjä käyttää suuria kielimalleja, kuten ChatGPT:tä, kirjoittamalla sille kehotteita (prompteja) käyttöliittymän kautta. Tämän lisäksi suuret kielimallit tarjoavat teknisesti harjaantuneille käyttäjille toisenlaisen toiminnon - upotusten (englanniksi embeddings) luonnin tekstin pohjalta. Mutta mitä nämä upotukset oikein ovat ja mihin niitä käytetään? Tekstin merkitys vektoreissa Kun suurelle kielimallille antaa tekstiä upotettavaksi, se tuottaa tulokseksi vektorin. Vektori on lista numeroita, jonka merkitys ei avaudu ihmissilmälle, mutta se avaa mahdollisuuden tutkia tekstin merkitystä matemaattisin keinoin. Näitä kielimallin tuottamia vektoreita kutsutaan upotuksiksi eli embeddingeiksi. UralicNLP-Python-kirjasto tarjoaa keinoja upottaa tekstiä eri kielimallien avulla. Tässä on esimerkki siitä, miten UralicNLP:llä voi upottaa tekstin OpenAI:n mallilla. from uralicNLP.llm import get_llmllm = get_llm("chatgpt", "VAIHDA TÄHÄN API-AVAIMESI", model="text-embedding-3-small")llm.embed("Teksti, jonka haluat upottaa")>>[-0.1803697, 1.1973963, 0.5283669, 1.5049516, -0.27077377...] Kuten esimerkistä näkee, upotuksen tulos on lista numeroita. Nämä numerot kuvastavat tekstin merkitystä, ja niiden avulla voidaan vertailla tekstien samankaltaisuutta matemaattisin keinoin. Mitä hyötyä on upotuksista? Upotusten avulla tekstimassoja voidaan tallentaa nopeasti haettaviksi vektoritietokantaan. Näin tietokantahakua ei tehdä kirjainmerkkien vaan merkityksen avulla. Yleisin käyttötapaus tällaisille vektoritietokannoille on tällä hetkellä RAG-malli. RAG tulee sanoista Retrieval-Augmented Generation ja se tarkoittaa sitä, että suurelle kielimallille haetaan kehotteen lisäksi lähdeaineistoa, jonka avulla malli tuottaa vastauksen. Lähdeaineiston hakeminen tapahtuu hakemalla upotusten avulla käyttäjän syötteeseen sopivia dokumentteja vektoritietokannasta. Esimerkiksi Metropolian oma Mikro-Mikko toimii tällä periaatteella. Upotusten avulla tekstidokumentteja voi myös ryhmitellä automaattisesti samankaltaisten tekstien ryhmiin. UralicNLP:llä tämä hoituu seuraavalla tavalla. from uralicNLP.llm import get_llmfrom uralicNLP import semanticsllm = get_llm("chatgpt", "VAIHDA TÄHÄN API-AVAIMESI", model="text-embedding-3-small")texts = [“koirat on hauskoja”, “autot ajaa nopeasti”, “kissat leikkii keskenään”, “rekat ajaa kaupungista toiseen”]semantics.cluster(texts, llm)>>[[“koirat on hauskoja”, “kissat leikkii keskenään”], [“autot ajaa nopeasti”, “rekat ajaa kaupungista toiseen”]] Tuloksena tekstit ryhmitellään samankaltaisten tekstien ryhmiin käyttäen upotuksia sekä laskien niiden samankaltaisuuden. Onko mallilla väliä upottaessa? Upotuksia voidaan tuottaa sekä kaupallisilla suurilla kielimalleilla että avoimilla kielimalleilla. Mallia valittaessa kannattaa muistaa, etteivät upotukset ole keskenään yhteensopivia. Osaa upotuksista ei siis voi tehdä OpenAI:n GPT-4:llä ja osaa avoimella LLaMA:lla, ja olettaa, että ne toimisivat yhteen. Jokainen malli on oppinut omanlaisensa merkitysrepresentaation datasta, joten upotuksen numeerinen sisältö vaihtelee eri mallien välillä. Mallia valitessa kannattaa miettiä mallin hintaa, sen tukemia kieliä sekä konteksti-ikkunaa. Suuremmat mallit voivat mahduttaa suurenkin tekstin konteksti-ikkunaan, jolloin kokonaiselle tekstille voidaan tehdä yksi upotus. Pienemmät mallit vaativat tekstin pilkkomista osiin. Tämä tekninen rajoite voi olla merkityksellinen riippuen siitä, mihin upotuksia käyttää. Kaikki mallit eivät myöskään osaa kaikkia kieliä. Jos kielimalli tuottaa kehnoa suomea vastauksena kehotteisiin, se ei todennäköisesti myöskään ymmärrä suomea kovinkaan hyvin. Tästä seuraa se, että suomenkieliselle tekstille tehtävät upotuksetkaan eivät kuvaa merkitystä riittävän hyvin.
Korvasiko generatiivinen tekoäly ihmisen luovuuden?
Generatiiviset tekoälymallit kuten ChatGPT ja Midjourney osaavat tuottaa luovaa tekstiä ja kuvia ihmistä nopeammin. Mihin tarvitaan enää runoilijoita, jos ChatGPT:ltä tulee runoja niin monta kappaletta, kuin siltä vain jaksaa pyytää? Entäpä kuvittajia? Midjourney tuottaa äärettömän hienoja kuvia jopa amatööripromptailijan käsissä. Onko todella niin, että ihmisen luovuuden voi korvata koneella? Mitä luovuus edes on? Ihmisen ja tietokoneen luovuutta on tutkittu jo pitkään. Jo kauan ennen ChatGPT:n aikaa tutkijat kehittivät tekoälymalleja, jotka tuottivat tarinoita, musiikkia ja kuvia. Tätä tieteenalaa nimitetään laskennalliseksi luovuudeksi. Ihmisen ja koneen luovuuden suhde on jo pitkään kiehtonut alan tutkijoita. Boden on yksi laskennallisen luovuuden teoreetikkoja. Hänen mukaansa luovuus voidaan jakaa kahteen kategoriaan: tutkivaan (exploratory) luovuuteen ja muuntavaan (transformational) luovuuteen. Tämä erottelu on tärkeää, kun haluamme ymmärtää laskennallisen luovuuden rajat. Tekoäly tutkimassa luovia mahdollisuuksia Tällä hetkellä kaikki suurimmat tekoälymallit kykenevät tutkivaan luovuuteen. Tämä tarkoittaa sitä, että tekoälymallit liikkuvat luovassa hakuavaruudessa ja tutkivat sieltä löytyviä vaihtoehtoja. Jos ajatellaan kuvaa, joka koostuu 512x512 pikselistä, joista jokaisen on edustettava jotain värikartan ennalta määrätyistä väreisetä, on selvää, että mahdollisten kuvien joukko on rajallinen. Tutkivasti luova tekoälymalli voi siis tuottaa kuvia vain näiden sääntöjen puitteissa - ne siis rajaavat luovan hakuavaruuden. Tekoäly tutkii sopivia pandoja rajatusta hakuavaruudesta. Kuvat on tuottanut Khalid Alnajjar. Tilanne on todellisuudessa vielä tätäkin rajatumpi. Yksikään generatiivinen tekoälymalli ei pysty tuottamaan kaikkia mahdollisia kuvia, jotka voivat esiintyä 512x512 koossa. Tekoälyn toimintaa rajoittaa myös data, jolla tekoäly on koulutettu. Jos tekoälyltä pyytää pandan kuvaa, se ei tuota kaikkia mahdollisia pandan kuvia, vain ainoastaan sellaisia pandan kuvia, jotka sopivat datasta opittuun käsitykseen pandasta. Luovuudessa rajat on tehty rikottaviksi Tutkivat luovuus on selkeästi rajoittunut johonkin hakuavaruuteen. Mutta millainen luovuus on kahlittu rajoitteisiin? Rajathan on tehty rikottaviksi! Rajoja rikkova luovuus on muuntavaa luovuutta, sillä se muuntaa hakuavaruuden rajoja. Jos minulle annetaan A4-paperi ja tehtäväksi piirtää siihen talo, luovuuteni on rajattu kaksiulotteiseen kuvaan. Ihmisenä voin ottaa paperin käsiini ja taitella siitä talon, näin olen tehnyt muuntavaa luovuutta ja muuntanut hakuavaruuden. Kolmas ulottuvuus mahdollistaa täysin erilaisten talojen tekemisen A4-paperista kuin alkuperäinen kaksiulotteinen paperi. Tekoäly ei vielä kykene rikkomaan rajoja. Yksikään suosituista tekoälytyökaluista ei osaa muntaa hakuavaruuttaan ja todeta, että en teekään kuvaa pikseleistä, vaan maalaankin sen pensselillä. Tai että kokeilenpa uutta tyylilajia, jota minulle ei edes ole koulutusdatassa opetettu. Ihmisen rooli säilyy Tekoäly pystyy tuottamaan hienoja ja luovia asioita, mutta se on kaavoihinsa kangistunut. Tekoälyn luovuus pysyy tehtävänannon ja koulutusdatan asettamissa rajoitteissa, eikä tekoäly pysty tuottamaan mitää kaavojensa ulkopuolelta. Tämä ei tarkoita sitä, etteikö tekoäly olisi luova tai että se olisi jotenkin huono luovassa työssä. Tämä tarkoittaa vain sitä, ettei sen luovuus ole vielä ihmisen tasolla. Ihmisen luovuudelle on siis vielä tarvetta jatkossakin, kunnes kehitämme kategorisesti erilaisen tekoälyn.