Vuosi: 2025

Metropolian tekoälytutkimus vahvasti esillä kansainvälisessä työpajassa

16.12.2025

Metropolia ja Itä-Suomen yliopisto järjestivät yhdessä IWCLUL-työpajan (International Workshop on Computational Linguistics for Uralic Languages), joka kokosi yhteen suomensukuisten kielten tutkijoita ympäri Eurooppaa. Työpaja järjestettiin osana kansainvälistä ACL-yhteisöä ja se tarjosi ajankohtaisen katsauksen uralilaisten kielten kieliteknologiseen tutkimukseen erityisesti tekoälyn ja suurten kielimallien aikakaudella. Laaja kattaus Metropolian tutkimusta Metropolian tekoälytutkimus oli työpajassa poikkeuksellisen vahvasti edustettuna. Työpajaan hyväksyttiin neljä Metropoliassa tehtyä täyttä artikkelia, jotka käsittelivät sekä pedagogisia että kieliteknologisia kysymyksiä useista näkökulmista. Artikkelissa From NLG Evaluation to Modern Student Assessment in the Era of ChatGPT: The Great Misalignment Problem and Pedagogical Multi-Factor Assessment (P-MFA) tarkasteltiin tekoälyn vaikutusta korkeakouluopetuksen arviointikäytäntöihin. Tutkimus toi esiin niin sanotun Great Misalignment Problem -ilmiön, jossa arviointi ei enää mittaa sitä, mitä sen on tarkoitus mitata, kun opiskelijat voivat tuottaa korkeatasoisia lopputuloksia generatiivisten kielimallien avulla. Artikkelissa esiteltiin uusi Pedagogical Multi-Factor Assessment (P-MFA) -malli, joka painottaa oppimisprosessia, monipuolista näyttöä ja pedagogista läpinäkyvyyttä yksittäisten tuotosten sijaan. Wasedan yliopiston kanssa kirjoitetussa artikkelissa Benchmarking Finnish Lemmatizers across Historical and Contemporary Texts arvioitiin suomen kielen lemmatisointityökaluja sekä nykykielisessä että historiallisessa aineistossa. Tutkimus hyödynsi Project Gutenberg -korpusta ja toi ensimmäistä kertaa Trankit-työkalun mukaan suomen lemmatisoinnin vertailuun. Keskeinen tulos oli, että Murre-esikäsittely parantaa merkittävästi lemmatisointituloksia murteellisissa ja historiallisissa teksteissä, kun taas nykysuomessa sen vaikutus on vähäinen. Kuvassa Aki Morooka kertoo normalisointikokeista Ajankohtainen tekoälyn sovellus ennakointiin esiteltiin artikkelissa ORACLE: Time-Dependent Recursive Summary Graphs for Foresight on News Data Using LLMs. Tutkimuksessa kehitettiin uusi menetelmä, jossa uutisaineistosta rakennetaan ajallisesti eteneviä rekursiivisia tiivistysgraafeja suurten kielimallien avulla. ORACLE-menetelmä mahdollistaa uutistiedon kehityskulkujen ja tulevien suuntausten tarkastelun tavalla, joka yhdistää ajallisen rakenteen ja kielimallipohjaisen tiivistämisen. Neljäs Helsingin yliopiston kanssa kirjoitettu artikkeli, Evaluating OpenAI GPT Models for Translation of Endangered Uralic Languages: A Comparison of Reasoning and Non-Reasoning Architectures, keskittyi uhanalaisten uralilaisten kielten konekäännökseen. Tutkimuksessa vertailtiin OpenAI:n GPT-mallien päättelyyn perustuvia ja ei-päättelyyn perustuvia arkkitehtuureja ja analysoitiin niiden suoriutumista matalan resurssin kielissä. Tulokset tarjoavat arvokasta tietoa siitä, millaiset kielimalliratkaisut soveltuvat parhaiten pienten ja uhanalaisten kielten tukemiseen. Metropolian salamapuheet: ketteriä avauksia ajankohtaisiin teemoihin Metropolian näkyvyys IWCLUL-työpajassa ei rajoittunut täysiin tutkimusartikkeleihin, vaan se ulottui vahvasti myös salamapuheisiin. Salamapuheet tarjosivat tiiviin mutta sisällöllisesti painavan katsauksen nopeasti kehittyviin tutkimuslinjoihin, jotka ovat keskeisiä uralilaisten ja muiden pienten kielten kieliteknologialle. Salamapuhe UralicMCP: Turning LLMs into Experts in Endangered Languages with MCP esitteli uuden Model Context Protocol (MCP) -pohjaisen laajennuksen UralicNLP-kirjastoon. UralicMCP:n keskeinen ajatus on liittää suurille kielimalleille sääntöpohjaisia kieliteknologisia työkaluja, kuten morfologinen analysaattori, taivutin, lemmatisaattori ja sanakirjat. Tämä mahdollistaa sen, että kielimallit voivat suorittaa NLP-tehtäviä myös sellaisissa uhanalaisissa uralilaisissa kielissä, joista niillä ei ole juurikaan koulutusdataa. Salamapuheessa esitetyt kokeet osoittivat, että MCP:n avulla kielimallit voivat onnistua tehtävissä, jotka olisivat muuten niille mahdottomia. Lev Kharlashkin otti kantaa karjalan nykytilaan Toinen salamapuhe, From Toki Pona to Uralic: A Grammar-Constrained Pipeline for Low-Resource Language Generation, käsitteli metodologista lähestymistapaa matalan resurssin kielimallien kouluttamiseen. Työssä hyödynnettiin Toki Ponan kaltaista äärimmäisen kontrolloitua kieltä testialustana kieliopillisesti ohjatulle synteettisen datan tuotannolle. Tavoitteena ei ollut itse Toki Pona, vaan skaalautuva menetelmä, joka voidaan siirtää morfologisesti rikkaisiin uralilaisiin kieliin. Salamapuhe toi esiin, miten eksplisiittinen kieliopillinen ohjaus ja tarkistettu synteettinen data voivat kompensoida suurten aineistojen puutetta. Salamapuhe Did Karelian Survive the Year? A Small Data Update tarjosi ajantasaisen tilannekuvan karjalan kielen digitaalisesta elinvoimasta. Puheessa esiteltiin kevyt mutta toistettava tiedonkeruuprosessi, jolla analysoitiin karjalankielistä verkkosisältöä erityisesti uutis- ja artikkeliteksteissä. Tulokset osoittivat, että karjalaa tuotetaan verkossa aktiivisesti, erityisesti lyhyissä uutismuodoissa, ja että pienikin, säännöllisesti päivitettävä aineisto voi tarjota merkityksellistä tietoa uhanalaisen kielen nykytilasta. Neljäs Metropolian salamapuhe, Evaluating Finnish Dialect Normalization in GPT Models with and without Reasoning, keskittyi suomen murteiden normalisointiin kielimalleilla. Tutkimuksessa vertailtiin perinteisesti hienosäädettyjä GPT-tyylisiä malleja ja erikseen päättelyllä (chain-of-thought) varustettuja malleja. Tulokset osoittivat, että vahva suomen kielen esikoulutus on ratkaisevampaa kuin eksplisiittinen päättely, ja että päättelyyn perustuva hienosäätö voi jopa heikentää normalisointituloksia tässä tehtävässä. Salamapuhe toi esiin tärkeitä havaintoja siitä, milloin ja miten päättelykykyä kannattaa hyödyntää kieliteknologisissa sovelluksissa. Artur Roos kertoi, mitä uralilaset kielet voivat oppia synteettisiltä kieliltä Tutkimuksesta käytäntöön: tekoäly pienten kielten tukena IWCLUL-työpaja teki näkyväksi sen, miten Metropolian tekoälytutkimus yhdistää teoreettisen kielentutkimuksen, käytännöllisen kieliteknologian ja yhteiskunnallisen vaikuttavuuden. Sekä pitkät tutkimusartikkelit että salama-artikkelit osoittivat, että suuria kielimalleja ei tarkastella Metropoliassa irrallisina yleisratkaisuina, vaan välineinä, joita voidaan ohjata, rajata ja täydentää kielitieteellisellä asiantuntemuksella. Yhteinen nimittäjä Metropolian esityksille oli uhanalaisten kielten todellisuus: rajalliset aineistot, rikas morfologia ja tarve läpinäkyville, ylläpidettäville ratkaisuille. Olipa kyse arvioinnin uudelleenajattelusta opetuksessa, uralilaisten kielten käännöksestä, karjalan kielen digitaalisesta elinvoimasta tai murteellisen suomen normalisoinnista, tutkimus painotti ratkaisuja, jotka toimivat myös silloin, kun valmista dataa tai täydellisiä malleja ei ole. Työpaja vahvisti Metropolian roolia kansainvälisessä kieliteknologiayhteisössä toimijana, joka tuo yhteen tekoälyn, avoimen lähdekoodin ja kieliyhteisöjen tarpeet. Samalla se osoitti, että pienten kielten tutkimus ei ole tekoälyn kehityksen sivupolku, vaan yksi sen tärkeimmistä testialustoista: juuri siellä joudutaan tekemään näkyväksi ne oletukset, rajoitteet ja valinnat, joihin kielimallit muuten kätkeytyvät.

Metropoliassa kehitetään tekoälyratkaisuja sisäisiin tarpeisiin

23.6.2025

Kehityspäällikkö Mika Hämäläisen johdolla Metropolian tekoälytiimi kehittää erilaisia suuriin kielimalleihin pohjautuvia ratkaisuja organisaation haasteiden ratkaisemiseksi. Kantavana ajatuksena on todellisten ongelmien ratkaiseminen käyttäjälähtöisesti ja ketterästi. Suuret kielimallit kehittyvät jatkuvasti, joten tekoälyä ei itsessään tarvitse enää kehittää – meidän tehtävämme onkin ennemmin ottaa tekoäly käyttöön ja tuoda se osaksi arkea helppokäyttöisessä muodossa. Tiimissämme työskentelevät tällä hetkellä ohjelmistokehittäjät Lev Kharlashkin, Melany Macías Morán ja Leo Huovinen sekä opiskelijaharjoittelijat Yehor Tereshchenko, Sheng Tai ja Aki Morooka. Kehittämämme työkalut ovat nimeltään OpintoHain, Oraakkeli, Hankehakemusapuri, Ops-työkalu sekä Moodlen tekoälylaajennus. OpintoHain OpintoHain kehitettiin osana Sonja Saarikiven luotsaamaa projektia, jonka tarkoituksena oli luoda työkalu jatkuvan oppijan käyttöön. Kohderyhmänä ovat Metropolian ulkoiset henkilöt, jotka haluavat päivittää omaa osaamistaan ja tulla Metropoliaan opiskelemaan esimerkiksi yhden kurssin tai mahdollisesti jopa sopivan YAMK-tutkinnon. Vastasimme haasteeseen kehittämällä Metropolian avoimen korkeakoulun opintotarjonnan tuntevan chatbotin. Taustalla työkalulla on RAG-malli, joka tuntee Metropolian kurssit ja tutkinnot sekä moniagenttijärjestelmä, jossa on erilliset agentit kurssien ja tutkintojen suosittelua varten sekä opinto-ohjausta varten. OpintoHain-työkalua voi testata Metropolian verkkosivuilla. Oraakkeli Ennakointi on noussut Metropoliassa entistä tärkeämpään rooliin – kaikkien pitäisi ennakoida, mutta miten? Lähdimme ratkaisemaan ongelmaa Oraakkeli-työkalulla, joka lukee sisään verkkoaineistoja kuten uutisia ja työpaikkailmoituksia. Näiden pohjalta, voimme analysoida dataa vektorisoimalla sekä klusteroimalla. Olemme jo kehittäneet menetelmiä esimerkiksi heikkojen signaalien ja megatrendien tunnistamiseen, muutosajureiden tunnistamiseen, datapohjaiseen skenaariotyöhön sekä moniagenttiseen Delphi-menetelmän toteuttamiseen automaattisesti. Kantava ajatus on se, että tekoäly pureskelee ennakointidataa valmiiseen muotoon, jotta loppukäyttäjä saisi ennakointitiedosta mahdollisimman suuren hyödyn, vaikkei hän välttämättä itse ennakoinnista juuri mitään tietäisikään. Oraakkelin viemisessä käytäntöön tukemaan todellisia käyttötapauksia meitä auttaa Maani Nyqvistin luotsaama ennakointityöryhmä sekä ennakointiguru Marita Huhtaniemi. Hankehakemusapuri Ulkoisen rahoituksen merkitys on kasvussa korkeakoulumaailmassa. Kilpailu rahoituksesta on kovaa ja usein vahvatkin hakemukset jäävät ilman rahoitusta. Rakennamme tekoälytyökalua yhdessä TKI- ja projektipalveluiden johtajan Maarit Haatajan ja hänen tiiminsä kanssa lisäämään Metropolian mahdollisuuksia saada ulkoista rahoitusta. Erityisesti EU:n horisonttihauissa on tärkeää, että jokaista hakukuulutuksen kohtaa on käsitelty hakemuksessa. Hyväkin hakemus saattaa jäädä vaille rahoitusta, jos hakemuksesta puuttuu maininta edes yhdestä alakohdasta. Hankehakemusapuri analysoi automaattisesti hakukuulutuksen ja vertaa sitä hakemustekstiin. Hakemuksesta puuttuvat kohdat ilmoitetaan selkeästi käyttäjälle, joka voi halutessaan korjata ne itse tai pyytää tekoälyä lisäämään hakemukseen puuttuvat kohdat automaattisesti. Työkalu osaa myös tunnistaa riskit sekä jakaa projektin työpaketteihin. Ops-työkalu Opintosuunnitelmien eli opsien kirjoittaminen on aikaa vievä prosessi. Kurssikohtaisesti opseissa pitäisi näkyä niin kestävän kehityksen tavoitteet kuin Arene-kompetenssit. Tätä varten kehitimme Ops-työkalun, joka mm. analysoi opsit ja näyttää tutkintojen sisällön Arenen ja kestävän kehityksen näkökulmista. Työkalun kehityksessä Metsälintu Pahkin toimi arvokkaana linkkinä tutkintovastaavien suuntaan. Lue työkalua kuvaava tieteellinen julkaisu. Moodlen tekoälylaajennus Moodlen tekoälylaajennus on kehitetty opettajia varten, jotta he pystyisivät tuottamaan omiin kurssimateriaaleihinsa pohjaavia tehtäviä automaattisesti suoraan Moodleen. Kantava ajatus on ollut tuoda tekoäly suoraan osaksi tuttua työkalua, eikä suinkaan erilliseksi järjestelmäksi. Opettajien suuntaan linkkinä toimi yliopettaja Tricia Cleland-Silva. Lue työkalua kuvaava tieteellinen julkaisu.

Metropolia mukana järjestämässä tekoälyyn keskittyvää NLP4DH-konferenssia Yhdysvalloissa

Mika Hämäläinen Metropolia Ammattikorkeakoulusta toimi tänäkin vuona NLP4DH-konferenssin pääjärjestäjänä. Konferenssisarjan pääteema on kieliteknologian ja digihumanismin yhteensovittaminen. Vuona 2025 konferenssi järjestettiin korkea-arvoisen NAACL-konferenssin yhteydessä Albuquerquessa. NLP4DH järjestettiin Taos-salissa Kaksi päivää soveltavaa tekoälyä NLP4DH:ssa oli kaksi päivää täyttä asiaa Konferenssi tavoitti laajan joukon eri tieteenalojen edustajia. Esitelmiä oli niin kirjallisuudesta, murteista, ironiasta kuin tekoälyn psykologiastakin. Tutkimustuloksia esiteltiin monen kielen näkökulmasta kuten espanjan, arabian, islannin, tanskan ja sanskritin näkökulmasta. Tohtori Yuri Bizzoni valmistautumassa esitelmäänsä Tohtori Yuri Bizzoni, joka toimi myös konferenssin yhtenä järjestänä, esitteli konferenssissa kirjallisuuteen liittyvää tutkimustaan. Hän oli soveltanut ChatGPT:n edeltäjää, GPT-2-mallia, korpuksensa analysointiin. Yhdysvaltain politiikka pakotti osallistujia verkkoon Puolet tutkijoista osallistui konferenssiin etänä. Moni vaihtoi etäosallistumiseen viimetingassa vedoten Yhdysvaltain ulkopolitiikkaan. Huolet vaikuttivat jokseenkin ylimitoitetuilta – kukaan osallistujista ei joutunut rajalla mielivaltaisen kohtelun uhriksi. Yhdysvaltain huippuyliopistoista oli kattava edustus konferenssissa. Tutkijoita oli MIT:stä, Harvardista, Johns Hopkins -yliopistosta sekä Cornell-yliopistosta. Osallistujia saapui paikalle myös mm. Japanista, Uudesta Seelannista, Kiinasta ja Kolumbiasta. Posterisessio ei ollut ottaa loppuakseen Postereita pystyttämässä olleita tutkijoita Posterille oli varattu puoli tuntia aikaa iltapäiväkahvien jälkeen. Ilmoitin osallistujille, että posterisessio on ohi, nyt saa lähteä, muttei ole pakko. Jokaisella posterilla keskustelu kävi sen verran kuumana, että sessio jatkui vielä puoli tuntia suunniteltua pidempään. So Miyagawa hetkeä ennen posterisession alkua Konferenssia järjestämässä ollut apulaisprofessori So Miyagawa esitteli RAG-pohjaista mallia, jonka avulla hän sai suuret kielimallit ymmärtämään muinaisegyptiä. Kielimallit, jotka normaalisti eivät osaa tuottaa muinaisegyptiä, pystyivät RAG-mallin takana olevan sanakirjan kautta tulkitsemaan muinaisten tekstien merkityksen.

Tekoälytutkimusta NAACL-konferenssissa

Tekoälytutkimukseen erikoistunut NAACL-konferenssi järjestettiin Albuquerquessa, Breakin Bad -sarjan kotikaupungissa. Konferenssin pääteemana on kieliteknologia, ja se järjestetään vuosittain – useimmiten Pohjois-Amerikassa. Breaking Bad -hahmot ikuistettuina konferenssipaikalla Kielimallien arviointi puhutti Konferenssissa oli esillä useita artikkeleita, jotka käsittelivät kielimallien arviointia, eli evaluaatiota. Arviointi on jo pitkään ollut kieliteknologisen tutkimuksen Akileen kantapää – monimutkaiset ongelma redusoituvat yksittäisiin numeerisiin keskiarvoihin. Esimerkiksi konekäännöstutkimuksen lopputulos voi olla 50 BLEU-pistettä – ei mitään sen syvällisempää. Yhdysvaltojen poliittinen kehitys näkyi osallistujamäärässä NAACL-konferenssi ei tarjonnut arvioinnin suhteen mitään mullistavaa. Tästä hyvänä esimerkkinä mainittakoon konferenssin parhaaksi artikkeliksi valikoitunut tutkimus, joka tuotti uuden datasetin, jonka avulla suuria kielimalleja voidaan arvioida. Tässäkin pyrkimyksenä oli tuottaa numeerisia arvoja. Vinoumat esillä Moni artikkeli tutki suurten kielimallien vinoumia ja turvallisuutta. Suuret kielimallit on koulutettu datalla, ja data on aina vinoutunutta. Täten ei ole ihmekään, että suurissa kielimalleissa esiintyy vinoumia. Tärkeää on, että tunnistamme erilaisia vinoumia tutkimuksen kautta, jotta tiedämme, milloin malleihin kannattaa luottaa. Postereilla oli kävijöitä tavallista vähemmän Vinoumista voit lukea esimerkiksi seuraavista artikkeleista: Uncovering Bias in Large Vision-Language Models at Scale with Counterfactuals, LLMs Are Biased Towards Output Formats! Systematically Evaluating and Mitigating Output Format Bias of LLMs ja Unmasking Implicit Bias: Evaluating Persona-Prompted LLM Responses in Power-Disparate Social Scenarios. Turvallisuudesta puolestaan seuraavista: SafetyQuizzer: Timely and Dynamic Evaluation on the Safety of LLMs, SafeQuant: LLM Safety Analysis via Quantized Gradient Inspection ja RAG LLMs are Not Safer: A Safety Analysis of Retrieval-Augmented Generation for Large Language Models. Kieliteknologian rooli Mielenkiintoisin tutkimus oli siirtynyt pois kieliteknologian fokuksesta, eli uusien laskennallisten mallien kehittämisestä. Konferenssissa esitellyt uudet mallit olivat kuin tuulahdus menneisyydestä, ajalta ennen suuria kielimalleja. Tekoälyn kehitys on siirtynyt akateemisesta maailmasta yhä vahvemmin suurten yritysten käsiin, joten akateemikot voivat enää lähinnä katsoa vierestä ja tutkia olemassa olevia malleja.

Ottaako tekoäly vallan?

Tekoälyn huima kehitys on saanut ihmiset pohtimaan, voiko tekoäly viedä joku päivä vallan meiltä omiin käsiinsä. Hyssyttelijöitä riittää muistuttamaan, kuinka kaikki on ihmisen käsissä ja lopulta kaikesta vastaa ihminen. Vai vastaako? Tekoäly ei ehkä ota valtaa siinnä suhteessa, että se orjuuttaisi ihmiskunnan, mutta valtaa ja vastuuta ulkoistamme sille tehokkaasti jo tänä päivänä. Me palvomme konetta Kömpelöt ja huonosti suunnitellut järjestelmät ovat läsnä arjessamme. Meidän on jo nyt käytettävä aikaa klikkailemalla nappuloita oikeassa järjestyksessä tai muistettava tehdä jotain jossakin järjestelmässä. Ja jos epäonnistumme näissä koneen palvontamenoissa, joudumme uhraamaan lisää työaikaa koneen alttarilla toistelemalla taikasanoja, kuten ”ei, nyt meni väärin”, ”hetkonen, mikähän tähän tuli” ja ”mistä sinne taas mentiinkään”. Mitä enemmän aikaa uhraamme miellyttääksemme konetta, sitä enemmän se lämmittää koneen suoritinta – ihminen on orjuutettu. Ihmisen on painettava nappuloita oikeassa järjestyksessä, ettei kone suutu ja rankaise Entäpä kuinka usein olet joutunut elämässäsi tilanteeseen, jossa asialle ei voinut tehdä mitään, sillä kone ei antanut? Näitä tilanteita on varmasti tullut eteen monta. HSL:n lippu jäi ostamatta, koska sovellus jumitti tai ruokakaupassa jäi bonukset saamatta, kun ei se nyt vain tunnistanut korttia. Onneksi kaikesta tästä vastaa lopulta ihminen, joka onnistuu vain levittelemään käsiään, sillä todellinen valta tilanteessa on koneella. Tekoäly ohjaa meitä jo nyt Kuka saa päättää, mihin totuuteen me uskomme? Hyvin pitkälle päätösvalta on ulkoistettu tekoälyille. Meillä on usein tapana selvittää asiat googlaamalla, mutta Google ei suinkaan tarjoille meille vastauksia niiden hyödyllisyyden tai todenperäisyyden mukaan, vaan vastaukset järjestelee meille tekoäly. Missä on se ihminen, joka ottaa vastuun silloin, kun Google-haun tekoäly tarjoaa meille valheellista tietoa tai pimittää meiltä asioita? Ei missään – valta on tekoälyllä. Tekoälyn on helppo oppia vetämään oikeista naruista Suuret kansainväliset verkkokaupat kuten Amazon ja Temu ohjaavat käyttäjiä tekoälyn avulla tiettyjen tuotteiden pariin surutta. Joskus halvinta mahdollista vaihtoehtoa on jopa hankalaa löytää, kun älykäs haku on tunnistanut, että kyllä sinä enemmänkin voit tuotteesta maksaa. Vastuu on tietysti ihmisellä – mitäs ostit? Annamme innokkaasti lisää valtaa tekoälylle Tuskin mikään tässä kirjoituksessa tulee kenellekään yllätyksenä; yllättävintä on arvojen ristiriitaisuus. Samat ihmiset voivat yhtä aikaa kauhistella tekoälyn ylivaltaa ja olla ulkoistamassa lisää valtaa tekoälylle, jotta oma työ helpottuu. Hauskimpia esimerkkejä korkeakoulumaailmasta ovat Turnitin ja esseiden automaattinen tarkastaminen tekoälyllä. Me ihmiset annamme innoissamme tekoälylle avaimia valtapositioihin Annetaan vaan tekoälylle valta päättää siitä, kenen lopputyö hylätään tai hyväksytään ja kuka saa minkäkin arvosanan esseestä. Vastuu on lopulta opettajalla, joka on kykenemätön arvioimaan tekoälyn luotettavuutta. Mikä tässä yhtälössä voisikaan mennä pieleen?

Toistaako tekoäly vain oppimaansa?

24.3.2025

Tekoälyä syytetään usein väittäen, että se kykenee ainoastaan toistamaan opetusaineistoaan, ja siten se tuottaa aina plagiaatteja ja keskiarvoista tuotosta. Onko näissä väitteissä mitään perää? Väite 1: Tekoäly hakee vastauksen tietokannastaan Olen törmännyt tähän väitteeseen usein. Tekoäly hakee vastauksen tietokannastaan, ja siksi se plagioi tai ei löydä oikeaa vastausta. Suurilla kielimalleilla ja kuvia tuottavilla tekoälymalleilla ei ole käytössään oletuksena minkäänlaista tietokantaa, vaan mallit ovat oppineet tuottamaan vastauksen itsenäisesti. Tekoälyn tuottama kuva tai vaikkapa runo ei siis löydy sellaisenaan tietokannasta. Suuret kielimallit eivät käytä tietokantoja, mutta niihin voidaan sellainen yhdistää Nykyään suuret kielimallit voidaan toki yhdistää tietokantaan. Tällä hetkellä yleisin tapa tehdä näin on niin kutsuttu RAG-malli (Retrieval Augmented Generation). Tässä ratkaisussa tekoäly voi hakea tietokannasta tietoa vastauksen tueksi. Tekoäly kuitenkin kirjoittaa vastauksensa itse. Väite 2: Tekoäly tarjoaa vain keskivertoja vastauksia Tämä väite on hankalampi, sillä generatiivisia tekoälymalleja on monenlaisia. Kuvia tuotetaan usein diffuusiomalleilla, jotka lähtevät liikkeelle satunnaisesta pikselien sekamelskasta ja muuntavat pikselisekamelskaa asteittain paremmaksi kuvaksi. Kohteena tekoälyllä on jonkinlainen keskiarvoistus optimaalista vastauksesta, joten sen pyrkimys on kohti keskivertoa. Diffuusiomalleja ajetaan iteratiivisesti – jokainen iteraatio tuottaa paremman kuvan, joka on myös lähempänä keskivertoa. Jostain pikselisekamelskan ja keskiverron optimin väliltä löytyy iteraatio, jonka aikana tekoäly tuottaa hyviä kuvia, mutta jossa kuvat eivät ole vielä konvergoituneet kaikki samannäköisiksi keskiverroiksi. Nämä kuvat eivät ole suinkaan keskivertoja, vaikka jotain samaa niissä keskiverron optimin kanssa vääjäämättä onkin. Päivityksen myötä Adoben FireFly alkoi tuottamaan parempia, joskin erittäin samanlaisia kuvia Entä sitten suuret kielimallit? Suuret kielimallit toki pyrkivät tuottamaan parhaan mahdollisen vastauksen, mikä promptista riippuen hyvin usein tuottaa jonkinlaista keskivertoa vastausta. Suurissa kielimalleissa on kuitenkin ominaisuus, jolla voi säätää lämpötilaa (temperature), mikä vaikuttaa siihen, kuinka keskivertoja tai luovia vastauksia kielimalli tuottaa. Lämpötilaa säätämällä mallin saa ääripäissä tuottamaan todella kuivaa tekstiä tai suoranaista satunnaista siansaksaa. Emergoitunut äly Suurten kielimallien älykkyys on emergenttiä. Ne osaavat yleistää oppimaansa täysin uudenlaisiin tehtäviin. Tämä tarkoittaa yksinkertaisesti sitä, että tekoälymallit osaavat tuottaa vastauksia sellaisiin kysymyksiin, millaisia ne eivät koulutusaineistossaan koskaan nähneetkään. Nämä vastaukset eivät itsessään ole keskivertoa toistoa jo opitusta, sillä tekoäly ei voi toistaa vain oppimaansa ”hauki on kala” -tapaisesti. Koulutusdata ohjaa Adoben FireFlyta niin vahvasti, ettei se kykene tuottamaan reunoihin asti täyttä viinilasia Kuvia tuottavien tekoälymallien älykkyys ei osoita saman tasoista emergenssiä, sillä opetusmateriaali ohjaa niiden tuotoksia tekstiä tuottavia malleja enemmän. Usein kuvia tuottavilta malleilta voi olla lähes mahdotonta saada tietynlaisia kuvia ulos. Keskivertoa vai ei? Väite, että tekoäly tuottaa vain keskivertoja vastauksia, vetää mutkat liian suoriksi. Koulutusdata ohjaa tekoälyä mallista riippuen enemmän tai vähemmän, mutta se ei tarkoita sitä, että tekoäly kykenisi tuottamaan vain tylsiä itsestäänselvyyksiä. Tekoäly ei myöskään toista vain oppimaansa, sillä se on koulutettu tarjoamaan vastauksia myös ongelmiin, jollaisiin se ei ole ennen törmännyt.

Katsooko tekoäly vain menneisyyteen?

http://robotti%20ja%20ihminen%20selkä%20selkää%20vasten.%20Robotti%20katsoo%20vasemmalle,%20ihminen%20oikealle
14.3.2025

Viime aikoina eteeni on tullut mielenkiintoinen argumentti: ChatGPT katsoo vain menneisyyteen, mutta ihminen voi katsoa tulevaisuuteen. Ajatus juontaa juurensa siihen, että tekoäly koulutetaan vanhalla datalla ja esimerkiksi ChatGPT:n tietämys maailmasta rajoittuu koulutusaineiston viimeiseen päivämäärään asti. Tämä ei kuitenkaan yksiselitteisesti tarkoita sitä, että tekoäly katsoo vain menneisyyteen. Koneoppiminen katsoo aina kohti tuntematonta Koneoppimisen perusperiaate on ollut aina kouluttaa tekoäly vanhalla datalla ja testata sitä uudella, ennennäkemättömällä, datalla. Näin on voitu varmistaa, että tekoäly toimii halutulla tavalla myös kohdatessaan täysin uutta dataa. Koneoppiminen tähtää siihen, että tekoäly toimii myös uuden datan kanssa Ennen suuria kielimalleja kieliteknologiset koneoppimismallit kärsivät usein siitä, etteivät ne toimineet hyvin täysin uudenlaisella datalla. Esimerkiksi tuotearvioilla koulutettu tekoäly ei onnistunut kovinkaan hyvin tunnistamaan positiivisia ja negatiivisia ilmauksia kaunokirjallisessa tekstissä. Nämä rajoitteet ovat kuitenkin poistuneet suurten kielimallien myötä, sillä suuret kielimallit kykenevät yleistämään oppimaansa monta erilaista tehtävää varten. Miksi ihminen katsoisi sen enempää tulevaisuuteen? Kun me ihmiset kohtaamme jotain uutta, meidän on usein toimittava vanhan tiedon varassa. Meidänkin ”koulutusdatamme” päättyy aina nykyhetkeen. Jos kadulla meitä vastaan kävelee talutushihnassa oleva tunnistamaton karvainen möykky, oletamme loogisesti, että kyseessä on koira. Tämä oletus pohjaa vanhaan tietoon. Jos kyseessä onkin jokin meille täysin vieras eläinlaji, hämmästymme kohtaamista. Tekoälykin pohjaa olemassa olevaan tietoon kohdatessaan uusia asioita. Erotuksena ihmiseen on se, että tällä hetkellä meillä ei ole käytössä tekoälytyökaluja, jotka voisivat dynaamisesti oppia kokemuksistaan ja päivittää itseään. Tekoäly tulee täten aina ajattelemaan, että karvainen möykky on koira, kunnes sen koulutusaineistoon lisätään tieto siitä, että nyt on löytynyt täysin uusi lemmikiksi sopiva eläinlaji. Ihminen oppisi tämän välittömästi. Tulevaisuuden ennakointi on päättelyä Siinnä missä ihminenkin ennakoi tulevaa päättelyn avulla soveltaen esimerkiksi skenaariotyöskentelyä, tekoälykin voi ennakoida tulevaa päättelemällä. Suuret kielimallit osaavat jo päätellä ja suorittaa ajatusta vaativia töitä. Tekoäly voi siis katsoa tulevaisuuteen, mikäli sitä ohjataan oikein kehotteilla tekemään ennakointia. Monet tekoälytyökalut kuten ChatGPT ja Perplexity osaavat myös hakea lisää tietoa verkosta, jolloin ne voivat pohjata päättelynsä tuoreeseen tietoon.

Voidaanko tekoälyä käyttää muutoksen ennustamiseen MLPESTEL-mallilla?

http://People%20worshiping%20a%20singularity%20in%20an%20office
10.3.2025

Khalid Alnajjar ja Mika Hämäläinen tutkivat MBA-tutkinnon opinnäytetyössään tekoälyn kykyä ennustaa muutoksia yritysten toimintaympäristössä. Tätä tehtävää varten he hyödynsivät suurta kielimallia ja kehittivät uuden teoreettisen viitekehyksen nimeltä MLPESTEL. Paradigman muutos, joka mahdollisti ennustamisen Perinteisesti koneoppimisen tekniikat ovat perustuneet kaavojen oppimiseen datasta yksittäisiä tehtäviä varten. Tämän vuoksi tällaiset mallit ovat pystyneet tekemään ennusteita vain hyvin rajatuilla sovellusalueilla, kuten säätietojen tai taloudellisten trendien ennustamisessa. Kuitenkin suurten kielimallien aikakauden myötä tekoälylle on muodostunut kyky tehdä päättelyä myös kapeiden aihealueiden ulkopuolella sekä tekstuaalisen datan, eikä vain numeerisen datan, pohjalta. Tarve uudelle viitekehykselle Vaikka suuret kielimallit, kuten ChatGPT, omaavat uskomattomia kykyjä päättellä ja käsitellä erilaistia kehotteita, ne eivät pysty ennustamaan muutosta pelkän yksittäisen kehotteen avulla. Suuret kielimallit osaavat päätellä, mutta niiden on saatava käyttöönsä tarvittavat työkalut – aivan kuten me ihmistenkin. Lisäksi näin monimutkainen tehtävä on jaettava pienempiin osaongelmiin. MLPESTEL-viitekehys (Alnajjar & Hämäläinen, 2024) Tutkijat kehittivät uuden viitekehyksen nimeltä MLPESTEL, joka ammentaa inspiraationsa perinteisesti liiketaloustieteessä käytetystä PESTEL-mallista sekä ekologisten järjestelmien teoriasta (EST), jota yleensä hyödynnetään lapsen sosiaalisen kehityksen ymmärtämisessä. PESTEL on keskeinen tutkimuksen liiketoiminnallisen sovellusalueen kannalta, kun taas EST:tä käytettiin jakamaan jokainen PESTEL-kategoria neljään eri alajärjestelmään: mikro-, ekso-, meso- ja makrotasoon. Lopputuloksena syntynyt viitekehys oli ihmiselle varsin monimutkainen analysoitavaksi, mutta ei lainkaan liian vaativa suurelle kielimallille, joka pystyy helposti toimimaan tällaisella monimutkaisuuden tasolla. Tekoälypohjaisen ennustamisen ensimmäiset tulokset Tutkijat tutkivat menetelmänsä käyttökelpoisuutta analysoimalla suuren kielimallin ennustuskykyä MLPESTEL-viitekehyksen avulla kahden kansainvälisen yrityksen, Nokian ja Teslan, kohdalla. Menetelmä onnistui ennustamaan oikein 5G-teknologian tuoman mahdollisuuden Nokialle sekä maailmanlaajuisen sirupulan aiheuttamat haasteet, jotka vaikuttivat Teslaan. Opinnäytetyössä saadut tulokset ovat lupaavia ja toimivat todisteena konseptin toimivuudesta. Suuret kielimallit (LLM) ovat saavuttaneet kypsyystason, jossa niitä voidaan hyödyntää ennustamistehtävissä. MLPESTEL-viitekehys on laajentanut teoreettisia mahdollisuuksia liiketoimintaympäristön muutosten ennustamiseen. Tämä tutkimus on avannut tietä tuleville tutkimuksille suurten kielimallien ohjaamasta ennustamisesta ja tulevaisuuden tutkimuksesta. Tulokset toimivat ponnahduslautana laajemman ennakointialustan kehittämiselle Metropoliassa.