Metropolia mukana järjestämässä tekoälyyn keskittyvää NLP4DH-konferenssia Yhdysvalloissa
Mika Hämäläinen Metropolia Ammattikorkeakoulusta toimi tänäkin vuona NLP4DH-konferenssin pääjärjestäjänä. Konferenssisarjan pääteema on kieliteknologian ja digihumanismin yhteensovittaminen. Vuona 2025 konferenssi järjestettiin korkea-arvoisen NAACL-konferenssin yhteydessä Albuquerquessa. NLP4DH järjestettiin Taos-salissa Kaksi päivää soveltavaa tekoälyä NLP4DH:ssa oli kaksi päivää täyttä asiaa Konferenssi tavoitti laajan joukon eri tieteenalojen edustajia. Esitelmiä oli niin kirjallisuudesta, murteista, ironiasta kuin tekoälyn psykologiastakin. Tutkimustuloksia esiteltiin monen kielen näkökulmasta kuten espanjan, arabian, islannin, tanskan ja sanskritin näkökulmasta. Tohtori Yuri Bizzoni valmistautumassa esitelmäänsä Tohtori Yuri Bizzoni, joka toimi myös konferenssin yhtenä järjestänä, esitteli konferenssissa kirjallisuuteen liittyvää tutkimustaan. Hän oli soveltanut ChatGPT:n edeltäjää, GPT-2-mallia, korpuksensa analysointiin. Yhdysvaltain politiikka pakotti osallistujia verkkoon Puolet tutkijoista osallistui konferenssiin etänä. Moni vaihtoi etäosallistumiseen viimetingassa vedoten Yhdysvaltain ulkopolitiikkaan. Huolet vaikuttivat jokseenkin ylimitoitetuilta – kukaan osallistujista ei joutunut rajalla mielivaltaisen kohtelun uhriksi. Yhdysvaltain huippuyliopistoista oli kattava edustus konferenssissa. Tutkijoita oli MIT:stä, Harvardista, Johns Hopkins -yliopistosta sekä Cornell-yliopistosta. Osallistujia saapui paikalle myös mm. Japanista, Uudesta Seelannista, Kiinasta ja Kolumbiasta. Posterisessio ei ollut ottaa loppuakseen Postereita pystyttämässä olleita tutkijoita Posterille oli varattu puoli tuntia aikaa iltapäiväkahvien jälkeen. Ilmoitin osallistujille, että posterisessio on ohi, nyt saa lähteä, muttei ole pakko. Jokaisella posterilla keskustelu kävi sen verran kuumana, että sessio jatkui vielä puoli tuntia suunniteltua pidempään. So Miyagawa hetkeä ennen posterisession alkua Konferenssia järjestämässä ollut apulaisprofessori So Miyagawa esitteli RAG-pohjaista mallia, jonka avulla hän sai suuret kielimallit ymmärtämään muinaisegyptiä. Kielimallit, jotka normaalisti eivät osaa tuottaa muinaisegyptiä, pystyivät RAG-mallin takana olevan sanakirjan kautta tulkitsemaan muinaisten tekstien merkityksen.
Tekoälytutkimusta NAACL-konferenssissa
Tekoälytutkimukseen erikoistunut NAACL-konferenssi järjestettiin Albuquerquessa, Breakin Bad -sarjan kotikaupungissa. Konferenssin pääteemana on kieliteknologia, ja se järjestetään vuosittain – useimmiten Pohjois-Amerikassa. Breaking Bad -hahmot ikuistettuina konferenssipaikalla Kielimallien arviointi puhutti Konferenssissa oli esillä useita artikkeleita, jotka käsittelivät kielimallien arviointia, eli evaluaatiota. Arviointi on jo pitkään ollut kieliteknologisen tutkimuksen Akileen kantapää – monimutkaiset ongelma redusoituvat yksittäisiin numeerisiin keskiarvoihin. Esimerkiksi konekäännöstutkimuksen lopputulos voi olla 50 BLEU-pistettä – ei mitään sen syvällisempää. Yhdysvaltojen poliittinen kehitys näkyi osallistujamäärässä NAACL-konferenssi ei tarjonnut arvioinnin suhteen mitään mullistavaa. Tästä hyvänä esimerkkinä mainittakoon konferenssin parhaaksi artikkeliksi valikoitunut tutkimus, joka tuotti uuden datasetin, jonka avulla suuria kielimalleja voidaan arvioida. Tässäkin pyrkimyksenä oli tuottaa numeerisia arvoja. Vinoumat esillä Moni artikkeli tutki suurten kielimallien vinoumia ja turvallisuutta. Suuret kielimallit on koulutettu datalla, ja data on aina vinoutunutta. Täten ei ole ihmekään, että suurissa kielimalleissa esiintyy vinoumia. Tärkeää on, että tunnistamme erilaisia vinoumia tutkimuksen kautta, jotta tiedämme, milloin malleihin kannattaa luottaa. Postereilla oli kävijöitä tavallista vähemmän Vinoumista voit lukea esimerkiksi seuraavista artikkeleista: Uncovering Bias in Large Vision-Language Models at Scale with Counterfactuals, LLMs Are Biased Towards Output Formats! Systematically Evaluating and Mitigating Output Format Bias of LLMs ja Unmasking Implicit Bias: Evaluating Persona-Prompted LLM Responses in Power-Disparate Social Scenarios. Turvallisuudesta puolestaan seuraavista: SafetyQuizzer: Timely and Dynamic Evaluation on the Safety of LLMs, SafeQuant: LLM Safety Analysis via Quantized Gradient Inspection ja RAG LLMs are Not Safer: A Safety Analysis of Retrieval-Augmented Generation for Large Language Models. Kieliteknologian rooli Mielenkiintoisin tutkimus oli siirtynyt pois kieliteknologian fokuksesta, eli uusien laskennallisten mallien kehittämisestä. Konferenssissa esitellyt uudet mallit olivat kuin tuulahdus menneisyydestä, ajalta ennen suuria kielimalleja. Tekoälyn kehitys on siirtynyt akateemisesta maailmasta yhä vahvemmin suurten yritysten käsiin, joten akateemikot voivat enää lähinnä katsoa vierestä ja tutkia olemassa olevia malleja.
Ottaako tekoäly vallan?
Tekoälyn huima kehitys on saanut ihmiset pohtimaan, voiko tekoäly viedä joku päivä vallan meiltä omiin käsiinsä. Hyssyttelijöitä riittää muistuttamaan, kuinka kaikki on ihmisen käsissä ja lopulta kaikesta vastaa ihminen. Vai vastaako? Tekoäly ei ehkä ota valtaa siinnä suhteessa, että se orjuuttaisi ihmiskunnan, mutta valtaa ja vastuuta ulkoistamme sille tehokkaasti jo tänä päivänä. Me palvomme konetta Kömpelöt ja huonosti suunnitellut järjestelmät ovat läsnä arjessamme. Meidän on jo nyt käytettävä aikaa klikkailemalla nappuloita oikeassa järjestyksessä tai muistettava tehdä jotain jossakin järjestelmässä. Ja jos epäonnistumme näissä koneen palvontamenoissa, joudumme uhraamaan lisää työaikaa koneen alttarilla toistelemalla taikasanoja, kuten ”ei, nyt meni väärin”, ”hetkonen, mikähän tähän tuli” ja ”mistä sinne taas mentiinkään”. Mitä enemmän aikaa uhraamme miellyttääksemme konetta, sitä enemmän se lämmittää koneen suoritinta – ihminen on orjuutettu. Ihmisen on painettava nappuloita oikeassa järjestyksessä, ettei kone suutu ja rankaise Entäpä kuinka usein olet joutunut elämässäsi tilanteeseen, jossa asialle ei voinut tehdä mitään, sillä kone ei antanut? Näitä tilanteita on varmasti tullut eteen monta. HSL:n lippu jäi ostamatta, koska sovellus jumitti tai ruokakaupassa jäi bonukset saamatta, kun ei se nyt vain tunnistanut korttia. Onneksi kaikesta tästä vastaa lopulta ihminen, joka onnistuu vain levittelemään käsiään, sillä todellinen valta tilanteessa on koneella. Tekoäly ohjaa meitä jo nyt Kuka saa päättää, mihin totuuteen me uskomme? Hyvin pitkälle päätösvalta on ulkoistettu tekoälyille. Meillä on usein tapana selvittää asiat googlaamalla, mutta Google ei suinkaan tarjoille meille vastauksia niiden hyödyllisyyden tai todenperäisyyden mukaan, vaan vastaukset järjestelee meille tekoäly. Missä on se ihminen, joka ottaa vastuun silloin, kun Google-haun tekoäly tarjoaa meille valheellista tietoa tai pimittää meiltä asioita? Ei missään – valta on tekoälyllä. Tekoälyn on helppo oppia vetämään oikeista naruista Suuret kansainväliset verkkokaupat kuten Amazon ja Temu ohjaavat käyttäjiä tekoälyn avulla tiettyjen tuotteiden pariin surutta. Joskus halvinta mahdollista vaihtoehtoa on jopa hankalaa löytää, kun älykäs haku on tunnistanut, että kyllä sinä enemmänkin voit tuotteesta maksaa. Vastuu on tietysti ihmisellä – mitäs ostit? Annamme innokkaasti lisää valtaa tekoälylle Tuskin mikään tässä kirjoituksessa tulee kenellekään yllätyksenä; yllättävintä on arvojen ristiriitaisuus. Samat ihmiset voivat yhtä aikaa kauhistella tekoälyn ylivaltaa ja olla ulkoistamassa lisää valtaa tekoälylle, jotta oma työ helpottuu. Hauskimpia esimerkkejä korkeakoulumaailmasta ovat Turnitin ja esseiden automaattinen tarkastaminen tekoälyllä. Me ihmiset annamme innoissamme tekoälylle avaimia valtapositioihin Annetaan vaan tekoälylle valta päättää siitä, kenen lopputyö hylätään tai hyväksytään ja kuka saa minkäkin arvosanan esseestä. Vastuu on lopulta opettajalla, joka on kykenemätön arvioimaan tekoälyn luotettavuutta. Mikä tässä yhtälössä voisikaan mennä pieleen?