Tekoälytutkimusta NAACL-konferenssissa
Tekoälytutkimukseen erikoistunut NAACL-konferenssi järjestettiin Albuquerquessa, Breakin Bad -sarjan kotikaupungissa. Konferenssin pääteemana on kieliteknologia, ja se järjestetään vuosittain – useimmiten Pohjois-Amerikassa. Breaking Bad -hahmot ikuistettuina konferenssipaikalla Kielimallien arviointi puhutti Konferenssissa oli esillä useita artikkeleita, jotka käsittelivät kielimallien arviointia, eli evaluaatiota. Arviointi on jo pitkään ollut kieliteknologisen tutkimuksen Akileen kantapää – monimutkaiset ongelma redusoituvat yksittäisiin numeerisiin keskiarvoihin. Esimerkiksi konekäännöstutkimuksen lopputulos voi olla 50 BLEU-pistettä – ei mitään sen syvällisempää. Yhdysvaltojen poliittinen kehitys näkyi osallistujamäärässä NAACL-konferenssi ei tarjonnut arvioinnin suhteen mitään mullistavaa. Tästä hyvänä esimerkkinä mainittakoon konferenssin parhaaksi artikkeliksi valikoitunut tutkimus, joka tuotti uuden datasetin, jonka avulla suuria kielimalleja voidaan arvioida. Tässäkin pyrkimyksenä oli tuottaa numeerisia arvoja. Vinoumat esillä Moni artikkeli tutki suurten kielimallien vinoumia ja turvallisuutta. Suuret kielimallit on koulutettu datalla, ja data on aina vinoutunutta. Täten ei ole ihmekään, että suurissa kielimalleissa esiintyy vinoumia. Tärkeää on, että tunnistamme erilaisia vinoumia tutkimuksen kautta, jotta tiedämme, milloin malleihin kannattaa luottaa. Postereilla oli kävijöitä tavallista vähemmän Vinoumista voit lukea esimerkiksi seuraavista artikkeleista: Uncovering Bias in Large Vision-Language Models at Scale with Counterfactuals, LLMs Are Biased Towards Output Formats! Systematically Evaluating and Mitigating Output Format Bias of LLMs ja Unmasking Implicit Bias: Evaluating Persona-Prompted LLM Responses in Power-Disparate Social Scenarios. Turvallisuudesta puolestaan seuraavista: SafetyQuizzer: Timely and Dynamic Evaluation on the Safety of LLMs, SafeQuant: LLM Safety Analysis via Quantized Gradient Inspection ja RAG LLMs are Not Safer: A Safety Analysis of Retrieval-Augmented Generation for Large Language Models. Kieliteknologian rooli Mielenkiintoisin tutkimus oli siirtynyt pois kieliteknologian fokuksesta, eli uusien laskennallisten mallien kehittämisestä. Konferenssissa esitellyt uudet mallit olivat kuin tuulahdus menneisyydestä, ajalta ennen suuria kielimalleja. Tekoälyn kehitys on siirtynyt akateemisesta maailmasta yhä vahvemmin suurten yritysten käsiin, joten akateemikot voivat enää lähinnä katsoa vierestä ja tutkia olemassa olevia malleja.
Ottaako tekoäly vallan?
Tekoälyn huima kehitys on saanut ihmiset pohtimaan, voiko tekoäly viedä joku päivä vallan meiltä omiin käsiinsä. Hyssyttelijöitä riittää muistuttamaan, kuinka kaikki on ihmisen käsissä ja lopulta kaikesta vastaa ihminen. Vai vastaako? Tekoäly ei ehkä ota valtaa siinnä suhteessa, että se orjuuttaisi ihmiskunnan, mutta valtaa ja vastuuta ulkoistamme sille tehokkaasti jo tänä päivänä. Me palvomme konetta Kömpelöt ja huonosti suunnitellut järjestelmät ovat läsnä arjessamme. Meidän on jo nyt käytettävä aikaa klikkailemalla nappuloita oikeassa järjestyksessä tai muistettava tehdä jotain jossakin järjestelmässä. Ja jos epäonnistumme näissä koneen palvontamenoissa, joudumme uhraamaan lisää työaikaa koneen alttarilla toistelemalla taikasanoja, kuten ”ei, nyt meni väärin”, ”hetkonen, mikähän tähän tuli” ja ”mistä sinne taas mentiinkään”. Mitä enemmän aikaa uhraamme miellyttääksemme konetta, sitä enemmän se lämmittää koneen suoritinta – ihminen on orjuutettu. Ihmisen on painettava nappuloita oikeassa järjestyksessä, ettei kone suutu ja rankaise Entäpä kuinka usein olet joutunut elämässäsi tilanteeseen, jossa asialle ei voinut tehdä mitään, sillä kone ei antanut? Näitä tilanteita on varmasti tullut eteen monta. HSL:n lippu jäi ostamatta, koska sovellus jumitti tai ruokakaupassa jäi bonukset saamatta, kun ei se nyt vain tunnistanut korttia. Onneksi kaikesta tästä vastaa lopulta ihminen, joka onnistuu vain levittelemään käsiään, sillä todellinen valta tilanteessa on koneella. Tekoäly ohjaa meitä jo nyt Kuka saa päättää, mihin totuuteen me uskomme? Hyvin pitkälle päätösvalta on ulkoistettu tekoälyille. Meillä on usein tapana selvittää asiat googlaamalla, mutta Google ei suinkaan tarjoille meille vastauksia niiden hyödyllisyyden tai todenperäisyyden mukaan, vaan vastaukset järjestelee meille tekoäly. Missä on se ihminen, joka ottaa vastuun silloin, kun Google-haun tekoäly tarjoaa meille valheellista tietoa tai pimittää meiltä asioita? Ei missään – valta on tekoälyllä. Tekoälyn on helppo oppia vetämään oikeista naruista Suuret kansainväliset verkkokaupat kuten Amazon ja Temu ohjaavat käyttäjiä tekoälyn avulla tiettyjen tuotteiden pariin surutta. Joskus halvinta mahdollista vaihtoehtoa on jopa hankalaa löytää, kun älykäs haku on tunnistanut, että kyllä sinä enemmänkin voit tuotteesta maksaa. Vastuu on tietysti ihmisellä – mitäs ostit? Annamme innokkaasti lisää valtaa tekoälylle Tuskin mikään tässä kirjoituksessa tulee kenellekään yllätyksenä; yllättävintä on arvojen ristiriitaisuus. Samat ihmiset voivat yhtä aikaa kauhistella tekoälyn ylivaltaa ja olla ulkoistamassa lisää valtaa tekoälylle, jotta oma työ helpottuu. Hauskimpia esimerkkejä korkeakoulumaailmasta ovat Turnitin ja esseiden automaattinen tarkastaminen tekoälyllä. Me ihmiset annamme innoissamme tekoälylle avaimia valtapositioihin Annetaan vaan tekoälylle valta päättää siitä, kenen lopputyö hylätään tai hyväksytään ja kuka saa minkäkin arvosanan esseestä. Vastuu on lopulta opettajalla, joka on kykenemätön arvioimaan tekoälyn luotettavuutta. Mikä tässä yhtälössä voisikaan mennä pieleen?
Toistaako tekoäly vain oppimaansa?
Tekoälyä syytetään usein väittäen, että se kykenee ainoastaan toistamaan opetusaineistoaan, ja siten se tuottaa aina plagiaatteja ja keskiarvoista tuotosta. Onko näissä väitteissä mitään perää? Väite 1: Tekoäly hakee vastauksen tietokannastaan Olen törmännyt tähän väitteeseen usein. Tekoäly hakee vastauksen tietokannastaan, ja siksi se plagioi tai ei löydä oikeaa vastausta. Suurilla kielimalleilla ja kuvia tuottavilla tekoälymalleilla ei ole käytössään oletuksena minkäänlaista tietokantaa, vaan mallit ovat oppineet tuottamaan vastauksen itsenäisesti. Tekoälyn tuottama kuva tai vaikkapa runo ei siis löydy sellaisenaan tietokannasta. Suuret kielimallit eivät käytä tietokantoja, mutta niihin voidaan sellainen yhdistää Nykyään suuret kielimallit voidaan toki yhdistää tietokantaan. Tällä hetkellä yleisin tapa tehdä näin on niin kutsuttu RAG-malli (Retrieval Augmented Generation). Tässä ratkaisussa tekoäly voi hakea tietokannasta tietoa vastauksen tueksi. Tekoäly kuitenkin kirjoittaa vastauksensa itse. Väite 2: Tekoäly tarjoaa vain keskivertoja vastauksia Tämä väite on hankalampi, sillä generatiivisia tekoälymalleja on monenlaisia. Kuvia tuotetaan usein diffuusiomalleilla, jotka lähtevät liikkeelle satunnaisesta pikselien sekamelskasta ja muuntavat pikselisekamelskaa asteittain paremmaksi kuvaksi. Kohteena tekoälyllä on jonkinlainen keskiarvoistus optimaalista vastauksesta, joten sen pyrkimys on kohti keskivertoa. Diffuusiomalleja ajetaan iteratiivisesti – jokainen iteraatio tuottaa paremman kuvan, joka on myös lähempänä keskivertoa. Jostain pikselisekamelskan ja keskiverron optimin väliltä löytyy iteraatio, jonka aikana tekoäly tuottaa hyviä kuvia, mutta jossa kuvat eivät ole vielä konvergoituneet kaikki samannäköisiksi keskiverroiksi. Nämä kuvat eivät ole suinkaan keskivertoja, vaikka jotain samaa niissä keskiverron optimin kanssa vääjäämättä onkin. Päivityksen myötä Adoben FireFly alkoi tuottamaan parempia, joskin erittäin samanlaisia kuvia Entä sitten suuret kielimallit? Suuret kielimallit toki pyrkivät tuottamaan parhaan mahdollisen vastauksen, mikä promptista riippuen hyvin usein tuottaa jonkinlaista keskivertoa vastausta. Suurissa kielimalleissa on kuitenkin ominaisuus, jolla voi säätää lämpötilaa (temperature), mikä vaikuttaa siihen, kuinka keskivertoja tai luovia vastauksia kielimalli tuottaa. Lämpötilaa säätämällä mallin saa ääripäissä tuottamaan todella kuivaa tekstiä tai suoranaista satunnaista siansaksaa. Emergoitunut äly Suurten kielimallien älykkyys on emergenttiä. Ne osaavat yleistää oppimaansa täysin uudenlaisiin tehtäviin. Tämä tarkoittaa yksinkertaisesti sitä, että tekoälymallit osaavat tuottaa vastauksia sellaisiin kysymyksiin, millaisia ne eivät koulutusaineistossaan koskaan nähneetkään. Nämä vastaukset eivät itsessään ole keskivertoa toistoa jo opitusta, sillä tekoäly ei voi toistaa vain oppimaansa ”hauki on kala” -tapaisesti. Koulutusdata ohjaa Adoben FireFlyta niin vahvasti, ettei se kykene tuottamaan reunoihin asti täyttä viinilasia Kuvia tuottavien tekoälymallien älykkyys ei osoita saman tasoista emergenssiä, sillä opetusmateriaali ohjaa niiden tuotoksia tekstiä tuottavia malleja enemmän. Usein kuvia tuottavilta malleilta voi olla lähes mahdotonta saada tietynlaisia kuvia ulos. Keskivertoa vai ei? Väite, että tekoäly tuottaa vain keskivertoja vastauksia, vetää mutkat liian suoriksi. Koulutusdata ohjaa tekoälyä mallista riippuen enemmän tai vähemmän, mutta se ei tarkoita sitä, että tekoäly kykenisi tuottamaan vain tylsiä itsestäänselvyyksiä. Tekoäly ei myöskään toista vain oppimaansa, sillä se on koulutettu tarjoamaan vastauksia myös ongelmiin, jollaisiin se ei ole ennen törmännyt.