On suhdannekysymys, mitä lasketaan tekoälyksi, sanoo VTT:n tutkimusprofessori Heikki Ailisto. Kun tekoäly on trendikästä, sitä tutkivat kaikki – muulloin puhutaan esimerkiksi robotiikasta, data-analytiikasta tai konenäöstä. VTT:llä tekoälyteemaa on edistetty yhtäjaksoisesti 1980-luvulta saakka. Symbolisesta tietämystekoälystä painopiste on siirtynyt datapohjaiseen tekoälyyn ja leluongelmista oikeisiin tarpeisiin.
Tekoälyn varhainen kehitys alkoi 1950-luvulla, mutta voimakkaammin siitä kiinnostuttiin 1980-luvulla. Heikki Ailisto aloitti työnsä tekoälyn parissa samoihin aikoihin, aluksi konenäön tutkijana Oulun yliopistolla. Vuonna 1986 hän siirtyi VTT:lle.
”VTT oli etunojassa tekoälytutkimuksessa: meillä oli neljä tekoälytiimiä vähän eri fokuksilla. Konenäkö oli yksi tutkimusteemoista ja työskentelin sen parissa 1990-luvun loppuun saakka. Myöhemmin, 2010-luvulla palasin tekoälyn sovelluksiin”, Ailisto kertoo.
Tekoälykeskustelussa vuorottelevat hype ja hiljaisuus
Tekoäly nousi Ailiston työuran aikana ensimmäisen kerran kaikkien huulille 1980–90-lukujen taitteessa. Silloin innostus koski asiantuntijajärjestelmiä (expert systems). Ne perustuivat sääntöihin ja pyrkivät ratkaisemaan käytännön ongelmia – esimerkiksi suosittelemaan kameran ostajalle hänen tarpeitaan vastaavaa laitetta.
”Kyse oli leluongelmista – oikeaa ongelmaa muistuttavista kysymyksistä, jotka yksinkertaistettiin niin, että poloinenkin algoritmi pystyi ratkaisemaan ne. Toinen vastaava innostuksen kohde oli LISP-kieli, jota pyöritettiin usein tähän tarkoitetuilla Symbolics-tietokoneilla. Innostus molempia kohtaan lopahti pian”, Ailisto kertoo.
Lyhytaikaista hypeä seurasi 1990-luvulla noin kymmenen vuoden hiljainen jakso, jolloin tekoälystä ei juuri puhuttu. Silloinkin VTT:llä tutkittiin esimerkiksi hahmontunnistusta, data-analytiikkaa ja koneoppimista. 2000-luvun alun tutkimusaiheita olivat agenttijärjestelmät ja ontologiarakenteet eli tietämyskannat.
”Agenttijärjestelmät perustuivat jossain määrin itsenäisiin tietokoneohjelmilla toteutettuihin olioihin – agentteihin, jotka pystyivät ottamaan tietoa vastaan, analysoimaan sitä, tekemään päätöksiä ja kommunikoimaan toisten agenttien kanssa. Ontologiarakenteiden tutkimuksessa pyrittiin puolestaan muodostamaan rakenteellisia tietämyskantoja ja niihin liittyviä sääntöjä. Niiden avulla voitiin kuvata esimerkiksi jonkin prosessin tai työkoneen toimintaa.”
Syvät neuroverkot mullistivat koneoppimisen
Tekoälyyn perustuvassa koneoppimisessa saavutettiin 2010-luvun alussa läpimurto, jonka taustalla olivat aivojen toimintaa hyvin yksinkertaisella tavalla matkivat neuroverkot. Matemaatikot – heidän joukossaan VTT:lläkin työskennellyt Seppo Linnainmaa – olivat kehittäneet neuroverkkojen teoriaa ja oppimismenetelmiä 1960-70-luvulla. 2010-luvulla aika oli kypsä siihen, että neuroverkoista voitiin tehdä entistä suurempia.
”Kehitykseen vaikuttivat monet tekijät: dataa oli saatavilla valtavasti, tietokoneiden laskentakapasiteetti oli kasvanut, ja pelejä varten tehdyt grafiikkaprosessorit sopivat neuroverkkojen vaatimaan laskentaan. Vuonna 2012 kanadalainen tutkijakolmikko lanseerasi termin Deep Neural Network – syvä neuroverkko”, Ailisto valottaa.
Syvään neuroverkkoon voitiin syöttää esimerkiksi kuvia, ja runsaan opetusmateriaalin avulla päästiin pian tilanteeseen, jossa konenäkö tunnisti kasvokuvat jopa keskivertoihmistä luotettavammin. Vuoteen 2015 mennessä syviin neuroverkkoihin perustuvat menetelmät ohittivat kaikki aikaisemmat kuvantunnistusmenetelmät.
”Tämä oli tärkeä merkkipaalu. Uusien menetelmien avulla voitiin ennustaa myös muita ilmiöitä. Monet fysikaaliset ilmiöt ovat niin monimutkaisia, hankalia tai epämääräisiä, että niitä ei voida mallintaa tarkkojen fysiikan mallien avulla. Neuroverkkojen ja datapohjaisen lähestymistavan avulla näitä ilmiöitä voidaan mallintaa ymmärtämättä niitä täysin. Ensimmäisenä tätä hyödynnettiin muun muassa kohdennetussa mainonnassa ja vakuutusalan riskiennusteissa.”
Tekoälykeskustelu kiihtyy – suhtautuminen vaihtelee ympäri maailmaa
Keskustelu tekoälystä on kiihtynyt viimeisen viiden vuoden aikana, ja odotukset sitä kohtaan ovat kasvaneet. Tekoälyn on uskottu tuovan talouskasvua, lisäävän työn tuottavuutta ja mullistavan työmarkkinat. Ailiston mukaan vaikutukset ovat tähän asti olleet odotettua pienempiä: merkittäviä, mutta ei vallankumouksellisia.
Vuonna 2017 Ailisto selvitti tekoälystrategioita eri maissa. ”Venäjällä ajatellaan, että se, joka hallitsee tekoälyä, hallitsee maailmaa. Pohjois-Amerikassa aihe nähdään liiketoiminnan kannalta. Moni pienempi maa haluaa puolestaan olla kehityksen kärjessä ja saavuttaa kilpailuetua tekoälyllä. Suomi kuuluu tähän joukkoon.”
Kansakunnan kokoon nähden Suomessa onkin vahvaa tekoälyn tutkimusta ja koulutusta alalla. Suomalaiset pörssiyritykset hyödyntävät tekoälyä toiminnassaan, ja uusiakin tekoälyyn perustuvia yrityksiä on syntynyt.
”Teknologiaperusta tulee kuitenkin muualta: meillä ei ole Googlen tai Amazonin kaltaisia yrityksiä, jotka kehittäisivät tekoälyteknologiaa. Suurin osa yrityksistämme on samalla tasolla kuin muut eurooppalaiset yritykset ja jäljessä Itä-Aasiasta tai Pohjois-Amerikasta”, Ailisto huomauttaa.
Myös julkisella sektorilla tekoälyä hyödynnetään Suomessa varovasti. Esimerkiksi soteuudistuksessa tekoälyllä olisi voitu ratkaista digitalisaation ongelmia, mutta tämä on toistaiseksi jäänyt vähäiseksi. GDPR ja yksityisyydensuoja tuovat soveltamiseen oman haasteensa ja jossain määrin estävätkin soveltamista, ja ratkaisujen käyttöönotossa pelataan mieluummin varman päälle.
Tulevaan kehitykseen eri maissa vaikuttaa niin sääntely kuin asenneilmasto. ”Sääntely on Euroopassa tiukempaa kuin Pohjois-Amerikassa tai varsinkin Kiinassa. Asenteet ovat puolestaan positiivisimpia Itä-Aasiassa ja negatiivisimpia Afrikassa ja Etelä-Amerikassa. Pohjois-Amerikka ja Eurooppa sijaitsevat välimaastossa.”
Lisäksi kehitys riippuu rahoituksesta. ”Tekoälyyn kohdistuvat investoinnit kasvoivat vuoteen 2021 saakka, mutta sitten 2022 tapahtui pieni nyykähdys. Sijoittajat haluavat nähdä tuloksia ja löytää uusia kohteita. Saa nähdä, kasvaako rahoitus taas generatiivisen tekoälyn esiinmarssin myötä.”
Lunastaako generatiivinen tekoäly lupaukset?
Ailisto on nähnyt uransa aikana muutaman kerran tekoälyn tärkeiden haamurajojen rikkoutuvan. Yksi esimerkki on Turingin testi, joka mittaa tekoälyn ihmismäisyyttä. ”Kokeessa tarkkaillaan, tunnistaako ihminen, keskusteleeko hän ihmisen vai koneen kanssa. Useiden asiantuntijoiden mukaan tekoäly läpäisee testin.”
Tutkimustyöhön tekoäly on tuonut valtavasti uusia työkaluja, joita VTT:llä hyödynnetään laajasti. ”Selvitin tätä kyselyllä pari vuotta sitten. Jo silloin 2000 tutkijastamme noin 100 käytti tekoälymenetelmiä säännöllisesti.”
Tekoälyn sovelluskenttä on tutkimustyössä laaja: Menetelmiä voidaan hyödyntää niin molekyylirakenteiden mallintamiseen materiaalitieteissä kuin prosessien kehittämiseen teollisuudessa tai vaikkapa terveydenhuollossa. Perinteisiä sovelluskohteita ovat muun muassa erilaisilla antureilla, optisilla mittareilla ja kameroilla tuotettujen signaalien analysointi ja hahmontunnistus sekä robotiikka ja autonomiset ajoneuvot. Kaikkia näitä alueita on tutkittu VTT:llä pitkään.
Viimeisin loikka tekoälyn kehityksessä nähtiin vuosi sitten, kun generatiivinen tekoäly ja suuret kielimallit tulivat vauhdilla julkisuuteen. Monet yllättyivät niiden hämmästyttävästä suorituskyvystä keskitason tekstin tuottamisesta. Jälleen odotetaan isoa murrosta.
”Vielä on epävarmaa, kuinka käyttökelpoiseksi generatiivinen tekoäly osoittautuu. Yksi skenaario on, että tekoälyn käyttö arkipäiväistyy. Jos menetelmät ovat edullisesti kaikkien saatavilla, tämä voi johtaa jonkin asteiseen tekoälyn käytön demokratisoitumiseen”, Ailisto toteaa.