Tekoälysovellukset tulevat kiihtyvällä tahdilla osaksi meidän arkeamme. Mutta toimivatko ne aina oikein? Onko niitä mahdollista huijata samoin kuin ihmisiä?
Vastaus ensimmäiseen kysymykseen on tietenkin ei. Myös tekoälyjärjestelmät tekevät virheitä ja toimivat tavoilla, jotka eivät ole tarkoituksenmukaisia. Jos jo järjestelmän suunnittelussa ja opetusvaiheessa ei huomioida opetusdatan mahdollisia vinoumia, järjestelmä alkaa käytössä toteuttaa näitä.
Vastaus kysymykseen huijaamisen mahdollisuudesta on hieman kaksijakoinen. Yhtäältä tekoälyjärjestelmät pystyvät huomattavasti ihmistä parempaan tunnistamiseen ja ennustamiseen monilla alueilla, kuten esimerkiksi kasvojen tunnistuksessa ja huulilta lukemisessa. Jotkut sovellukset tulkitsevat jopa mikroilmeitä paremmin kuin ihmiset. Tekoälyjärjestelmät eivät lisäksi tee virheitä väsyneenäkään tai koskaan huolimattomuuttaan.
Toisaalta näyttää kuitenkin siltä, että tekoälyjärjestelmiä on melko helppoa huijata. Useat tutkimukset osoittavat, kuinka kuvia tai ääntä tunnistava järjestelmä saadaan harhautettua luulemaan henkilöä tai esinettä täysin toiseksi. Samoista tutkimuksista voidaan havaita, että ihmiset eivät vastaavaa erehdystä tekisi.
Tekoälyjen heikkouksia kannattaa etsiä ajoissa
Nyt onkin siis käynnistynyt samankaltainen kilpajuoksu, joka on ollut käynnissä jo muutamia kymmeniä vuosia tieto- ja kyberturvallisuusaloilla. Uusia järjestelmiä luodaan nopeasti ja sekä vanhoista että uusista löydetään haavoittuvuuksia jatkuvasti. Näitä haavoittuvuuksia sitten koetetaan paikata niin hyvin ja nopeasti kuin pystytään.
Uskon, että myös tekoälyjen ympärille syntyy samanlainen hakkeriyhteisö kuin aiemmin tietokoneiden ympärille. Olisikin suotavaa, että tekoälyratkaisuja hyödyntävät tahot ottaisivat oppia aikaisemmasta kehityksestä ja toivottaisivat nämä tekoälyjen heikkouksien etsijät tervetulleiksi. Näin saadaan tekoälyistä nopeammin parempia ja turvallisempia käytettäväksi eri tarkoituksiin.
Kuten aiemmin tietokoneiden haavoittuvuuksia etsittäessä, myös tekoälyjen harhauttamisen tutkimuksessa tarvitaan hyviä, avoimia työkaluja. Tällä hetkellä on jo kehitetty muutamia eri menetelmien arviointiin tarkoitettuja alustaratkaisuja, mutta kokonaisvaltainen ja helppokäyttöinen tekoälyjen harhauttamiseen tarkoitettu avoin alusta loistaa vielä poissaolollaan. Mielestäni sellainen olisi syytä rakentaa pian, jotta meillä on mahdollisuus löytää helposti harhautettavat tekoälyratkaisut ajoissa ja luoda niiden tilalle turvallisempia ja parempia.