Tekoäly on ollut viime vuosien puhutuimpia teknologioita ja sitä on hehkutettu erityisesti sen potentiaalista kehittää työprosesseja. Vallitsevan hypen innoittamana monet yritykset ovatkin jo integroineet tekoälyä sovelluksiinsa ja työvaiheisiinsa.
Eräs tärkeä aihe on kuitenkin jäänyt kaiken pöhinän jalkoihin: tekoälyn turvallisuusriskit. Koska tekoälyä hyödynnetään jo laajalti, on erityisen tärkeää kiinnittää huomiota sen turvallisuusriskeihin ja haavoittuvuuksiin.
Ovatko tekoälyjärjestelmät erehtymättömiä?
“Kun tekoälysovelluksia tuodaan kiireessä markkinoille, tietoturva jää valitettavan usein taka-alalle", sanoo Samuel Marchal, VTT:n kyberturvallisuustekniikan ja automaation tutkimusryhmän vetäjä.
Tietoturvan unohtaminen on huolestuttavaa, sillä nykyiset tekoälyjärjestelmät ovat alttiita virheille. Virheillä voi olla monenlaisia, vakaviakin seurauksia, kuten fyysisiä ja henkisiä haittoja, turvallisuusriskejä, vinoumia ja syrjintää sekä yksityisyyden suojan vaarantavia tietovuotoja.
“Esimerkiksi Teslan etäpysäköintiominaisuuden on epäilty aiheuttavan kolareita”, Marchal kertoo.
“Lisäksi sosiaalisen median algoritmien on osoitettu tarjoavan itsetuhoista sisältöä teini-ikäisille. Nämä ovat vain muutamia esimerkkejä tekoälyjärjestelmiin liittyvistä riskeistä.”
Useimmat tekoälyn tekemät virheet ovat tahattomia, mutta toisinaan ne voivat johtua tarkoituksellisesta toiminnasta. Tällaisia virheitä kutsutaan vihamielisiksi koneoppimishyökkäyksiksi ja ne ovat suunniteltu pettämään tai hämäämään järjestelmää. Vihamielisiä koneoppimishyökkäyksiä voi esiintyä tekoälyjärjestelmien kehittämisen ja käyttöönoton eri vaiheissa.
Epäluotettavat, ulkopuoliset lähteet lisäävät tekoälyn toimitusketjun riskejä
Tekoälyn toimitusketjut ovat riippuvaisia useista toisiinsa kytkeytyvistä komponenteista ja ulkopuolisista lähteistä, mikä altistaa ne erilaisille riskeille. Monimutkaiset tekoälyn toimitusketjut kattavat kaikki tekoälymallien luomiseen liittyvät vaiheet ja komponentit, kuten koulutuksessa käytettävät tietoaineistot, koneoppimiskehykset ja pohjamallit.
“Nämä järjestelmät ovat riippuvaisia ulkoisista komponenteista. Ne taas ovat peräisin avoimen lähdekoodin lähteistä, perustuvat yhteistyöhön ja ovat usein epäluotettavia”, Marchal sanoo.
Näihin epäluotettaviin lähteisiin luottaminen voi altistaa tekoälyjärjestelmän toimitusketjun hyökkäyksille.
“Ulkoisia komponentteja on mahdotonta kontrolloida täysin, joten ne voivat vaarantua. Kun jokin toimitusketjun vaihe altistuu hyökkäykselle, koko järjestelmän luotettavuus vaarantuu”, Marchal kertoo.
Tekoälyn toimitusketjujen moninaiset turvallisuusriskit
Perinteisten tietoturvariskien lisäksi tekoälyn toimitusketjuihin kohdistuu myös tekoälyjärjestelmille ominaisia haavoittuvuuksia. Näitä ovat mallin myrkytys, takaovet ja koulutusalgoritmien manipulointi.
“Mallin myrkytys tarkoittaa koulutusdatan pilaamista lisäämällä siihen harhaanjohtavaa tai väärennettyä tietoa”, Marchal sanoo.
“Roskapostin lähettäjät voivat esimerkiksi manuaalisesti merkitä roskapostiviestit ei-roskapostiviesteiksi, mikä johtaa väärään luokitteluun. Nämä väärin merkityt viestit sisällytetään sitten datajoukkoon, jota käytetään muiden roskapostisuodattimien uudelleenkouluttamisessa. Kun roskapostisuodatin koulutetaan manipuloidun datan avulla, se ei välttämättä havaitse tällaisia roskapostiviestejä jatkossa.”
Tekoälymallit voivat vaarantua myös takaovien käytön myötä.
“Koodattuja takaovia on käytetty esimerkiksi manipuloimaan itseajavan auton liikennemerkkien tunnistusjärjestelmää niin, että se tunnistaa liikennemerkit väärin”, Marchal kertoo.
“Jos ennalta koulutettuun, generatiiviseen tekoälymalliin on lisätty takaovi tai se sisältää vinoumia, samat haavoittuvuudet todennäköisesti siirtyvät myös hienosäädettyyn malliin. Ongelma ei siis poistu, vaan laajenee kun mallia jatkokäytetään."
Tuore esimerkki tästä on kiinalainen tekoäly-yritys DeepSeek, jonka malleja on syytetty puolueellisuudesta, tietojen piilottamisesta ja väärän tiedon tahallisesta levittämisestä.
Myös tekoälyn koulutusalgoritmit ovat alttiita manipuloinnille.
“Tekoälyn arvofunktio voi vaarantua silloin, kun sitä matemaattista lauseketta, jota algoritmi pyrkii optimoimaan, muutetaan tai manipuloidaan. Tämän seurauksena funktioon voi tulla vinoumia tai kohinaa. Ne ohjaavat mallia virheellisiin johtopäätöksiin tai jopa toissijaiseen, haitalliseen tavoitteeseen, kuten tietojen tai yksityisyyden vuotamiseen”, Marchal selittää.
Edellä mainittujen uhkien havainnointi voi olla haastavaa. Niinpä toimitusketjuun kohdistuvien hyökkäysten perinteinen torjunta ei ole riittävän tehokas tapa varautua riskeihin.
Neljä strategiaa, joilla taklata riskejä ja parantaa tekoälyn toimitusketjujen turvallisuutta
Vaikka tekoälyjärjestelmiin kohdistuu lukuisia riskejä, niiden oikeellisuutta ja luotettavuutta voidaan parantaa erilaisten strategioiden avulla.
“Paras strategia on ottaa toimitusketju täysin omaan hallintaan. Tähän sisältyy kaikki datasta koneoppimisympäristöihin ja omien mallien kouluttamiseen”, Marchal sanoo.
“Tämä vaatii kuitenkin huomattavaa asiantuntemusta ja taloudellisia resursseja, eikä ole useimmille yrityksille mahdollista.”
Vaihtoehdoksi Marchal ehdottaa panostamista alkuperän hallintaan. Tämä tarkoittaa vain luotettavien lähteiden käyttämistä, jolloin tekoälyjärjestelmässä käytettyjen tietokantojen ja mallien alkuperä, historia ja niille tehdyt muunnokset voidaan tarkistaa. Tälläkin strategialla on kuitenkin rajoituksensa.
“Tämä strategia rajoittaa vaihtoehtoja merkittävästi, sillä tekoälymalleja ja koulutusdataa on saatavilla vain muutamasta luotettavasta lähteestä”, Marchal sanoo.
Kolmas tehokas strategia tekoälyjärjestelmien turvallisuuden parantamiseksi on tekoälyn komponenttiluettelon käyttöönotto. Komponenttiluettelon avulla voidaan valvoa tekoälyjärjestelmien eri komponentteja. Vaikka tekoälyn materiaaliluettelo ei poista tietoturvariskejä kokonaan, on se arvokas työkalu niiden minimoimiseksi.
“Kun yleisistä haavoittuvuuksista ja altistumisista (Common Vulnerabilities and Exposures, CVE) raportoidaan, tekoälyn komponenttiluettelo auttaa tunnistamaan, vaikuttaako haavoittuvuus omiin järjestelmiin ja ottamaan tietoturvakorjaukset käyttöön heti, kun ne tulevat saataville”, Marchal sanoo.
Perusteellinen testaus ja vertailuanalyysit ovat myös olennainen strategia tekoälyjärjestelmien turvallisuuden parantamiseksi.
“Ennen kuin ulkopuolista dataa ja tekoälymalleja integroidaan sovelluksiin, on tärkeää arvioida niiden turvallisuus ja oikeellisuus”, Marchal sanoo.
“Sellaisten kvantitatiivisten mittareiden kuin turvallisuuden, häiriönsietokyvyn, yksityisyyden suojan ja oikeudenmukaisuuden avulla luodaan selkeät raamit arvioinnille. Näin varmistetaan ennen käyttöönottoa, että komponentit täyttävät tiukat standardit. Samalla myös eri ratkaisujen vertailu helpottuu.”
VTT tarjoaa asiantuntija-apua organisaatioille, jotka haluavat parantaa tekoälyjärjestelmiensä turvallisuutta ja luotettavuutta.
“Kehitämme kattavia, räätälöityjä ratkaisuja ja protokollia tekoälymallien turvallisuuden ja oikeellisuuden arviointiin”, Marchal sanoo.
“Tiimimme on toteuttanut menestyksekkäästi lukuisia projekteja, joten meillä on laaja kokemus tekoälyn turvallisuuden hallinnasta. Hyödynnämme myös taustaamme perinteisten järjestelmien turvallisuus- ja vaatimustenmukaisuustestauksesta ja sovellamme samoja oppeja tekoälyjärjestelmien vahvistamiseen. Näin pystymme varmistamaan, että tekoälyjärjestelmät noudattavat tiukimpiakin suorituskyky- ja turvallisuusstandardeja.”
