Älykodin seurantateknologiat nostavat esiin ristiriitaisia kysymyksiä eettisyydestä ja vastuullisuudesta.
Älykotikonseptien (smart home) on ajateltu parantavan ikäihmisten elämän laatua: älykodissa teknologia seuraa ikäihmisen toimimista keräten dataa arjen rutiineista ja niiden poikkeamista sekä riskeistä ja vaaratilanteista.
Keräämällä dataa mahdollisimman suuria määriä pystytään tekemään arvioita asukkaan toimintakyvystä. Tavoitteena on ennakoida kriittisiä tilanteita ja varoittaa niistä, hälyttää apua, sekä aavistaa mahdollisten sairauksien tai toimintakyvyn vajavuuksien puhkeaminen. Datan keräämiseen, analysointiin ja hyödyntämiseen saattaa kuitenkin liittyä erilaisten arvojen painotuksista johtuvia eettisiä ristiriitoja. Samalla kun korostetaan fyysistä turvallisuutta, saatetaankin loukata asukkaan yksityisyyttä.
Suurimmat haasteet kerättävän datan osalta tuntuvat olevan datan siirrossa ja analysoinnissa: Mikä tieto on oleellista ja mihin sitä käytetään? Miten eri tietolähteistä tulevaa tietoa saadaan yhdistettyä järkeviksi ja paremmin tietoa tuottaviksi kokonaisuuksiksi? Millaisen tiedon kerääminen on sallittua? Entä oikeutettua? Miten tietosuoja-asetus GDPR (General Data Protection Regulation) suhtautuu sensitiivisen henkilötiedon keräämiseen tietoiseen suostumukseen (Informed Consent) vedoten?
Eettinen pohdinta liittyy erityisesti sellaiseen datan hallintaan, jossa mahdollistuu henkilön tunnistaminen ja seuranta. Kun ikäihmisen kotona anturit keräävät väsymättä tietoa asukkaan toimintakyvystä, kerätty tieto kulkee ensin analysoitavaksi, sitten reagoitavaksi. Reagoijan roolia voi toteuttaa joko yksityinen tai julkinen toimija, tai molemmat, tai usea toimija yhteisessä ekosysteemissä. Tällöin on selvää, että tiedon omistajuuteen ja yksityisyyden suojaan liittyvät kysymykset korostuvat.
Tarvitaan kriittistä keskustelua ihmisoikeuksista, demokratiasta ja oikeusturvasta.
Tekoälyn etiikka on polttava keskustelun aihe Euroopassa. Tätä todisti Euroopan Neuvoston huippukongressi keväällä Finlandiatalolla, jossa yli 400 asiantuntijaa ja päätöksentekijää kokoontui pohtimaan tekoälyn vaikutuksia ihmisoikeuksiin, demokratiaan ja oikeusturvaan. Vaikka tekoälyn käyttöä pohditaan paljon, pystymme todennäköisesti hahmottamaan vasta pienen osan tekoälyn mahdollisista vaikutuksista kansalaisten kohteluun.
On väitetty, että naiset, ikääntyneet ja etniset vähemmistöt tulevat kärsimään eniten algoritmien vääristävästä tiedon tulkinnasta (esim. Eubanks, 2017). Tiedetään myös, että perinteiset eettiset ohjeet ja periaatteet, kuten hyvän tekeminen ja vahingon välttäminen, eivät yksin riitä tekoälyn eettisyyttä arvioimaan. Tekoälyn eettiseen koodistoon ehdotetaan uusia periaatteita, jotka painottavat läpinäkyvyyden (transparency), selitettävyyden (explainability) ja jäljitettävyyden (traceability) merkitystä. Näiden periaatteiden määrittely on toistaiseksi ollut hämärää. Vasta valmistuneet Euroopan komission eettiset ohjeet (Ethics Guidelines for Trustworthy AI 2019 – Independent High-Level Expert Group on Artificial Intelligence) kertovat, miten tekoälyn etiikkaa tulisi noudattaa, mutta tieto todellisten käyttötapausten arvioinnista puuttuu.
Sidosryhmillä on keskeinen rooli vääristymien esiin nostamisessa.
Käyttötapausten arviointi ei saa olla yksisilmäistä: tarvitaan tutkijoiden, teknologiayritysten, viranomaisten ja kansalaisten yhteistä pohdintaa mahdollisista käyttötilanteista, jotta tekoälyn hyödyt ja toisaalta rajoitteet ymmärretään. Esimerkkien tulisi olla yksinkertaisia, jotta niistä voidaan puhua ja jotta niitä voidaan arvioida. Arvioinnin tulisi perustua hyvän elämän ja elämänlaadun – henkisen, fyysinen ja sosiaalisen hyvinvoinnin – tarkasteluun. Kenties tekoäly voi olla tässä apuri osoittamaan tiedon keruun ja tiedon tulkinnan vääristymiä?