Tekoälyn kehitysvauhti kiihtyy – seuraavaksi lainsäätäjät tarttuvat vastuuasioihin
UutisetMatilda Sisättö on tehnyt tiiviisti töitä tekoälyasetuksen parissa Euroopan parlamentin kansalaisvapauksien sekä oikeus- ja sisäasioiden (LIBE) valiokunnassa. Vaikka ensimmäinen tekoälyasetus on saatu valmiiksi, työt eivät loppuneet siihen. Sisättö arvioi, että tekoälyjunan vauhti kiihtyy entisestään.
Matilda Sisättö työskentelee S&D-ryhmän poliittisena neuvonantajana parlamentissa. Hän on kokenut EU-politiikassa, sillä valiokuntatyötä on takana jo 18 vuotta. Työpaikkaansa hän kuvailee sopivan vauhdikkaaksi ja ikuiselle tietosuojanörtille viime vuosien tekoälyasetus on ollut yksi kiinnostavimmista lainsäädäntöprojekteista. Sisättö on vastannut tekoälyasetuksesta LIBE-valiokunnassa ryhmänsä virkamiehenä, ja analysoi asetusta perusoikeuksien näkökulmasta.
”Tekoälyasetus on mullistava säädös, ensimmäinen laadultaan koko maailmassa. Sillä yritetään luoda raamit siihen, miten tekoälyä kehitetään ja millaisissa tilanteissa sitä voi käyttää”, hän kertoo.
Heti alkuun Matilda Sisättö painottaa, että tekoälyasetuksella ei kierretä muita asetuksia, jotka ovat jo voimassa. Bisnesmaailma yritti myötävaikuttaa toisenlaiseen tulkintaan, kun aloite asetuksesta annettiin keväällä 2021.
Asetus ei millään tavalla poista tai vähennä minkään perusoikeuksia turvaavan lainsäädännön validiutta, vaan ne ovat kaikki edelleen voimassa ja asetus on rakennettu tavallaan niiden päälle. Se oli komission idea, ja eräät tahot yrittivät sitä parlamentissa muuttaa. Komission alkuperäisestä periaatteesta onnistuttiin kuitenkin pitää kiinni, minkä Sisättö näkee yhtenä tärkeimpänä saavutuksena.
Hän kuitenkin myöntää, että lopullinen asetus, joka tuli voimaan tänä vuonna 1. elokuuta, ei ole täydellinen.
”Lainsäädäntö on edelleen lapsenkengissä, ja teknologia kehittyy jatkuvasti. En usko, että kukaan haluaa asetusta ihan heti avata uudelleen. Nyt nähtäväksi jää miten tuomioistuimet lähtevät asetusta käyttämään”, hän sanoo.
Riskit tunnistettava
Tekoälysäädös käsittelee tiettyihin tekoälyn käyttötarkoituksiin liittyviä riskejä. Nämä luokitellaan neljään riskitasoon, joista jokaiselle vahvistetaan erilliset säännöt. Jos tekoälyjärjestelmä tai jokin sen osa, tai tuotteen turvakomponentti, on yksityiselle ihmiselle riskialtis, se sijoittuu korkeampaan riskitasoon. GDPR:n kultainen linja riskeihin perustuvasta sääntelystä on haluttu säilyttää asetuksessa. Sen lisäksi asetus kieltää kansalaisten oikeuksia uhkaavat tekoälysovellukset (kuten esimerkiksi ennakoivan poliisitoiminnan sovellukset, eli predictive policing).
Sisättö painottaa, että asetus ei luo velvoitteita yksilöille, koska EU-oikeus ei koskaan sitä tee, mutta takaa heille oikeuksia.
”Kuluttajat tulevat jatkossa saamaan tietoa siitä, milloin ja miten tekoälyä käytetään, kun he ovat jonkin tahon kanssa tekemisissä tai käyttävät jotain tietynlaista palvelua”, hän kertoo.
Tekoälyn kehittäjille ja maahantuojille asetus tuo lisää velvollisuuksia.
”Itse asetus on hyvin konkreettinen ja se katsoo puhtaasti mitä velvollisuuksia tekoälyn kehittäjällä on, millaisia velvollisuksia heillä on raportoida siitä, miten tekoälyominaisuuksia kehitetään ja kuka sitä valvoo. Lisäksi asetuksessa listataan selkeästi, millaisissa yhteyksissä minkäkin laisia tekoälysovelluksia saa käyttää ja mitkä ovat hyväksyttäviä käyttötarkoituksia”, hän tiivistää.
Tekoälyn käyttöön liittyy suuria riskejä, kun kyseessä on esim. koulutus ja työllisyys tai keskeiset yksityiset ja julkiset palvelut (esim. terveydenhuolto ja pankkitoiminta), tietyt lainvalvonta-, maahanmuutto- ja rajavalvontajärjestelmät tai oikeudelliset ja demokraattiset prosessit (esim. vaaleihin vaikuttaminen).
Tähän on syynsä.
”Meillä on esimerkiksi Hollannin tapaus, missä tekoäly oli otettu käyttöön sosiaaliturvaan liittyvissä tukipäätöksissä. Tekoäly teki päätöksiä siitä, että hakija on mahdollisesti yrittänyt huijata tukihakemuksessa ja teki kielteisiä tukipäätöksiä. Kokeilu meni täysin pieleen ja kielteisen päätöksen saaneista osa ajautui tekemään itsemurhan. Tästä toivon mukaan otettiin opiksi tulevaisuuteenkin”, Sisättö sanoo.
Tekoälysovellukset, jotka tunnistavat tunteita, ovat kiellettyjä kouluissa ja työpaikoilla. Kiellettyjä ovat myös sosiaalinen pisteytys, ennakoiva poliisitoiminta (kun se perustuu yksinomaan henkilön profilointiin tai heidän ominaisuuksiensa arviointiin) ja tekoäly, joka manipuloi ihmisen käyttäytymistä tai hyödyntää ihmisten haavoittuvuuksia.
Teknologiasokeutta ilmassa
Tekoäly kuuluu tähän aikakauteen, mutta ilmassa on myös Sisätön mukaan teknologiasokeutta. Erityisen haasteellisena hän pitää tekoälyssä käytetyn datan laatua ja sisältöä, joka toimii ikään kuin itsensä saastuttajana.
”Covidin aikana ChatGP:hen tuli paljon salaliittoteorioita ja ns. foliohattukamaa. Donald Trumpin ensimmäisen presidenttikauden aikana epäluotettavat uutistahot syöttivät tekoälylle jopa valeuutissisältöjä. Heitä ei koske esimerkiksi journalistin ohjeet, ja tämä on omiaan vääristämään datasisältöä”, hän sanoo.
Mitä tulee työelämään, Sisättö viittaa työnantajien vastuunkantoon tekoälyn käytöstä. Työnantajilla pitäisi olla käsitys, mihin riskitasoon mikäkin tekoäly kuuluu.
”Kun työnantajat haluavat ottaa käyttöön tekoälyjärjestelmiä, silloin heidän täytyy toimia vastuullisesti. Tekoälyjärjestelmät eivät ole täydellisiä ja on monta asiaa, joissa ne eivät pysty korvaamaan ihmistä. Tekoälyä ei myöskään kannata käyttää silloin, kun huomataan ettei sen sisältö pidä paikkaansa. Vaikka tekoälyn käyttö olisi miten suosittua tahansa, suhtautuisin uusiin sovelluksiin terveen skeptisesti”, hän sanoo.
Sisättö toteaa myös, että tekoälykään ei pysty kaikkeen. On mietittävä konkreettisesti, milloin tekoäly on avuksi, eikä sen käyttö koidu haitaksi.
Asetuskin alleviivaa sitä, että päätösten takana pitää olla ihminen. Ihmistä on vaikeaa korvata sataprosenttisesti. Myönteistä on, että tekoälyn avulla on korvattu manuaalista työtä, mikä on ollut aikaa vievää ja monotonista.
Tekoälyn käyttäminen vaatii myös koulutusta ja digilukutaitoa.
”Iso kysymys tulee olemaan, miten koulutusta kohdennetaan, jotta lapset jo pienestä pitäen osaavat käyttää tekoälyä, lukea sitä ja ymmärtää mitä se sisältää. Yhteiskunnallisesti pitäisi myös miettiä mihin suuntaan tekoälyjärjestelmien käyttöä aletaan suunnata, jotta niiden kehittämiseen osataan kouluttaa oikeanlaisia ihmisiä”, hän sanoo.
Kysymykset vastuusta ja valvonnasta
Asetus kytkeytyy vahvasti myös tekoälyä koskeviin vastuusääntöihin (AI Liability Directive), joiden parissa Euroopan parlamentin oikeudellisten asioiden valiokunta (JURI) tekee parhaillaan töitä. Komissio ehdotti vuoden 2022 lopussa tekoälyn vastuudirektiiviä, jonka tavoitteena on yhdenmukaistaa tekoälyä koskevia kansallisia vastuusääntöjä, siten, että lainsäädäntöön sisällytettäisiin useita prosessuaalisia säännöksiä helpottamaan tekoälyn aiheuttamien vahinkojen uhrien mahdollisuuksia saada vahingonkorvausta.
”Parlamentissa pidettiin tärkeänä, että ensin ajetaan asetus lainsäädännöksi ja vasta sen jälkeen tulee direktiivi, jossa määrätään, kuka on mistäkin vastuussa, mikäli jokin asia tekoälyn käytön osalta menee pieleen”, hän tarkentaa.
Sisätön mukaan tämä tulee olemaan iso kysymys, koska tekoälyllä voi olla hyvinkin kauaskantoisia seurauksia.
”Geneeristä tekoälyä, jota voidaan räätälöidä tai käyttää melkein mihin vaan, riittää. Kenellä on loppupeleissä vastuu, onko se geneerisen tekoälyn kehittäjällä vai sillä, joka käyttää sitä väärin, tai molemmilla”, hän pohtii.
Sisätön mukaan myös valvontakysymykset ovat tärkeitä lainsäädännön osalta. Valvontaa yritettiin saada monelle tasolle myös nykyisessä asetuksessa. LIBE-valiokunta on esittänyt huolensa esimerkiksi poliisin oikeudesta käyttää tekoälyä ja sen, miten tätä toimintaa valvotaan käytännössä.
LIBE-valiokunta piti huonona asiana, että komissio toimii valvontaviranomaisen roolissa tekoälytoimiston kautta. Hän epäilee, ettei komissio välttämättä ole halukas puuttumaan rikkeisiin lainsäädännössä, koska on itse ollut luomassa sitä.
”Tietosuoja-asioissa on totuttu siihen, että valvontatyön tekee täysin itsenäinen taho, tietosuojavaltuutettu ja -viranomaiset. Ne voivat langettaa isojakin sakkoja ja jos syntyy ongelmia, mennään oikeusteitse asiaa selvittämään”, hän lisää.
Asetukselle on nyt annettava aikaa. Tekoälyasetuksen implementointia varten komissio on perustanut tekoälytoimiston, jonka tehtävä on valvoa edistyneimpiä tekoälymalleja, edistää standardien ja testauskäytäntöjen kehittämistä ja valvoa yhteisten sääntöjen noudattamista kaikissa jäsenmaissa.
”Sen lisäksi komission on laadittava eettiset periaatteet. Tätä varten onkin konsultaatiot meneillään. Tässä menee vielä aikaa”, Sisättö sanoo.
Tekoälysäädöstä sovelletaan kahden vuoden kuluttua sen voimaantulosta, lukuun ottamatta joitakin erityissäännöksiä koskevia poikkeuksia.
Selvää on, ettei tekoälyjuna pysähdy, vaan se kiihdyttää tahtiaan. Seuraavaksi tekoälyn käytöstä olisi tehtävä eettisempää ja turvallisempaa. Sisättö pitää tärkeänä, että ihmiset tietävät aina, jos ovat tekemisissä tekoälyn kanssa ja myös, että miten se vaikuttaa ihmiseen yksityishenkilönä ja työpaikoilla. Tekoälyn käyttöä ei saa piilottaa.
”Kukaan ei voi kieltää, etteikö tekoäly tule olemaan uhka myös työpaikoille vastaisuudessa”, Sisättö kommentoi.
Esittelyssä Matilda Sisättö
Olen syntynyt Ikaalisissa.
Asun Ixellessä/Brysselissä.
Parasta Brysselissä on torit ja ravintolat.
Huonointa Brysselissä on sää ja yleinen kaaos.
Intohimoni ovat poikani, tietosuoja-asiat ja samppanja.
Miten käytän tekoälyä omassa työssäni? Tietoisesti en mihinkään.
Mikäli en olisi poliittinen neuvonantaja, olisin meribiologi.