Siirry sisältöön
Asetuksen tavoitteena on varmistaa, että EU:n markkinoille tuodut ja EU:ssa käytettävät tekoälyjärjestelmät ovat turvallisia ja kunnioittavat perusoikeuksia ja EU:n arvoja. Pääajatuksena on säännellä tekoälyä riskiperusteisesti: mitä suurempi riski, sitä tiukemmat säännöt. Kuva: iStock.

Alustava sopimus saavutettu EU:n tekoälyasetuksesta

Intensiivisten neuvottelujen jälkeen Euroopan parlamentti ja neuvosto ovat Espanjan puheenjohtajamaan johdolla saavuttaneet alustavan sopimuksen tekoälyasetuksesta. Tavoitteena on, että EU:n markkinoille tuodut ja EU:ssa käytettävät tekoälyjärjestelmät ovat turvallisia ja kunnioittavat kansalaisten perusoikeuksia ja EU:n arvoja. Asetus määrittelee tekoälyalustoille velvollisuuksia mahdollisten riskien ja vaikutusten perusteella.

Tekoälylaki on tärkeä lainsäädäntöhanke EU:lle. Maailman ensimmäisenä lainsäädäntöesityksenä se voi asettaa globaalin standardin tekoälyn sääntelylle muilla lainkäyttöalueilla, aivan kuten GDPR on tehnyt, edistäen siten Euroopan lähestymistapaa teknologiasääntelyyn maailmassa.

Keskeisiä alustavan sopimuksen sisältöjä ovat:

  • säännöt suurivaikutteisille yleiskäyttöisille tekoälymalleille, jotka voivat aiheuttaa järjestelmäriskejä tulevaisuudessa, sekä korkean riskin tekoälyjärjestelmille,
  • tarkistettu hallintojärjestelmä, johon kuuluu täytäntöönpanovaltuuksia EU:n tasolla,
  • kieltojen luettelon laajentaminen, mutta lainvalvontaviranomaisten mahdollisuus käyttää biometristä etätunnistusta julkisissa tiloissa erityisehtojen vallitessa sekä
  • perusoikeuksien suojaaminen velvoittamalla riskialttiiden tekoälyjärjestelmien käyttöönottajia tekemään perusoikeuksien vaikutustenarviointi ennen tekoälyjärjestelmän käyttöönottoa.
  • Lisäksi kehittyneille Chat-GPT:n kaltaisille tekoälymalleille on sovittu erityisiä läpinäkyvyyttä koskevia sääntöjä ja muita velvoitteita.

Mitä suurempi riski, sitä tiukemmat säännöt

Kokonaan kiellettyjä järjestelmiä ovat arkaluonteisia tietoja käyttävät biometriset luokittelujärjestelmät, kohdentamaton kasvotunnistetietojen kerääminen valvontakameroilla, tunteiden tunnistusjärjestelmät työpaikoilla ja koulutuslaitoksissa, sosiaaliset pisteytysjärjestelmät, käyttäytymisen manipulointia koskevat järjestelmät sekä erilaisia heikkouksia, kuten ikää tai sosioekonomista asemaa hyväksikäyttävät järjestelmät. Lue lisää kielloista Parlamentin lehdistötiedotteesta.

ETUC vaatii direktiiviä algoritmijärjestelmistä työpaikoilla

Euroopan ammatillinen yhteisjärjestö ETUC:n mukaan tekoälyasetuksessa on paljon myönteistä, mutta samalla ay-liike muistuttaa, että tekoälytyökaluja otetaan käyttöön työpaikoilla ympäri Eurooppaa huimaavalla nopeudella.

Perjantai-iltana julkaistussa lehdistötiedotteessa ETUC kiinnitti huomiota seuraaviin asetuksen kohtiin:

  • Teollisuusalueiden tekoälysovellukset luokitellaan korkean riskin kohteiksi. Itsearvioinnin luottamiseen palveluntarjoajien osalta liittyy kuitenkin merkittävä heikkous.
  • Parlamentin neuvottelema pykälä antaa jäsenmaille ja Euroopan unionille valtuudet säännellä tekoälyn käyttöä työpaikoilla. Tämä määräys on tärkeä voitto työntekijöiden oikeuksille.
  • Sopimuksessa määrätään, että työntekijöitä ja heidän edustajiaan on informoitava, kun tekoälyjärjestelmiä otetaan käyttöön työpaikalla. Läpinäkyvyys on olennainen osa työntekijöiden etujen turvaamista.

”Tekoälyasetus tunnustaa tekoälyn korkean riskin työsovelluksissa ja avaa lainsäädännöllisen tilan niiden käsittelyyn. Seuraava askel on varmistaa erityissuojelua ihmisille heidän työpaikoillaan”, kommentoi ETUC:n varapääsihteeri Isabelle Schömann lehdistötiedotteessa.

ETUC vaatii direktiiviä algoritmijärjestelmistä työpaikoilla. Tällainen direktiivi puolustaisi ihmisen valvontaan liittyvää periaatetta ja antaisi ammattiliitoille sekä työntekijöiden edustajille vaikutusvaltaa tekoälyn käyttöönottoon liittyvissä päätöksissä.

Asetuksessa havaittavissa aukkoja jo nyt

Aida Ponce Del Castillo, joka on vanhempi tutkija ETUI:ssa, nosti esille pari aukkoa lainsäädäntötekstissä 11.12. julkaistussa blogissa Social Europen-verkkolehdessä. Nämä ns. ”porsaanreiät” asetuksessa voisivat mahdollistaa sääntöjen kiertämisen suurille yrityksille.

Ponce Del Castillon mukaan asetuksen lisäämät suodatusolosuhteet (filter conditions) saattavat antaa joidenkin korkean riskin sovellusten lipsua sen ulkopuolelle. Pakollisia FRA-riskiarviointien ja biometristen tunnistusjärjestelmien kieltämistä vesittävät suuret poikkeukset, ja korkean riskin tekoälytyökaluja voitaisiin käyttää hätätilanteen perusteella.
Tekoälyjärjestelmät, jotka tunnistavat ihmisten tunteet työpaikoilla ovat kiellettyjä, mutta turvallisuussyistä ne kuitenkin sallitaan.
”Missä turvallisuus alkaa ja mihin se päättyy, ja saavatko työntekijät todellisen sananvallan tässä asiassa”, hän pohtii blogissa.

Sääntöjen noudattamatta jättäminen voi johtaa sakkoihin, jotka vaihtelevat 35 miljoonasta eurosta tai 7 %:sta yrityksen maailmanlaajuisesta liikevaihdosta 7,5 miljoonaan tai 1,5 %:iin liikevaihdosta riippuen rikkomuksesta ja yrityksen koosta. Alustava sopimus kuitenkin määrää suhteellisempia kattoja hallinnollisille sakoille pk-yrityksille ja startup-yrityksille, jos rikkoisivat sääntöjä.
Kovimmat sakot rikkomuksista voidaan tutkijan mukaan kiertää siten, että suurempia yrityksiä kannustettaisiin antamaan startup-yrityksille vastuun riskialttiimmista tekoälyprojekteista.

Kompromississa myös kerrotaan, että luonnollinen tai oikeushenkilö voi tehdä valituksen asianmukaiselle markkinavalvontaviranomaiselle tekoälyasetuksen noudattamatta jättämisestä ja voi odottaa, että tällainen valitus käsitellään kyseisen viranomaisen omien menettelyjen mukaisesti.
Ponce Del Castillo huomauttaa, että valituksen mekanismit ovat vielä epäselvät, viitaten vain ”omiin menettelyihin” ja kansalaisten oikeuteen ”saada selityksiä”.

Tämä jää nähtäväksi. Yhteisymmärryksessä määrätään, että tekoälylakia olisi sovellettava kahden vuoden kuluttua sen voimaantulosta, lukuun ottamatta joitakin erityissäännöksiä koskevia poikkeuksia.

Säädöksen valvontaan edistyneimpien tekoälymallien valvomiseksi perustetaan EU-tason tekoälyviranomainen (AI Office). Lisäksi jäsenmaiden edustajista koostuva tekoälylautakunta (AI Board) valvoo säädöksen toimeenpanoa ja toimii neuvoa-antavana elimenä Euroopan komissiolle.