Susanna Lindroos-Hovinheimo: Minkälainen tekoälyasetuksesta tuli?


EU:n tekoälyasetusta säädettiin pitkään ja perusteellisesti. Nyt teksti on valmis ja voimme pohtia, minkälainen siitä tuli. Ensimmäiseksi täytyy todeta, että siitä tuli pitkä. Asetus sisältää 113 artiklaa ja yksi artikla on tyypillisesti pidempi kuin yksi A4-liuska. Pelkän soveltamisalansa julistamiseksi 2 artiklassa asetus tarvitsee 12 kohtaa, joista useampi sisältää alakohtia. Johdanto-osassa on 180 kohtaa. Liitteitä on kolmetoista.

Ensimmäinen soveltamisvaihe koittaa kuuden kuukauden kuluttua asetuksen voimaantulosta – eli syksyllä – joten teknologiajuristien kautta Euroopan on hyvä ryhtyä luku-urakkaan pikimmiten. Asetuksen säätämisen loppumetreillä ei tehty kovin suuria muutoksia sisältöön, mutta sen verran kuitenkin, että osa artikloista on asiantuntijoillekin vieraita.

Asetus tähtää kokonaisharmonisointiin. Koska oikeusperustaksi on valittu SEUT 114 artikla, siirtää tämä asetus toimivallan kaiken tekoälyn sääntelyssä unionille. Jäsenmaat eivät voi jatkossa säätää sellaisesta, mistä säädetään asetuksessa, jollei asetus jätä nimenomaista kansallista liikkumavaraa. Sitä asetus jättää vain vähän ripoteltuna eri artikloihin.

Lainsäätämisprosessin aikana perustavanlaatuista hankaluutta aiheutti tekoälyn määritelmä, joka on nyt luettavissa 3 artiklassa. Sen mukaan tekoälyjärjestelmällä tarkoitetaan:

”konejärjestelmää, joka on suunniteltu toimimaan eriasteisen itsenäisesti, joka voi mahdollisesti mukautua käyttöönoton jälkeen ja joka voi vastaanottamiensa syöttötietojen perusteella tuottaa tiettyjen eksplisiittisten ja implisiittisten tavoitteiden saavuttamiseksi tuotoksia, kuten ennusteita, sisältöä, suosituksia tai päätöksiä, jotka voivat vaikuttaa todellisiin tai virtuaalisiin ympäristöihin.”

Määritelmään on sidottu koko asetuksen soveltaminen. Jos kyseessä on tekoälyjärjestelmä, niin asetus soveltuu ja muuten ei. Siispä tulkinnassa tulee olemaan ensisijaisen tärkeää selvittää, mitä määritelmä tarkoittaa. Säännös jättää epäselväksi muun muassa sen, tulevatko sääntöpohjaiset järjestelmät milloinkaan soveltamisalan alle. Sitä silmällä pitäen artiklan muotoilu ei ole helpoimmasta päästä. Voi olla, että ainoa vaivatta tulkittava termi on ”kone”, eikä pidä olla niin varma siitäkään. Jatkossa tulemme oikeuskäytännössä pohtimaan ainakin sitä, minkälainen toiminta on eriasteisen itsenäistä, minkälaista mahdollista mukautumisen astetta määritelmä haarukoi ja mitä ovat ne eksplisiittiset ja implisiittiset tavoitteet, joita kukin järjestelmä tuottaa. – Puhumattakaan todellisista tai virtuaalisista ympäristöistä… määritelmästä tuli siis laaja.

Soveltamisalasta tuli muutenkin laaja, mutta siihen sisällytettiin myös poikkeuksia. Tutkijat iloitsevat siitä, että asetukseen sisällytettiin tiedepoikkeus. Asetusta ei sovelleta tekoälyjärjestelmiin tai tekoälymalleihin, jotka on erityisesti kehitetty ja otettu käyttöön yksinomaan tieteellistä tutkimusta ja kehittämistä varten, eikä myöskään niiden tuotoksiin. Asetusta ei liioin sovelleta kansallisen turvallisuuden alueella. Tämä soveltamisalan rajaus on EU-oikeudellista arkipäivää, mutta tässä asetuksessa se esiintyy varsin vahvassa muodossa. Asetus sanoo useaan otteeseen eri sanakääntein 2 artiklassa, ettei sitä sovelleta tekoälyjärjestelmiin, joita käytetään sotilaallisia, puolustukseen liittyviä tai kansallisen turvallisuuden tarkoituksia varten.

Lopulliseen asetukseen asti selvisi komission alkuperäinen idea riskiperusteisesta lähestymistavasta, joka tarkoittaa sitä, että asetus jakaa järjestelmät kolmeen luokkaan: kielletyt, suurriskiset ja muut. Neljäs luokka, yleiskäyttöiset tekoälymallit, luotiin lainsäädäntöprosessin aikana. Niillä tarkoitetaan erityisesti ChatGPT:tä ja sen kaltaisia järjestelmiä.

Kiellettyjä järjestelmiä ei saa käyttää unionissa, eikä niitä saa tuoda unioniin. Niiden(kään) määrittely ei ole helppoa luettavaa, sillä järjestelmät ovat kiellettyjä tietyin edellytyksin ja tietyin ehdoin. Esimerkiksi asetuksen 5 artiklan 1 kohdan a alakohdan mukaan on kiellettyä:

”sellaisen tekoälyjärjestelmän markkinoille saattaminen, käyttöönotto tai käyttö, jossa käytetään subliminaalisia tekniikoita, joita henkilö ei havaitse tietoisesti, tai tarkoituksellisesti manipuloivia tai harhaanjohtavia tekniikoita, joiden tavoitteena on vääristää tai jotka olennaisesti vääristävät henkilön tai henkilöryhmän käyttäytymistä heikentäen tuntuvasti tämän kykyä tehdä tietoinen päätös ja saaden henkilön tekemään päätöksen, jota hän ei olisi muussa tapauksessa tehnyt, tavalla, joka aiheuttaa tai todennäköisesti aiheuttaa kyseiselle henkilölle, toiselle henkilölle tai henkilöryhmälle merkittävää haittaa.”

Määritelmä ei ilahduta eritoten siksi, että se sisältää ilmaisut olennaisesti vääristävät, heikentäen tuntuvasti, todennäköisesti aiheuttaa sekä merkittävää haittaa. Valitettavasti asetus on runsaudensarvi tällaisille ilmauksille, joita lukiessaan ei voi muuta kuin tuntea myötätuntoa unionin tuomioistuinta kohtaan. Suurriskisten järjestelmien määritelmiä lukiessa myötätunnon tunne vahvistuu. Monen järjestelmän kohdalla tulee olemaan vaikeaa arvioida, onko se asetuksen mukaan suurriskinen vai ei.

Ajoittain asetus tarjoilee myös humoristisia kohtia. Asia on vakava ja sääntelyn tavoite eittämättä ylevä. On kyse yhteiskunnallisesti merkittävistä ja kauaskantoisista asioista. Silti suurriskisten järjestelmien luetteloon on lisätty muun muassa seuraava:

”Järjestelmät, jotka on tarkoitettu käytettäviksi arvioitaessa oppimistuloksia, myös silloin kun kyseisiä tuloksia käytetään luonnollisten henkilöiden oppimisprosessin ohjaamiseksi yleissivistävissä ja ammatillisissa oppilaitoksissa kaikilla tasoilla.”

Niin helppoa kuin olisikin arvostella opiskelijoiden tenttivastauksia tekoälyllä, on EU sitä mieltä, että (se ei ole kiellettyä, mutta) toimintaan liittyy vastuita ja velvollisuuksia. Voi vain ihmetellä, miksi tämä on sen kokoluokan asia, josta on välttämätöntä säätää unionin tasolla.

Suurriskisten järjestelmien luettelosta löytyy myös tämä:

”Järjestelmät, jotka on tarkoitettu käytettäviksi opiskelijoiden tarkkailuun ja kielletyn käyttäytymisen havaitsemiseen kokeiden aikana yleissivistävissä ja ammatillisissa oppilaitoksissa tai niiden yhteydessä.”

Käytännössä tämä tarkoittanee sitä, että lunttausta on jatkossakin vahdittava ihmissilmin, jollei oppilaitos halua ryhtyä dokumentointi- ja sertifiointiurakkaan, joka asetuksen perusteella on edellytys suurriskisten järjestelmien käytölle.

Hieman helpotusta järjestelmien kanssa työskenteleville tullee siitä, että lopulliseen asetukseen tuli suurriskisten järjestelmien määritelmien lisäksi rajausklausuuli 6 artiklaan. Sen mukaan järjestelmä ei kuitenkaan ole suurriskinen, jos se ei aiheuta merkittävää vahingon riskiä luonnollisten henkilöiden terveydelle, turvallisuudelle tai perusoikeuksille, mukaan lukien se, että se ei vaikuta olennaisesti päätöksenteon tulokseen, tietyin ehdoin. Tämäkin artikla on varsin vaikeaselkoinen.

Suurriskisten järjestelmien sääntely lähtee siitä, että näihin järjestelmiin kohdistuu lukuisia vaatimuksia, jotka koskevat erityisesti laaduntarkkailua. Merkittävä osa asetuksen artikloista koskee näitä velvollisuuksia. Niihin sisältyy vaatimuksia riskinhallintajärjestelmästä, datan laadusta, teknisestä dokumentaatiosta, tietojen säilyttämisestä, avoimuudesta sekä ihmisen suorittamasta valvonnasta. Muitakin velvollisuuksia on, runsaasti.

Yksi asetuksella saavutettava tulos on uusien valvontaviranomaisten luominen. Niitä perustetaan sekä EU-tasolle että kansalliselle tasolle. Asetus luo myös ihmisille, kuten kuluttajille, mahdollisuuden oikeussuojakeinoihin. 85 artiklan mukaan luonnollisilla henkilöillä ja oikeushenkilöillä, jotka kokevat, että asetuksen säännöksiä on rikottu, on oikeus tehdä valitus markkinavalvontaviranomaiselle. Valvontaviranomaisten toimintaa vahvistaa mahdollisuus määrätä hallinnollisia seuraamusmaksuja. Kiinnostavan yksityiskohdan tarjoaa 100 artikla, jonka mukaan myös unionin toimielimille, elimille, laitoksille ja virastoille voidaan määrätä hallinnollisia sakkoja. Niiden maksimisumma on tosin melko pieni (750 000, tai 1,5 miljoonaa jos unioni käyttää kiellettyä järjestelmää) verrattuna esimerkiksi yleiskäyttöisten tekoälymallien tarjoajille määrättäviin sakkoihin (3 prosenttia niiden edeltävän tilikauden maailmanlaajuisesta kokonaisliikevaihdosta tai 15 miljoonaa euroa sen mukaan, kumpi näistä määristä on suurempi).

Asetus sisältää monenlaista kiinnostavaa yksityiskohtaa, joista tässä lyhyessä katsauksessa on esitelty vain murto-osa. Ilmeistä kuitenkin on, että kyse on merkittävästä mutta vaikeahahmotteisesta lainsäädännöstä.

Susanna Lindroos-Hovinheimo, professori, Helsingin yliopisto

Kirjoitus liittyy Strategisen tutkimuksen neuvoston rahoittamaan GenerationAI-hankkeeseen, joka tutkii tekoälyn sääntelyä erityisesti lasten oikeuksien näkökulmasta.

Comments

  1. Antti H. says:

    Sääntöpohjaisten järjestelmien osalta kiinnitän huomiota resitaaliin 12, jossa ne rajataan pois tekoälyjärjestelmän määritelmästä.

Jätä kommentti