Frida Alizadeh Westerling: Komission ehdottama tekoälyasetus – pohdintoja perusoikeuksien toteuttamiseen liittyvistä riskeistä ja niiden minimoimisesta


Komissio julkaisi keväällä 2021 ehdotuksen tulevasta tekoälyasetuksesta (Artificial Intelligence Act), josta käydään vilkasta keskustelua Euroopassa. Asetuksen tärkeimpinä tavoitteina ovat sisämarkkinan yhteneväisyyden turvaaminen sekä turvallisten ja perusoikeuksia suojelevien tekoälyjärjestelmien kehittäminen unionissa (asetusehdotuksen johdannon 1. kohta).

Lyhyesti sanottuna asetuksella halutaan kieltää tiettyjen tekoälyjärjestelmien käyttö kokonaan ja asettaa erityisiä vaatimuksia ns. suuririskisten tekoälyjärjestelmien käytölle, jotta perusoikeuksien suojelun korkea taso saavutettaisiin. Suuririskiset tekoälyjärjestelmät ovat sellaisia, joita tulisi käyttöönotettavaksi mm. henkilöstöhallinnan, lainvalvonnan ja turvapaikkaprosessintoimialoilla(koko lista asetusehdotuksen liitteessä III).

Yksi vaatimus näiden tekoälyjärjestelmien käytölle on ihmisen suorittama valvonta.

Kiinnostavaa on, että valvonnan vaatimukselle on ehdotuksessa annettu erittäin tärkeä asema perusoikeuksien turvaamisessa (14. artikla). Itse asiassa ehdotuksessa ei puhuta oikeuksien turvaamisesta, vaan tarkemmin siitä, että valvonnalla on pyrittävä ehkäisemään tai minimoimaan perusoikeuksille aiheutuvat riskit, erityisesti jos asetuksen muiden vaatimusten soveltaminen ei myötävaikuta riskien hallitsemiseen. Perusoikeusjuristille oudolta kuulostavat sanavalinnat reflektoivat sitä, että asetusta on lähdetty valmistelemaan lähinnä tuotesääntelynä pikemmin kuin oikeuksia turvaavana sääntelynä. Asetuksen lähtöasetelmasta voi olla eri mieltä – en kuitenkaan lähde keskustelemaan asiasta enempää tässä kirjoituksessa.

Jos ehdotus menisi tällaisenaan läpi, ihmisen suorittama valvonta olisi merkittävä ns. perusoikeus-suodatin, jolla varmistettaisiin perusoikeuksien suojelun korkea taso.

Tämä on ongelmallista, sillä asetusehdotuksen vaatimus ihmisen suorittamasta valvonnasta on hyvin teknis- ja käyttäjäkeskeinen. Ehdotuksen 14. artiklan mukaan tarjoajan on varmistettava, että valvontatoimenpiteet on joko sisällytetty itse tekoälyjärjestelmään, tai ne ovat toteuttavissa käyttäjän toimesta. Näiden valvontatoimenpiteiden pitää mahdollistaa se, että käyttäjät pystyvät muun muassa täysin ymmärtämään järjestelmän valmiudet ja rajoitukset, tulkitsemaan teknologian tuotoksia, ja ovat tietoisia automaatiovinoutumasta. Tässä on hyvä mainita, että käyttäjällä tarkoitetaan henkilöä, jolla käytännössä on päätösvaltaa tekoälyn käyttöön ja sen soveltamiseen. Tämä tarkoittaisi esimerkiksi, että hallinnollisissa päätöksissä valvontaa suorittava henkilö olisi itse hallintoasian päätöksentekijä.

Ei ole helppo tehtävä yksittäiselle käyttäjälle ymmärtää, mitä ovat ne riskit perusoikeuksien toteuttamiselle tietyssä kontekstissa, jossa hän toimii. Tietyn tietojärjestelmän perusoikeusarvioinnin tekeminen on vaikeaa – riskit eivät ole kovinkaan usein yksiselitteisiä tai helposti osoitettavissa tiettynä ajankohtana, jolloin käyttäjä voisi tunnistaa riskin oikeuksien toteuttamiselle ja painaa kuvitteellista tai fyysistä stop-nappulaa. Vaatimuksen tekniskeskeisyys antaa myös helposti ymmärtää, että riskit perusoikeuksien toteuttamiselle olisivat lähtökohtaisesti peräisin itse teknologiasta ja siinä olevasta jonkinlaisesta toimintahäiriöstä. Kuviosta jäävät pois ne tilanteet, joissa teknisesti oikein toimiva järjestelmä sinänsä aiheuttaa suuren riskin perusoikeuksien toteuttamiselle, mutta jonka käyttö ei ole asetusehdotuksessa kielletty (esim. tunteiden tunnistusjärjestemät).

On hienoa, että perusoikeuksia halutaan turvata asetuksen nojalla.Kun oikeudellisia suojatoimia luodaan, on kuitenkin tärkeää tiedostaa perusoikeusriskien monimuotoisuus ja laajuus, ja sen myötä teknis- ja käyttäjäkeskeisen valvonnan rajat. Pelkään, että ehdotettu ihmisen suorittama valvonta ei käytännössä kykene vastaamaan sen asettamiin perustavanlaatuisiin tavoitteisiin.

Lainsäätäjille pohdittavaksi jää nyt kysymys siitä, miten paljon vastuuta ja toimijuutta halutaan ja voidaan antaa käyttäjälle suuririskisten tekoälyjärjestelmien aiheuttamien perusoikeudenloukkauksien minimoimiseen. Tulisiko osaksi asetuksen asettamaan vaatimustenmukaisuuden arviointiin (eng. conformity assessment) liittää nimenomaan ex ante perusoikeusarviointi, joka tämänhetkisestä ehdotuksesta puuttuu?

Frida Alizadeh Westerling, väitöskirjatutkija, Helsingin yliopisto

Kirjoittaja tutkii automaattisen päätöksenteon sääntelyä turvapaikkaprosessin kontekstissa. Hän työskentelee tutkijayhteisö Legal Tech Lab:ssa, jossa tutkitaan teknologian, oikeuden, ja yhteiskunnan yhtymäkohtia.

Vastaa

Täytä tietosi alle tai klikkaa kuvaketta kirjautuaksesi sisään:

WordPress.com-logo

Olet kommentoimassa WordPress.com -tilin nimissä. Log Out /  Muuta )

Twitter-kuva

Olet kommentoimassa Twitter -tilin nimissä. Log Out /  Muuta )

Facebook-kuva

Olet kommentoimassa Facebook -tilin nimissä. Log Out /  Muuta )

Muodostetaan yhteyttä palveluun %s

%d bloggaajaa tykkää tästä: