Hero
Author
Tove Mylläri, Laura Isotalo, Ada-Maaria Hyvärinen
2.6.2023
EU:n tekoälyasetus - mitä se meille tarkoittaa?
Tutustuimme EU:n tekoälyasetuksen luonnokseen, ja jaamme tässä kirjoituksessa nousseet päällimmäiset löydökset.

Tämä kannattaa lukea, koska pelissä on sellaisia asioita kuin demokratia ja ihmisoikeudet, mutta toisaalta myös Euroopan kyky kilpailla teknologian kehityksessä ja hallinnassa.

Viimeisen parin vuoden aikana tekoälyn parissa työskenteleviä ammattilaisia on puhuttanut EU:n tekoälyasetus. Asetukseen kohdistuu paljon odotuksia ja toisaalta myös huolia. Tekoälylle ei ole vakiintunutta määritelmää, joten eräs asetuksen keskeisistä haasteista on määritellä se, mitä säännellään. Tekoälyasetuksen toivotaan selkeyttävän teknologian käyttöön liittyviä oikeuksia ja velvollisuuksia, ja luovan luottamusta tekoälyä käyttäviin järjestelmiin. Toisten mielestä EU:n tekoälyasetus keskittyy vääriin asioihin pyrkimällä sääntelemään teknologiaa yleisellä tasolla sen sijaan, että huomio kohdistettaisiin suoraan epätoivottuihin ilmiöihin ja otettaisiin huomioon eri sovellusalueiden erityistarpeet. Lisää painetta päätöksentekoon tuo tekoälyn huikea kehitysvauhti.

EU kertoo, että sen tekoälyä koskevassa lähestymistavassa keskitytään huippuosaamiseen ja luottamukseen, ja sen tavoitteena on lisätä tutkimusta ja teollista kapasiteettia samalla, kun varmistetaan turvallisuus ja perusoikeudet. EU:n mukaan muokkaamme nyt tulevaisuutta, jota turvaamaan ja rakentamaan tarvitaan yhteisiä konkreettisia sääntöjä ja toimintatapoja. Muun maailman demokratiat eivät ole onnistuneet tuottamaan yhtä laajamittaista sääntelyä tekoälylle kuin EU:n tekoälyasetus onnistuessaan olisi. Yksi EU:n tavoite asetukselle onkin vaikuttaa esimerkin ja yritysten toiminnan ohjailun kautta myös EU-alueen ulkopuolisiin tekoälyratkaisuihin.

Miten asetus lähestyy tekoälyn haasteita

Ehdotettu EU:n tekoälyasetus perustuu riskipohjaiseen lähestymistapaan, jonka tarkoitus on punnita mahdollisia riskejä ihmisten terveydelle, turvallisuudelle ja perusoikeuksille. Asetuksessa luokitellaan tekoälyn riskit kolmeen eri kategoriaan: i) riskeihin, jotka eivät ole hyväksyttävissä, ii) suuriin riskeihin, ja iii) vähäisiin tai minimaalisiin riskeihin. Tekoälysovellukset, joiden käyttö aiheuttaa ensimmäisen kategorian mukaisen riskin, on tarkoitus asetuksella kieltää. Tähän kiellettyyn kategoriaan kuuluvat esimerkiksi Kiinan sosiaalisen pisteytysjärjestelmän kaltaiset tekoälysovellukset, tai tekniikat, joilla voitaisiin manipuloida ihmisiä heidän tiedostamattaan.

Suuririskiseksi tullaan todennäköisesti määrittelemään vain melko harvat tekoälysovellukset. Niihin lukeutuvat esimerkiksi tietyt tuotteet, joita säännellään tuotekohtaisella lainsäädännöllä, kuten vaikka leluiksi tai lääkinnällisiksi laitteiksi laskettavat tekoälyjärjestelmät. Lisäksi asetuksen liitteessä listataan kriittisiä alueita ja käyttötapauksia, joiden sisälle kuuluvat tekoälyjärjestelmät lasketaan suuririskisiksi, jos niistä aiheutuu huomattavia riskejä ihmisten terveydelle, turvallisuudelle tai perusoikeuksille, tai ympäristölle. Näihin kriittisiin alueisiin kuuluvat mm. tietyt biometriseen dataan ja biometriseen tunnistamiseen pohjautuvat sovellukset, olennaisten palvelujen saamiseen vaikuttavat tekoälyjärjestelmät, sekä järjestelmät, jotka vaikuttavat esim. koulutukseen pääsyyn tai työllistämiseen.

Suuririskisten järjestelmien tarjoajien tulee asetuksen perusteella noudattaa useita vaatimuksia koskien mm. riskinhallintaa, datahallintoa, teknistä dokumentaatiota, valvontaa sekä CE-sertifiointia. Tarjoajien lisäksi myös suuririskisten järjestelmien käyttäjille säädetään asetuksessa velvoitteita. Nämä koskevat esimerkiksi käyttöohjeiden noudattamista sekä järjestelmälle syötettävän datan hallintaa, tietojen säilyttämistä ja läpinäkyvyyttä.

Ilmeisesti Chat GPT:n ja Midjourneyn kaltaisten generatiivisten sovellusten inspiroimana EU-parlamentti on hiljattain ehdottanut asetukseen yleiskäyttöistä tekoälyä koskevaa sääntelyä. Ehdotuksen mukaan asetus tulisi koskemaan myös uutta tekoälykategoriaa, niin kutsuttuja ‘perusmalleja’ tai ‘pohjamalleja’ (foundation model). Myös tällaisten mallien tarjoajille säädetään luonnoksessa uusia velvoitteita, mukaan lukien riskianalyysia, datan hallintaa sekä laadunvalvontaa ja mallin toimintaa koskevat vaatimukset. Lisäksi niin perusmallit kuin suuririskiset tekoälyjärjestelmät tulee rekisteröidä asetuksessa esiteltyyn EU-tietokantaan. Perusmallien käyttäjille ei ole erikseen säädetty velvoitteita.

Velvoitteiden tehosteeksi asetusluonnoksessa esitellään seuraamusmaksut, joiden suuruus voi tilanteesta riippuen nousta kymmeniin miljooniin euroihin tai jopa seitsemään prosenttiin yrityksen maailmanlaajuisesta kokonaisliikevaihdosta.

Tekoälyn määrittely on hankalaa

Vaikka asetuksen taustalla on hyvä tarkoitus ja aito huoli tekoälyn tulevista vaikutuksista yhteiskuntaan, sen soveltamiseen käytännössä liittyy tällä hetkellä runsaasti epävarmuustekijöitä. Yksi eniten meitä mietityttänyt asia on asetuksessa käytettävien termien määritelmät. Esimerkiksi tekoälyjärjestelmän määritelmä on kirjoitettu sellaiseen muotoon, että sen perusteella tuntuu vaikealta todeta, ettei tietty yksittäinen tietokoneohjelma olisi tekoälyä. Tämä herättää epävarmuutta siitä, millaiset tietokoneohjelmat voitaisiin luokitella suuririskiseksi tekoälyksi.

Toinen mielestämme erityisen hankala termi on ‘foundation model’ tai perusmalli. Termi on kotoisin tekoälytutkimusta koskevasta kirjallisuudesta, mutta sille ei ole vakiintunutta määritelmää. Asetuksen perusteella perusmalleille tyypillistä on laajan mittakaavan datalla kouluttaminen ja se, että mallia voidaan mukauttaa monenlaisiin tehtäviin. Tämän muotoilun perusteella ei ole helppoa rajata pois kovin montaa mallia. Asetuksen ilmaisut ovat herättäneet huolta avoimen lähdekoodin kehittäjien joukossa, koska on tällä hetkellä varsin epäselvää, millaisten ohjelmistoprojektien kehittäjille lankeaa tulevaisuudessa suurilla sakoilla tehostettuja vaatimuksia.

Uskomme, että tekoälyasetuksessa käytettyjen termien vaikutusta on syytä seurata myös Ylellä. Asetuksen teksti todennäköisesti elää edelleen, mutta tällä hetkellä voidaan perustellusti kysyä, meneekö lapsi pesuveden mukana, kun lainsäätäjä pyrkii estämään esimerkiksi suurten kielimallien käyttöä haitallisiin tarkoituksiin.

Mihin yritysten toimintoihin tekoälyasetus voisi vaikuttaa

Haluaisimme herätellä yrityksissä keskustelua ja tietoisuutta siitä, millaisiin toimintoihin tuleva tekoälyasetus voi vaikuttaa. Pehmeärajaisten määritelmien seurauksena asetus voisi ainakin teoriassa vaikuttaa myös sellaisiin toimintoihin, joita ei välttämättä tulisi ensimmäisenä ajatelleeksi.

Eräs meille mieleen tullut esimerkki on uusien työntekijöiden rekrytointi. Jos rekrytoinnissa käytetään tukena jonkinlaista tietokoneohjelmaa, olisiko poissuljettua, että se voitaisiin tulkita asetuksen kohteena olevaksi suuririskiseksi tekoälyksi? Asetuksen mukaan tekoälyjärjestelmä on suuririskinen, jos se kuuluu jollekin erikseen mainituista kriittisistä sovellusalueista ja aiheuttaa huomattavan riskin esimerkiksi ihmisten perusoikeuksille. Yksi asetuksessa mainituista kriittisistä alueista on työllistämisen ja henkilöstöhallinnon tekoälyjärjestelmät. Lisäksi pitää muistaa, että myös tällaisen tekoälyn käyttäjillä voi tulevaisuudessa olla velvoitteita, vaikka sitä ei talon sisällä kehitettäisi.

Entä käytetäänkö teidän tiimissänne avoimen lähdekoodin työkaluja? Monissa projekteissa käytetään esimerkiksi Hugging Facen tai GitHubin kautta jaettuja avoimen lähdekoodin ohjelmistoja ja malleja. Asetusluonnoksen perusteella vaikuttaa hyvinkin mahdolliselta, että osa näiden alustojen kautta jaetuista ohjelmistoista voitaisiin laskea niin kutsutuiksi perusmalleiksi. EU:n asetuksessa on nimenomaisesti mainittu, että avoimen lähdekoodin mallit voivat olla perusmalleja. Lisäksi asetuksen soveltamisala ei rajoitu pelkästään Euroopan maihin, vaan koskee periaatteessa missä tahansa maassa sijaitsevaa mallin tarjoajaa, jos mallia tarjotaan EU:n markkinalla. Näiden tekijöiden perusteella herää kysymys siitä, kuinka suuri osa avoimen lähdekoodin malleista tulisi EU-sääntelyn piiriin, ja kuka olisi vastuussa lakisääteisten velvoitteiden täyttämisestä. On vaikea ennustaa, mitä seurauksia asetuksella tulisi tässä muodossa olemaan sellaisille hyvin suosituille alustoille, joilla tällä hetkellä jaetaan malleja ja muita ohjelmia melko vapaasti muiden käyttöön. Kun EU:n tietosuoja-asetus tuli voimaan, sen seurauksena jotkut amerikkalaiset nettisivut sulkivat EU-alueelta pääsyn jopa kuukausiksi. Google on myös toistaiseksi päättänyt olla sallimatta eurooppalaisille pääsyä Chat GPT:n kanssa kilpailevaan Bard-malliin, ilmeisesti lainsäädännöllisistä syistä johtuen.

Kirjoittajien pohdintaa aiheesta

Tekoälyteknologia itsessään on neutraalia, kuten tietokoneet yleensäkin. Niin neuroverkoilla kuin yksinkertaisilla if-else-komennoillakin voidaan tehdä sekä yhteiskuntaa rakentavia että tuhoavia asioita. Haasteena juuri nyt on se, ettei tekoälyn kaikkia tulevaisuuden mahdollisuuksia pystytä luotettavasti ennakoimaan. Eräs samankaltainen hetki historiassa oli silloin, kun radium löydettiin. Alkuinnostuksen huumassa radiumia siveltiin esimerkiksi kelloihin ja lisättiin hammastahnaan, ennen kuin sen vaarallisuus ihmiskeholle ymmärrettiin. Olisi hienoa, jos voisimme välttää samanlaiset virheet tekoälyn suhteen.

Olipa tekoälystä ja sen sääntelystä mitä mieltä tahansa, EU:n asetus on melko varmasti tulossa voimaan ennemmin tai myöhemmin. Teknologian kanssa toimivien kannattaa seurata tilannetta huolella, mielellään asiaa ymmärtävien juristien kanssa, ja valmistautua tuleviin muutoksiin.

Tekoälykehittäjän näkökulmasta sääntelyn tulevaisuudessa siintää sekä uhkia että mahdollisuuksia. Yhtäältä on varmaankin hyvä, että kaikista epäilyttävimpiä teknologian sovelluksia rajoitetaan. Viime vuosina on jo noussut esiin useita esimerkkejä siitä, miten huonosti toimiva teknologia voi aiheuttaa todellista haittaa ihmisille, jotka eivät ole itse pystyneet päättämään tekoälyn käytöstä. Jo ennen Chat GPT:n kehittämistä dataa on pystytty hyödyntämään demokratiaa uhkaavalla tavalla. Jotta tekoälylainsäädäntö toteuttaisi tehtävänsä, sen pitäisi pystyä pureutumaan tällaisiin tapauksiin. Toisaalta teknologian kehitys mahdollistaa valtavan määrän aidosti positiivisia käyttötarkoituksia, joilla voidaan parantaa esimerkiksi ihmisten terveyttä ja oppimiskykyä. Mielestämme näistä mahdollisuuksista parantaa ihmisten elämää ja yhteiskuntaa tulisi myös pitää kiinni kynsin ja hampain. Tässä kontekstissa on tärkeää ymmärtää myös se, miten paljon tekoälytutkimukselle ja -kehitykselle on tähän asti merkinnyt mahdollisuus jakaa tutkimustuloksia ja malleja ilman rajoittavaa byrokratiaa, sekä hyödyntää muiden tekemää ja avoimen lähdekoodin lisenssillä jakamaa työtä.

Lopuksi annamme vinkin hyvästä puheenvuorosta. Amsterdamin yliopiston professori Natali Helberger, joka on myös AI, Media & Democracy Labin yksi perustajista ja tutkija Human(e) AI:lle piti erittäin mielenkiintoisen Keynoten aiheesta Legal and Ethical Questions Around Generative AI tämän kevään Nordic Media in AI-tapahtumassa. Voit katsoa esityksen ilmaiseksi täältä.


Kirjoittajista

Me Yle News Labissä haluamme jakaa tietoa ja osaamista tekoälystä mahdollisimman ymmärrettävällä ja saavutettavalla tavalla, koska mielestämme se on paras tapa vähentää sosio-digitaalista eriarvoisuutta ja lisätä kansalaisten tekoälyosaamista (AI literacy). Sen vuoksi päätimme kirjoittaa tämän koosteen.

Laura Isotalo - Datatieteilijä Ada-Maaria Hyvärinen - Datatieteilijä Tove Mylläri - Päällikkö - Kokeilut & yhteistyöhankkeet (Demokratia & Digitalisaatio)