Uskotko tekoälyyn?
Onko tekoäly ihmiskunnan uusi vallankumous vai tietoteknologisen vallankumouksen seuraava evolutiivinen askel? Tekoäly on jo muuttumassa osaksi arkeamme työelämässä, terveydenhuollossa, liikenteessä, ja viihteessä. Tekoäly kehittyy nopeasti ja vaikuttaa jo nyt läpileikkaavasti yhteiskunnan eri osa-alueilla; sen potentiaali on valtava. Se voi auttaa meitä löytämään ratkaisuja maailman haastavimpiin ongelmiin, kuten ilmastonmuutokseen ja sairauksiin.
Tekoälyn riskienhallintaa lainsäädännön avulla
Tekoälyn valtava potentiaali tuo mukanaan myös riskejä. EU:n tekoälyasetus pyrkii ensimmäisenä maailmassa sääntelemään näitä riskejä. Tavoitteena on varmistaa, että EU:ssa kehitetty ja käytetty tekoälyteknologia olisi turvallista, luotettavaa, avointa ja eettistä. Asetus korostaa perusoikeuksien kuten yksityisyyden suojan kunnioittamista. Asetuksessa tekoälyjärjestelmiä luokitellaan niiden aiheuttamien riskien perusteella: vaarallisimmat tekoälyyn liittyvät käytännöt kielletään ja suuririskisille tekoälyjärjestelmille asetetaan tiukennetut vaatimukset.
Vaikka tekoälyasetuksen tehtävä on ensisijaisesti turvata kansalaisten oikeuksia ja suojata heitä tekoälyn mahdollisilta haitoilta, sillä on myös merkittävä rooli edistää innovaatioita ja EU:n kansainvälistä kilpailukykyä. Selkeät säännöt lisäävät yritysten ja kuluttajien luottamusta tekoälyyn, mikä edistää alan investointeja, ekosysteemeitä ja tekoälyn laajempaa käyttöönottoa. Sääntely myös ohjaa innovaatioita oikeusvaltioon perustuvalle yhteiskunnalle hyödylliseen suuntaan. Sääntelyn testiympäristöjen avulla tekoälyn kehittäjät voivat simuloida todellisia tilanteita ja näin minimoida riskejä sekä edistää innovointia.
Suomessa asetuksen vaiheistettu toimeenpano on hyvässä vauhdissa: ensimmäisessä vaiheessa valmisteltu hallituksen esitys, jossa ehdotetaan säädettäväksi uusi laki eräiden tekoälyjärjestelmien valvonnasta, on juuri lähtenyt lausuntokierrokselle. Ehdotetussa laissa määritetään riippumattomat kansalliset toimivaltaiset viranomaiset valvomaan asetuksen noudattamista sekä seuraamukset asetuksen säännösten rikkomisesta. Toisen vaiheen valmistelu koskee muun muassa sääntelyn testiympäristöjä, ja myös sen valmistelu on käynnistynyt. Työhön osallistetaan keskeisiä sidosryhmiä.
Hajauttaminen vai keskittäminen - vai molemmat?
Eräs arvostamani, sittemmin oloneuvospäiviä viettämään siirtynyt pitkän linjan johtava virkahenkilö totesi vastikään, että EU-sääntelyn kansallisen täytäntöönpanon hajauttamisen ja keskittämisen argumentit ovat aina samat, mutta silti lopputulos vaihtelee. Tämä pitää varmasti paikkaansa. Lopputulos johtuu painotuksista, joita eri argumenteille kulloinkin annetaan.
Kansallisessa ratkaisumallissamme tekoälyjärjestelmiä koskevat markkinavalvontatehtävät ehdotetaan hajautettavaksi usealle eri viranomaiselle. Viranomaiset, jotka vastaavat jo nykytilassa unionin yhdenmukaistamislainsäädäntöön liittyvien tuotteiden markkinavalvonnasta, vastaisivat jatkossakin näihin tuotteisiin liittyvien suuririskisten tekoälyjärjestelmien markkinavalvonnasta. Tämä on myös asetuksen lähtökohta. Joillekin viranomaisille markkinavalvontarooli ja tehtävät ovat myös täysin uusia. Tiettyjä valvontatehtäviä myös keskitetään: esimerkiksi kiellettyjen tekoälyyn liittyvien käytäntöjen valvontavastuu on annettu tietosuojavaltuutetulle ja avoimuusvelvoitteiden valvonta Liikenne- ja viestintävirastolle.
Valitsemaamme kokonaismallia voisikin kutsua jonkinlaiseksi hajautetun ja keskitetyn mallin hybridiksi. Sen tarkoituksena on yhdistää hajautetun ja keskitetyn mallin hyötyjä. Hajauttamisella voitaisiin eri markkinavalvontaviranomaisten erityisosaaminen hyödyntää samalla, kun uutta tekoälyteknologista syväosaamista ja kyvykkyyttä rakennettaisiin keskitetysti viranomaisten tueksi. Yhtenä Liikenne- ja viestintäviraston keskitettynä tehtävänä on antaa tekoälyteknologiaan liittyvää asiantuntijatukea toimivaltaisille valvontaviranomaisille.
Haasteena hajauttamisessa voi olla tekoälyosaamisen saatavuus ja kohonnut resursointitarve. Toisaalta tekoälyosaamisen tarpeen voidaan olettaa kasvavan läpi yhteiskunnan organisaatioiden, mihin olisi hyvä varautua myös julkisella sektorilla. Kyvykkyyden rakentamiseen on kohtuullisesti aikaa, sillä suuririskisten tekoälyjärjestelmien valvonta alkaa käytännössä vasta vuosien 2026 ja 2027 aikana. Voisi jopa sanoa, että kerrankin lainsäädäntö on etukenossa tuleviin haasteisiin nähden, eikä laahaa ilmiöiden perässä, kuten yleensä.
Hajauttaminen korostaa tarvetta yhtenäiselle valvontakäytännölle ja koordinaatiolle. Suomen kansallisella markkinavalvontastrategialla edistetään johdonmukaista, kokonaisvaltaista ja yhtenäistä tapaa huolehtia markkinavalvonnasta. Tekoälyjärjestelmien markkinavalvonta tulee lakiehdotuksen myötä osaksi markkinavalvonnan kokonaiskehikkoa.
Resurssit, resurssit, resurssit
Hajauttamismallin keskeisimpänä kritiikkinä on usein, että se vaatii paljon resursseja. Tekoälyasetus on kuitenkin niin laaja ja läpileikkaava kokonaisuus, että sitä ei olisi mahdollista toimeenpanna vähin resurssein edes keskittämällä. Viranomaisille on annettava riittävät tekniset, taloudelliset ja henkilöstöresurssit, jotta ne voivat hoitaa asetuksen mukaiset tehtävänsä tehokkaasti. Kaiken tekoälyasetuksesta johtuvan valvonnan ja asetuksen edellyttämän monenlaisen osaamisen keskittäminen edellyttäisi joko uuden viranomaisen perustamista tai tehtävien kattavaa keskittämistä jonkin viranomaisen yhteyteen. Uuden viranomaisen malli on valittu esimerkiksi Espanjassa.
On haasteellista ennustaa, kuinka paljon valvontaa on näköpiirissä esimerkiksi seuraavan viiden vuoden aikana. Jo tästäkin näkökulmasta hybridimalli ja tulevien valvontatehtävien sulauttaminen osaksi eri viranomaisten nykyistä toimintaa on perusteltua asetuksen toimeenpanon siemenvaiheessa.
Kun lainsäädäntöä luodaan tilanteessa, johon liittyy huomattavan paljon epävarmuustekijöitä, kasvaa jatkoseurannan merkitys. Tulevaisuus näyttää kuinka malli toimii, ja sitä on myös mahdollista arvioida uudelleen.
EU:ssa digisääntelyä valmistellaan tai on jo annettu useita. Kansallisen toimeenpanon aikataulu on aina tiukka, niin kuin tekoälyasetuksenkin kohdalla, ja toimeenpanon vastuu on hajautunut eri hallinnonaloille. Tulevaisuudessa voisi olla perusteltua arvioida kaikkia digisäädöksiä ja niiden toimeenpanossa tehtyjä ratkaisuja kokonaisuutena ja selvittää vaihtoehtoja uudelleen. Selvityksiin voitaisiin ryhtyä esimerkiksi tämän vaalikauden loppupuolella, mikä tarjoaisi pohjaa nykyistäkin vahvemman digitaalisaation ja tekoälyn hyödyntämisen mallimaan rakentamiselle.
Olipa kerran tekoäly
Tekoälyn tarina on vasta alussa, ja sen kehitys on väistämätöntä. Palatakseni alun kysymykseeni siitä, onko tekoäly ihmiskunnan uusi vallankumous vai tietoteknologisen vallankumouksen seuraava evolutiivinen askel, tekoäly vastasi minulle näin:
”Tekoäly on epäilemättä merkittävä teknologia, joka muuttaa maailmaa. Teknologia on aina muuttanut maailmaa, ja tekoäly on vain yksi osa tätä kehitystä. Vaikka tekoäly kehittyy nopeasti, sen vaikutukset yhteiskuntaan voivat olla hitaampia. Lisäksi tekoälyn kehittämisessä ja käytössä on vielä monia eettisiä ja teknisiä haasteita, jotka on ratkaistava. Voimmeko kutsua sitä vallankumoukseksi, onkin enemmänkin filosofinen kysymys. Tärkeintä on ymmärtää, että tekoäly on työkalu, jonka avulla voimme ratkaista monia haasteita ja luoda parempaa tulevaisuutta.” Kiitos tekoäly, viisaita sanoja.
Vain tulevaisuuden sukupolvet tietävät, kuinka tarina, joka alkaa sanoilla Olipa kerran tekoäly jatkuu. Me TEM:ssä uskomme turvalliseen, innovatiiviseen ja tuottavaan tekoälytulevaisuuteen – uskotko sinäkin?
TEM järjestää sidosryhmätilaisuuden EU:n tekoälyasetuksen kansallista toimeenpanoa koskevan lainsäädännön luonnoksesta keskiviikkona 6.11.2024 klo 15.00 – 16.30. Lisätietoja ja ilmoittautuminen ao. linkistä.
Nathalie Dahl on työ- ja elinkeinoministeriön hallitusneuvos
EU:n tekoälyasetuksen kansallinen toimeenpano