Hyppää sisältöön

Erityisasiantuntija Anna-Mari Rusanen:
Tekoälyä ollaan jo sääntelemässä

valtiovarainministeriö
Julkaisuajankohta 28.6.2023 10.07
Kolumni

Huoli tekoälyn sääntelyn riittävyydestä on usein yhteydessä puutteelliseen käsitykseen jo olemassa olevasta tai valmisteilla olevasta sääntelystä. Suomessa sääntely kieltää jo nyt monet tekoälyn haitallisimmat käyttömuodot.

Generatiivisen tekoälyn, erityisesti kieli- ja kuvangeneroimismallien, kehitys herätti valtavan kohun alkuvuodesta. Tekoälystä onkin viime kuukausina keskusteltu enemmän kuin koskaan. Nyt kohu on vaihtumassa hiljalleen tekoälyväsymykseksi.  

Väsymys on osittain seurausta ääriuhilla pelottelusta. Kun huomiokynnystä ei enää ylitä kielimallien tai kuvageneraattorien saavutuksilla, otsikoihin ja keskustelupalstoille nostetaan pahimmat mahdolliset uhat. Otsikoissa tekoäly onkin viime päivinä tuhonnut ihmiskunnan, kaapannut mielet ja kääntynyt kehittäjiään vastaan. 

Tekoälyn riskejä ei pidä liioitella

Ääriuhkapuheessa kuva tekoälystä kärjistyy, yksipuolistuu ja muuttuu epärealistiseksi. Tekoälyyn liittyviä riskejä ei voi sivuuttaa. Kuten monet asiantuntijat painottavat, uhkia ei toisaalta pitäisi myöskään liioitella. 

On tärkeää ymmärtää, että tekoälyyn liitetyt ääriuhat perustuvat spekulaatiolle, eivät tieteelliselle tutkimukselle. Uhkapuhe on tehokas retorinen keino, joka vetoaa voimakkaasti ihmisiin. Se ohjaa ihmisten ajattelua ja johtaa usein riskien yliarviointiin. 

Vaikka riskien yliarviointi onkin joskus järkevää, se voi myös vääristää ja vinouttaa päätöksentekoa. Tekoälykeskustelun kohdalla ongelmallista onkin, että kun ääriuhkapuhe täyttää palstamillimetrit ja otsikot, realistista keskustelua algoritmien järkevästä ja tarkoituksenmukaisesta käytöstä ei käydä. Myös nykyisten algoritmien mahdollisten haitallisten vaikutusten, kuten syrjintä-, työllisyys- tai ympäristöriskien, objektiivinen tarkastelu unohtuu.

Sääntely estää tekoälyn haitallisimmat käyttömuodot

Ääriuhkapuheeseen yhdistyy usein myös ajatus pahimpia uhkia ehkäisevästä lisäsääntelystä. Olisi kuitenkin hyvä muistaa, että jo nyt Suomessa olemassa oleva sääntely estää monet tekoälyn haitallisimmat käyttömuodot. Vaatimukset lisäsääntelystä perustuvatkin usein osittain puutteellisille tiedoille siitä, millaisilla edellytyksillä algoritmeja voidaan ylipäänsä esimerkiksi julkisessa hallinnossa käyttää. 

Julkisen hallinnon näkökulmasta tekoälyteknologiat ovat sen välineitä ja instrumentteja. Tekoäly, tai mikään muukaan teknologia, ei kyseenalaista voimassaolevia säädöksiä, hyvän hallinnon periaatteita tai virkamiesetiikkaa. Riippumatta siitä, käyttipä viranomainen tekoälyä tai ei, viranomainen on vastuussa käyttämistään järjestelmistä ja niiden asianmukaisesta hyödyntämisestä. Viranomaisen toiminnan on oltava puolueetonta, objektiivista, ja tarkoituksenmukaista, toteutettiinpa sitä tekoälyllä tai ei. 

Vaikka kyse ei ole varsinaisesta tekoälysääntelystä, nykyinen sääntely asettaa myös muita reunaehtoja algoritmien hyödyntämiselle. Esimerkiksi digipalvelulain mukaan viranomainen voi antaa neuvontaa hallinnon asiakkaalle palveluautomaatiolla, jos viranomainen on ennalta varmistanut neuvonnan tietosisällön asianmukaisuuden. Tämä rajoittaa myös hallusinoivien tekoälyjärjestelmien hyödyntämistä viranomaisneuvontaan tarkoitetuissa chatboteissa. Yhdenvertaisuuslaki puolestaan edellyttää yhdenvertaisuuden edistämistä ja syrjinnän estämistä myös silloin, kun käytetään algoritmeja. Tietosuoja-asetus puolestaan asettaa edellytyksiä henkilötietojen automaattiselle ja algoritmiselle käsittelylle. 

Tekoälysääntelyä on myös valmisteilla. EU:n tekoälysäädös vaatisi jatkossa tekoälyteknologioiden markkinoille tuojilta ja tekoälypohjaisten palvelujen tarjoajilta muun muassa perusoikeuksiin, kuten henkeen, terveyteen ja turvallisuuteen liittyviä riskiarvioita sekä velvoittaisi läpinäkyvyyteen ja avoimuuteen. 

Tekoälyn hyödyntämisen tulee edistää hyvän ja avoimen hallinnon tavoitteita

Ääriuhkien sijaan olisi tärkeää tarkastella myös sitä, kuinka lähitulevaisuudessa hyödynnämme algoritmeja yhteiskunnan eri osa-alueilla. Kuten keväällä 2023 julkaistuissa julkisen hallinnon tekoälyn eettisissä ohjeissa todetaan, tekoälyn hyödyntämisen on edistettävä aidosti hyvän ja avoimen hallinnon tavoitteita, kuten myönteistä demokratiakehitystä, luottamusyhteiskuntaa tai ihmisoikeuksien toteutumista.

Olisi tärkeää käydä tasapainoista keskustelua myös siitä, miten voisimme valjastaa algoritmit tuottamaan toimivia palveluita sekä tehokasta, laadukasta ja kansalaisten hyvinvointia tukevaa julkista hallintoa. Olisi hyvä muistaa, että algoritmien avulla voidaan myös rakentaa luottamukseen perustuvaa, hyvinvointia ja oikeuksia edistävää yhteiskuntaa.

Anna-Mari Rusanen
Erityisasiantuntija

Julkisen hallinnon ICT