Uusia tekoälymalleja käsittelevän kolumnisarjan 2. osa
Tekoäly mullistaa terveydenhuoltoa – riskit voidaan torjua suunnittelulla ja yhteistyöllä
Generatiivisen tekoälyn viimeaikaiset kehitysaskeleet ovat tulleet yllätyksenä lähes kaikille. Vaikutusvaltainen joukko tiede- ja yritysmaailman vaikuttajia on jopa esittänyt tuotekehityksen väliaikaista keskeyttämistä. Euroopassa tietosuojaviranomaiset ovat puolestaan alkaneet rajoittaa uusien tekoälymallien käyttöä.
Henkeä ei kuitenkaan saa takaisin pulloon. Yritykset ovat aloittaneet kilpajuoksun markkinaosuuksista ja investoinnit tekoälyyn ovat kasvaneet merkittävästi. Vaikka teknologiaan liittyy vielä epävarmuuksia, myös julkisen sektorin olisi järkevää valmistautua mahdolliseen muutokseen. Laaja-alainen tuotteistaminen voi olla ajankohtaista jo aivan lähiaikoina.
Tekoälymallit ovat vielä epävarmoja
Mittavista mahdollisuuksistaan huolimatta, generatiiviset tekoälymallit ovat vielä epävarmoja. Esimerkiksi julkisuudessa paljon esillä ollut GPT-4 -kielimalli tuottaa oikean tiedon ohella myös itse keksimiään faktoja. Tuoreessa tutkimuksessa se lisäsi tuottamiinsa potilasmerkintöihin tiedon painoideksistä, vaikka tätä tietoa sille ei oltu annettu. Kun mallia pyydettiin tarkistamaan oma vastauksensa, se huomasi epäloogisuuden ja poisti sen.
On selvää, että terveydenhuollossa ei voida käyttää tekoälyä, joka tuottaa virheellistä tietoa. Toivoa antaa se, että GPT-4 on koulutettu avoimesti internetissä saatavan tiedon pohjalta. Sille ei ole annettu esimerkiksi lääketieteellisiä julkaisuja tai muita hyödyllisiä tietoja, joihin ei ole avointa pääsyä. Ennemmin tai myöhemmin julkaistaan malleja, jotka on räätälöity erityisesti terveydenhuollon tarpeisiin. Vasta tuolloin saamme nähdä, mihin kaikkeen ne todellisuudessa pystyvät.
Tekoälyn käyttäminen edellyttää vastuiden määrittelyä ja valvontaa
Epävarmuuden lisäksi generatiiviseen tekoälyyn liittyy myös riskejä, jotka ovat suurelta osin samoja kuin perinteisemmänkin tekoälyn kohdalla. Tekoälymallit voivat olla vinoutuneita, eli ne voivat kohdella eri ihmisryhmiä eri tavoin. Terveydenhuollossa tämä voi ilmetä esimerkiksi siten, että tekoäly tuottaa paremmin paikkansa pitäviä arvioita tietyn ikäryhmän, etnisyyden tai sukupuolen kohdalla.
Tekoälymallit ovat vain ohjelmistoja ja kuten kaikkiin ohjelmistoihin, myös niihin sisältyy riski virhetilanteista. Virheet voivat syntyä lukemattomista tekijöistä, eikä niitä kaikkia pystytä eliminoimaan. Näin ollen tekoälyn käyttäminen edellyttää vastuiden määrittelyä ja valvontaa. Erityistä huomiota on kiinnitettävä tekoälyn koulutuksessa käytettävään materiaaliin ja toiminnallisuuden testaukseen.
Tekoälyä voidaan myös käyttää väärin. Jos käyttäjä ei ymmärrä hyödyntämäänsä välinettä tai käyttää sitä väärään tarkoitukseen, tulokset voivat pahimmillaan olla vaarallisia. Koneoppimiseen perustuvat järjestelmät voivat muokkautua käytössä, jolloin huomiota on kiinnitettävä tekoälymallien käyttöön ja käyttäjien osaamiseen.
On erityisen huolestuttavaa, että generatiivinen tekoäly mahdollistaa erilaisten valetietojen luomisen teollisessa mittakaavassa. Terveyteen ja hyvinvointiin liittyvät sisällöt kiinnostavat ihmisiä ja ne voivat olla houkutteleva kohde pahantahtoisille toimijoille. Tulevaisuudessa erilaisia hyvinvoinnin teemaan liittyviä tekoälypohjaisia neuvontapalveluja voidaan helposti perustaa missä päin maailmaa tahansa ja tarjota Suomessa asuville ihmisille.
Varsinaisten riskien lisäksi generatiivinen tekoäly nostaa esille vaikeita eettisiä kysymyksiä. Mitä tehtäviä voimme uskoa koneen hoidettavaksi? On ilmeistä, että generatiivinen tekoäly suoriutuu monista tiedon käsittelyn tehtävistä merkittävästi ihmistä paremmin. Se tekee kuitenkin aina virheitä. Miten suhtaudumme virheitä tekevään koneeseen? Entä voimmeko hyväksyä sen, että generatiivinen tekoäly pitää seuraa yksinäiselle vanhukselle. Nämä ovat kysymyksiä, jotka ovat edessämme todennäköisesti ennemmin kuin myöhemmin.
Lainsäädännön on mahdollistettava tekoälyn turvallinen hyödyntäminen
Tekoälyyn liittyviä riskejä säädellään EU:n tekoälyasetuksella. Vaikka asetuksen määritelmän tekoälystä on tarkoitus olla teknologianeutraali, sen sisällöt on tuotettu ennen generatiivisten tekoälymallien laajaa esilletuloa. Näin ollen se ei välttämättä tunnista kaikkia uudempiin tekoälymalleihin liittyviä näkökulmia. Erityisesti olisi varmistettava, että asetus ei tarpeettomasti vaikeuta generatiivisten malien hyödyntämistä. Ilmeisesti tähän liittyvää keskustelua on jo ehditty käymään EU:n tasolla ja asetusta tullaan mahdollisesti täydentämään.
Tekoälyasetuksen lisäksi terveydenhuollon tekoälyjärjestelmiin sovelletaan usein myös lääkinnällisiä laitteita, tietosuojaa, automaattista päätöksentekoa sekä sosiaali- ja terveydenhuollon tiedonhallintaa koskevia säädöksiä. Voidaan sanoa, että terveydenhuollon osalta tekoälyn hyödyntämiseen kohdistuu erittäin monimutkainen sääntelykehys. Vaikka sen tarkoituksena on parantaa käytön turvallisuutta, samalla se kuitenkin kasvattaa tekoälyn hyödyntämisen kulmakerrointa. Tätä ongelmaa tulisi pyrkiä pienentämään aktiivisin toimenpitein.
Valtion on selkeytettävä toimintaympäristöä ja tarjota tukea generatiivisen tekoälyn hyödyntämiselle
Erityisen tärkeään on, että generatiivisen tekoälyn hyödyntämiselle ei luoda tarpeettomia lainsäädännöllisiä esteitä. Nämä esteet voivat liittyä säädösten varsinaiseen sisältöön tai niiden monitulkintaisuuteen. Vaikeasti tulkittava lainsäädäntö luo epävarmuutta, jonka seurauksena tuottavuutta lisääviä ratkaisuja voi jäädä toteutumatta. Esimerkiksi sosiaali- ja terveydenhuollon tiedonhallintaa koskevien pykälien epäselvyydellä on todennäköisesti ollut tämänkaltainen vaikutus. Myös perustuslakivaliokunta on ottanut kantaa näiden säädösten epäselvyyteen.
Generatiivisen tekoälyn hyödyntämien kannalta hankalaa sääntelyä on tuotettu myös aivan viime aikoina. Osana automaattista päätöksentekoa koskevaa sääntelyuudistusta, digipalvelulakiin (306/2019) lisättiin viranomaisten chat-palveluja koskeva pykälä. Uuden säännöksen mukaan palvelun tarjoavan viranomaisen tulisi ennalta varmistaa palveluautomaatiossa tuotettavan neuvonnan tietosisällön asianmukaisuus. On ilmeistä, että tämän tyyppinen säännös sopii huonosti yhteen uutta sisältöä tuottavan generatiivisen tekoälyn kanssa.
Generatiivisten tekoälymallien kohdalla sääntelyä voisi ajatella kohdistettavan esimerkiksi vastuiden ja suojakeinojen määrittelyyn. Edellä mainittu suoraan tekoälyn tuottamaan sisältöön kohdistuva sääntely tulkitaan helposti niin, että generatiivista tekoälyä ei voida lainkaan hyödyntää viranomaisten neuvontapalveluissa.
Riskit tunnistettava EU:n tasolla, mutta myös kansallisesti
On myös huolehdittava siitä, että generatiivisen tekoälyn erityisriskit tunnistetaan ja että on olemassa keinot niidet hallintaan. Tämä keskustelu tulisi käydä ensisijaisesti EU:n tasolla, mutta mikäli tämä viivästyy, asiaa olisi järkevää pohtia myös kansallisesti.
Nyt näyttää todennäköiseltä, että generatiivinen tekoäly yleistyy jo ennen tekoälyasetuksen soveltamista. Osin näin on jo käynyt. Tästä syytä voisi olla järkevää käydä kansallista keskustelua lyhyen aikavälin hallintatoimista.
Valtio voi kohdistaa erityistä tukea uuden teknologian käyttöönottoihin
Hyvinvointialueita (ja kaikkia julkishallinnon sektoreita) on tuettava generatiivisten tekoälymallien käyttöönotossa. Valtion on tunnistettava tekoälyyn liittyvät sääntelytarpeet ripeästi ja laatia tarvittavat muutokset. Myös lainsäädännön tulkintaa on helpotettava erilaisilla yhteisillä periaatteilla ja tulkintaohjeilla. Valtio voisi myös tukea kansainvälistä tai yritysten kanssa tehtävää yhteistyötä. Suomalainen terveydenhuolto ja sen tietovarannot voivat olla houkutteleva kohde globaaleille teknologiayrityksille.
Terveydenhuollon kontekstissa olisi mahdollista esimerkiksi selvittää osittain tai kokonaan automatisoitavissa olevat työtehtävät ja kohdistaa säädöskehitystä ja toimeenpanon tukea erityisesti näihin kohteisiin. Goldman Sachs arvioi, että terveydenhuollon tehtävistä yli neljännes olisi automatisoitavissa generatiivisten tekoälymallien avulla. Tämän mittaluokan muutos toisi oleellisia vastauksia kasvavaan palveluntarpeeseen, budjettirajoitteisiin ja henkilöstöpulaan.
Tukea tarvitaan myös osaamisen kehittämiseen. Lainsäädäntöä ei koskaan saada muokattua niin yksinkertaiseksi, että sen soveltaminen ei edellyttäisi laaja-alaista osaamista. Tarvitaan osaajia, jotka hallitsevat riittävän hyvin palvelujen sisältöihin, teknologisiin ratkaisuihin kuin lainsäädännön reunaehtoihinkin liittyvät seikat. Valtio voisi tukea tällaisen osaamisen syntymistä hyvinvointialueilla ja muilla julkisen hallinnon sektoreilla.
Kansalliset ja keskitetyt investoinnit voivat olla kannattavia
Osa investoinneista kannattaa toteuttaa kansallisesti. Esimerkiksi mahdolliset diagnostiikan tai omahoidon tueksi luotavat generatiiviset tekoälymallit eivät todennäköisesti eroaisi hyvinvointialueiden välillä. Siksi niitä ei kannata hankkia kaikille erikseen. Luonteva taho keskitettyjen hankintojen toteuttajaksi olisi hyvinvointialueiden ja valtion yhdessä omistama DigiFinland Oy, joka voisi tarjota rajapinnat tarvittaviin tekoälyratkaisuihin. Tähän liittyvän yhteistyön rakentaminen voitaisiin käynnistää saman tien. Ehkä kokeiluja voitaisiin järjestää jo alkavan hallituskauden aikana.
Kaikki edellä mainittu tarvitsee tuekseen suunnittelua. Suunnittelun aika on nyt ja sitä tulisi tehdä myös hallinnonalojen rajat ylittävästi. Samat mahdollisuudet ja haasteet kohdataan kaikilla toimialoilla. Siksi ratkaisuja on syytä hakea yhdessä.
Markku Heinäsenaho
erityisasiantuntija, sosiaali- ja terveysministeriö
Outi Äyräs-Blumberg
neuvotteleva virkamies, sosiaali- ja terveysministeriö
Jukka Lähesmaa
erityisasiantuntija, sosiaali- ja terveysministeriö
Tämä on laajemman kirjoituksen toinen osa, jossa pohditaan generatiivisen tekoälyn epävarmuuksia ja riskejä sekä toimenpiteitä, joihin valtioneuvostossa voitaisiin ryhtyä sen käytön edistämiseksi. Kirjoituksen ensimmäinen osa käsitteli generatiivisen tekoälyn mahdollisuuksia erityisesti terveydenhuollon näkökulmasta.
Tässä kirjoituksessa ei ole käsitelty tekoälyn mahdollisuuksia sosiaalihuollossa, koska siihen liittyvä tietoa on vain vähän saatavilla. Tämä ei kuitenkaan tarkoita, että sosiaalihuollon sovelluskohteita ei olisi löydettävissä.
Tässä kirjoituksessa ei ole myöskään käsitelty generatiivisen tekoälyn mahdollisia laajempia yhteiskunnallisia vaikutuksia. Ne ovat kokonaan toisen kirjoituksen aihe ja niihin on palattava esimerkiksi osana sosiaaliturvauudistuksen jatkotöitä.
Italy has banned ChatGPT. Here's what other countries are doing (cnbc.com)
Benefits, Limits, and Risks of GPT-4 as an AI Chatbot for Medicine | NEJM (www.nejm.org)
Global Economics Analyst The Potentially Large Effects of Artificial Intelligence on Economic Growth (BriggsKodnani) (key4biz.it)