Tekoälystä on tullut merkittävä osa modernia teknologiaa ja yhteiskuntaa. Se on mullistanut monia toimialoja ja tarjonnut lukemattomia mahdollisuuksia, mutta samalla siihen liittyy myös riskejä ja haasteita. Yksi näistä haasteista on se, että tekoäly voi epäonnistua. Vaikka tekoälyllä on valtava potentiaali, sen virheet voivat olla kalliita ja jopa vaarallisia.

Tekoälyteknologian valikoima sisältää esimerkiksi ennakoivan analytiikan, koneoppimisen ja kielen käsittelyn. 

Erilaisten lähestymistapojen sisällä on kolme ydinkomponenttia:

  • Input Component: Toimittaa dataa malliin. 
  • Processing Component: Analysoi ennusteita, päätöksiä ja sisältöä. 
  • Reporting/Output Component. Kääntää tiedon sellaiseksi, että sitä voi hyödyntää liiketoiminnassa. 

Malleissa on kolme komponenttia, mutta komponenteissa on vielä runsaasti eri osia.  Syötteen, käsittelyn ja raportoinnin useat komponentit liittyvät toisiinsa. Näihin monimutkaisiin komponentteihin täytyy yhdistää ihmiset ja prosessielementit. Ympäristön muuttuessa tekoälyn mallien on muututtava, jotta mallit edustaisivat tarkasti sitä maailmaa, jossa niitä käytetään.

Malleja käytetään esittämään skenaarioita ja tuottamaan tuloksia muun muassa arvojen ja suhteiden avulla. Tämä on määritelty mallin “panoskomponentiksi” (input component’ of a model), mutta todellinen maailma ei ole aina ennustettava. Syötteet on yksinkertaistettu reaalimaailmasta. Haasteena onkin, että väärien oletusten, puolueellisen ja vajavaisen tiedon yhdistäminen reaalimaailman muuttujien monimutkaisuuteen voi johtaa epäonnistumiseen. Epäonnistuminen liittyy usein validiteettiin ja luotettavuuteen. Lisäksi tekoäly ei osaa käsitellä muuttujia, jotka ovat syöttökentän ulkopuolella. Luotettavuus on toistettavuutta, joten tieto voi olla hyvin luotettavaa, mutta ei lainkaan tarkkaa. On olemassa riski, että monimutkaiset mallit menettävät validiteetin ja luotettavuuden. 

Tekoälyn käyttö laajenee

Tekoälyn käyttö laajenee. Se voi parantaa liiketoimintapäätöksiä, mutta tekoälyyn liittyy riskejä, koska sisäiset virheet johtavat huonoihin päätöksiin. Tekoäly tarjoaa arvoa, mutta altistaa organisaation merkittävälle riskille. Tekoälytyökaluja käytetään usein riskien mallintamiseen ja ennustamiseen, joten on ironista, että ne voivat olla myös merkittävä riski. 

Jos tekoälyn mallissa on jotain väärin tai tekoälyyn pohjautuvia päätöksiä käytetään väärin, on aina mahdollisuus epäedullisiin seurauksiin. Tuloksena voi olla taloudellisia tappioita, huonoa liiketoimintaa ja puutteellista strategista päätöksentekoa. Tekoäly on “julkinen”, joten on aina olemassa riski, kun työntekijät rekisteröityvät ja käyttävät työkaluja, kuten ChatGPT:tä, liiketoiminnallisiin tarkoituksiin. 

Vaarallisinta organisaatiolle on luottaa täysin tekoälyn tuottamaan dataan. Tekoälyn pitäisi pelkästään antaa tietoa ja nostaa eri asioita harkittavaksi sen sijaan, että siihen luotetaan sokeasti päätösten tekemisessä. 

ChatGTP:n ja siihen perustuvilla ratkaisuilla on ehkä kaksi merkittävintä ongelmaa; ensinnäkin ChatGTP ei ole “kiinni verkossa” ja perustu ajantasaiseen tietoon, jota hakukoneilla on käytössään vaan sen aikaraja on syyskuu 2021 eli sillä ei ole sen tuoreempaa tietoa käytössä. Toiseksi, ChatGTP on “luova” eli se luo tietovarastoissa olevien mallien pohjalta luoda vastauksia, jotka noudattavat malleja. Jos malleissa on viittauksia vuosiin, nimiin tai esimerkiksi oikeustapauksiin, se voi luoda niitä mallin pohjalta – ottamatta mitään kantaa, pitävätkö sen luomat tulokset paikkaansa.

Tekoäly voi tuoda muun muassa tällaisia riskejä mukanaan: 

  • Ymmärtämisen puute: Tekoälyjärjestelmät toimivat suurelta osin datan ja mallien perusteella. Ne voivat tehdä päätöksiä ja suorittaa tehtäviä, mutta ne eivät välttämättä ymmärrä toimintansa merkitystä tai kontekstia. Tämä voi johtaa virheisiin, kun järjestelmä tekee päätöksiä, jotka vaikuttavat ihmisten elämään tai yritysten toimintaan ilman riittävää ymmärrystä.
  • Vastuullisuuden puute: Tekoälyjärjestelmät voivat oppia ja toimia ennakoimattomilla tavoilla, jotka saattavat olla ristiriidassa eettisten ja moraalisten normien kanssa. Esimerkiksi tekoäly voi oppia vahingollisia ennakkoluuloja tai diskriminoida tiettyjä ryhmiä ilman, että kehittäjät ovat tietoisia siitä. Tämä korostaa tarvetta vastuulliselle tekoälyn kehitykselle ja valvonnalle.
  • Virheiden laajuus: Tekoälyvirheet voivat olla laaja-alaisia ja vaikuttaa moniin ihmisiin tai järjestelmiin. Esimerkiksi itseohjautuvan auton virheellinen päätös voi johtaa vakavaan onnettomuuteen. Siksi tekoälyn virheiden seuraukset voivat olla suurempia ja laajempia kuin inhimillisten virheiden. Liiketoiminnassa laajat virheet voivat johtaa hyvin haitallisiin liiketoimintapäätöksiin. 
  • Kehitystarpeet: Tekoälyjärjestelmät ovat edelleen kehityksen alla, ja niiden monimutkaisuus tekee täydellisten ja virheettömien järjestelmien luomisesta haastavaa. Vaikka tekoäly kehittyy jatkuvasti, on tärkeää ymmärtää, että täydellisen virheetön tekoäly saattaa jäädä saavuttamattomaksi tavoitteeksi.

Tekoäly kasvaa nopeasti monimuotoisuudessaan ja monimutkaisuudessaan. Se on nopeasti siirtymässä taktisesta painopisteestä strategiseksi pilariksi, joka tarjoaa infrastruktuurin ja selkärangan strategialle ja päätöksille organisaation kaikilla tasoilla. Valitettavasti monilta organisaatioilta puuttuu strukturoitu lähestymistapa tietotekniikan – ja siten myös tekoälyn -hallintaan. 

Käytetäänkö yrityksessänne tekoälyä, mutta ette ole vielä suojautuneet siihen kohdistuvilta riskeiltä?

Lähtökohtaisesti isompi organisaatio tarvitsisi erillisen, objektiivisen ERM-toiminnon, joka harjoittaa tehokasta ja jatkuvaa ERM:ää kaikissa malleissa koko yrityksessä. Käytännössä yrityksillä on harvoin erikseen erikseen vastuullista henkilöä riskienhallintaan ja tehtävä jakautuu osaksi muita toimintoja. 

Uusi CSRD ja CSDDD edellyttävät vahvaa riskienhallintaa, riskiskenaarioita osana vastuullisuuden viitekehystä. Erillisten riskienhallintamenetelmien ja työkalujen käyttö ei liene perusteltua pitkällä tähtäimellä. 

EU alkaa säännellät tekoälyä uudella AI Act -sääntelyllä, joka tuo riskiperusteisen mallin tekoälyn hallintaan. 

Uskomme, että tekoälyteknologia, luotettavat järjestelmät sekä oikeat säädökset ja ohjeet voivat avata merkittävää liiketoimintapotentiaalia hallittavissa olevin riskein.

Käytetäänkö yrityksessänne tekoälyä, mutta ette ole vielä suojautuneet siihen kohdistuvilta riskeiltä? Otathan meihin matalalla kynnyksellä yhteyttä, mikäli riskienhallinta on ajankohtaista!