Tekoälyn käyttö lisääntyy räjähdysmäisesti. Yhä useammin tulisi olla huolissaan myös siitä, että tekoälyn ja koneoppimisen (ML) avulla tapahtuvan kannattavan toiminnan valvomiseksi ei useinkaan ole olemassa asianmukaista hallintotapaa. Huoli on aiheellista.
Tekoäly tarjoaa oikein käytettynä yrityksille kilpailuetua.
ChatGPT on vienyt tekoälykeskustelun datatieteilijöiden yhteisöstä valtavirtaan ja oikein käytettynä se tarjoaa yrityksille kilpailuetua. Itse asiassa ne yritykset, jotka jotka eivät vielä käytä sitä, voivat mahdollisesti jossain kohtaa joutua epäedulliseen asemaan. Vaikka on monia esimerkkejä yrityksistä, jotka käyttävät tekoälyä voittojensa kasvattamiseen, tekoälyn käytössä on myös pimeä puoli.
Pelätään, että opiskelijat käyttävät sitä kirjoittaessaan töitä tai hakkerit voisivat käyttää sitä haavoittuvuuksien tunnistamiseen. Kuvittele, että samanlainen malli koulutettaisiin omista tiedoistasi; selaushistoriasi, verkko-ostokset, sijaintipalvelut ja puhelimen käyttö. Sen sijaan, että ChatGPT:n kaltainen malli käyttäisi näitä tietoja sinulle sopivien elokuvien ehdottamiseen, se voisi vetää kaikki tietosi yhteen tavalla, joka tuhoaisi yksityisyytesi lopullisesti.
Toinen tekoälyn käyttöön liittyvä suuri riski on mahdollinen tietojen keksiminen. Kun tekoälyjärjestelmistä tulee yhä kehittyneempiä, on yhä vaikeampaa erottaa todellista ja väärennettyä tietoa toisistaan. Tämä on merkittävä uhka yrityksille, erityisesti pankkialalla, jossa tarkat tiedot ovat kriittisiä luottopäätöksiä tehtäessä. Jos esimerkiksi luottopäätös perustuu tekoälyjärjestelmän tuottamiin vääriin tietoihin, se voi aiheuttaa pankille merkittäviä taloudellisia tappioita.
Mitä voisi esimerkiksi tapahtua, jos huijari antaisi väärän henkilöllisyyden tai väärät taloudelliset tiedot lainaa hakiessaan? Tällaisissa tapauksissa tekoäly voi olla sekä ase rikollisille, jotka voivat käyttää sitä vakuuttavasti väärennettyjen tietojen luomiseen, että pankkien työkalu tällaisten petosyritysten havaitsemiseen. Tekoäly voi siis tehokkaasti myös auttaa suojelemaan organisaatioita.
Sääntelyviranomaiset ovat vastaamassa tekoälyriskeihin lukuisilla tietosuojaa ja mallintamista koskevilla säännöksillä, mutta ovatko ne oikeasti riittäviä?
EU on vastaamassa tekoälyriskeihin lukuisilla tietosuojaa ja mallintamista koskevilla säännöksillä, mutta ovatko ne oikeasti riittäviä?
- Soveltamisala: Asetus kattoi sekä EU:ssa kehitetyt tekoälyjärjestelmät että EU:n markkinoilla käytetyt tekoälyjärjestelmät niiden alkuperäpaikasta riippumatta.
- Riskiluokat: Tekoälyjärjestelmät luokiteltiin sen mukaan, kuinka suuren riskin ne aiheuttivat yksilöiden perusoikeuksille ja turvallisuudelle. Luokat vaihtelivat ”ei-hyväksyttävistä riskeistä” ”rajoitettuun riskiin”.
- Kielletyt käytännöt: Ehdotuksessa kiellettiin tietyt tekoälykäytännöt, joiden katsottiin olevan suuri riski ihmisoikeuksille, kuten sosiaalinen pisteytys, biometrinen tunnistaminen julkisissa tiloissa ja tekoälyjärjestelmät, jotka manipuloivat yksilöiden käyttäytymistä harhaanjohtavalla tai haitallisella tavalla.
- Korkean riskin tekoälyjärjestelmien velvollisuudet: Korkean riskin tekoälyjärjestelmiin, kuten kriittisissä infrastruktuurissa, terveydenhuollossa, liikenteessä ja lainvalvonnassa käytettäviin, asetetaan tiukat vaatimukset. Nämä vaatimukset sisälsivät laajan testauksen, riskinarvioinnit, tietojen hallinnan, inhimillisen valvonnan, avoimuuden ja erityiset kirjanpitovelvoitteet.
- Avoimuus ja vastuullisuus: Ehdotuksessa korostettiin tekoälyjärjestelmien avoimuuden tarvetta erityisesti tapauksissa, joissa tekoälyä käytettiin vuorovaikutuksessa yksilöiden kanssa. Käyttäjien tulee olla tietoisia siitä, että he ovat vuorovaikutuksessa tekoälyjärjestelmän kanssa, ja saada tietoa sen ominaisuuksista ja rajoituksista.
Organisaatioiden on pohdittava, miten ne voivat ottaa tekoälyn käyttöön tavalla, joka tarjoaa niille kilpailuetua, mutta samalla suojaa tekoälyn vaaroilta. Tekoälyn käyttöpäätökseen kuuluu sellaisen yrityskäsityksen luominen ja sellaisten toimintatapojen noudattaminen, joilla minimoidaan riskit siitä, että yritykselle tai sen asiakkaille aiheutuisi vahinkoa.
Käytetäänkö yrityksessänne tekoälyä, mutta ette ole vielä suojautuneet siihen kohdistuvilta riskeiltä?
Lähtökohtaisesti isompi organisaatio tarvitsisi erillisen, objektiivisen ERM-toiminnon, joka harjoittaa tehokasta ja jatkuvaa ERM:ää kaikissa malleissa koko yrityksessä. Käytännössä yrityksillä on harvoin erikseen erikseen vastuullista henkilöä riskienhallintaan ja tehtävä jakautuu osaksi muita toimintoja.
Uusi CSRD ja CSDDD edellyttävät vahvaa riskienhallintaa, riskiskenaarioita osana vastuullisuuden viitekehystä. Erillisten riskienhallintamenetelmien ja työkalujen käyttö ei liene perusteltua pitkällä tähtäimellä.
Covid ja Ukrainan sota ovat osaltaan osoittaneet riskienhallinnan puutteet ja tarpeet. Tosiasia kuitenkin on, että ennaltaehkäisy on ratkaisevan tärkeää. Riskienhallinnan epäonnistuminen voi johtaa voimakkaaseen (huonoon) mediajulkisuuteen, aiheuttaa yritykselle vakavia maine- ja taloudellisia vahinkoja, sekä vakavia turvallisuus- ja ympäristöriskejä.
Uskomme, että tekoälyteknologia, luotettavat järjestelmät sekä oikeat säädökset ja ohjeet voivat avata merkittävää liiketoimintapotentiaalia hallittavissa olevin riskein.
Käytetäänkö yrityksessänne tekoälyä, mutta ette ole vielä suojautuneet siihen kohdistuvilta riskeiltä? Otathan meihin matalalla kynnyksellä yhteyttä, mikäli riskienhallinta on ajankohtaista!