Hallitusammattilainen – kannusta organisaatiotasi vastuulliseen arvonluontiin tekoälyn avulla!

Generatiivisella tekoälyllä on valtava potentiaali mullistaa organisaatioiden toimintaa. Sitä voidaan hyödyntää kaikilla toiminnan tasoilla aina strategia- ja suunnittelutyöstä jokapäiväisten rutiinien tehostamiseen ja automatisointiin. Monessa organisaatiossa onkin tämän vuoden aikana ryhdytty pilotoimaan generatiivisia tekoälyratkaisuja esimerkiksi sisällöntuotannossa, tiedonhaussa ja tiedon analysoinnissa sekä päätöksenteossa. Samalla yhä useampi organisaatio suhtautuu skeptisesti työntekijöiden lisääntyvään tekoälyratkaisujen käyttöön. Miten hallitusammattilaisen tulisi suhtautua tähän kaikkeen?

 

Kaasu pohjaan vai jäitä hattuun?

 

Yritysten ensimmäisten kokemusten perusteella vaikuttaisi, että generatiivisilla tekoälyratkaisuilla voidaan todella säästää aikaa ja kustannuksia, parantaa työntekijäkokemusta, tehostaa päätöksentekoa sekä kiihdyttää innovaatioiden syntymistä ja kehittää uusia tuotteita ja liiketoimintamahdollisuuksia. Kiistattomista hyödyistä huolimatta generatiivisen tekoälyn taivaalla on myös synkempiä pilviä.

Moni päättäjä on huolissaan tekoälyn käytön mukanaan tuomista riskeistä liittyen esimerkiksi tietoturvaan ja -suojaan sekä yhdenvertaisuuteen.

Pelko yrityssalaisuuksien vuotamisesta tai säädösten rikkomisesta onkin ajanut osan organisaatioista merkittävästi rajoittamaan tai jopa kieltämään ChatGPT:n kaltaisten tekoälypalveluiden käytön (tech.co, kesäkuu 2023).

 

Tekoälyyn liittyvistä huolista riippumatta organisaatioiden on käytännössä pakko edistää valmiuttaan tekoälyn hyödyntämiseen. Syrjään jättäytymisen riski kilpailukyvylle ja vetovoimalle asiakkaiden, sijoittajien ja työntekijöiden silmissä on yksinkertaisesti liian suuri otettavaksi. Markkinatutkimusyhtiö IDC:n (IDC, maaliskuu 2023) mukaan jopa 55 prosenttia suurista organisaatioista tutki mahdollisia tekoälyn käyttötapauksia parantaakseen tuottavuuttaan ja saavuttaakseen konkreettista liiketoiminta-arvoa. McKinseyn 2022 tekemän tutkimuksen mukaan tekoälyn käyttö on enemmän kuin tuplaantunut viimeisten viiden vuoden aikana, ja vuonna 2023 vauhti on kiihtynyt räjähdysmäiseksi. Esimerkiksi ChatGPT:llä oli yli 100 miljoonaa käyttäjää vain kaksi kuukautta palvelun julkaisun jälkeen (Reuters, helmikuu 2023).

 

JokAIselle jotakin

 

Generatiivisen tekoälyn kyvyt tulivat suuren yleisön tietoisuuteen alkuvuodesta 2023 OpenAI:n ChatGPT:n saadessa merkittävää medianäkyvyyttä. OpenAI:n keskustelubotti kykeni keskustelemaan käyttäjänsä kanssa luonnollisella kielellä ja tuottamaan laadukasta sisältöä ja jopa toimivaa ohjelmistokoodia. Tietouden levitessä yrityksillä ei kestänyt kauaa löytää tekoälyapureille sovelluskohteita ja käyttötapauksia, ja niiden potentiaali erilaisten geneeristen prosessien, kuten asiakaspalvelun, sisällöntuotannon ja datan analysoinnin tehostamisessa, havaittiin nopeasti. Yritysten mielenkiinnon kohteena ovat myös olleet toimialakohtaiset sovelluskohteet, kuten esimerkiksi:

 

  • kuluttajaliiketoiminta: luodaan parempi asiakaskokemus henkilökohtaisten suositusten paremman hakutoiminnon ja automatisoidun asiakastuen avulla
  • finanssiala: tehostetaan riskiarviointia
  • terveydenhuolto: tuotetaan diagnostiikkaa laajoista tietomääristä ja helpotetaan terveydenhuollon ammattilaisten työtä
  • mainosala: tuotetaan tekstiä, kuvaa ja videota, monikielisesti
  • lakiasiainpalvelut: autetaan sopimusten analysoinnissa ja asiakirjojen laadinnassa
  • koulutus: luodaan henkilökohtaisia oppimiskokemuksia
  • valmistava teollisuus: optimoidaan tuotantoa ja tuotesuunnittelua

 

Kaikki tämä kuulostaa hallitusjäsenen kannalta hienolta. Parannetaan tuottavuutta ja sitä kautta saavutetaan parempi kilpailukyky, kasvu ja kannattavuus. Samalla löydetään ratkaisu työvoimapulaan ja pidetään oma henkilökunta tyytyväisenä, sillä eihän kukaan pidä rutiinitehtävistä? Nyt nopeus on valttia! Vai onko? Sanoisin, että on, mutta samalla on tärkeää ymmärtää riskit: tekoäly on hyvä renki, mutta huono isäntä.

 

Miksi tekoäly on huono isäntä?

 

Generatiivisen tekoälyn julkisia palveluita käytettäessä yrityksen tietoa voi päätyä ulkopuolisille. Sisäisesti suurten kielimallien kyvykkyydet voivat ammentaa myös sellaista dataa, jonka käyttöoikeuksia ei ole määritelty tarkoituksenmukaisesti.

 

On arvioitu, että 80 prosenttia organisaatioiden datasta on niin sanotusti pimeää dataa – dark data. Tällä tarkoitetaan dokumentteja, jotka ovat luokittelematta, suojaamatta ja hallitsematta. Dokumentteja luodaan yhä useammin lyhytaikaiseen käyttöön, ja käyttöoikeuksista huolehtiminen jää helposti hoitamatta. Se, miten data on suojattu ja kenellä on siihen näkyvyys, tulee olemaan entistä tärkeämpää.

 

Väärin määritellyt käyttöoikeudet voivat pahimmillaan johtaa siihen, että organisaatiossa julkaistaan luottamuksellista sisältöä. Riskikartta tulee kehittymään koko ajan tekoälyn kehittymisen myötä.

 

Näistä riskeistä huolimatta on pakko korostaa, että generatiivisen tekoälyn aikaisella käyttöönotolla on  asianmukaisesti ja hallitusti tehtynä merkittäviä mahdollisuuksia kilpailuedun luomisessa.

On tärkeää, että myös hallituksissa ollaan kartalla alan kehityksestä ja sen tuomista mahdollisuuksista ja riskeistä.

Vahva konsensus tuntuu vallitsevan siitä, että samalla, kun tekoäly on hyvä renki ja apuri, se tarvitsee isäntänsä valvomaan ja opastamaan käyttöään organisaatiossa (Forbes, lokakuu 2023). Onneksi tekoälyä voi hyödyntää myös riskien kartoittamisessa!

 

Viisi vinkkiä tekoälyn hyödyntämiseen vastuullisesti:

 

  1. Auta ja kannusta johtoa määrittelemään, miten tekoälyä hyödynnetään tai voitaisiin hyödyntää liiketoiminnassa jo nyt. Älä hyväksy vastaukseksi ”ajattelimme miettiä sitä ensi tilikaudella”, vaan kannusta johtoa toimimaan nopeasti – niin kilpailijatkin tekevät.
  2. Kartoita tekoälyn käyttöön liittyvät riskit, esimerkiksi tietoturva ja -suojanäkökulmasta ja varmistu, että organisaatiosi ICT-osaaminen on riittävällä tasolla. Riskiarviointi voidaan tehdä myös laajemmin pohtimalla, mitä vaikutusta sillä on, jos tekoälyä *ei* hyödynnetä organisaation liiketoiminnassa.
  3. Arvioi tekoälyn käyttöä myös vastuullisuuden näkökulmasta. Mieti, miten yhdessä huomioitte tekoälyn käytössä keskeiset vastuullisuusseikat, kuten esimerkiksi inklusiivisuuden. Tekoäly voi tahattomasti lisätä syrjintää, jos se ei ymmärrä kontekstia (esimerkiksi yrityksen arvot ja vastuullisuuspolitiikka).
  4. Muista, että tekoälyn regulaatio kehittyy, ja on tärkeää, että hallitus ja johto seuraavat kehitystä ja ennakoivat sen potentiaalisia vaikutuksia. Tämä on yksi keskeinen syy pohtia jo ennakolta esimerkiksi tekoälyn vastuullista käyttöönottoa niin omassa toiminnassa kuin osana tuotteita ja ratkaisuja, jottei regulaation mahdollinen kiristyminen yllätä organisaatiotasi.
  5. Muista, että tekoälyratkaisut kehittyvät koko ajan. Seuraa siis alan kehitystä ja varmista että skenaarioita, strategiaa ja riskiarviota päivitetään riittävän usein, jotta olette valmiimpia, kun tekoälyn tarjoamat mahdollisuudet laajenevat .