Tekoälystä puhuttaessa nostetaan usein esiin erilaisia siihen liittyviä riskejä, joilla myös perustellaan tarve säännellä tekoälyä lailla. Tekoälysovellukset mahdollistavat erilaisia toimia. Monet näistä hyödyttävät yhteiskuntaa merkittävästi. Pahimmillaan tekoälyn käytöstä voi kuitenkin aiheutua vakavaa haittaa yksittäisille ihmiselle, ihmisryhmille tai yleisesti yhteiskunnalle.
Yhtenä esimerkkinä kysymyksiä herättävästä tekoälyn hyödyntämisestä on julkisten toimijoiden, kuten sosiaalietuuksia myöntävien tahojen, petoksentorjuntaan käyttämät algoritmit. Ranskassa ihmisoikeusjärjestö on kiinnittänyt huomiota algoritmiin, jolla paikallinen perhe-etuuksia myöntävä viranomainen on pyrkinyt tunnistamaan etuuksien väärinkäytön. Järjestelmän valinnat ja painotukset näyttävät järjestön mukaan käytännössä johtavan siihen, että ns. korkean riskiluokituksen saavat kaikkein heikoimmassa asemassa olevat ihmiset. Näin heihin myös kohdistetaan valvonta, kun taas hyväosaisilla todennäköisyys joutua esim. tarkastuksen kohteeksi on, järjestön mukaan, lähes olematon.
Esimerkki kuvastaa sitä, miten järjestelmät ovat aina enemmän kuin pelkkä teknologia. Valinnat, joita järjestelmän suunnittelussa tehdään, heijastavat tiedostaen tai tiedostamatta niitä arvoja ja päämääriä, joita järjestelmän käyttöön ottavilla tahoilla on. Tämä on hyvä huomioida erityisesti silloin, kun tekoälyä suunnitellaan käytettävän ns. korkean riskin kohteissa.
Matalariskinenkin tekoälyn käyttö kannattaa ohjeistaa
Mutta pitääkö tekoäly- ja automaatioriskeihin varautua, jos omalla toiminnalla ei ole mitään tekemistä esim. herkässä kontekstissa tapahtuvan profiloinnin tai haavoittuvaisessa asemassa olevien ihmisten kanssa? Kyllä – kaikkien organisaatioiden kannattaa varautua tekoälyn aiheuttamiin tai sen käyttöön liittyviin oikeudellisiin kysymyksiin. Järkevästi mitoitetulla riskienhallinnalla ja ennakoinnilla moni potentiaalinen ongelma ratkeaa huomaamatta.
Tekoälyä koskevan ohjeistuksen avulla työntekijät ja johto hyödyntävät tekoälyä yrityksen arvojen mukaisesti. Arvojen lisäksi yrityksen ohjeistukseen vaikuttaa myös kasvava tekoälyä koskeva lainsäädäntö. Työnantajan tulee auttaa työntekijöitä tekemään lainmukaisia ratkaisuja tekoälyn kehityksen, hyödyntämisen sekä riskienhallinnan kanssa. Säätelyn asettamien rajoitteiden ymmärtäminen ja tekoälyohjeistuksen tai politiikan (eng. policy) rakentaminen vaatii paneutumista ja siihen on tarjolla myös apua.
Eikös tämä ole tulevaisuuden ongelma?
Tekoäly ei ole lainkaan niin uusi ilmiö, kuin miltä tämänhetkisen julkisen keskustelun perusteella vaikuttaa. Erilaiset uhat ja kriisit sekä lupaukset tehokkuudesta ja säästöistä vievät helposti huomion. Tekoälyn käyttöä kartoittaessa kannattaa käydä keskustelua myös niistä arkisista työkaluista, jotka eivät julkisessa tekoälykeskustelussa erityisesti nouse esiin.
Eräässä vastaan tulleessa tapauksessa korkeakoulussa tavanomaisen plagioinnin tunnistamiseen tarkoitetun järjestelmän tuloksena antama prosenttiluku johti virallisen kuulemismenettelyn aloittamiseen. Muuttujia tarkemmin tarkastelemalla havaittiin kuitenkin nopeasti, ettei kyse ollut tieteellisen kirjoittamisen sääntöjen rikkomisesta. Asian käynnistyminen ja eteneminen kurinpitomenettelyyn ahdisti syyttömäksi todettua opiskelijaa ja asetti tämän aiheettoman epäilyksen kohteeksi.
Tämän kaltaisten tilanteiden taustalla on usein puutteellinen ymmärrys siitä, mitä johtopäätöksiä tietyn työkalun tulosten perusteella voi tehdä ja miten erilaisten raja-arvojen täyttymistä tulkitaan. Digi- ja väestötietovirasto toteaakin ohjeissaan osuvasti; “Onko organisaatiolla selkeä käsitys siitä, miten tekoäly toimii ja miten sitä tulisi hallita? On tärkeää ymmärtää tekoälyn periaatteet ja etenkin sen toiminnan rajoitukset.” (Tekoälyn hyödyntäminen – huoneentaulut ja tarkistuslistat 2023).
Uusia kysymyksiä ja vanhoja oppeja
Tekoäly myös kehittyy ja se, mitä sillä milloinkin tarkoitetaan, elää ajan kuluessa. Harva ajattelee vaikkapa sähköpostin roskapostisuodatusta tekoälystä puhuessaan. Yhdysvaltalaisessa tutkimuksessa on kuitenkin havaittu, että eri toimijoiden roskapostisuodattimet voivat reagoida eri tavoin eri puolueiden vaalimainontaan. (Iqbal, Khan, Khan ja Shahzad 2022). Ilmiö on sinänsä roskapostisuodatusta laajempi ja “poliittisesti värittyneitä” algoritmeja on tutkittu myös mm. sosiaalisen median kontekstissa.
Paljon vanhempi roskapostisuodattamisen problematiikka liittyy kysymykseen siitä, kenen on vastuu, jos lähetetty viesti ei tule perille. Erityisesti viranomaisviestinnässä viranomaisella on vastuuta pohtia, milloin viesti on luonteeltaan sellainen, että sen vastaanottaminen tulee erikseen varmistaa. Käräjäoikeuden sähköpostipalvelimen toiminnan ja roskapostiluokittelun seurauksia on arvioitu korkeimmassa oikeudessa (KKO 2011:63) asti.
Vanhoja esimerkkejä ja oppeja tietojärjestelmien ja automatiikan käytöstä kannattaa hyödyntää, kun varautuu nykyaikaisen tekoälyn käyttöön. Ne auttavat sanoittamaan ongelmia, joita tietojärjestelmien käyttöön aiemmin on liittynyt ja jotka jossain muodossa voivat tulla esiin myös kehittyneiden tekoälytyökalujen kanssa. Samalla on kuitenkin hyvä muistaa, että järjestelmät ja niiden ominaisuudet muuttuvat ja nämä muutokset voivat nostaa esiin kokonaan uusia kysymyksiä.
Sovi tapaaminen asiantuntijan kanssa: varaa aika