Tekoäly tulee – tunnistammeko eettiset riskit?
Tekoälyyn kohdistuu paljon odotuksia ja lupauksia. Algoritmeilla on tärkeä rooli Suomen talousstrategiassa, vihreässä siirtymässä, terveydenhuollon tai poliisin työn kehittämisessä. Chicagon yliopiston uutisoitiin pari vuotta sitten kehittäneen algoritmin, joka ennustaa tulevia rikoksia viikko etukäteen jopa 90 prosentin tarkkuudella. Erään toisen raportin mukaan kaupungit voivat vähentää tekoälyä soveltavien älykkäiden teknologioiden avulla rikosten määrää yli 30 prosentilla.
Tekoälyyn kohdistuvat odotukset liittyvät paljolti sen kykyyn käsitellä nopeasti valtavia määriä informaatiota. Algoritmit voivat näin tehostaa tiedon hankintaa ja analysointia, ja tuottaa tämän pohjalta tilastollisia ennusteita, kuten Chicagon yliopiston esimerkissä. Generatiivisen tekoälyn avulla voidaan luoda myös uusia sisältöjä, kuten tekstiä, kuvia tai synteettistä dataa tutkimuskäyttöön. Käyttökohteita löytyy lähes kaikkialta, missä tietoa käsitellään. Tekoälyä voidaan käyttää lääketieteellisten diagnoosien apuna, lääkkeiden ja hoitomuotojen kehittämisessä. Tekoälyn avulla voidaan kehittää luonnollisten kielten malleja, joita kieli- ja kirjallisuustieteilijät voivat käyttää tutkimuksessaan. Tekoäly on myös tehokas apu kuvantamisessa, kuvien tulkinnassa ja analysoinnissa – oli kyse sitten satelliittikuvista tai rikollisten kasvojentunnistuksesta.
Suurten odotusten kääntöpuolena ovat kuitenkin suurten tietoaineistojen ja algoritmien käyttöön liittyvät riskit ja eettiset haasteet.
Suurten odotusten kääntöpuolena ovat kuitenkin suurten tietoaineistojen ja algoritmien käyttöön liittyvät riskit ja eettiset haasteet. Chicagon yliopiston algoritmilleen lupaama 90 prosentin tarkkuus kuulostaa lupaavalta, mutta jättää helposti varjoonsa sen, että monissa tapauksissa 10 prosentinkin erehtymisriski on liian suuri. Tämän sai kokea esimerkiksi detroitilainen Robert Williams, joka pidätettiin epäiltynä varkaudesta, koska paikallisen poliisin käyttämä tekoälyä soveltava kasvontunnistusohjelma oli liittänyt hänet virheellisesti varkauteen. Mustaihoisen Williamsin virheellisen tunnistuksen taustalla oli osittain se, että tunnistusohjelma oli koulutettu käyttäen pääosin valkoihoisten kasvoja.
Garbage in, garbage out?
Tekoälyn sanotaan usein olevan yhtä luotettava kuin sen käyttämä informaatio on. Jos algoritmin käytössä on – tai se on koulutettu käyttäen – vinoutunutta tai epäluotettavaa dataa, on lopputuloskin vinoutunutta ja epäluotettavaa. Tämän Robert Williams sai ikävällä tavalla kokea. Toisaalta myös itse algoritmien tapa käsitellä dataa voi olla vinoutunutta, tahallisesti tai tahattomasti. Tekoälysovellutuksiin on ohjelmoitava paljon erilaisia parametreja, joiden perusteella sovellutukset käsittelevät dataa. Usein ohjelmoijien tekemät valinnat eivät ole läpinäkyviä, vaikka niillä voi olla merkittävä vaikutus sovellutuksen lopputuloksiin. Terveydenhuollossa tämä voi johtaa esimerkiksi tiettyjen väestöryhmien terveysriskien liialliseen korostumiseen tai niiden aliarvioimiseen.
Tekoälysovellutusten läpinäkyvyyden ja ymmärrettävyyden parantamista korostetaankin usein, jotta tekoälyn käyttäjät ja kohteena olevat voivat arvioida tekoälyn tekemien valintojen merkitystä ja seurauksia. Tavoite näkyy myös Euroopan unionin tuoreessa tekoälylakiehdotuksessa.
Ihminen on aina lopulta vastuussa
EU:n lakiehdotus on osoitus siitä, että vähitellen tekoälyn käyttöön liittyviin haasteisiin on herätty myös lainsäädännössä. Useat tahot, kuten Euroopan komissio tai Unesco, ovat myös laatineet tekoälyn käytön eettisiä periaatteita. Suomen tekoälykeskus kokoaa yhteen tekoälyyn liittyvää tutkimusta teollisuuden ja julkisen sektorin kanssa ja etsii vastauksia tekoälyyn liittyviin haasteisiin.
Läpinäkyvyyden lisäksi tekoälyn eettiset periaatteet korostavat ihmisoikeuksien ja ihmisarvon kunnioittamista, ihmisten ja luonnon hyvinvoinnin turvaamista sekä tekoälyn hyötyjen ja käytön oikeudenmukaista jakautumista. Tärkeitä eettisiä lähtökohtia ovat myös ihmisten vastuunkanto ja vahingollisten seurausten estäminen.
Perustavimmillaan ihmisoikeuksiin liittyy ihmisen autonomisen toimijuuden turvaaminen. Tekoälyn käytön ei tulisi johtaa ihmisten alistamiseen, manipulointiin ja harhauttamiseen. Tekoälyn käyttö ei myöskään saisi lisätä tiedon- ja vallankäytön epätasapainoa esimerkiksi työnantajien ja työntekijöiden, yritysten ja kuluttajien välillä – tai kuten Robin Williamsin tapaus raadollisesti osoittaa: valtiota edustavan poliisin ja mustan vähemmistön välillä.
Tekoälyn käytön tulisi päinvastoin toteuttaa ja kunnioittaa ihmisten tekemiä päätöksiä. Ihmisen toimijuutta korostavassa lähestymistavassa tekoäly säilyy aina ihmisen työkaluna. Riippumatta siitä kuinka sofistikoituneeksi tekoäly voi kehittyä, siitä ei koskaan voi tulla ihmisen työkaveria ja kollegaa. Keskeisenä syynä tälle pidetään usein sitä, ettei tekoälyä voi pitää aidosti autonomisena toimijana. Kehittyneimmänkin tekoälyn tekemät valinnat ovat lopulta aina sille ohjelmoituja. Tästä syystä tekoäly ei myöskään voi kantaa vastuuta valinnoistaan, vaan vastuussa ovat aina tekoälyn käyttäjät tai sovellutuksen suunnittelijat.
Vahingon sattuessa vastuullisten löytäminen voi kuitenkin osoittautua vaikeaksi. Jos lääkäri perustaa virheellisen diagnoosinsa luotettavana pidettyyn tekoälyavusteiseen sovellutukseen, jonka käyttämästä datasta hänellä ei voi olla tietoa, häntä on vaikea panna yksin vastuuseen virheestä. Toisaalta voi olla vaikea jälkeenpäin osoittaa kuka on vastuussa käytetyn datan tai algoritmin puutteista, jotka johtavat virheelliseen diagnoosiin. Monimutkaisissa sovellutuksissa kehittäminen ja hallinnointi hajautuu laajasti eri toimijoille, mikä tekee vastuun jakamisesta vaikeaa.
Riskien tunnistamisen vaikeus
Tekoälyn kyky käsitellä valtavia datakokonaisuuksia hämärtää myös helposti sen, millaisia vahingollisten seurausten riskejä teknologiaan liittyy. Henkilötietoihin kohdistuvat tietoturvariskit on otettava vakavasti huomioon kaikessa tietojenkäsittelyssä. Yhtäältä tekoäly voikin auttaa henkilötietojen ja yksityisyyden suojelussa. Sen avulla voidaan luoda keinotekoisesti niin kutsuttua synteettistä dataa, joka ominaisuuksiltaan vastaa aitoa tutkimusaineistoa mutta ei sisällä kenenkään yksityisiä henkilötietoja. Näin aineiston pohjalta voisi tehdä luotettavia tilastollisia johtopäätöksiä, esimerkiksi koronatautiin liittyen, ilman että alkuperäiseen tutkimukseen osallistuneiden yksityisyys vaarantuisi.
Toisaalta tekoälyn mahdollistama suurien datakokonaisuuksien yhdistäminen tekee yksityisyyden suojelusta entistä vaikeampaa. Eräässä tutkimuksessa tutkijat arvioivat, että tekoälyn avulla lähes kaikki Yhdysvaltain kansalaiset pystytään identifioimaan uudelleen anonyymejä julkisia aineistoja yhdistämällä.
Erityistä huomiota tulisi kiinnittää siihen, mitä seurauksia tekoälyn käytöstä koituu yhteiskunnan haavoittuville jäsenille, kuten lapsille tai vähemmistöille.
Erityistä huomiota tulisi kiinnittää siihen, mitä seurauksia tekoälyn käytöstä koituu yhteiskunnan haavoittuville jäsenille, kuten lapsille tai vähemmistöille. Mutta mitä enemmän vähemmistöille ominaiset tiedot poikkeavat valtaväestöstä, sitä vaikeampaa heidän suojelunsa on suurissakaan aineistoissa. Heidän erityispiirteidensä ”kätkeminen” osaksi keinotekoisesti luotua aineistoa voi olla mahdotonta. Toisaalta mikäli heidät tästä syystä jätetään pois aineistosta, tulee luodusta aineistosta aliedustettu heidän osaltaan.
Uusia alakohtaisia eettisiä ohjeita tarvitaan
Yleisten eettisten periaatteiden ja uuden lainsäädännön, kuten EU:n tekoälylain, lisäksi eettisten haasteiden ja riskien hallinta vaatii uusia ohjeistuksia ja toimintatapoja tekoälyä käyttävissä organisaatioissa. Vastuunkannon periaate korostaa myös jokaisen tekoälykäyttäjän omaa vastuuta tiedostaa teknologiaan liittyvät haasteet ja riskit.
Yliopistot ja tutkimusorganisaatiot laativat esimerkiksi ohjeistuksia tekoälyn käytölle opetuksessa ja tutkimuksessa. Laajojen generatiivisten kielimallien, kuten ChatGPT:n, avulla opiskelijat ja tutkijat voivat ideoida töitään, kääntää tai parantaa tekstejään. Opiskelijalla tai tutkijalla on kuitenkin aina vastuu tarkistaa, että mallien tuottamien tekstien sisältö pitää paikkansa.
Tekoälyn vuoksi myös tutkimuksen eettistä arviointia voi olla syytä kehittää. Nykyisellään vaatimuksia tutkittavien informoinnista, tietosuojan kunnioittamisesta ja riskien huomioimisesta arvioidaan tutkimusten eettisessä ennakkoarvioinnissa. Osa tekoälyä soveltavista tutkimuksista ei kuitenkaan vaadi nykyisten sääntöjen mukaan ennakkoarviointia, jolloin potentiaaliset riskit voivat jäädä vaille laajempaa arviota. Toisaalta silloinkin, kun tekoälyä soveltava tutkimus päätyy arvioitavaksi, voivat sovellutuksen eettiset riskit olla vaikeita tunnistaa ilman ohjelmointiin ja tietojenkäsittelyyn liittyvää asiantuntemusta. Samat ongelmat koskevat tekoälypohjaisten sovellutusten arviointia myös laajemmin, esimerkiksi julkisessa hallinnossa.
Tekoälyn tutkimuskäytön arviointityötä helpottamaan Tutkimuseettinen neuvottelukunta on tulevan vuoden aikana laatimassa uutta ohjeistusta yhteistyössä tutkijoiden kanssa. Tekoälyn etiikkaan keskitytään myös tieteen ja tutkimuksen Etiikan päivänä lokakuussa.
Simo Kyllönen
Kirjoittaja on yliopistonlehtori Helsingin yliopistossa ja hänen erikoisalojaan ovat tutkimusetiikka ja avoin tiede.
Kuva: Pixabay