Hyppää pääsisältöön

Tekoälyn käyttäminen edellyttää myös eettistä pohdintaa

Laura Juntunen

Vapaa toimittaja,

sisällöntuottaja (freelance)

Kuvaus

Nusufevon Botti-webinaarissa keskusteltiin myös tekoälyn etiikasta. Tekoäly tarjoaa uusia mahdollisuuksia, mutta millaisia kysymyksiä chatbottien kehittäjien kannattaisi ottaa huomioon? 

Sisältö

Nusufevon eli nuorille suunnatun verkkotyön foorumin 17. helmikuuta järjestämässä Botti-webinaarissa käsiteltiin chatbottien tarjoamia mahdollisuuksia kohtaavan nuorisotyön näkökulmista. Alustuksissa ja keskusteluissa oli mukana useita asiantuntijoita, alan toimijoita sekä Nusuvefo-verkoston jäseniä.

Webinaarin ensimmäinen osio oli omistettu vastuullisuuden ja etiikan kysymyksille. GoForen dataan ja analytiikkaan erikoistunut johdon konsultti Pasi Lehtimäki tarkasteli puheenvuorossaan sitä, miten tekoälyä voidaan hyödyntää eettisesti.

Ymmärtääkö ihminen tekoälyä – ja onko se tarpeellista?

Lehtimäki kertoi, että vaikka itse tekoäly ei ole uusi keksintö, viimeisen kymmenen vuoden aikana on ryhdytty puhumaan jo jonkinlaisesta tekoälybuumista. 

Muutos on ollut niin nopea, ettemme välttämättä aina oikein tiedä, kuinka suhtautua älykkääseen teknologiaan. Perinteinen kahtiajako ihmisiin, eläimiin ja tavaroihin ei enää toimi. Esimerkiksi automaatti-imurit ja Spot-robottikoirat haastavat perinteiset jaottelut. 

Käyttäjän näkökulmasta chatbotit voivat muodostaa hieman samanlaisen tilanteen. Botti-webinaarissa nousi esille ajatuksia siitä, että myös chatbottien kehittäjien olisikin hyvä pohtia, miten käyttäjälle tehdään alusta alkaen selväksi, että chatissa hänelle vastaa robotti, eikä ihminen. Entä tietääkö chatbotin käyttäjä, kuinka toimia ongelmatilanteissa? 

Tekoälybuumin keskelläkin on tarpeen tiedostaa, etteivät kaikki yhteiskunnan jäsenet ole samalla viivalla suhteessa teknologiaan ja sen kehitykseen. Nopean kehityksen mukana voi olla vaikea pysyä. Osalla ihmisistä voi olla myös vääriä mielikuvia siitä, mitä tekoäly on ja miten siihen tulisi suhtautua.

Käyttäjien erilaisten lähtökohtien huomioimisen ohella yksi yleisimpiä kysymyksiä tekoälyn käyttämisen etiikkaan liittyen on se, miten voidaan varmistaa, että tekoäly kohtelee kaikkia samalla tavalla. Voiko tekoälystä tulla syrjivää? 

Kyllä voi, Lehtimäki totesi. Esimerkiksi Microsoftin Tay-chatbotin oli tarkoitus keskustella ihmisten kanssa Twitterissä ja muualla sosiaalisessa mediassa. Tay jouduttiin kuitenkin nopeasti poistamaan käytöstä, kun se oppikin lausumaan rasistisia, seksistisiä ja muita loukkaavia kommentteja.

Ihmisten asenteet voivat siirtyä käytettävän materiaalin kautta tekoälyyn jo sen kehitysvaiheen aikana. Syrjivä lopputulos voidaan välttää, kun kehittäjät kiinnittävät alusta lähtien huomiota omaan toimintaansa ja siihen, millaista dataa tekoälyn opetusmateriaaliin valikoidaan.

Tarvitseeko meidän ymmärtää kaikkea?

Etiikan kannalta yksi keskeisin vaatimus koskee tekoälyn mallin kehittämisen prosessia. Miten pidetään huolta siitä, ettei tekoälyyn tule ei-toivottuja ominaisuuksia? 

Läpinäkyvyys on tasapainoilua, sillä tekoälyn kaikkea toimintaa ei voida julkisesti avata. Esimerkiksi käyttäjien henkilötiedot tai yrityksen toiminnan kannalta kriittiset tiedot eivät voi olla kenen tahansa tarkasteltavana.

Toisaalta tekoälyä ei ole edes mielekästä kehittää suuntaan, jossa sen toiminta on aina täydellisesti selitettävissä ihmisille. Tällöin voidaan päätyä tilanteeseen, jossa tekoälyllä ratkotaan vain helppoja ja yksinkertaisia ongelmia. 

Jos kaikki on selitettävissä, todennäköisesti kyseessä on ongelma, jonka ihminen olisi voinut ratkaista itse jo kymmeniä vuosia aiemmin. Mihin sitten enää tarvitaan tekoälyä? Voi siis olla, että tekoälyn paras potentiaali saadaan käyttöön sovelluksissa ja ongelmanratkaisuissa, joita ihminen ei kykene sanallistamaan.

Kaiken takana on ihminen

Myös profilointiin, tietojen keräämiseen ja niiden käyttötarkoituksiin liittyy omat eettiset ongelmansa. Kyetessään tunnistamaan ja ennustamaan ihmisen liikkumista, toimintaa tai esimerkiksi kulutustottumuksia tekoäly voi tarjota mahdollisuuden ihmisten ohjailuun, käsittelyyn ja jopa manipulointiin. 

Lehtimäki totesi puheenvuorossaan kaipaavansa keskustelua siitä, mitä dataa teknologian käyttäjistä kerätään ja mitä sillä tehdään. Mikä on oikein? 

Yksilön voi olla haastavaa hahmottaa, mitä suurissa yrityksissä ja organisaatioissa tapahtuu, ja mihin kerättyä dataa käytetään. Asiaa kannattaa kuitenkin pohtia niin käyttäjän kuin palveluiden kehittäjänkin näkökulmasta. Ottaessaan käyttöön uutta teknologiaa, sovelluksia ja sivustoja moni luovuttaa käyttöoikeuden omiin tietoihinsa enempiä ajattelematta.

Tekoälyyn ja sen käyttöön liittyy siis paikoin vaikeitakin eettisiä kysymyksiä, joita myös chatbottien kehittäjien tulisi ajatella. Tekoälyä ei kannata kuitenkaan pelätä. Lehtimäki muistuttikin, ettei tekoäly tee mitään, mitä sen algoritmin suunnittelija ja opettaja ei ole siltä pyytänyt. 

Teknologia, kuin myös sen käyttöön liittyvät eettiset kysymykset, ovat ihmisten omissa käsissä. 
 

Teksti: Laura Juntunen
Kuvituskuvat: Linda Saukko-Rauta, Redanredan

Jaa artikkeli

Tilaa uutiskirjeitämme

Pysy ajan tasalla Koordinaatin kuulumisista, tapahtumista, koulutuksista sekä hankkeista.

Tilaa uutiskirje!