Kenen on vastuu, jos tekoäly tekee virheen?
Tekoälyn kehittäminen on saanut meidät ihmiset pohtimaan sitä, että voiko tuollainen tietokone tai älykäs algoritmi saavuttaa saman älyllisen tason kuin ihminen. Eli se on saanut meidät pohtimaan sitä, että millainen laji me oikeastaan olemme, sekä sitä, että onko tulevaisuudessa tilanne se, että myös koneilla on oikeuksia sekä velvollisuuksia kuten ihmisellä on. Sekä sitä, että mikä on meidän oma suhteemme koneeseen tai luomukseen, jonka olemme itse luoneet, mutta joka kuitenkin on aivan yhtä älykäs kuin mitä me olemme.
Eli emme voisi hallita enää luomustamme kuten kaikkia muita olentoja maailmassa. Samoin sitä voimme pohtia, että mitä jos vaikka loukkaamme sellaisen tietokoneen tunteita, joka kykenee niin sanottuun emotionaaliseen toimintaan. Jos tietokoneella on tunteet, niin silloin voimme niitä myös loukata, ja silloin tietenkin voimme kysyä, että onko tietokoneella silloin oikeus haastaa meidät oikeuteen tällaisen asian takia.
Tekoälystä sekä sen oikeuksista voidaan keskustella hyvin paljon. Eli onko tulevaisuudessa tekoälyllä oltava oikeus Internetiin, jotta se voi tapailla muita tekoälyjä, tai muuten saamme syytteen tekoälyjen laiminlyölnnistä sekä niiden oikeusturvan loukkaamisesta? Teoriassa voidaan säätää laki, että tekoäly tarvitsisi virikkeitä jotta se ei tylsistyisi. Onko ehkä tulevaisuudessa tekoälyjen AY-liike, joka vaatii häiriöttömyyttä sekä tiettyjä miniminopeuksia Internet-liittymiin, jotta tekoäly voisi keskustella muiden tekoälyjen kanssa ilman häiriöitä?
Vai olisiko niillä oltava UPS, jotta ohjelmisto ei vaurioituisi, jos sen virta katkeaa? Eli tekoäly luovuttaisiin vain sellaiseen kotiin, missä on tarpeeksi hyvät puitteet sen ylläpitoon . Voiko joku tekoälyyn perustuva ohjelma vaatia itselleen säännöllisesti uutta tietokonetta, missä se voisi toimia paremmin? Ja jos nuo päivitykset jäävät tekemättä, niin voimmeko saada syytteen siitä, että olemme jättäneet tekoälyn heitteille? Samoin mitä jos tekoälyn siirrossa uudelle palvelimelle tapahtuu tietokantojen tuhoutuminen?
Saammeko silloin syytteen siitä, että olemme vammauttaneet tekoälymme, tai loukanneet sen kunniaa, jos haukumme sitä täynnä bugeja olevaksi nipuksi huonoa koodia? Tietenkin nuo virheet ovat ohjelmoijan tekemiä, mutta kuitenkaan ei ole kohteliasta haukkua toista tuollaisella hyvin ikävällä nimellä.
Tekoäly tarkoittaa tietokoneohjelmaa tai laitteistoa, joka kykenee itsenäisesti ratkaisemaan ongelmia, ja tämän päivän tekoäly tarkoittaa järjestelmää, joka kerää tietokannan niistä päätöksistä, joita se tai sen ohjaaja ovat tehneet, ja sitten tuo järjestelmä osaa automaattisesti hakea tietokannoista niitä vaihtoehtoja, jotka sen ohjaaja on tehnyt vastaavassa tilanteessa aikaisemmin. Se mitä tuo nyt tarkoittaa sitten käytännössä on se, että esimerkiksi autoa ohjaa aluksi ohjaaja, jonka tekemistä päätöksistä sekä liikkeistä kootaan tietokanta, minkä jälkeen vastaavissa tilanteissa järjestelmä osaa itse tehdä päätökset itsenäisesti.
Eli se vertaa kameroiden sekä muiden sensorien syöttämää tietoa siihen dataan, mikä on tallennettu missäkin tilanteessa, ja siksi tuo järjestelmä osaa tehdä sitten päätöksiä itsenäisesti. Tuolloin kumuloituva eli laajeneva tietokanta muodostaa rungon järjestelmälle, mikä oppii automaattisesti tehdyistä päätöksistä. Tuolloin kone ikään kuin oppii asioita samalla tavalla kuin ihminen oppii, ja tietenkin noita tietokantoja voidaan linkittää toisiinsa, niin että esimerkiksi auto osaa ohjata itseään kaikissa kadunkulmissa, riippumatta siitä onko edessä oleva seinä tai talo harmaa tai punainen, tai sijaitseeko risteys ehkä Kuopiossa tai Helsingissä.
Ongelmia tulee sitten tilanteissa, missä edessä on esimerkiksi lossiranta tai tietyö, mikäli noita liikennemerkkejä ei ole ollut tekoälyä käyttävän auton reitillä ennen. Tuolloin saattaa tilanne olla erittäin ikävä, kun auto syöksyy johonkin kaivantoon tai laiturin päästä mereen. Nimittäin koneoppimisen ongelma on siinä, että pystyäkseen toimimaan yhteiskunnassa ihminen kerää tietokantoja omaan päähänsä koko elämänsä ajan. Mutta tietokonetta pitää opettaa kädestä pitäen erottamaan asioita, jotka ovat ihmiselle täysin automaattisia.
Ja jos sitten esimerkiksi joku ohjelmoija tai auton haltija unohtaa mainita esimerkiksi tilanteen, missä näyteikkunassa ei olekaan enää vaatteita, ja kone on tunnistanut kokonaisuuden, niin pahimmassa tilanteessa sitten auto syöksyy suoraan ikkunasta läpi. Tai jos auto ei ole koskaan kohdannut esimerkiksi shortseja käyttävää kävelijää, niin silloin tekoäly voi tehdä väärän valinnan, mistä seuraa hyvin ikäviä asioita. Eli kuten olen kertonut, niin tekoälyn pitää liikenteessä käsitellä valtavia määriä muuttujia, ja jos tietokone ei tunnista jotain asiaa, niin silloin se saattaa vahingossa vaikka ajaa jonkun yli, ja tuolloin pitää sitten miettiä, että kuka on tuosta asiasta vastuussa.
Jos ajatellaan että ihminen saa päähänsä ryhtyä lukemaan lehteä kesken ajon, niin silloin hän ei toimi kyllä aivan oikein. Kyseessä on uusi tekniikka, mistä ei juurikaan ole kokemuksia. Ja tuollainen asia pitäisi myös autoa luovutettaessa pitää mielessä. Eli siihen on vielä pitkä matka, että ihminen voisi tehdä ratin takana jotain muuta kuin antaa autopilotin hoitaa hänen tehtävänsä, mutta ehkä tulevaisuudessa meillä on tietokoneita, joilla on sama älykkyysosamäärä kuin ihmisellä. Eli ehkä joskus kaukaisessa tulevaisuudessa voidaan tällainen robotti tai algoritmi haastaa oikeuteen, jos se vain on riittävän älykäs ymmärtääkseen sen, mitä oikeudessa tapahtuu.
Kommentit
Lähetä kommentti