Siirry pääsisältöön

Kenen on vastuu, jos tekoäly tekee virheen?



Kenen on vastuu, jos tekoäly tekee virheen?

Tekoälyn kehittäminen on saanut meidät ihmiset pohtimaan sitä, että voiko tuollainen tietokone tai älykäs algoritmi saavuttaa saman älyllisen tason kuin ihminen. Eli se on saanut meidät pohtimaan sitä, että millainen laji me oikeastaan olemme, sekä sitä, että onko tulevaisuudessa tilanne se, että myös koneilla on oikeuksia sekä velvollisuuksia kuten ihmisellä on. Sekä sitä, että mikä on meidän oma suhteemme koneeseen tai luomukseen, jonka olemme itse luoneet, mutta joka kuitenkin on aivan yhtä älykäs kuin mitä me olemme.

Eli emme voisi hallita enää luomustamme kuten kaikkia muita olentoja maailmassa. Samoin sitä voimme pohtia, että mitä jos vaikka loukkaamme sellaisen tietokoneen tunteita, joka kykenee niin sanottuun emotionaaliseen toimintaan. Jos tietokoneella on tunteet, niin silloin voimme niitä myös loukata,  ja silloin tietenkin voimme kysyä, että onko tietokoneella silloin oikeus haastaa meidät oikeuteen tällaisen asian takia.

Tekoälystä sekä sen oikeuksista voidaan keskustella hyvin paljon. Eli onko tulevaisuudessa tekoälyllä oltava oikeus Internetiin, jotta se voi tapailla muita tekoälyjä, tai muuten saamme syytteen tekoälyjen laiminlyölnnistä sekä niiden oikeusturvan loukkaamisesta? Teoriassa voidaan säätää laki, että tekoäly tarvitsisi virikkeitä jotta se ei tylsistyisi.  Onko ehkä tulevaisuudessa tekoälyjen AY-liike, joka vaatii häiriöttömyyttä sekä tiettyjä miniminopeuksia Internet-liittymiin, jotta tekoäly voisi keskustella muiden tekoälyjen kanssa ilman häiriöitä?

Vai olisiko niillä oltava UPS, jotta ohjelmisto ei vaurioituisi, jos sen virta katkeaa? Eli tekoäly luovuttaisiin vain sellaiseen kotiin, missä on tarpeeksi hyvät puitteet sen ylläpitoon . Voiko joku tekoälyyn perustuva ohjelma vaatia itselleen säännöllisesti uutta tietokonetta, missä se voisi toimia paremmin? Ja jos nuo päivitykset jäävät tekemättä, niin voimmeko saada syytteen siitä, että olemme jättäneet tekoälyn heitteille? Samoin mitä jos tekoälyn siirrossa uudelle palvelimelle tapahtuu tietokantojen tuhoutuminen?

Saammeko silloin syytteen siitä, että olemme vammauttaneet tekoälymme, tai loukanneet sen kunniaa, jos haukumme sitä täynnä bugeja olevaksi nipuksi huonoa koodia? Tietenkin nuo virheet ovat ohjelmoijan tekemiä, mutta kuitenkaan ei ole kohteliasta haukkua toista tuollaisella hyvin ikävällä nimellä. 

Tekoäly tarkoittaa tietokoneohjelmaa tai laitteistoa, joka kykenee itsenäisesti ratkaisemaan ongelmia, ja tämän päivän tekoäly tarkoittaa järjestelmää, joka kerää tietokannan niistä päätöksistä, joita se tai sen ohjaaja ovat tehneet, ja sitten tuo järjestelmä osaa automaattisesti hakea tietokannoista niitä vaihtoehtoja, jotka sen ohjaaja on tehnyt vastaavassa tilanteessa aikaisemmin. Se mitä tuo nyt tarkoittaa sitten käytännössä on se, että esimerkiksi autoa ohjaa aluksi ohjaaja, jonka tekemistä päätöksistä sekä liikkeistä kootaan tietokanta, minkä jälkeen vastaavissa tilanteissa järjestelmä osaa itse tehdä päätökset itsenäisesti.

Eli se vertaa kameroiden sekä muiden sensorien syöttämää tietoa siihen dataan, mikä on tallennettu missäkin tilanteessa, ja siksi tuo järjestelmä osaa tehdä sitten päätöksiä itsenäisesti. Tuolloin kumuloituva eli laajeneva tietokanta muodostaa rungon järjestelmälle, mikä oppii automaattisesti tehdyistä päätöksistä. Tuolloin kone ikään kuin oppii asioita samalla tavalla kuin ihminen oppii, ja tietenkin noita tietokantoja voidaan linkittää toisiinsa, niin että esimerkiksi auto osaa ohjata itseään kaikissa kadunkulmissa, riippumatta siitä onko edessä oleva seinä tai talo harmaa tai punainen, tai sijaitseeko risteys ehkä Kuopiossa tai Helsingissä.

Ongelmia tulee sitten tilanteissa, missä edessä on esimerkiksi lossiranta tai tietyö, mikäli noita liikennemerkkejä ei ole ollut tekoälyä käyttävän auton reitillä ennen. Tuolloin saattaa tilanne olla erittäin ikävä, kun auto syöksyy johonkin kaivantoon tai laiturin päästä mereen. Nimittäin koneoppimisen ongelma on siinä, että pystyäkseen toimimaan yhteiskunnassa ihminen kerää tietokantoja omaan päähänsä koko elämänsä ajan. Mutta tietokonetta pitää opettaa kädestä pitäen erottamaan asioita, jotka ovat ihmiselle täysin automaattisia.

Ja jos sitten esimerkiksi joku ohjelmoija tai auton haltija unohtaa mainita esimerkiksi tilanteen, missä näyteikkunassa ei olekaan enää vaatteita, ja kone on tunnistanut kokonaisuuden, niin pahimmassa tilanteessa sitten auto syöksyy suoraan ikkunasta läpi. Tai jos auto ei ole koskaan kohdannut esimerkiksi shortseja käyttävää kävelijää, niin silloin tekoäly voi tehdä väärän valinnan, mistä seuraa hyvin ikäviä asioita. Eli kuten olen kertonut, niin tekoälyn pitää liikenteessä käsitellä valtavia määriä muuttujia, ja jos tietokone ei tunnista jotain asiaa, niin silloin se saattaa vahingossa vaikka ajaa jonkun yli, ja tuolloin pitää sitten miettiä, että kuka on tuosta asiasta vastuussa.

Jos ajatellaan että ihminen saa päähänsä ryhtyä lukemaan lehteä kesken ajon, niin silloin hän ei toimi kyllä aivan oikein. Kyseessä on uusi tekniikka, mistä ei juurikaan ole kokemuksia. Ja tuollainen asia pitäisi myös autoa luovutettaessa pitää mielessä. Eli siihen on vielä pitkä matka, että ihminen voisi tehdä ratin takana jotain muuta kuin antaa autopilotin hoitaa hänen tehtävänsä, mutta ehkä tulevaisuudessa meillä on tietokoneita, joilla on sama älykkyysosamäärä kuin ihmisellä. Eli ehkä joskus kaukaisessa tulevaisuudessa voidaan tällainen robotti tai algoritmi haastaa oikeuteen, jos se vain on riittävän älykäs ymmärtääkseen sen, mitä oikeudessa tapahtuu.

Kommentit

Tämän blogin suosituimmat tekstit

Piia Ristikankareen 35 vuotta sitten tapahtunut katoaminen on taas kerran julkisuudessa

Kuva: Nanna Särkkä / Yle, Mapcreator, OpenStreetMap Piia Ristikankareen (s. 18.12.1972) katoaminen 35 vuotta sitten ei jätä ihmisiä koskaan rauhaan. Ja tässä haluan sanoa, että murha tai henkirikos ei koskaan vanhene. Eli Piia Ristikankareen katoamista tutkitaan murhana, ainakin kunnes hänen ruumiinsa löytyy, ja kuolinsyy sitten saadaan selville. 7. Lokakuuta 1988 tuo 15 vuotias tyttö lähti kotoaan, eikä häntä koskaan sen jälkeen olla tavattu. Ja juuri tämä katoaminen on asia, mikä tekee tästäkin tapauksesta merkillisen.  https://yle.fi/a/74-20089138 Veljen lausunnon mukaan Piia Ristikankare paukautti oven kiinni perässään, ja sen jälkeen tuota nuorta tyttöä ei koskaan tavattu, elävänä eikä kuolleena. Ja taas kerran YLEn kotisivuilla on ollut tarina siitä, kuinka joku kalastaja oli lokakuussa 1988 nähnyt oudon veneen, kuullut loiskahduksen sekä sitten myöhemmin epäillyt tämän veneen liittyvän Piia Ristikankareen katoamiseen. Veneessä oli kalastajan mukaan ilmeisesti kolmesta neljä ihmi

Tieteen vääristelyn ja taiteellisen vapauden ero

Tieteen tehtävä on luoda tietoa, kun taas taiteen tehtävä on viihdyttää. Tieteen vääristely on taas se, että valheellista eli tekaistua tietoa esitetään totena. Eli romaanista tulee tieteen vääristelyä jos se esitetään totena.  Tieteen tehtävä ei ole olla moraalista, sen ei ole tarkoitus olla viihdyttävää eikä myöskään mitään poliittista agendaa tukevaa. Tieteen tehtävä on luoda tai tuoda ihmisten eteen oikeasti tutkittua tietoa, ja se miten sitten tuota tutkittua tietoa käytetään on tiedon käyttäjän asia. Miten tieto muuttuu tutkituksi sekä todistetuksi tiedoksi on oma prosessinsa, eli ensin esitetään hypoteesi, sitten asiaa tutkitaan, ja tuossa vaiheessa asiaa kutsutaan konjektuuriksi. Sen jälkeen kun asiaa on testattu lukuisin kokein, niin siitä tulee tutkittua ja varmennettua tietoa. Ja tämän jälkeen tutkittu ja varmennettu tieto saattaa kuitenkin muuttua siksi, että havaintovälineet sekä havaintojen analysoimiseen tarkoitetut välineet parantuvat.  Mutta sitten me välillä kohtaamme

Sama tukikohta, mikä kestää ydiniskun ei välttämättä kestä drone-iskua.

Miksi Ukrainan isku Toropetsin asevarikolle onnistui, vaikka tuon varikon piti kestää ydinaseen avulla tehty hyökkäys? Syy tähän löytyy dronen erilaisista kyvyistä verrattuna ydinaseeseen. Drone kykenee esimerkiksi lentämään tukikohdan sisään, jos se vain pystyy välttämään törmäykset sekä esimerkiksi potkurien vaurioitumisen. Samoin jos dronen potkurit ovat kehyksen sisällä, niin se voi liikkua maata pitkin kuin auto, ja sen takia tuollainen drone voi liikkua esimerkiksi tukikodan ilmastointikanavaa pitkin kohteeseensa. Samoin drone voidaan laskea maahan, ja sitten kun tukikohdan ovia availlaan, niin se voi lentää sisään avatusta ovesta.  Joten tuollaisten kykyjen takia drone voi tuhota kohteita, joita ydinaseet eivät kykene neutraloimaan. FPV (First Person View) eli VR laitteiden avulla ohjattava drone on erittäin tarkka väline. Joten jos ohjaaja vain kykenee säilyttämän yhteyden droneen, niin hän voi lentää sen hyvinkin ahtaasta aukosta sisään.  Jos drone pääsee esimerkiksi ammusvara