VÄÄRIN TEHTY TEKOÄLYÄ KOSKEVA SIMULAATIO VOI VAARANTAA IHMISHENKIÄ
Kimmo Huosionmaa B.Sc.,BBA
VÄÄRIN TEHTY TEKOÄLYÄ KOSKEVA SIMULAATIO VOI VAARANTAA IHMISHENKIÄ
Kimmo Huosionmaa B.Sc.,BBA
https://sites.google.com/view/kimmonlinkit/etusivu
Tutkimusten mukaan mitä älykkäämpi tekoäly on, sitä aggressiivisemmin se käyttäytyy muita olioita kohtaan, ja siksi meidän pitää tarkoin miettiä, mitä ominaisuuksia annamme tuollaiselle robotille. Eli onko sillä tarttumaraajat tai millainen virransyöttö sillä on, ovat asioita, joista pitää keskustella. Samoin siitä, että jos teemme robotista spontaanisti oppivan, niin silloin saattaa eteen tulla tilanne, että se alkaa ikään kuin ottaa oppia televisiosta, jos satumme jättämään vastaanottimen auki lähtiessämme huoneesta, ja tuollainen kone ei todellakaan ymmärrä TV:n ja todellisen elämän eroa.
Näet jos tuollainen robotti villiintyy laboratoriossa, niin silloin voi ihmishenkiä vaarantua. Jos robotista tehdään liian täydellinen, niin silloin tietenkin saattaa eteen tulla tilanne, missä tuo väline sitten lakkaa välittämästä ohjaajiensa komennoista, tai sitten se alkaa muuttua vaaralliseksi.
Näet jos tuollainen robotti sitten alkaa kapinoida, niin silloin sen toiminta pitää voida pysäyttää helposti, Ja robotti voi sitten kapinoida monista syistä, ja yksi vaarallisimpia välineitä, mitä voidaan ajatella ovat ne ohjelmistot, millä robotteja komennetaan puheen avulla. Jos noiden robottien tietokannoissa ei ole jotain sanaa valmiiksi, niin silloin ne joko kytkeytyvät internetiin, ja etsivät tuon komentosanan merkityksen tai sitten nuo koneet ikään kuin jumiutuvat. Mutta vaara tässä sitten on sellainen,että niiden koneiden lähellä puhutaan asioista,mitä ei pidä mainita.
Kun keskustellaan robottien käskyttämisestä puheen avulla, niin silloin yksikin harkitsematon sana voi saada aikaan sen, että robotti muuttuu vaaralliseksi. Kun puhutaan robottien toiminnasta ohjelmistojen kannalta, niin tietenkin niissä pitää olla sellainen mahdollisuus,että nuo koneet hakevat Internetistä tuon puuttuvan sanan merkityksen, tai sitten ilmoittavat ohjelmallisesti, että tuota sanaa ei ole koneen tietokannassa.
Ja tuolloin koneen käskyttäminen olisi varmasti melko hankalaa. Mutta toisaalta robotti pitää tehdä turvalliseksi, ja jos joku puhuu harkitsemattomasti tietokoneen lähellä, niin silloin robotti voi lähteä esimerkiksi tekemään asioita, mitä sen ei pitäisi tehdä. Ja jos aiotaan rakentaa robotteja, jotka ymmärtävät puhetta, niin silloin pitää muistaa, että niissä on väärinkäytön mahdollisuus, Tuolloin joku rikollinen voi käskeä robotteja eliminoimaan tovereitaan.
Mutta vielä pahempi tilanne syntyy silloin, jos ohjelmoija luo vahingossa robotin, jolla on itsesäilytysvaisto, Se sitten voi saada aikaan sellaisen asian, että tuo robotti muuttuu vaaralliseksi, jos siitä yritetään irrottaa esimerkiksi virtalähteestään. Jos tuollaisella erittäin kovalla rungolla varustetun robotin mieleen tulee ryhtyä suojelemaan itseään, niin silloin voi jollekin tulla itku.
Sama koskee myös tilannetta, missä esimerkiksi F-16 hävittäjän ilmataistelurobotti yllättäen kadottaa signaalit, joilla se tunnistaa vihollisen, ja alkaa sitten hyökkäillä muiden koneiden kimppuun vaikka keskellä sotaharjoitusta. Tuolloin voi syntyä esimerkiksi tilanne, missä tuollainen hävittäjä sitten hyökkää valkoiseen taloon tai jonkun matkustajakoneen kimppuun.
http://m.mtv.fi/lifestyle/digi/artikkeli/googlen-liian-alykas-tekoaly-kaantyi-ihmista-vastaan-alkoi-kayttaytya-aggressiivisesti/6343270