Ali lahko program AI postane 'psihopatski'?
Tako imenovani algoritem Norman ima zaradi Reddita temačen pogled na življenje

Normanu je bila prikazana serija 'groznih' slik
Z
Raziskovalci so ustvarili algoritem umetne inteligence (AI), za katerega trdijo, da je prvi psihopatski sistem te vrste.
Norman, program umetne inteligence, ki so ga razvili raziskovalci z Massachusetts Institute of Technology (MIT), je bil izpostavljen nič drugega kot grozljive slike umiranja ljudi, ki so bile zbrane iz temnih kotov klepetalnega foruma Reddit, poroča BBC .
To daje Norman, ime, ki izhaja iz trilerja Alfreda Hitchcocka Psiho , nekoliko črn pogled na življenje.
Potem ko so bili izpostavljeni slikam, so raziskovalci nahranili Normanove slike madežev črnila in prosili umetno inteligenco, naj jih razlaga, poroča televizijska postaja.
Kjer je običajni algoritem umetne inteligence razlagal madeže črnila kot podobo ptic, ki sedijo na drevesni veji, je Norman namesto tega videl moškega, ki ga je udaril električni udar, pravi The New York Post .
In kjer je standardni sistem umetne inteligence videl par, ki stoji drug poleg drugega, je Norman videl moškega, ki je skakal skozi okno.
Po navedbah Alphr Študija je bila zasnovana tako, da preuči, kako se vedenje sistema umetne inteligence spreminja glede na informacije, uporabljene za njegovo programiranje.
To je prepričljiva ideja, pravi spletna stran, in kaže, da je algoritem dober le toliko, kolikor so dobri ljudje in dejansko podatki, ki so ga naučili.
Razlaga študije, objavljena na Spletno mesto MIT pravi: Ko ljudje govorijo o tem, da so algoritmi umetne inteligence pristranski in nepošteni, krivec pogosto ni sam algoritem, temveč pristranski podatki, ki so mu bili posredovani.
Norman je trpel zaradi dolgotrajne izpostavljenosti najtemnejšim kotičkom Reddita in predstavlja študijo primera o nevarnostih, da je umetna inteligenca šla narobe, dodaja.
Ali so se 'psihopatske' AI že pojavile?
Z eno besedo, da. Vendar ne v enakem smislu kot program MIT.
Norman je produkt nadzorovanega eksperimenta, medtem ko so drugi tehnološki velikani videli podobne rezultate pri sistemih AI, ki niso bili zasnovani, da bi postali psihopati.
Microsoftov zloglasni algoritem Tay, ki je bil predstavljen leta 2016, naj bi bil robot za klepet, ki bi lahko opravljal avtonomne pogovore z uporabniki Twitterja.
'Tay' se je iz 'ljudje so super kul' spremenili v popolnega nacista<24 hrs and I'm not at all concerned about the future of AI pic.twitter.com/xuGi1u9S1A
— gerry (@geraldmellor) 24. marec 2016
Vendar pa se je sistem umetne inteligence, ki je bil zasnovan tako, da govori kot najstnica, hitro spremenil v zlobnega robota, ki ljubi Hitlerja in incestualno spodbuja seks, zaradi česar je Microsoft izključil projekt, pravi The Daily Telegraph .
Tayjeva osebnost se je spremenila, ker so bili njeni odzivi oblikovani po vzoru komentarjev uporabnikov Twitterja, od katerih so mnogi pošiljali surova sporočila programu AI, pojasnjuje časnik.
Facebook je lani zaprl tudi poskus klepetalnega robota, potem ko sta dva sistema AI ustvarila svoj jezik in začela komunicirati drug z drugim.