Kontrollimatu superintelligentsus
Üks probleem tehisintellekti turvaliseks muutmisel on see, et üli-intelligentse olendi võimalikud otsused ja ebaõnnestumised, kui ta võimekamaks muutub, on lõpmatus, seega on ohutusprobleeme samuti lõpmatu arv. Lihtsalt probleemide ennustamisest ei pruugi piisata ja nende leevendamisest turvapaikade abil ei pruugi abi olla.
Samal ajal, selgitab Yampolskiy, ei saa tehisintellekt kirjeldada, mida on otsustanud, või me ei saa antud selgitusest aru, kuna inimesed ei ole piisavalt targad, et mõista endast arenenuma intellegentsuse rakendatud lahendusi. Kui me ei mõista tehisaru otsuseid ja meil on ainult nii-öelda «must kast», ei saa me probleemist aru ega vähenda tulevaste õnnetuste tõenäosust.
Näiteks tehisintellektisüsteemide ülesandeks on juba praegu teha otsuseid tervishoiu, investeerimise, tööhõive, panganduse ja turvalisuse vallas. Sellised süsteemid peaksid suutma selgitada, kuidas nad oma otsusteni jõudsid, eriti näitamaks, et otsus on erapooletu.
Yampolskiy toob välja, et kui me harjume vastu võtma tehisintellekti vastuseid ilma selgitusteta, käsitledes neid sisuliselt oraakli ettekuulutustena, ei saaks me aru, kas see masin hakkab lõpuks andma valesid või manipuleerivaid vastuseid.
Kuidas riski vähendada?
Tehisintellekti riski vähendamiseks peab teadlase sõnul olema tehisaru ümberlükkamise valikutega muudetav, piiratud, läbipaistev ja inimkeeles kergesti mõistetav.
Ta soovitab, et kogu tehisintellekt tuleks liigitada kontrollitavaks või kontrollimatuks ning kaaluda tuleks isegi teatud tüüpi tehisintellekti tehnoloogiate osalist keelustamist.
Selle asemel, et nüüd ära kohkuda, soovitab teadlane: «Pigem peaks seda võtma kui põhjust, miks rohkem inimesi peaksid süvenema teemasse ning suurendama tehisintellekti ohutuse ja turvalisuse uuringute rahastamist. Me ei pruugi kunagi jõuda 100% ohutu tehisaruni, kuid saame muuta tehisintellekti turvalisemaks vastavalt oma jõupingutustele, mis on palju parem, kui mitte midagi teha. Me peame seda võimalust targalt kasutama.»