Lehetetlen lesz kontrollálni a jövőben a mesterséges intelligenciát

A tudósok szerint szinte biztos, hogy nem tudjuk majd irányítani a jövő szuperképességű mesterséges intelligenciáját.


Noha korábban írtunk arról, hogy egy mesterséges intelligencia meg tudja mondani, mikortól nem megbízható, egy új tanulmány alapján mégsem biztos, hogy teljesen hű lesz hozzánk. Mivel még nem alkottunk olyan szuperintelligenciát, ami leigázhatna minket, nem is tudjuk lemodellezni őt. Ám a szakemberek elméleti szinten meg tudnak válaszolni néhány kérdést azzal kapcsolatban, hogy a jövőben megvédenek-e minket a mesterséges intelligenciák, vagy sem ─ olvasható a Sciencealert cikkében.

„A szuperintelligencia sokrétű, és ezért potenciálisan képes az erőforrások sokféleségének mozgósítására az emberek számára érthetetlen célok elérésének érdekében."

─ írják a kutatók, akik Alan Turing egyik fogalmával támasztják alá érvelésüket.

1936-ban Alan Turing leírta a leállítási problémát, tehát azt, hogy nem tudhatjuk, hogy egy program megoldást talál egy problémára, majd megáll, vagy nem áll meg, és a megoldást a végtelenségig keresi. Ha egy szuperintelligens program el szeretné pusztítani a világot, és azt a parancsot kapja, hogy álljon le vele, megjelenhet a leállítási probléma. A parancsot végtelenül futtatva ugyanis nem viszi véghez, így nem áll meg, és árthat nekünk.

Csakis úgy tehetünk biztonságossá egy mesterséges intelligenciát, ha a forrásait korlátozzuk. Az internet-hozzáférését, vagy bizonyos hálózatokkal való kapcsolatát minimalizálhatjuk például. Ám ha korlátozzuk a hozzáféréseit, sosem fog tudni olyan problémákra válaszolni, amelyre mi, emberek képtelenek vagyunk.

„Már vannak olyan gépek, amelyek bizonyos fontos feladatokat önállóan hajtanak végre anélkül, hogy a programozók teljesen megértenék, hogyan tanulták meg. Felmerül tehát, hogy ez egy ponton ellenőrizhetetlenné és veszélyesé válhat az emberiség számára."

─ nyilatkozta Manuel Cebrian, a Max-Planck Humán Fejlesztési Intézet informatikusa.

A figyelmetekbe ajánljuk