Rossz célra használhatják fel a mesterséges intelligenciát hackerek, bűnözők, terroristák

2018. február 21. - 14:32 | Tech

A mesterséges intelligencia (AI) alkalmazásának gyors előretörése növeli a kockázatát annak, hogy a technológiát rossz célra: automatikus hackertámadásokra, önvezető autók balesetének előidézésére, a kereskedelemben kapható drónok célzott fegyverként való alkalmazására használják fel - figyelmeztetett egy nemzetközi kutatócsoport.

Tizennégy intézmény, köztük a Cambridge-i, Oxfordi és Yale Egyetem 26 kutatója szerdán nyilvánosságra hozott tanulmányában aggodalmának adott hangot amiatt, hogy autoriter államok, bűnözők és magányos támadók visszaélhetnek az új technológiával.

Az AI rossz célú használata küszöbön álló veszélyt jelent a digitális, fizikai és politikai biztonságra, mivel lehetővé teszi a nagyméretű, pontosan célzott, nagy hatékonyságú támadásokat - írták tanulmányukban, amelyben a következő öt évben valószínűsíthető fejleményekre összpontosítottak.

"Valamennyien egyetértünk abban, hogy a mesterséges intelligenciának sok pozitív alkalmazási lehetősége van. A szakirodalom azonban hiányos annak rossz célú felhasználásáról" - magyarázta Miles Brundage, az Oxfordi Egyetem emberiség jövőjét kutató intézetének szakembere.

A mesterséges intelligencia számítógép használatával hajt végre olyan emberi intelligenciát igénylő feladatokat, mint a döntéshozatal, szöveg, beszéd vagy vizuális képek felismerése. A technikai lehetőségek tárházát nyitja meg, de heves vitákat váltott ki az elmúlt években arról, hogy az általa megvalósítható tömeges automatizálás jelentősen növelheti-e a munkanélküliséget és más szociális hátrányokat.

A mintegy százoldalas tanulmány felhívta a figyelmet arra, hogy az AI alkalmazása csökkentheti a végrehajtott támadások költségeit emberi munkát, szakértelmet igénylő esetekben. Olyan új támadási formák kerülhetnek felszínre, amelyek eddig egyetlen ember által kivitelezhetetlenek voltak, vagy olyan támadási formák, amelyek kihasználják magának a mesterséges intelligenciának a sérülékenységét.

A tanulmány készítői áttekintették az eddigi tudományos kutatásokat az AI jelentette biztonsági kockázatokról, és együttműködésre szólították fel a kormányokat, politikai és műszaki szakembereket ezen veszélyek elhárítására.

(MTI)