Drónok és önvezető autók, mint fegyverek: miért kell félnünk a hackerektől?
Drónok és önvezető autók, mint fegyverek: miért kell félnünk a hackerektől?
Anonim

Ha a mesterséges intelligencia rossz kezekbe kerül, a civilizált világ káoszba süllyedhet.

Drónok és önvezető autók, mint fegyverek: miért kell félnünk a hackerektől?
Drónok és önvezető autók, mint fegyverek: miért kell félnünk a hackerektől?

Senki sem tagadja, hogy a mesterséges intelligencia magasabb szintre emelheti életünket. A mesterséges intelligencia számos olyan problémát képes megoldani, amelyek meghaladják az emberi hatalmat.

Sokan azonban úgy vélik, hogy a szuperintelligencia mindenképpen el akar majd pusztítani minket, mint például a SkyNet, vagy elkezdenek kísérleteket végezni embereken, mint például a GLADoS a Portal játékból. Az irónia az, hogy a mesterséges intelligenciát csak ember tudja jóvá vagy rosszá tenni.

Miért jelenthet komoly veszélyt a mesterséges intelligencia?
Miért jelenthet komoly veszélyt a mesterséges intelligencia?

A Yale Egyetem, Oxford, Cambridge és az OpenAI kutatói jelentést tettek közzé a mesterséges intelligenciával való visszaélésről. Azt mondja, hogy az igazi veszélyt a hackerek jelentik. A rosszindulatú kódok segítségével megzavarhatják az AI irányítása alatt álló automatizált rendszerek működését.

A kutatók attól tartanak, hogy a jó szándékú technológiák kárt szenvednek. Például a megfigyelőberendezések nemcsak terroristák elfogására használhatók, hanem egyszerű állampolgárok utáni kémkedésre is. A kutatókat aggodalommal töltik el az élelmiszert szállító kereskedelmi drónok is. Könnyű elfogni őket, és valami robbanóanyagot telepíteni.

A mesterséges intelligencia pusztító használatának másik forgatókönyve az önvezető autók. Elég néhány sor kódot megváltoztatni, és a gépek figyelmen kívül hagyják a biztonsági szabályokat.

Miért jelenthet komoly veszélyt a mesterséges intelligencia?
Miért jelenthet komoly veszélyt a mesterséges intelligencia?

A tudósok úgy vélik, hogy a fenyegetés lehet digitális, fizikai és politikai.

  • A mesterséges intelligenciát már használják a különféle szoftverkódok sebezhetőségeinek tanulmányozására. A jövőben a hackerek létrehozhatnak egy olyan botot, amely megkerül minden védelmet.
  • A mesterséges intelligencia segítségével az ember számos folyamatot automatizálhat: például egy drónrajt vagy egy autócsoportot irányíthat.
  • Az olyan technológiák segítségével, mint a DeepFake, az állam politikai életét lehet befolyásolni, hamis információkat terjeszteni a világ botokat használó vezetőiről az interneten.

Ezek az ijesztő példák eddig csak hipotézisként léteznek. A tanulmány szerzői nem javasolják a technológia teljes elutasítását. Ehelyett úgy vélik, hogy a nemzeti kormányoknak és a nagyvállalatoknak gondoskodniuk kell a biztonságról, amíg az AI-ipar még gyerekcipőben jár.

A politikai döntéshozóknak tanulmányozniuk kell a technológiát, és együtt kell működniük a terület szakértőivel, hogy hatékonyan szabályozzák a mesterséges intelligencia létrehozását és használatát.

A fejlesztőknek pedig fel kell mérniük a csúcstechnológia jelentette veszélyt, előre kell látniuk a legrosszabb következményeket, és figyelmeztetniük kell a világ vezetőit. A jelentés felszólítja a mesterséges intelligencia fejlesztőit, hogy működjenek együtt más területek biztonsági szakértőivel, és nézzék meg, hogy az ezen technológiák biztonságát biztosító elvek felhasználhatók-e a mesterséges intelligencia védelmére.

A teljes jelentés részletesebben leírja a problémát, de a lényeg az, hogy az AI egy hatékony eszköz. Minden érdekelt félnek tanulmányoznia kell az új technológiát, és meg kell győződnie arról, hogy nem használják fel bűncselekményekre.

Ajánlott: