Tibor bá’ fordítása online
RT
„A Földön mindenki meghal” – figyelmeztet az élvonalbéli mesterséges intelligenciakutató
Az emberiség nincs felkészülve arra, hogy túléljen egy nagyon okos mesterséges intelligenciával való találkozást, mondja Eliezer Yudkowsky.
A mesterséges intelligencia rendszerek fejlesztésének leállítása és az ezt megszegők szigorú megbüntetése az egyetlen módja annak, hogy megmentsék az emberiséget a kihalástól – figyelmeztetett a magas rangú AI-kutató.
Eliezer Yudkowsky szerdán vélemény cikket írt a TIME magazinnak, amiben elmagyarázza, miért nem írt alá egy petíciót, amelyben felszólított „minden mesterséges intelligencia laboratóriumot, hogy azonnal, legalább hat hónapra szüneteltesse a GPT-4-nél erősebb AI-rendszerek képzését”. Ez egy multimodális nagy nyelvi modell, amelyet az Open AI adott ki a hónap elején.
Yudkowsky, a Gépi Intelligencia Kutatóintézet (MIRI) társalapítója azzal érvelt, hogy a levél, amelyet olyanok írtak alá, mint Elon Musk és Steve Wozniak, az Apple-től, „túl keveset kért a gyors és ellenőrizetlen fejlődésből fakadó probléma megoldásához”.
„Emberfelettien intelligens MI felépítésének legvalószínűbb eredménye az, hogy a Földön szó szerint mindenki meghal” – írta Yudkowsky.
A túléléshez egy olyan számítógépes rendszerrel való találkozásnál, amely „nem törődik velünk, se általában az érző élettel”, „precizitásra, felkészültségre és új tudományos meglátásokra” lenne szükség, amik jelenleg hiányoznak az emberiségből, és nem valószínű, hogy a belátható jövőben megszerezhetővé válik.
„Egy kellően intelligens mesterséges intelligencia nem marad sokáig a számítógépek korlátain belül” – figyelmeztetett Yudkowsky. Kifejtette, hogy az a tény, hogy már most is lehet DNS-láncokat e-mailben elküldeni a laboratóriumokba, hogy fehérjéket állítsanak elő, valószínűleg lehetővé teszi a mesterséges intelligencia számára, hogy „mesterséges életformákat építsen, vagy egyenesen a posztbiológiai molekuláris gyártásba kezdjen”, és kijusson a világba.
A kutató szerint azonnali határozatlan idejű, világméretű moratóriumot kell bevezetni az új, jelentős mesterséges intelligencia kiképzésekre. „Nem lehetnek kivételek, beleértve a kormányokat vagy a hadseregeket sem” hangsúlyozta.
Yudkowsky ragaszkodott hozzá, hogy nemzetközi megállapodásokat kell aláírni annak érdekében, hogy korlátozzák, mekkora számítási teljesítményt használhat fel valaki az ilyen rendszerek képzésére.
„Ha a hírszerzés azt állítja, hogy egy, a megállapodáson kívül eső ország GPU (grafikus feldolgozó egység) klasztert épít, kevésbé kell félni a nemzetek közötti konfliktustól, mint a moratórium megsértésétől. Ezért légicsapással meg kell semmisíteni egy szélhámos adatközpontot” – írta.
A mesterséges intelligencia veszélye olyan nagy, hogy „a nemzetközi diplomáciában egyértelművé kell tenni, hogy a mesterséges intelligencia kihalási forgatókönyveinek megakadályozását prioritásnak kell tekinteni a nukleáris katasztrófa megakadályozása felett” – tette hozzá.
Vagyis nagyobb veszélyt jelent, mint egy termonukleáris háború.
___________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________