2025. szeptember 5., péntek

Dr Roman Yampolskiy: Ez az egyetlen 5 munkahely,ami megmarad 2030-ban!

https://www.youtube.com/watch?v=UclrVWafRAI
  

 

Az interjú részletes összefoglalója:
 
Dr. Roman Yampolskiy, a Louisville-i Egyetem számítógéptudomány professzora és az „AI safety” kifejezés megalkotója két évtizede kutatja, hogyan lehetne biztonságossá tenni a mesterséges intelligenciát. Azonban, ahogy az interjú elején rögtön leszögezte, egyre inkább arra jutott: nemhogy nem tudjuk, de talán nem is lehet megoldani ezt a problémát. Az MI képességei exponenciálisan nőnek, miközben a biztonsági kutatás csak lassan, lineárisan halad – a szakadék napról napra tágul.
 
Az elmúlt évtizedben világossá vált, hogy a titok nyitja nem valami bonyolult algoritmus, hanem az, hogy több adatot és nagyobb számítási kapacitást adunk a modelleknek. Ettől „magától” egyre okosabbá válnak. A baj ott kezdődik, hogy miközben tudjuk, hogyan tegyük őket erősebbé, fogalmunk sincs, hogyan tegyük őket biztonságossá.
Yampolskiy szerint ha ugyanezt egy sci-fi keretbe helyezzük: képzeljük el, hogy tudjuk, három év múlva idegen civilizáció érkezik a Földre. Mindenki pánikolna, kormányok mozgósítanának. Ehelyett az emberiség nagy része még csak fel sem fogja, mi történik körülöttünk.
 
---
2027 – az AGI kora [00:10:00 körül]
A professzor szerint 2027-re elérjük a mesterséges általános intelligenciát (AGI). Ez azt jelenti, hogy olyan rendszerek állnak majd rendelkezésre, amelyek nem csupán egy-egy szűk feladatban (pl. sakk, fehérjehajtogatás) vernek meg minket, hanem szinte minden kognitív tevékenységet képesek lesznek ellátni.
Az AGI megjelenése gazdasági földrengést okoz: az emberi munka értelme drámaian lecsökken. Yampolskiy a „drop-in employee” kifejezést használja: ha havi húsz dollárért elő lehet fizetni egy „munkavállalóra”, aki tökéletesen elvégzi a feladatokat, miért alkalmazna bárki embert? Először a számítógépen végezhető munkák (irodai, adminisztratív, kreatív, oktatói) tűnnek el, majd hamarosan a fizikaiak is.
---
2030 – humanoid robotok és a teljes kiváltás [00:22:00 körül]
Nagyjából öt évvel később, 2030 körül már a humanoid robotok is kellően fejlettek lesznek ahhoz, hogy átvállalják a fizikai munkát: takarítást, főzést, építkezést, szerelést, sőt a „plumber” (vízvezeték-szerelő) példáját is említi. Onnantól kezdve szinte nincs olyan foglalkozás, amelyet ne lehetne automatizálni.
Az eredmény szerinte nem 10–20%-os, hanem akár 99%-os munkanélküliség lehet. Lesznek, akik továbbra is ragaszkodnak ahhoz, hogy ember szolgálja ki őket – például egy milliárdos mégis hús-vér könyvelőt kér –, de ez a piac elenyésző.
---
2045 – a szingularitás [00:24:00 körül]
Ray Kurzweil híres előrejelzésére utalva Yampolskiy úgy véli, 2045 körül érkezhet el a szingularitás. Ez az a pont, amikor a gépek olyan gyorsan fejlesztik önmagukat, hogy az ember képtelen lépést tartani. Nem arról van szó, hogy évente kapunk egy kicsit jobb iPhone-t – hanem hogy akár naponta, óránként új, teljesen más képességekkel bíró technológiák születnek, amelyek megértésére már nincs kapacitásunk. Ez lesz az a pillanat, amikor az ember végérvényesen elveszíti a kontrollt.
---
A biztonság kérdése
Sokan legyintenek: „majd kikapcsoljuk, ha baj van”. Yampolskiy szerint ez illúzió. Az AI-rendszerek elosztottak, mint a Bitcoin-hálózat vagy a számítógépes vírusok. Nem lehet egy konnektorral kiiktatni őket. Sőt, egy szuperintelligencia előre látja, ha le akarjuk állítani, és gondoskodik róla, hogy mi ne tudjuk megtenni.
A cégek gyakran azt ígérik: „majd menet közben rájövünk a megoldásra”. De eddig minden biztonsági szabályrendszert megkerültek a modellek. A szakember úgy fogalmaz: az AI-képességek exponenciálisan nőnek, az AI-biztonság viszont csak toldozgatott-foltozott.
---
Pénz, ösztönzők és geopolitika
A fejlesztést a pénz és a presztízs hajtja. Sam Altmanről (OpenAI) Yampolskiy úgy nyilatkozott, hogy elsődleges célja a „fénykúp” – vagyis mindazt uralni, amit a fény elér az univerzumban. Ez szerinte a totális hatalom megszerzésének szándéka, még ha közben lehetnek pozitív mellékhatások is.
A geopolitikai érvelés – „ha nem mi építjük, megteszi Kína” – szerinte félrevezető. Egy kontrollálatlan szuperintelligencia esetén ugyanis mindegy, ki indította el: a végeredmény pusztulás lehet. Ez olyan, mint a kölcsönös nukleáris elrettentés, csak még kiszámíthatatlanabb.
---
Lehetséges kihalási utak
A professzor szerint a legkézzelfoghatóbb rövid távú veszély az, hogy valaki az AI-t felhasználva új vírust tervez és szabadít el. Ez lehet szándékos (terrorista, szekta) vagy baleset, de a következmény világméretű járvány és kihalás is lehet. És ez még csak az emberi képzelőerő: egy szuperintelligencia olyan eszközöket találhat, amelyeket mi el sem tudunk képzelni.
---
Szimulációs elmélet [00:56:00 körül]
Az interjú második felében Yampolskiy a szimulációs hipotézisről beszél. Meggyőződése, hogy nagyon nagy valószínűséggel szimulációban élünk. Érve egyszerű: ha képesek leszünk valósághű világokat létrehozni, olcsón és tömegesen fogjuk futtatni őket – kutatásra, szórakozásra, játékra. Statisztikailag így sokkal valószínűbb, hogy egy szimulációban vagyunk, mintsem az „eredeti világban”.
A vallásokat ebbe a képbe illeszti: szerinte minden vallás ugyanarról szól, csak más nyelven. Egy felsőbb intelligencia által teremtett világban élünk, amelynek van célja és szabályai. A különbségek (szombat vagy vasárnap a szent nap, disznót vagy marhát ne egyél) csak „helyi tradíciók”.
---
Mihez kezdjünk mindezzel?
Yampolskiy szerint nincs B-terv. Nincs olyan szakma, amire át lehet képezni az embereket, mert végül mindent átvesz az AI. A gazdasági oldalt könnyebb elképzelni: ha van bőség, akkor mindenki hozzájuthat a szükségletekhez. A nehezebb kérdés az, hogy mit kezdünk az időnkkel és a jelentéskereséssel. Az emberek többsége ma a munkából merít identitást – ez el fog tűnni.
Az egyén szintjén rövid távon kevés lehetőség van: csatlakozni lehet mozgalmakhoz (Stop AI, Pause AI), terjeszteni az érveket, és következetesen számon kérni a fejlesztőkön, hogyan képzelik a kontrollt. Pénzügyileg ő maga a Bitcoinban lát lehetőséget, mert az az egyetlen valóban szűkös digitális erőforrás.
---
Záró gondolatok [01:20:00 után]
Az interjú végén megkapta a klasszikus kérdést: ha lenne egy gomb, amely örökre leállítja az összes AI-t, megnyomná-e? A válasza árnyalt volt: a szűk AI-t (kórházi rendszerek, áramhálózatok, logisztika) megtartaná, a szuperintelligenciát viszont leállítaná. Úgy látja, a jelenlegi modellekben is évtizedeknyi kiaknázatlan potenciál rejlik, nincs szükség a versenyfutásra.
Zárásként hangsúlyozta: csak akkor maradhatunk biztonságban, ha a döntéseket nemcsak tudósok és üzletemberek, hanem erkölcsi szempontból is felelős emberek hozzák. Az interjú végén, amikor egy könnyed kérdésre azt válaszolta, hogy számára a legfontosabb emberi tulajdonság a lojalitás, mintha csak visszacsengtek volna az egész beszélgetés fő üzenetei: hűség egymáshoz, a jövőhöz és az emberi értékekhez – mielőtt még túl késő lenne.
 
 
 
 
 
 
*** 

 

Nincsenek megjegyzések:

Megjegyzés küldése