A Mesterséges Intelligencia kockázataira figyelmeztetnek a nagy cégek vezetői
Az OpenAI, a Google DeepMind, az Anthropic és más MI laboratóriumok vezetői arra figyelmeztetnek, hogy a jövőbeli rendszerek olyan halálosak lehetnek, mint a járványok és a nukleáris fegyverek.
New York Times
Ipari vezetők egy csoportja kedden arra figyelmeztetett, hogy az általuk fejlesztett mesterségesintelligencia-technológia egy napon egzisztenciális fenyegetést jelenthet az emberiségre, és a világjárványokkal és atomháborúkkal egyenrangú társadalmi kockázatnak kell tekinteni.
“Az MI okozta kihalás kockázatának mérséklése globális prioritás kell hogy legyen, más társadalmi szintű kockázatokkal, például a világjárványokkal és az atomháborúval együtt” – áll a Center for AI Safety nevű nonprofit szervezet által kiadott egymondatos nyilatkozatban. A nyílt levelet több mint 350 vezető, kutató és mérnök írta alá, akik az MI-vel foglalkoznak.
Az aláírók között három vezető MI-cég felsővezetői voltak: Sam Altman, az OpenAI vezérigazgatója; Demis Hassabis, a Google DeepMind vezérigazgatója; és Dario Amodei, az Anthropic vezérigazgatója.
Geoffrey Hinton és Yoshua Bengio, a három kutató közül kettő, akik a neurális hálózatokkal kapcsolatos úttörő munkájukért Turing-díjat nyertek, és akiket gyakran a modern MI-mozgalom “keresztapjának” tartanak, valamint a terület más kiemelkedő kutatói is aláírták a nyilatkozatot. (A harmadik Turing-díjas, Yann LeCun, aki a Meta MI-kutatásait vezeti, keddig nem írta alá a nyilatkozatot.)
A nyilatkozat a mesterséges intelligencia lehetséges ártalmaival kapcsolatos növekvő aggodalmak idején született. Az úgynevezett nagy nyelvi modellek – a ChatGPT és más chatbotok által használt mesterséges intelligencia rendszerek típusa – közelmúltbeli fejlődése felvetette azokat a félelmeket, hogy a mesterséges intelligenciát hamarosan széles körben használhatják félretájékoztatás és propaganda terjesztésére, vagy hogy az intelligencia több millió fehérgalléros munkahelyet szüntethet meg.
Az új generáció
Egy szép új világ. A mesterséges intelligencia által működtetett chatbotok új termésénél megindult a küzdelem annak megállapítására, hogy a technológia felboríthatja-e az internet gazdaságosságát, a mai nagyhatalmakból “has-beens”-eket csinálhat-e, és létrehozhatja-e az iparág következő óriásait. Íme, melyek azok a botok, amelyeket ismerni kell:ChatGPT. A ChatGPT, az OpenAI nevű kutatólaboratórium mesterséges intelligencia nyelvi modellje november óta a címlapokra került azzal, hogy képes összetett kérdésekre válaszolni, verseket írni, kódot generálni, nyaralásokat tervezni és nyelveket fordítani. A március közepén bemutatott legújabb verzió, a GPT-4 még képekre is képes válaszolni (és az egységes ügyvédi vizsgán is jeleskedik).
Két hónappal a ChatGPT debütálása után a Microsoft, az OpenAI fő befektetője és partnere, hasonló, gyakorlatilag bármilyen témában nyílt végű szöveges beszélgetésre képes chatbotot illesztett a Bing internetes keresőmotorjához. A bot időnként pontatlan, félrevezető és furcsa válaszai voltak azonban azok, amelyek a megjelenés után nagy figyelmet keltettek.
A Google Bard nevű chatbotja márciusban jelent meg korlátozott számú felhasználó számára az Egyesült Államokban és Nagy-Britanniában. Az eredetileg e-mailek és versek megfogalmazására szolgáló kreatív eszköznek tervezett robot képes ötleteket generálni, blogbejegyzéseket írni és kérdésekre válaszolni tényekkel vagy véleményekkel.
A keresőóriás Baidu márciusban mutatta be Kína első nagy riválisát, a ChatGPT-t. Az Ernie – rövidítése az Enhanced Representation through Knowledge Integration (továbbfejlesztett reprezentáció tudásintegráción keresztül) – debütálása bukásnak bizonyult, miután kiderült, hogy a bot beígért “élő” bemutatójáról felvétel készült.
Egyesek szerint az MI végül elég erős lehet ahhoz, hogy néhány éven belül társadalmi szintű zavarokat idézzen elő, ha nem teszünk semmit a lelassítása érdekében, bár a kutatók néha nem tudják megmagyarázni, hogyan történhetne ez meg.
Ezeket a félelmeket számos iparági vezető osztja, és így abba a szokatlan helyzetbe kerültek, hogy azzal érveljenek, hogy az általuk épített technológia – amelyet sok esetben versenytársaiknál gyorsabban próbálnak kiépíteni – súlyos kockázatokat rejt magában, és szigorúbb szabályozásra szorul.
Ebben a hónapban Altman, Hassabis és Amodei úr találkozott Biden elnökkel és Kamala Harris alelnökkel, hogy az MI szabályozásáról beszéljenek. A találkozót követő szenátusi vallomásában Altman úr arra figyelmeztetett, hogy a fejlett MI-rendszerek kockázatai elég súlyosak ahhoz, hogy kormányzati beavatkozást indokoljanak, és az MI szabályozására szólított fel a lehetséges ártalmak miatt.
Dan Hendrycks, a Center for AI Safety ügyvezető igazgatója egy interjúban elmondta, hogy a nyílt levél a “coming out” jelképe volt néhány iparági vezető számára, akik – de csak a magánéletben – aggodalmukat fejezték ki az általuk kifejlesztett technológia kockázataival kapcsolatban.
“Még az MI-közösségben is elterjedt tévhit, hogy csak egy maroknyi doomers van” – mondta Hendrycks úr. “Valójában azonban sok ember fejezné ki aggodalmát ezekkel a dolgokkal kapcsolatban.”
Néhány szkeptikus azzal érvel, hogy az MI technológia még túlságosan kiforratlan ahhoz, hogy egzisztenciális fenyegetést jelentsen. A mai MI-rendszerek esetében inkább a rövidtávú problémák, például az elfogult és helytelen válaszok miatt aggódnak, mint a hosszabb távú veszélyek miatt.
Mások azonban azzal érvelnek, hogy az MI olyan gyorsan fejlődik, hogy egyes területeken már most is meghaladja az emberi szintű teljesítményt, és hamarosan más területeken is felül fogja múlni azt. Szerintük a technológia fejlett képességek és megértés jeleit mutatja, ami okot ad arra a félelemre, hogy a “mesterséges általános intelligencia”, vagyis az AGI, a mesterséges intelligencia egy olyan típusa, amely a legkülönbözőbb feladatokban képes az emberi szintű teljesítményt elérni vagy meghaladni, talán már nincs messze.
Egy múlt heti blogbejegyzésben Altman úr és az OpenAI két másik vezetője több módszert is javasolt arra, hogy a nagy teljesítményű mesterséges intelligencia rendszereket felelősségteljesen lehessen kezelni. A vezető MI-gyártók közötti együttműködést, a nagy nyelvi modellekkel kapcsolatos további technikai kutatásokat és egy nemzetközi MI-biztonsági szervezet létrehozását szorgalmazták, hasonlóan a Nemzetközi Atomenergia Ügynökséghez, amely a nukleáris fegyverek használatát igyekszik ellenőrizni.
Altman úr olyan szabályok támogatását is kifejezte, amelyek megkövetelnék, hogy a nagyméretű, csúcstechnológiát képviselő mesterséges intelligencia modellek készítői regisztráltassák magukat egy kormány által kiadott engedélyért.
Márciusban több mint ezer technológus és kutató írt alá egy másik nyílt levelet, amelyben a legnagyobb mesterséges intelligenciamodellek fejlesztésének hathónapos szüneteltetését követelték, arra hivatkozva, hogy “az egyre erősebb digitális elmék kifejlesztésének és bevetésének irányíthatatlan versenyfutása” miatt aggódnak.
Ezt a levelet, amelyet egy másik M.I.-fókuszú nonprofit szervezet, a Future of Life Institute szervezett, Elon Musk és más ismert technológiai vezetők írták alá, de a vezető M.I.-laboratóriumok nem sokan írták alá.
Hendrycks szerint a Center for AI Safety új nyilatkozatának rövidsége – mindössze huszonkét szó – arra irányult, hogy egyesítse az MI-szakértőket, akik nem értenek egyet a konkrét kockázatok természetével vagy a kockázatok megelőzését célzó lépésekkel kapcsolatban, de akik osztják a nagy teljesítményű MI-rendszerekkel kapcsolatos általános aggodalmakat.
“Nem akartunk egy harminc lehetséges beavatkozásból álló, nagyon nagy menüt szorgalmazni” – mondta. “Ha ez megtörténik, az felhígítja az üzenetet”.
A nyilatkozatot kezdetben megosztották néhány magas rangú szakértővel, köztük Hinton úrral, aki ebben a hónapban felmondott a Google-nél, hogy szabadabban beszélhessen a mesterséges intelligencia lehetséges ártalmairól. Onnan eljutott több nagy MI-laboratóriumba, ahol néhány alkalmazott is aláírta a nyilatkozatot.
Az AI vezetők figyelmeztetéseinek sürgőssége megnőtt, mivel emberek milliói fordultak az AI chatbotokhoz szórakozás, társaság és termelékenység növelése céljából, és mivel a mögöttes technológia gyors ütemben fejlődik.
“Úgy gondolom, ha ez a technológia rosszul működik, akkor nagyon rosszul is elsülhet” – mondta Altman úr a szenátus albizottságának. “Együtt akarunk működni a kormánnyal, hogy ezt megakadályozzuk.”
Kevin Roose technológiai rovatvezető, a Futureproof és a Kilenc szabály az embereknek az automatizálás korában című könyvk szerzője.
Címkép: Három vezető MI cég vezetői, köztük Sam Altman, az OpenAI vezérigazgatója, nyílt levelet írtak alá, amelyben a mesterséges intelligencia kockázataira figyelmeztetnek. (EPA)
Forrás: Újnépszabadság