kezet fog egy robot és egy emberi kéz
Fotó: Shutterstock

A techóriások vezetői rettegnek a mesterséges intelligenciák fejlődésétől

A milliárdos tech mogul Elon Musk és számos szakértő nemrég arra szólította fel a fejlesztőket, hogy tartsanak szünetet a nagy teljesítményű mesterséges intelligencia (MI) rendszerek fejlesztésében, hogy legyen idő megbizonyosodni arról, hogy azok biztonságosak.


Az eddig több mint 1000 ember, köztük Musk és az Apple társalapítója, Steve Wozniak által aláírt nyílt levelet a Microsoft által támogatott OpenAI cég GPT-4 című kiadványa váltotta ki – írja a Science Alert. A vállalat szerint a legújabb modell sokkal erősebb, mint az előző verzió, amely a ChatGPT-t, a rövidebb felszólításokból szövegrészleteket generálni képes robotot működtette.

Ez is érdekelhet: A mesterséges intelligencia hihető hazugságokat ír

Az emberekkel versengő intelligenciával rendelkező mesterséges intelligencia rendszerek mélyreható kockázatokat jelenthetnek a társadalomra és az emberiségre. Erőteljes AI-rendszereket csak akkor szabad fejleszteni, ha biztosak vagyunk abban, hogy hatásaik pozitívak lesznek, a kockázataik pedig kezelhetőek

− áll a „Szüneteltessük az óriási mesterséges intelligencia-kísérleteket" című nyílt levélben.

Musk volt az OpenAI egyik kezdeti befektetője, éveket töltött annak igazgatótanácsában, és autógyártó cége, a Tesla többek között önvezető technológiájának működtetéséhez fejleszt mesterséges intelligencia-rendszereket.

A Musk által finanszírozott Future of Life Institute által befogadott levelet a Musk által alapított Future of Life Institute írta alá, amelyet neves kritikusok, valamint az OpenAI versenytársai, például a Stability AI vezetője, Emad Mostaque is aláírtak.

Ha tovább olvasnál: Teljesen élethű képeket kreált egy mesterséges intelligencia

ChatGPT \u00e9s k\u00fcl\u00f6nb\u00f6z\u0151 egy\u00e9b feliratok egy k\u00e9zfej felett

Fotó: Shutterstock

A szintén aláíró kanadai AI-pionír, Yoshua Bengio egy montreali virtuális sajtótájékoztatón arra figyelmeztetett, hogy „a társadalom még nem áll készen" erre a nagy teljesítményű eszközre és annak lehetséges visszaéléseire. A jobb védőkorlátok kidolgozását indítványozta, és alapos nemzetközi vitát sürgetett a mesterséges intelligenciáról és annak következményeiről.

Az OpenAI alapítója, Sam Altman blogjában korábban azt írta, hogy egy bizonyos ponton fontos lehet, hogy független felülvizsgálatot kapjanak, mielőtt elkezdik a jövőbeli rendszerek kiképzését. A nyílt levél szerzői szerint most jött el ennek az ideje.

Ahogy írják:

Felszólítjuk az összes AI-labort, hogy azonnal, legalább 6 hónapra szüneteltessék a GPT-4-nél erősebb AI-rendszerek képzését.

Felszólították a kormányokat is, hogy lépjenek közbe és rendeljenek el moratóriumot, ha a vállalatok nem értenek egyet. A hat hónapot szerintük arra kellene felhasználni, hogy biztonsági protokollokat és AI-irányítási rendszereket dolgozzanak ki, és a kutatást újra arra összpontosítsák, hogy az AI-rendszerek pontosabbak, biztonságosabbak, „megbízhatóbbak és lojálisabbak" legyenek.

A levél nem részletezte a GPT-4 által feltárt veszélyeket, de a kutatók már régóta azzal érvelnek, hogy a chatbotok nagyszerűen hazudnak, és képesek a dezinformáció szuperterjesztőivé válni.

Cory Doctorow író azonban az AI-ipart egy „pump and dump" rendszerhez hasonlította, és azt állította, hogy az AI-rendszerekben rejlő potenciált és veszélyt is egyaránt túlbecsülik.

el\u0151fizet\u00e9s

NYEREMÉNYJÁTÉK! Fizess elő most a Hamu és Gyémánt magazinra, és legyen tied nyereménykönyveink egyike, vagy egy 2 főre, 2 éjszakára szóló wellnesshétvége a harkányi Dráva Hotelbe! Az előfizetői oldal eléréséhez kattints IDE, a játékszabályt pedig erre linkre kattintva éred el!


A figyelmetekbe ajánljuk