Egyetlen AI-cég sem kapott jobbat, mint C+ az emberiség v...
Biztonságban tartják-e az emberiséget a mesterséges intelligenciával foglalkozó vállalatok a technológia potenciális veszélyeitől? Egy friss jelentés szerint erre nem érdemes fogadni. Ahogy az MI egyre jelentősebb szerepet játszik az ember...
Ahogy az MI egyre jelentősebb szerepet játszik az ember és a technológia kapcsolatában, úgy válnak egyre nyilvánvalóbbá az esetleges káros hatások: vannak, akik MI-vezérelt chatbotokat használnak tanácsadásra, majd tragikus módon öngyilkosságot követnek el, vagy MI-t vetnek be kibertámadásokra. A jövőben pedig komolyabb veszélyek is fenyegethetnek, például az MI fegyverek készítésére vagy kormányok megdöntésére való felhasználása.
Ennek ellenére nincs elég ösztönző az MI-cégek számára, hogy az emberiség biztonságát helyezzék előtérbe. Ezt jól tükrözi a Silicon Valley-ben működő nonprofit Future of Life Institute nemrég közzétett AI Safety Indexe, amely arra törekszik, hogy biztonságosabb irányba terelje az MI fejlesztéseket és csökkentse az emberiségre leselkedő végső kockázatokat.
„Az Egyesült Államokban ők azok az iparágak, amelyek hatalmas technológiákat fejlesztenek teljesen szabályozatlanul, ami versenyhelyzetet teremt, ahol nincs meg az ösztönzés a biztonság prioritásának érvényesítésére” – mondta Max Tegmark, a szervezet elnöke és az MIT professzora egy interjúban.
A legmagasabb, „csak” C+ osztályzatot két San Franciscó-i cég, az OpenAI (a ChatGPT mögött álló vállalat) és az Anthropic (Claude nevezetű chatbotjával) kapta. A Google AI részlege, a Google DeepMind pedig C-t szerzett.
Még rosszabbul szerepelt a Facebook menlo parki anyavállalata, a Meta, valamint Elon Musk palo altói cége, az xAI, amelyek D-t kaptak. Kína vállalatai, a Z.ai és a DeepSeek szintén D-vel végeztek, míg a leggyengébb osztályzatot, a D- jelet az Alibaba Cloud kapta.
Az értékelés 35 mutatón alapult hat kategóriában, köztük az egzisztenciális biztonság, kockázatértékelés és információmegosztás területén. Az adatgyűjtés nyilvánosan hozzáférhető anyagokra és a cégek kérdőíves válaszaira épült. Az értékelést nyolc MI-szakértő, köztük akadémikusok és mesterséges intelligenciával foglalkozó szervezetek vezetői végezték.
Minden szereplő az egzisztenciális biztonságban az átlagnál gyengébb eredményt ért el, ami a belső ellenőrzés, beavatkozások és biztonsági stratégiák meglétét méri.
„Miközben a cégek egyre gyorsabban törekednek az általános mesterséges intelligencia (AGI) és a szuperintelligencia kifejlesztésére, egyikük sem mutatott be meggyőző tervet a katasztrofális visszaélések vagy az irányítás elvesztésének megakadályozására” – áll a jelentésben.
Mind a Google DeepMind, mind az OpenAI hangsúlyozza, hogy elkötelezett a biztonság mellett.
„A biztonság az MI fejlesztésének és alkalmazásának alapja nálunk” – közölte az OpenAI. „Nagy hangsúlyt fektetünk az élvonalbeli biztonsági kutatásokra, erős védelmi rendszereket építünk be a rendszereinkbe, és szigorúan teszteljük modelljeinket – mind belsőleg, mind független szakértők bevonásával. Megosztjuk biztonsági kereteinket és kutatásainkat, hogy előmozdítsuk az iparági szabványokat, és folyamatosan erősítjük védelmi eszközeinket a jövőbeli fejlesztésekre készülve.”
A Google DeepMind hasonlóan közölte, hogy tudományos alapú, szigorú megközelítést alkalmaz az MI biztonságának területén.
„Az általunk kidolgozott Frontiers Safety Framework konkrét protokollokat tartalmaz arra vonatkozóan, hogyan azonosítsuk és mérsékeljük a súlyos kockázatokat a legerősebb MI modellek esetén, még mielőtt azok megjelennének” – mondta a DeepMind. „Ahogy modelleink fejlettebbé válnak, folyamatosan újítunk a biztonság és irányítás területén, párhuzamosan a képességek fejlődésével.”
A Future of Life Institute szerint az xAI és a Meta nem vállaltak elégséges kötelezettséget a felügyelet és kontroll terén, noha vannak kockázatkezelési kereteik, és nem bizonyították, hogy érdemben fektetnének be biztonsági kutatásokba. A DeepSeek, Z.ai és Alibaba Cloud pedig nem tett közzé lényeges egzisztenciális biztonsági stratégiákat.
Meta, Z.ai, DeepSeek, Alibaba és Anthropic nem reagált a megkeresésre.
Az xAI azzal válaszolt, hogy „a hagyományos média hazudik”. Elon Musk jogi képviselője nem válaszolt azonnal a további kérdésekre.
Musk egyébként tanácsadója a Future of Life Institute-nak és korábban támogatta az alapítványt, de nem vett részt az AI Safety Index elkészítésében, mondta Tegmark.
A professzor aggodalmát fejezte ki amiatt, hogy az MI iparág elégtelen szabályozása megkönnyítheti terrorista fegyverek fejlesztését, még hatékonyabb manipulációt vagy akár kormányzati instabilitást is eredményezhet bizonyos esetekben.
„Igen, komoly problémák vannak, és rossz irányba haladnak a dolgok, de szeretném hangsúlyozni, milyen könnyű lenne ezt orvosolni” – mondta Tegmark. „Egyszerűen csak kötelező biztonsági szabványokra van szükség az MI cégek számára.”
Volt már kormányzati törekvés az MI vállalatok szigorúbb ellenőrzésére, de bizonyos törvényjavaslatokat megszorító technológiai lobbiellenállás ért, amely szerint a túlszabályozás lassíthatja az innovációt vagy elüldözheti a cégeket.
Ugyanakkor van már olyan szabályozás, amely a biztonsági előírások szigorúbb ellenőrzését célozza meg az MI cégeknél, például Kalifornia SB 53-as törvénye, amelyet Gavin Newsom kormányzó írt alá szeptemberben. Ez előírja a vállalatoknak a biztonsági és védelmi protokollok megosztását, valamint a kibertámadások bejelentését az állam felé. Tegmark ezt a jogszabályt a helyes irányba tett lépésnek nevezte, de még sokkal több intézkedésre van szükség.
Rob Enderle, az Enderle Group vezető elemzője érdekesnek tartja az AI Safety Index megközelítését az amerikai MI-szabályozás hiányosságának kezelésére, de meglátásai szerint akadnak nehézségek.
„Nem vagyok biztos benne, hogy az Egyesült Államok jelenlegi adminisztrációja képes jól átgondolt szabályozásokat bevezetni, ami azt jelentheti, hogy ezek a szabályok több kárt okozhatnak, mint hasznot” – fogalmazott Enderle. „Az sem egyértelmű, ki tudja a szabályoknak való megfelelést biztosítani.”
Cikk megosztása
#AI
#ArtificialIntelligence
#ChatGPT
#GPT
#OpenAI
#Google
#Meta
#Technology
#Anthropic
#Claude
#Chatbot
Forrás: https://www.bostonherald.com
Eredeti cikk olvasása