A mesterséges intelligencia elleni fellépésre bíztat a Microsoft

Brad Smith, a cég elnöke nemrégiben úgy nyilatkozott, hogy az iparágnak sokkal jobb kockázatkezelésre és törvényi szabályozásra van szüksége.

Ehhez viszont a kormányoknak fel kellene venniük a ritmust, mivel a mesterséges intelligencia fejlesztése egyre gyorsul.

Ne maradj le a legfrissebb hírekről és érdekességekről – kövess minket Facebookon is, és legyél naprakész a kriptovilágban!

Smith szerint a megfelelő szabályozással nagymértékben csökkenteni lehetne a technológiai által képviselt kockázatokat, és ezt nyilatkozta a washingtoni törvényhozóknak is egy, a héten tartott rendezvényen.

A Microsoft különböző biztonsági garanciákat szeretne, amely kezeli a kritikus infrastruktúrát, és megfelelő, széles körű jogi és szabályozási keretrendszert biztosít.

Smith azok közé a technológiai szakértők közé tartozik, akik szerint a mesterséges intelligencia túl gyorsan fejlődik.

Az MI nyaktörő sebességű száguldása több téren is ártalmas hatásokkal járt már.

Ide tartoznak a magánszférát fenyegető fejlesztések, az automatizálás miatt elvesztett munkahelyek, vagy éppen az elképesztően meggyőző deepfake, azaz hamisított videók terjedése.

A Microsoft elnöke szerint ráadásul nem egyedül a kormányoknak kellene foglalkoznia a kérdéskörrel, hanem a cégeknek is részt kellene venniük ezekben a folyamatokban.

A Microsoft emellett saját projektet is futtat, sőt, a jelentések szerint egy saját csipet fejlesztenek, amely kifejezetten a ChatGPT, az OpenAI mesterséges intelligenciáját szolgálná ki.

Smith elmondta, a cég pontosan emiatt saját biztonsági folyamatokat is kidolgozott, amelyeket a kormányzatok aktivitásától függetlenül mindenképpen alkalmazni fognak.

Elmondása alapján nem tekinthetnek el a saját felelősségük mértékétől.

Május közepén Sam Altman, az OpenAI alapítója tartott beszédet a Kongresszus előtt, amelyben ő is elmondta, hogy a területen működő cégeket külön szövetségi hivatal kellene, hogy felügyelje.

Smith egyetért ezzel a gondolattal, ráadásul azt is hozzáfűzte, hogy a különösen érzékeny területek esetén a fejlesztésekhez külön engedélyre lenne szükség, és csak a meghatározott cégek végezhetnének ilyesmit.

Csatlakozz Prémium csoportunkhoz, ahol exkluzív tartalmakhoz, elemzésekhez és érdekességekhez nyílik hozzáférésed.

A ChatGPT tavaly novemberi indulása óta számos szakértő fogalmazta meg az aggályait, és buzdított szigorúbb szabályozásra, egyes szervezetek pedig időleges leállásra szólították fel a fejlesztőket.

Egy március 22-én kiadott nyílt levélben a technológiai szektor több ismert neve, például Elon Musk és Steve Wozniak is a lassítás mellett foglalt állást. Rajtuk kívül még 31 ezren írták alá a nyílt levelet.

Olvastad már? A kriptopénzek iránti érdeklődés 2020 óta nem látott szintre csökken

Forrás: cointelegraph.com

SZERETNÉD MEGKAPNI LEGFRISSEBB HÍREINKET? IRATKOZZ FEL HÍRLEVELÜNKRE!

This field is required.

Legfrissebb bejegyzéseink

Mémcoinok bukása: mi áll a drámai árfolyamesés mögött?

A mémcoinok árfolyama az év végi mélypont közelében mozog. Ez éles fordulat a 2024 karácsonyi spekulációs csúcshoz képest. A mémcoinok értéke 65%-kal esett egy év alatt,...

CoinPoker és Frankie C bemutatja a Cash Game Race to Taiwan promóciót

A CoinPoker bejelentette legújabb készpénzes játék promócióját, a CoinRaces to Taiwan versenyt, amely a platform Creator Squad tagjával, Frankie C-vel együttműködésben valósul meg. A promóció...

Bitcoin 2025-ben: miért emlékeztet sokakat a piac 2019-re?

A Bitcoin árfolyama most nem csinál semmi látványosat. Ez sokakat zavar, másokat untat, pedig közben egyre többen mondják azt: ez az egész furcsán emlékeztet 2019-re....

Trust Wallet hack: hibás Chrome-frissítés után ürültek ki tárcák

Néhány óra alatt lett gyanúsan sok a hasonló panasz. Trust Wallet-felhasználók egymástól függetlenül jelezték, hogy a tárcájukból egyszerűen eltűntek az eszközök, minden előjel nélkül. Nem...

Legolvasottabb híreink

Vendégbejegyzések

SZERETNÉD MEGKAPNI LEGFRISSEBB HÍREINKET? IRATKOZZ FEL HÍRLEVELÜNKRE!

This field is required.