TECH
A Rovatból

Így vívja az AI hidegháborút az USA és Kína – nő a feszültség a technológiai verseny és az okosfegyverek miatt

Miközben Hszi Csin-ping budapesti látogatásával hazánk szorosabbra fűzte kapcsolatát az ázsiai nagyhatalommal, a nyugati országokat aggasztják annak technológiai törekvései. A hidegháború új terepe az AI-fejlesztés, Kína legfőbb ellenfele pedig az USA.


A nyugati féltekét először akkor rázta ki a hideg Kína mesterséges intelligencia fejlesztései kapcsán, amikor a helyi kormányzat 2014-ben kihirdette a nemzeti szintű társadalmi kreditrendszer felépítését. Ennek célja elvileg az lenne, hogy javítsa a közerkölcsöt és ösztönözze a kívánatos viselkedést – csakhogy mindezt a Kínai Kommunista Párt értékrendje határozza meg.

A rendszer az AI-adatfeldolgozást arra használja, hogy folyamatosan megfigyelje és elemezze állampolgárai viselkedését. Azok, akik nem felelnek meg az állampárt normáinak, különböző hátrányokat szenvednek el a jól viselkedő társaikhoz képest. Nehezebben kapnak például hitelt vagy állást, korlátozzák az utazási lehetőségeiket és internet-hozzáférésüket, illetve fokozatosan kirekesztik őket a társadalomból.

Úgy tudni, a kínai kormány 2030-ra kötelezővé teheti, hogy minden állampolgár és vállalkozás részt vegyen a társadalmi kreditrendszerben, amelynek óriási mennyiségű adatát mesterséges intelligencia modellekkel gyűjtik és elemzik.

Kitört az AI hidegháború

A kínai kreditrendszer azonban csak egyetlen terület, ahol a mesterséges intelligenciát felhasználja Kína. Akárcsak az Egyesült Államok, ők is felismerték, mekkora szerepe lesz az AI-nak a jövőben, így azt tűzték ki célul, hogy 2030-ra globális vezető szerepet töltsenek be ezen a területen.

A verseny annyira éles, hogy a Wired újságírói 2018-ban már AI hidegháborúról írtak. Nicholas Thompson és Ian Bremmer szerint egyértelmű, hogy Kína a mesterséges intelligenciát az autoriter kormányzás megerősítésére használja, és figyelmeztették Amerikát, hogy veszélyes lehet felvenni a kesztyűt. Inkább a nemzetközi együttműködés mellett érveltek, mert szerintük csak így szavatolhatók a magánélet védelmére és a mesterséges intelligencia etikus használatára vonatkozó globális normák.

Azóta eltelt majdnem hat év és nagyon nem ebbe az irányba mentek a dolgok.

Thompson és Bremmer valószínűleg a fejét fogja, hiszen az általuk javasolt együttműködés helyett Kína és az USA távolabb talán nem is lehetne attól, hogy közösen dolgozzon az AI etikus felhasználásáért. Mégis, a technológiai előny mérlege az USA felé billen, és ennek elég banálisnak tűnő oka van: a kínai AI-fejlesztés amerikai technológiától függ – állapítja meg a The New York Times.

A lap a kínai 01.AI startup munkájával szemlélteti, mi folyik itt: a vállalat a saját fejlesztésű mesterséges intelligencia rendszerét az amerikai Meta generatív AI-jának, a LLaMA-nak az alternatívájaként mutatta be. És itt jön a csavar: a 01.AI modelljének néhány technológiája egyenesen a LLaMA-tól származik, vagyis

a kínai startup a Meta eredményeire épített, csak éppen új adatokkal is képezte a rendszert.

Ez a helyzet jól példázza a valóságot: miközben az ország versenyt fut a generatív AI fejlesztéséért, a kínai vállalatok szinte teljes mértékben az Egyesült Államokból származó alaprendszerekre támaszkodnak. Több technológiai iparági bennfentes szerint Kína évekkel le van maradva az Egyesült Államokhoz képest a generatív AI-fejlesztésben, és a közeljövőben még nagyobb hátrányba kerülhet, ami a két nemzet közötti, gyilkos technológiai verseny új szakaszát vetíti előre – írja a Times.

Jenny Xiao, az AI-vállalatokkal foglalkozó Leonis Capital befektetési cég partnere szerint a kínai vállalatok által a semmiből felépített modellek „nem túl jók”, ezért a cégek gyakran a nyugati AI-k „finomhangolt változatait” használják. Ő úgy becsülte, hogy

Kína 2-3 éves lemaradásban lehet az Egyesült Államokhoz képest a generatív mesterséges intelligencia fejlesztése terén.

Mivel a kínai cégek az Egyesült Államok nyílt forráskódú AI-modelljeihez fordulva igyekeznek felzárkózni, Washington nehéz helyzetben van. Még ha az Egyesült Államok a mikrochipek értékesítésének korlátozásával és a befektetések visszafogásával próbálta is lassítani Kína fejlődését, a szoftverek nyílt kiadásának gyakorlatát nem akadályozta meg, éppen azért, hogy ösztönözze azok elfogadottságát.

És Kína számára az Egyesült Államokból származó AI-rendszerekre (különösen a LLaMA-ra) való támaszkodás mélyebb kérdéseket vet fel az ország innovációs modelljével kapcsolatban, amely az elmúlt évtizedekben sokakat meglepett azzal, hogy Peking tekintélyelvű hatalmi berendezkedése ellenére olyan világelső cégek jöttek létre, mint az Alibaba és a TikTokot kiadó ByteDance.

A szocialista AI-fejlesztés hátrányai

Nem segíti Kínát az sem, hogy a politikai vezetés totális ellenőrzésre törekszik. A generatív mesterséges intelligencia tavalyi felfutásával egyidőben elkezdtek szigorúbb szabályokat kidolgozni a technológia szabályozására. A Kínai Kibertér Felügyelet olyan rendszert szeretne létrehozni, ami arra kényszeríti a vállalatokat, hogy engedélyt kérjenek az államtól, mielőtt generatív mesterséges intelligencia modelleket adnak ki - mondta a Financial Timesnak két, a kínai szabályozókhoz közel álló személy. Ez a lépés szerintük azt jelzi, hogy

Peking nehezen tudja összeegyeztetni a világelső technológiák fejlesztésére irányuló törekvését a régóta alkalmazott cenzúrával.

Matt Sheehan, a Carnegie Endowment for International Peace washingtoni agytröszt munkatársa azt mondta az FT-nek, „ez az első alkalom, hogy a kínai hatóságok kompromisszumra kényszerülnek a kommunista párt két célja, a mesterséges intelligencia vezető szerepének fenntartása és az információ ellenőrzése között”. Az ennek szellemében tavaly közzétett szabálytervezetek szerint az AI „meg kell, hogy szilárdítsa a szocialista alapértékeket”, és nem tartalmazhat olyasmit, ami „felforgatja az államhatalmat, szorgalmazza a szocialista rendszer megdöntését, elősegíti az ország megosztottságát vagy aláássa a nemzeti egységet”.

Angela Zhang, a Hongkongi Egyetem jogászprofesszora szerint ezek az elvárások egyértelművé teszik a helyzetet: „Kína szabályozási intézkedései elsősorban a tartalomellenőrzésre összpontosítanak”.

Saját szabályai miatt kerül hátrányba Kína az AI hidegháborúban

Ha van rákfenéje egy AI fejlesztésének, az biztosan a képzésére használt tartalmak szűkössége. Márpedig a rendelkezésre álló adatmennyiség szükségszerűen kisebb lesz, ha a kommunista párt kényszeresen ellenőrzi az állampolgárokhoz és a vállalatokhoz – ezáltal az AI-fejlesztőkhöz is – eljutó információkat. Az agyonszabályozás olyan nagyvállalatokat hátráltat, mint az Alibaba és a Baidu, amelyeknek a jóval szabadabban működő, amerikai OpenAI-val (ChatGPT) vagy Google-lal (Gemini) kellene versenyezni.

A kínai hatóságok a rendelettervezetükben arra is utaltak, hogy

az AI-modellt készítő technológiai csoportok szinte teljes mértékben felelősek lennének a létrehozott tartalmakért.

Ez demotiválja a cégeket: kisebb hajlandósággal teszik elérhetővé a generatív modelljeiket, hiszen félnek, hogyha hibáznak, akkor az állampárt ellenségként bánik majd velük. A vállalatok valószínűleg „óvatosabbak és konzervatívabbak lesznek azzal kapcsolatban, hogy milyen AI-t építenek”, mert a szabályok megsértésének súlyos következményei lehetnek – magyarázta az FT-nek Helen Toner, a Georgetowni Egyetem Biztonsági és Feltörekvő Technológiai Központjának egyik vezetője.

Növekszik a feszültség a gondolkodó AI-fegyverek miatt

Miközben fentebb azt írtuk, az AI hidegháború elsősorban technológiai és nem fegyverkezési versenyt jelent, kétségtelen, hogy a mesterséges intelligenciának egyre sötétebb vetületei vannak a világ harcmezőin is. Az ukrán hadsereg AI-vezérelt drónokkal támad vissza, hogy orosz gazdasági létesítményekben okozzon kárt, Izrael pedig a gázai hadműveletek kezdete óta alkalmaz intelligens rendszereket a Hamász terroristáinak keresésére. Az AI-technológia visszavonhatatlanul megjelent és terjed a hadiiparban is.

Az ENSZ leszerelési ügyekkel foglalkozó irodájának vezetője, Izumi Nakamitsu főtitkárhelyettes szerint a nemzetközi szervezet tudatosítani akarja a mesterséges intelligencia katonai alkalmazásának hatásait, azt remélve, hogy ezzel felgyorsítja a nemzetközi szabályozás szükségességéről szóló vitákat. Az NHK Worldnek nyilatkozó tisztviselő jelezte: bár jelenleg a gázai válság kapcsán hallunk az AI bevetéséről, messze nem Izrael az egyetlen ország, ami fejleszt ilyen fegyvereket. Nakamitsu elmondta: komolyan tart attól, hogy

az AI-fegyverek technológiája jelentősen megváltoztatja a háborúk lefolyását és a harcok módját.

Az ENSZ különösen aggódik a halált okozó autonóm fegyverrendszerek (LAWS) miatt, ugyanis ezek emberi utasítások nélkül választják ki és támadják meg a célpontokat. Antonio Guterres ENSZ-főtitkár tavaly szólította fel a tagállamokat, hogy 2026-ig fogadjanak el jogilag kötelező érvényű keretet a LAWS alkalmazásával kapcsolatban, mivel jelenleg nincsenek rájuk vonatkozó nemzetközi szabályok.

Ezzel kapcsolatban Nakamitsu a technológiát már fejlesztő és a technológiát nem fejlesztő országok között tátongó szakadékokról is beszélt. Mint mondta, a nagy katonai hatalmak (mint Kína és az Egyesült Államok) igyekeznek vezető szerepet szerezni a LAWS-fejlesztésekben, de közben terroristacsoportok és más szervezetek is felhasználhatják a mesterséges intelligenciát.

A Foreign Affairs arról ír: az amerikai Védelmi Minisztérium 2022 tavaszán hozta létre a Digitális és Mesterséges Intelligencia Hivatalt, 2023 novemberében pedig közzétette az AI-val kapcsolatos technológiák átvételére vonatkozó stratégiáját. Optimista módon arról számoltak be, hogy „az adatok, az analitika és az AI-technológiák legújabb fejlesztései lehetővé teszik a vezetők számára, hogy gyorsabban hozzanak jobb döntéseket, a tanácstermekben vagy akár a harctéren”. Ennek megfelelően

az AI-alapú technológiákat már alkalmazzák is: az amerikai csapatok például AI-képes rendszerekkel választottak ki húti célpontokat a Közel-Keleten.

A Foreign Affairs szerint ugyanakkor a hadseregeknek fel kell ismerniük, hogy a mesterséges intelligencia viselkedése teljesen soha nem garantálható, különösen akkor, amikor ritka és nehéz döntéseket kell meghozni egy háborúval kapcsolatban.


Link másolása
KÖVESS MINKET:

Népszerű
Ajánljuk
Címlapról ajánljuk


TECH
A Rovatból
Itt a DeepSeek, az ingyenes kínai AI-modell – egyetlen nap alatt ezer milliárd dollárt bukhattak miatta a legnagyobb techcégek
A kínai AI-modell alapjaiban rengetheti meg a technológiai ipart. Nem csak hatékony, de gazdaságos is – ráadásul ingyenes és nyílt forráskódú.
FM. Kép: Youtube - szmo.hu
2025. január 28.



A kínai AI-modell alapjaiban rengetheti meg a technológiai ipart: a DeepSeek startup R1 modellje már most felforgatta a Wall Streetet és az amerikai technológiai szektort. Mint a CNN írja, a modell ugyanis nemcsak méltó vetélytársa a legfejlettebb nyugati AI-fejlesztéseknek, mint amilyen az OpenAI GPT-4, a Meta Llama vagy a Google Gemini, de mindezt az utóbbiak költségeinek töredékéért érte el.

A DeepSeek R1 modellje az úgynevezett „érvelő modellek” közé tartozik, amelyek nemcsak kérdésekre válaszolnak, hanem képesek komplex logikai és matematikai problémák megoldására, valamint az egyes lépések közötti logikai kapcsolatok feltárására is. Az R1 ráadásul teljesen ingyenes és nyílt forráskódú, bárki szabadon használhatja.

A modellt januárban indították útjára, és azonnal a letöltési listák élére ugrott, megelőzve a népszerű ChatGPT-t is. Alkalmazásként mostanra több mint 2 millió alkalommal töltötték le.

Mindezt hivatalosan mindössze 5,6 millió dolláros költségvetéssel hozta össze a DeepSeek, miközben például a Meta csak idén 65 milliárd dollárt tervez AI-fejlesztésekre költeni.

A bejelentés azonnali következményekkel járt a globális tőzsdéken. Mint a DeepSeek jelenséget elemezve a 444.hu hétfőn rámutatott, az Nvidia, amely piacvezető az AI-chipek terén, hétfőn egyetlen nap alatt 300 milliárd dollárt veszített piaci értékéből, ami a valaha volt legnagyobb egynapos esés egy cég esetében. Ekkor még nem állt meg a zuhanás: végül a veszteség elérte az 589 milliárd dollárt.

A hét legnagyobb techcég, köztük a Meta, a Microsoft és a Siemens Energy, együtt összesen akár ezermilliárd dollárt is bukhatott a DeepSeek miatt.

A DeepSeek fejlesztése azért is érte váratlanul a piacot, mert az Egyesült Államok 2022-ben komoly exportkorlátozásokat vezetett be a fejlett AI-chipek Kínába irányuló exportjára, hogy megakadályozza a kínai cégek ehhez hasonló előretörését. A DeepSeek állítása szerint a szankciók előtt beszerzett 10 ezer Nvidia H100-as chipet használt a modell fejlesztésére. Ez a hardver a jelenlegi nyugati csúcstechnológiához képest már elavultnak számít.


Link másolása
KÖVESS MINKET:

Ajánljuk
TECH
A Rovatból
Keményet lépett az EU: betiltották a veszélyes mesterséges intelligenciát, óriási bírságok jöhetnek
Rengeteg MI-rendszert érint a szabályozás, van, amit teljesen be is tiltanak. A tiltott technológiákat alkalmazó vállalatokra hatalmas pénzbírság várhat, függetlenül attól, hogy hol van a székhelyük.
FM. Kép: Unsplash - szmo.hu
2025. február 03.



Február 2-tól az Európai Unió új szabályai alapján szigorúan fellépnek az olyan mesterséges intelligencia (MI) rendszerek ellen, amelyek túl nagy kockázatot jelentenek. A tiltott technológiákat alkalmazó vállalatokra hatalmas pénzbírság várhat, függetlenül attól, hogy hol van a székhelyük.

Az EU mesterséges intelligenciáról szóló rendelete (AI Act) hosszú előkészítés után tavaly márciusban kapta meg a jóváhagyást, és augusztus 1-jén lépett hatályba – részletezi a Tech Crunch. A rendeletben szereplő első határidő most februárban érkezett el: ez az, amikor a legveszélyesebbnek ítélt MI-rendszereket betiltják.

A szabályok célja az MI biztonságos felhasználásának biztosítása különböző területeken, például a fogyasztói alkalmazásokban és a közterületeken.

Az új szabályozás négy kockázati szintet határoz meg:

• A minimális kockázatú rendszerek, például az e-mail spamszűrők, szabályozás nélkül maradnak.

• Az ügyfélszolgálati chatbotokat korlátozott kockázatúként kezelik, így csak enyhe szabályozás vonatkozik rájuk.

• A magas kockázatú rendszerek, például az egészségügyi ajánlásokat adó MI-k, szigorúbb ellenőrzést kapnak.

• Az elfogadhatatlan kockázatú alkalmazások viszont teljes tiltás alá esnek.

Az utóbbi, tiltott kategóriába tartozik például a társadalmi pontozás, amely a személyes viselkedés alapján készít kockázati profilokat. Nem engedélyezett az olyan MI sem, amely észrevétlenül manipulálja az emberek döntéseit, vagy kihasználja az életkor, fogyatékosság vagy társadalmi helyzet miatti sérülékenységet. Tilos olyan technológiát használni, amely külső megjelenés alapján próbálja előre jelezni a bűncselekményeket, vagy biometrikus adatokkal próbál következtetni egy személy tulajdonságaira. Az érzelemfelismerő rendszereket sem lehet munkahelyen vagy iskolában alkalmazni, és tilos arcfelismerő adatbázisokat bővíteni online vagy biztonsági kamerás felvételekből származó képek segítségével.

A szabályokat megszegő cégek akár 35 millió eurós – nagyjából 13 milliárd forintnyi – bírságot is kaphatnak, vagy az előző pénzügyi évük globális árbevételének 7 százalékát kellhet befizetniük, attól függően, melyik összeg a nagyobb.

Tavaly szeptemberben több mint 100 vállalat, köztük az Amazon, a Google és az OpenAI önként csatlakozott az EU AI Paktumhoz, amelyben vállalták, hogy az AI Act előírásait már a hivatalos határidő előtt alkalmazzák. Néhány nagy technológiai vállalat, például a Meta és az Apple, kimaradt a megállapodásból. A francia MI-startup, a Mistral, amely az AI Act egyik legnagyobb kritikusa, szintén nem csatlakozott.

A jogszabály néhány kivételt is tartalmaz. A bűnüldöző szervek bizonyos esetekben biometrikus adatokat gyűjtő rendszereket használhatnak, például emberrablási ügyeknél, vagy közvetlen életveszély elhárítására. Az ilyen esetekben előzetes hatósági engedély szükséges, és a döntéseket nem hozhatják meg kizárólag az MI-rendszerek eredményei alapján. Orvosi, vagy biztonsági indokokkal alkalmazhatóak munkahelyi és iskolai érzelemfelismerő rendszerek is.

Az Európai Bizottság 2025 elejére ígérte a további részleteket tartalmazó iránymutatások közzétételét, de ezek egyelőre nem jelentek meg.


Link másolása
KÖVESS MINKET:

Ajánljuk

TECH
Szellemek az AI-képeken? Sokak szerint megőrült a ChatGPT mesterséges intelligenciája
A ChatGPT új képgeneráló funkciója tarol a neten, de sokaknál furcsa alakok tűnnek fel az anime stílusban módosított képeken. A felhasználók egy része paranormális jelenségeket emleget.


Az elmúlt napokban világszerte rengetegen próbálták ki a ChatGPT új képgeneráló funkcióját, amely lehetővé teszi, hogy a felhasználók különféle művészeti stílusok alapján alakítsák át a saját fotóikat.

A legnépszerűbb a Studio Ghibli animációit idéző stílus lett. A közösségi médiát el is árasztották ezek a módosított képek, viszont az internetezők egy része furcsa, hátborzongató részletekre figyelt fel a végeredményen.

Többen arról számoltak be, hogy a Ghibli-stílusban generált képeken olyan alakok is megjelentek, akik az eredeti fotón nem szerepeltek.

Nemcsak a ChatGPT képgeneráló AI-jával akadt hasonló gond. Egy Instagram-felhasználó az Elon Musk cége, az xAI által fejlesztett AI-t használva kapott hasonlóan vérfagyasztó eredményt. A barátnőivel közös fotón eredetileg négyen voltak láthatóak, de a Grok által generált verzión már öten voltak.

Ahogy telnek a napok, egyre több hasonló tapasztalatról, a módosított képeken ismeretlen alakok feltűnéséről számolnak be a felhasználók – vette észre a Hindustan Times.

Aligha véletlen, hogy az AI szellemalakokat szerkeszt a képekre

A tokiói Ghibli Stúdiót 1985-ben alapította Hajao Mijazaki rendező. Első egész estés animációs filmje, a Cagliostro vára 1979-ben jelent meg. A legismertebb munkái közé tartozik a Nauszika – A szél harcosai, a Laputa – Az égi palota, A vadon hercegnője és a Ponyo a tengerparti sziklán. Filmjeit saját elmondása szerint gyerekeknek szánta, ugyanakkor a felnőttek számára is fontos üzeneteket hordoznak. Egyik legismertebb karaktere a Chihiro Szellemországban című népszerű animében feltűnt arc nélküli szellem:

A figura önmagában kísérteties többlettartalommal bír az anime- és mangarajongók számára, így talán nem véletlen, hogy a Ghibli-stílusban átalakított képekre a generatív mesterséges intelligenciák szellemalakokat szerkesztenek.


Link másolása
KÖVESS MINKET:

Ajánljuk

TECH
Ne dőlj be! Nem igaz, hogy a fordított PIN-kód segélyhívást indít – ezt teheted helyette
Ugyan a városi legenda teljes blődség, de tény, hogy veszélybe kerülhetünk a bankautomatáknál, és szerencsére az is igaz, hogy vannak hatékony megoldások is.
Malinovszki András / Fotó: Sebastian Ganso/Pixabay (illusztráció) - szmo.hu
2025. február 05.



Évek óta terjed az a tévhit, hogy ha valaki vészhelyzetben a PIN-kódját fordított sorrendben adja meg a bankautomatánál, a készülék nemcsak pénzt ad ki, hanem titokban riasztja a rendőrséget is. A bankok és a biztonsági szakértők szerint azonban ez nem igaz, a módszer egyáltalán nem működik.

Az ATM-ek kizárólag a helyesen beírt PIN-kódot fogadják el. Ha valaki fordított sorrendben próbálja megadni a kódját, azt a rendszer hibás próbálkozásként értékeli. Három sikertelen próbálkozás után akár zárolhatja is a kártyát – írja a cseh poznatsvet.cz portál nyomán a Blikk.

Ha valakit erőszakkal kényszerítenek arra, hogy pénzt vegyen fel, a szakértők szerint a legbiztonságosabb megoldás az együttműködés. Egy sikertelen trükk vagy ellenállás csak tovább ronthat a helyzeten.

Bár a fordított PIN-kódos riasztás csupán legenda, a bankautomatáknál valódi veszélyek is leselkednek az emberekre. Egyre többen próbálnak visszaélni azzal a módszerrel, hogy banki dolgozónak adják ki magukat. A csalók azt állítják, hogy biztonsági ellenőrzést végeznek, és arra kérik az áldozatot, hogy generáljon egy aktivációs kódot az ATM-nél. Később ezt felhasználva hozzáférhetnek az illető bankszámlájához.

A cseh portál szerint az alábbi óvintézkedésekkel csökkenthetjük a kockázatot:

  • Mindig takarjuk el a billentyűzetet a PIN-kód beírásakor.
  • Rendszeresen ellenőrizzük a bankszámlánkat, és ha gyanús tranzakciót észlelünk, azonnal értesítsük a bankot.
  • Soha ne adjuk meg a PIN-kódunkat, belépési adatainkat telefonon, e-mailben vagy SMS-ben, mert a bankok ilyen információt nem kérnek.
  • Ha gyanús hívást vagy üzenetet kapunk, ne válaszoljunk, hanem közvetlenül a bank hivatalos ügyfélszolgálatát hívjuk fel.


Link másolása
KÖVESS MINKET: