JÖVŐ
A Rovatból

Tényleg elhülyülünk, ha sokat használjuk az AI-t? Nyugtalanító eredményre jutott egy új kutatás

A generatív AI megkönnyíti a munkát, de titkon csorbítja a kritikai gondolkodást – figyelmeztetnek a kutatók. Ha túlzottan rábízzuk magunkat, egyre kevésbé leszünk képesek önálló döntéseket hozni. És ez még csak a jéghegy csúcsa.


A mesterséges intelligencia használatának terjedésével egyre több kutatás igyekszik feltárni, hogy a technológia milyen hatást gyakorol ránk, felhasználókra. A nem túl megnyugtató eredmények alapján az AI tompítja a döntéshozatalban játszott szerepünket a munkában, lustává tesz minket a tanulási folyamatok során, és kihatással van az érzelmi reakcióinkra, arra, ahogyan a világot érzékeljük és másokkal bánunk.

A legfrissebb erre vonatkozó kutatást a Microsoft és a Carnegie Mellon Egyetem kutatói jegyzik. Tanulmányukban összefoglalták a tapasztalataikat arról, hogy hogyan befolyásolja a generatív AI használata a kritikai gondolkodási képességeket a munkahelyen. Szerintük:

Ha a technológiát nem megfelelően használjuk, az a kognitív képességeink hanyatlásához vezethet, pedig ezeket meg kellene őriznünk.

A tudósok azt találták, hogy amikor az emberek a munkájuk során generatív AI-ra támaszkodnak, inkább az köti le a figyelmüket, hogy a mesterséges intelligencia válaszai megfelelő minőségűek-e a felhasználásra, ahelyett hogy alkalmaznák a magasabb szintű kritikai gondolkodási készségeiket: például információt alkotnának, értékelnének vagy elemeznének. Ha a felhasználók csak akkor avatkoznak be, amikor az AI válasza nem megfelelő, kimaradnak a rutinhelyzetekből, amelyek segítik az ítélőképességük fejlesztését és a kognitív képességeik erősítését. Ebből az következik, hogy utóbbi készségeik idővel megkopnak, így nem tudják majd alkalmazni őket akkor, amikor valóban szükség lenne rájuk.

Másként fogalmazva: ha túlságosan ráhagyatkozunk az AI-ra, kevésbé leszünk képesek önállóan megoldani a problémákat, amikor hibázik.

A Microsoft által támogatott kutatásban 319 olyan ember vett részt, akik legalább heti rendszerességgel használnak generatív AI-t a munkájuk során. Arra kérték őket, hogy osszanak meg három példát a mesterséges intelligencia használatára az alábbi három kategória szerint:

  1. Tartalom létrehozása (például egy munkával kapcsolatos sablon e-mail).
  2. Információ alkotása (egy téma kutatása vagy egy hosszú cikk összegzése).
  3. Tanácsadás (irányelvek kérése vagy diagram készítése rendelkezésre álló adatokból).

Megkérdezték tőlük azt is, hogy ezeknél a feladatoknál mennyire használják a kritikai gondolkodási készségeiket, valamint hogy az AI alkalmazása több vagy kevesebb erőfeszítést igényel-e. Arra ugyancsak kíváncsiak voltak, hogy a felhasználók mennyire bíznak saját magukban, az AI-ban, illetve az AI adta válaszok kiértékelésére való képességükben.

A résztvevők 36 százaléka azt mondta, használja a kritikai gondolkodási készségeit, hogy csökkentse az AI-használatból esetlegesen adódó negatív következményeket.

Egyikük például azt állította, hogy a ChatGPT-t teljesítményértékelő szöveg megírására használta, de alaposan átnézte az eredményt, nehogy véletlenül olyasmit küldjön tovább, ami miatt megütheti a bokáját. Egy másik résztvevő az AI által generált e-maileket módosította, mielőtt elküldte volna a főnökének, mert a munkahelyén erős a hierarchia, és komolyan veszik a korkülönbségek tiszteletben tartását. Sok esetben viszont az emberek egyéb forrásokból, például a YouTube-ról vagy a Wikipédiáról ellenőrizték az AI által adott válaszokat – ezzel részben értelmetlenné is téve a használatát.

Fotó: Freepik

Ahhoz, hogy a munkavállalók képesek legyenek ellensúlyozni az AI hiányosságait, érteniük kell az információk eredetét és keletkezését. Valahogy úgy, mint amikor idegen nyelvet tanulunk: amíg nem értjük a nyelvtant, hiába kérjük a tanárt, hogy társalgást oktasson. De a kutatásnak nem minden résztvevője volt tisztában azzal, hogy az AI-nak pontosan milyen korlátai is vannak.

„A generatív AI válaszainak lehetséges negatív következményei ösztönözhetik a kritikus gondolkodást, de csak akkor, ha a felhasználó tudatosan felismeri ezeket a kockázatokat” – írják a kutatók, akik arra jutottak, hogy azok, akik jobban bíznak az AI-ban, kevesebb kritikai gondolkodást alkalmaznak, mint azok, akik inkább a saját képességeikben hisznek. Bár nem állítják egyértelműen, hogy a generatív AI használata butábbá tesz, rámutatnak: ha túlságosan támaszkodunk mesterséges intelligencia eszközökre, akkor gyengül az önálló problémamegoldó képességünk.

Más is igazolta, hogy az AI negatív hatással lehet az emberi gondolkodásra és döntéshozatalra

A Microsoft és a Carnegie Mellon eredményeihez hasonló következtetésekre jutott egy közel ugyanakkora mintán (285 fő), de a világ másik végén, felsőoktatásban tanuló pakisztáni és kínai hallgatók részvételével végzett kutatás is. Az ebből született tanulmány szerint az AI használata lustává teszi az embert, és hátráltatja a magabiztos döntéshozatalban, míg a feltétel nélküli elfogadása és alkalmazása – anélkül, hogy figyelembe vennénk az emberi tényezőket – veszélyes lehet.

A kutatás eredményei szerint az AI hatása az emberi lustaságra 68,9, a személyes adatvédelem és biztonság problémáira 68,6, míg a döntéshozatali képességek elvesztésére 27,7 százalékban érhető tetten.

Amikor az AI használata és az erre való támaszkodás növekszik, az automatikusan korlátozza az emberi agy gondolkodási képességét. Ennek eredményeként az emberek gondolkodási kapacitása gyorsan csökken, vagyis az AI „elveszi az emberi intelligenciát, és mesterségesebbé teszi az embert” – fogalmaztak a tudósok, hozzátéve: a technológiával való túlzott interakció arra kényszerít, hogy algoritmusok módjára gondolkodjunk, anélkül, hogy valóban értenénk az egyes folyamatokat.

A másik probléma az, hogy az emberek ma már szinte minden területen AI-ra támaszkodnak. És bár kétségtelen, hogy javította az életszínvonalat, és megkönnyítette a mindennapokat, közben negatívan befolyásolta az embereket: türelmetlenné és lustává tette őket – állítja a tanulmány. Ahogy az AI egyre mélyebben beépül a különböző tevékenységekbe, például a tervezésbe és szervezésbe, fokozatosan visszafogja az emberi agy gondolkodási és mentális erőfeszítéseit.

Következésképp: az AI túlzott használata rontja a szakmai készségeket, és stresszt okozhat, amikor fizikai vagy szellemi erőfeszítésre van szükség.

A kutatók leszögezik: a technológia általában kulcsszerepet játszik a döntéshozatalban. Segít megfelelően felhasználni az információkat és a tudást, hogy jó döntéseket hozzunk a szervezetekben (például a munkahelyeken) és az innovációk során. Ennek megfelelően hatalmas mennyiségű adatot állítunk elő, a vállalatok pedig az AI segítségével hatékonyabbá teszik ezek feldolgozását, miközben az emberek kiszorulnak az adatok aktív felhasználásából. Sokan azt hiszik, hogy élvezik az AI előnyeit, és időt takarítanak meg, de közben arról van szó, hogy az AI fokozatosan átveszi az emberi agy szerepét, csökkentve ezzel a kognitív képességeket.

Az ember kiszorul a döntéshozatalból az AI-val szemben

Tény, hogy az AI technológiák és alkalmazások számos előnnyel járnak, de komoly negatív következményei is vannak, és az egyik legnagyobb probléma a mesterséges intelligencia szerepének növekedése a döntéshozatalban, amiben így egyre kevésbé kap teret az emberi mentális képesség, az intuitív elemzés, a kritikai gondolkodás és a kreatív problémamegoldás. Ennek egyenes következménye az lehet, hogy ezek a képességek fokozatosan elvesznek.

Az AI terjedésének gyorsaságát jól szemlélteti, hogy a stratégiai döntéshozatalban való alkalmazása öt év alatt tízről 80 százalékra nőtt – hívják fel a figyelmet a tudósok.

Az egyetemeken az oktatási és az adminisztratív folyamatokban is egyre nagyobb teret nyer az AI. A hallgatók a felvételi követelmények keresésétől a diplomák átvételéig sokféle mesterséges intelligencia alapú megoldással találkoznak, például személyre szabott tanulás, tutorálás, gyors válaszadás vagy éppen folyamatosan elérhető tanulási lehetőségek és automatizált feladatok formájában. A hallgatói adatok nyilvántartásában és elemzésében szintén az AI döntéseire támaszkodnak, akár a rendszerbe vetett bizalom, akár az automatizálás okozta lustaság miatt.

Fotó: Freepik

Az oktatók és az adminisztratív dolgozók ugyancsak egyre kevésbé használják a saját kognitív képességeiket az akadémiai és adminisztratív döntések meghozatalakor, miközben mindennap nő a függőségük az AI rendszerektől. Összességében az AI az oktatási intézményekben automatizálja a működést, és minimálisra csökkenti a személyzet részvételét a különböző feladatok elvégzésében és a döntéshozatalban. És ne legyen illúziónk: nincs ez másképp vállalati és munkahelyi környezetben, illetve idővel minden területen – hiszen az AI hosszú távon nem hagyja érintetlenül az emberi psziché más területeit sem.

Mit tesz az AI az emberi pszichével?

Öznur Altındal szociológus úgy látja, bár az emberi pszichológia és az AI kapcsolata fiatal, máris kijelenthető, hogy egyben összetett és sokrétű is. Az AI a számítástechnika, a matematika és a mérnöki tudományok összefonódása, amely olyan rendszereket hoz létre, amelyek képesek utánozni vagy akár meghaladni az emberi gondolkodást, tanulást, érzékelést és döntéshozatalt.

Az emberi pszichológia pedig fontos szerepet játszik az AI fejlesztésében, hiszen az algoritmusait gyakran az emberi gondolkodás mintájára tervezik, kifejezetten azért, hogy utánozzák annak összetettségét és rugalmasságát. De az AI hatása az emberi érzelmekre, gondolkodásra és viselkedésre még nem teljesen ismert – figyelmeztet a tudós.

Az AI-nak lehetnek pozitív és negatív hatásai az emberi pszichére. Pozitívum, hogy növelheti az információfeldolgozó képességet, illetve bizonyos esetekben kielégítheti az érzelmi és társas szükségleteket. Mindezzel egy időben viszont csökkentheti az emberek önbizalmát, fokozhatja az elszigeteltség érzését, és elősegítheti, hogy az emberek túlságosan ráhagyatkozzanak.

Éppen ezért elengedhetetlen, hogy megértsük az AI és az emberi pszichológia közötti kölcsönhatásokat, hogy a lehető legjobban kezeljük a mesterséges intelligencia szerepét.

Az egyik legfontosabb tényező, amit figyelembe kell venni, hogy az AI-technológiák jelentősen befolyásolhatják az emberek világérzékelését. Az adatfeldolgozási és elemzési képességeik átalakíthatják azt, ahogyan az emberek értelmezik a környezetüket, a körülöttük zajló eseményeket vagy más embereket. Az AI-alapú adatelemző eszközök például gyorsan és hatékonyan képesek feldolgozni nagy mennyiségű adatot, ami segíthet bizonyos helyzetek tágabb összefüggésekben történő értelmezésében és egyes döntések alaposabb előkészítésében. Az AI érzékelési technológiái – például a kép- és hangfelismerés – kibővíthetik az emberek észlelési képességeit, így az ilyen eszközök újabb és gazdagabb interakciós formákat kínálhatnak.

Az AI hatása az emberek érzelmi reakcióira és társas kapcsolataira

Az érzelemfelismerő technológiák képesek érzékelni az emberek érzelmi állapotát, előre jelezhetik a reakcióikat, sőt bizonyos esetekben kielégíthetik az érzelmi szükségleteiket is. Az érzelemfelismerő technológiák például az írott vagy kimondott szavak alapján felismerhetik az emberek érzelmeit. Ez lehetővé teszi az AI számára, hogy személyre szabottabb és empatikusabb szolgáltatásokat nyújtson, mivel képes megtanulni az emocionális reakciókat, amelyekhez hatékonyabban is igazodik. De biztos, hogy jól van ez így? Altındal szerint nem igazán, mert az érzelmi reakciók félreértelmezése vagy manipulálása negatív hatással lehet az emberek lelkiállapotára, az érzelmi reakciók gépi utánzása pedig felszínessé teheti az érzelmi élményeket és kapcsolatokat, ami fokozza a magányosság érzését is.

Fotó: Freepik

De az AI nemcsak az emberi érzékelést és érzelmeket, hanem a viselkedést is befolyásolhatja. Mivel képes gyorsan és részletesen elemezni az információkat, átalakíthatja az emberek döntéshozatali folyamatait. Az érzelmi elemzés és érzékelés révén képes befolyásolni az emberek társas kapcsolatait és érzelmi válaszait, azzal pedig, hogy személyre szabott és interaktív élményt nyújt, óhatatlanul hatással van az emberek kommunikációjára és viselkedésére. Ezzel összefüggésben megváltozik az emberek közötti kommunikáció és interakció, ami egy ideje már jól tetten érhető az AI-alapú közösségi média platformokhoz és üzenetküldő alkalmazásokhoz idomult kapcsolattartási szokásainkban.

Összességében tehát az AI mellett szól, hogy az érzelmi reakciók felismerésének és értelmezésének képessége segíthet az embereknek jobban megérteni egymás érzelmi állapotát, viszont nyomós ellenérv lehet, hogy a túlzott használata gyengítheti az emberek közötti valódi társas kötelékeket, sőt ha az AI félrevezető vagy manipulatív információkat szolgáltat, az bizalmi problémákhoz vezethet.

Etikai kérdőjelek sorakoznak az AI-használat mögött

Altındal levezeti: az AI emberi észlelésre, érzelmekre, viselkedésre és kapcsolatokra gyakorolt hatása fontos etikai kérdéseket vet fel. Az általa generált hamis vagy félrevezető információk torzíthatják az emberek valóságérzékelését, ami negatívan befolyásolhatja döntéseiket és társas interakcióikat, ezért a mesterséges intelligencia etikus használata kulcsfontosságú, ha minimalizálni akarjuk az emberi pszichére gyakorolt negatív hatások esélyét. Ez magában foglalja az AI érzékeny alkalmazását az érzelmi és társas igények figyelembevételével, valamint olyan rendszerek tervezését, amelyek segítik az emberek objektív valóságészlelését.

Az AI és az emberi pszichológia közötti kapcsolat bizonyosan szorosabbá válik, és a jövőben még nagyobb hatást gyakorolhat az információfeldolgozásra, az érzelmi reakciókra, a viselkedésre és a társas kapcsolatokra. Lévén hogy, ahogy a fentiekből világosan látszik, képes átalakítani az emberek döntéshozatali folyamatait és interakciós szokásait, a mesterséges intelligencia etikus felhasználása egyre fontosabb kérdés lesz. Rajtunk a sor, hogy vegyük a fáradtságot, és a megfelelő kezelése érdekében megértsük a mechanizmusait, veszélyforrásait és fejlődési irányát, ezzel pedig minimalizáljuk, hogy törékennyé tegye az életünket társadalmi szinten.


Link másolása
KÖVESS MINKET:

Népszerű
Ajánljuk
Címlapról ajánljuk


JÖVŐ
A Rovatból
„A legsötétebb nap” – Trump környezetvédelmi ügynöksége eltörli a legfontosabb környezetvédelmi szabályokat
Több tucat szabályozást vonnak vissza. Az ügynökség új vezetője szerint véget ér a "zöld átverés" kora, és a jövőben azon dolgoznak majd, hogy megszűnjön a jogi felhatalmazásuk a szén-dioxid és más üvegházhatású gázok szabályozására.


A Trump-kormányzat bejelentette, hogy visszavonja az ország több tucat környezetvédelmi szabályozását, köztük a kipufogógázokra és gyárkéményekre vonatkozó szennyezési határértékeket, a vizes élőhelyek védelmét és az üvegházhatású gázok szabályozásának jogi alapját.

Lee Zeldin, a Környezetvédelmi Ügynökség (E.P.A.) vezetője egy online videóban azt mondta, hogy az ügynökség célja a jövőben az, hogy „csökkentse az autóvásárlás, az otthoni fűtés és a vállalkozások költségeit”. A videóban nem beszélt a környezet vagy a közegészség védelméről, amire az ügynökség létrejött.

Zeldin bejelentette, hogy visszavonnak több mint két tucat levegő- és vízszennyezés elleni szabályt.

Az E.P.A. a tervek szerint enyhítené az erőművek szén-dioxid-kibocsátási korlátozásait. A jelenlegi előírások szerint a széntüzelésű erőműveknek és az új gázerőműveknek 2039-ig 90 százalékkal kellene csökkenteniük a kibocsátásukat. A gépjárművekre vonatkozó kibocsátási normákat is átírnák, így nem lenne kötelező, hogy 2032-re az új autók és könnyű teherautók többsége elektromos vagy hibrid legyen. Eltörölnék a koromkibocsátási határértékeket, amelyeket légzőszervi betegségekkel és idő előtti halálozásokkal hoztak összefüggésbe.

A Biden-kormányzat egyik szabályozása előírta, hogy a széntüzelésű erőművek higanykibocsátását 70 százalékkal csökkentsék, mivel a higany káros a gyermekek fejlődésére. Az új tervek szerint ezt is eltörölnék. Nem működne többé a „jó szomszédság szabály”, amely arra kötelezte az államokat, hogy kezeljék az általuk kibocsátott, más államokba sodródó szennyezést. Emellett eltörölnék azokat az intézkedéseket, amelyek a szegényebb és kisebbségi közösségek védelmét helyezik előtérbe.

A klímaváltozás hatásainak számszerűsítésére használt „szén-dioxid társadalmi költségét” is jelentősen csökkentenék. Ezt az értéket a szabályozások gazdasági hatásainak mérlegelésekor használják.

Zeldin szerint az E.P.A. a jövőben nem venné figyelembe a környezeti politikák társadalmi költségeit, például azt, hogy az erdőtüzeket, aszályokat, viharokat és más katasztrófákat mennyire súlyosbíthatják a szennyezések.

Az egyik legfontosabb változás az lenne, hogy az E.P.A. eltörölné a 2009-es veszélyeztetettségi megállapítást, amely alapján az üvegházhatású gázok veszélyt jelentenek a közegészségre. Ha ezt visszavonnák, az ügynökség gyakorlatilag nem tudná szabályozni a klímaváltozást okozó kibocsátásokat. Zeldin erről a videóban úgy fogalmazott, hogy

az ügynökség azon dolgozik majd, hogy megszűnjön a jogi felhatalmazásuk a szén-dioxid és más üvegházhatású gázok szabályozására. A videóban ezt „a klímaváltozás vallásának szent gráljaként” emlegette.

Zeldin a bejelentést „az Egyesült Államok történetének legnagyobb deregulációs bejelentésének” nevezte, és azt mondta: „Ma véget ér a zöld átverés, és az E.P.A. hozzájárul az amerikai aranykor eljöveteléhez.”

Trump már korábban is kampányolt azzal, hogy lazítaná a fosszilis tüzelőanyag-ipart érintő szabályozásokat, és „fúrjunk, fúrjunk, fúrjunk” jelszóval hirdette energiapolitikáját. Visszatérése óta befagyasztotta a Kongresszus által jóváhagyott klímavédelmi programok finanszírozását, elbocsátotta az időjárási és klíma-előrejelzéseken dolgozó tudósokat, és csökkentette azokat az állami támogatásokat, amelyek a fosszilis tüzelőanyagokról való átállást segítették elő.

Az Egyesült Államok a világ történetének legnagyobb szén-dioxid-kibocsátója, és a tudósok szerint ez az üvegházhatású gáz a klímaváltozás fő mozgatórugója. A tavalyi év volt a legmelegebb a feljegyzések kezdete óta, és az országban 27 olyan természeti katasztrófa történt, amelyek egyenként legalább 1 milliárd dolláros kárt okoztak – míg 1980-ban ez a szám csupán három volt.

Sheldon Whitehouse, Rhode Island demokrata szenátora a New York Timesnak azt mondta „ma jött el az a nap, amiért Trump nagy olajipari támogatói fizettek”. Szerinte az E.P.A. lépései támadást jelentenek a tiszta levegő, a tiszta víz és a megfizethető energia ellen. „Zeldin igazgató nyilvánvalóan hazudott, amikor azt mondta, hogy tiszteletben tartja a tudományt és meghallgatja a szakértőket” – tette hozzá.

Gina McCarthy, aki az Obama-kormányzat idején vezette az E.P.A.-t, azt mondta, hogy ez „az E.P.A. történetének legsötétebb napja”.

Szerinte ezeknek a szabályoknak a visszavonása „nem csupán szégyen, hanem fenyegetés mindannyiunk számára”.


# Csináld másképp

Te mit csinálnál másképp? - Csatlakozz a klímaváltozás hatásairól, a műanyagmentességről és a zero waste-ről szóló facebook-csoportunkhoz, és oszd meg a véleményedet, tapasztalataidat!

Link másolása
KÖVESS MINKET:

JÖVŐ
A Rovatból
A ChatGPT a saját gyerekei megölésével vádolt meg egy ártatlan férfit
Stimmelt a férfi neve, a szülővárosa, a gyerekek száma, a nemük, csak az nem, hogy a háromból kettőt meggyilkolt. Ja, és a harmadikat is megpróbálta eltenni láb alól. Legalábbis a mesterséges intelligencia szerint.


Az osztrák Noyb nevű adatvédelmi jogvédő szervezet újabb panaszt nyújtott be az OpenAI ellen, mert a ChatGPT egy norvég férfit tévesen gyilkossággal vádolt meg, írja az Engadget. A mesterséges intelligencia azt állította róla, hogy

21 év börtönt kapott két gyermeke meggyilkolásáért és egy harmadik megölésének kísérletéért, miközben ez nem igaz.

A ChatGPT a valós adatokat is összekeverte a hamis állításokkal: helyesen adta meg a férfi szülővárosát, valamint gyermekei számát és nemét. A Noyb szerint ezzel egyértelműen megsértette az adatvédelmi szabályokat.

Nem ez az első eset, hogy a ChatGPT valótlan vádakkal illet ártatlan embereket. Korábban egy férfit csalással, egy bírósági tudósítót gyermekbántalmazással, egy jogászprofesszort pedig szexuális zaklatással hozott összefüggésbe – derül ki a magazin cikkéből.

Az OpenAI eddig azzal védekezett, hogy a ChatGPT figyelmezteti a felhasználókat a hibák lehetőségére, de a jogvédők szerint ez nem elég. A kérdés most az, hogyan reagál a cég az újabb panaszra – és hogy egy mesterséges intelligencia megúszhatja-e annyival, hogy „bocsánat, tévedtem”.

(via Telex)


Link másolása
KÖVESS MINKET:


JÖVŐ
A Rovatból
Balogh Petya: A kínai DeepSeek semennyire nem veszélyes, sőt, egy demokratikusabb irányba viszi az AI-fejlesztést
Az olcsó kínai AI megjelenése megrengette az amerikai tőzsdét. Balogh Petya szerint azonban ennél jobb nem is történhetett volna. Lehet, hogy a nagy amerikai techcégek, amelyek ezért a monopóliumért versenyeztek, most veszítettek, de a világ mindenképpen nyert.


Komoly pánikot váltott ki Amerikában, hogy egy kínai cég olyan mesterséges intelligenciával állt elő, amelyik töredékáron készült, és mégis hasonló teljesítményt nyújt, mint a ChatGPT. A DeepSeek mindössze 5,6 millió dollárba került. A hírre az amerikai tőzsde a történelem egyik legnagyobb részvényzuhanásával reagált. A mesterséges intelligenciákhoz drága chipeket gyártó NVidia egyetlen nap alatt 600 milliárd dollárt veszített az értékéből. Ez 17%-os esés, igaz, az első pánik után másnap 8%-ot erősödtek a cég részvényei.

De a DeepSeek rávilágított arra, mennyire törékeny az amerikai óriáscégek előnye Kínával szemben a mesterséges intelligencia terén.

Donald Trump úgy reagált, végsősoron jó dolog történt, mert hosszabb távon olcsóbban lehet majd fejleszteni. Hogyan lehet, hogy ilyen olcsón ki tudott jönni a DeepSeek, és ez az esemény milyen hatással lesz a mesterséges intelligencia fejlesztésére? A kérdéseinkre Balogh Petya válaszolt, aki az STRT Holding Nyrt igazgatósági elnöke, és befektetéseik mellett csapatával tavaly több ezer cégvezetőnek tartott oktatást az AI fejlődéséről és várható üzleti hatásairól. Kiderült, őt kifejezetten feldobták az új fejlemények.

– Örülünk, és miért örülünk?

– Azért, mert az egyik nagy dilemmája a technológiának az utóbbi évtizedekben, hogy több olyan technológia volt, ami nagyon nyitottnak, nagyon szabadnak és demokratizálónak indult, és végül egy-egy monopólium rátelepedett. Maga a webes böngészés és információszerzés is szabadnak indult, hiszen bárki tud weboldalt csinálni, de aztán kiderült, ahhoz, hogy bárkinek a weboldalát megtaláljuk, csak egy darab játékos lett a Google, akin keresztül ezt hatékonyan és jól lehetett megoldani.

Úgyhogy végül is a webet a Google monopóliumba tudta ezzel hajtani, és a webes kereséseknek, hirdetéseknek ő lett a vámszedője. És most már ott tartunk, hogy akár a tranzakció értékének a negyede, ötöde hirdetési költség formájában ennél a vámszedőnél landol.

Ugyanígy a social médiában a Meta, azaz a Facebook anyacége, az Instagram és más platformok révén szintén monopóliumot alakított ki, és most arra törekszik, hogy a TikTokot is megszerezze, ezzel tovább erősítve pozícióját. Tehát egy szabadnak, nyitottnak indult technológiából végül monopólium lett. A mesterséges intelligencia kapcsán ez azért veszélyes, akárcsak a Google kapcsán, hogy aki a tudáshoz való hozzáférést vezérli, annak nemcsak brutális gazdasági, hanem hihetetlen politikai befolyásoló ereje is lesz. Nem véletlen, hogy amikor Trump először nyert, akkor azt egyértelműen egy, a Facebookot ügyesen használó csapatnak, a Cambridge Analyticának köszönhette jelentős mértékben, mert a Facebookot, mint manipulatív eszközt a politikai célokra fegyverként bevetve tudtak a szavazókra hatni.

Ha ugyanez történik a mesterséges intelligenciában, akkor lesz egy cég, amely eldöntheti, hogy egy-egy kérdésben mit tudjon az egész emberiség.

És akkor jön egy kis kínai játékos, aki pedig megmutatja, hogy több nagyságrenddel olcsóbban közel olyan színvonalat tud előállítani. És nem elég, hogy megcsinálja ezt, és árban versenyezne vele, hanem a teljes fejlesztését, az összes programkódot, a teljes adatbázist, a létrejövő mesterséges intelligenciát mindenestől bedobja a közösbe.

– Ez neki miért jó?

– Érdekes, hogy nem ők kezdték ezt a játékot, hanem nyílt forráskódú fejlesztésben is sokan kísérletezgettek, hogy tudnak-e valami hasonlót csinálni, mint a ChatGPT, de a legnagyobb játékos az utóbbi években ebben a Meta lett, a Facebook anyacége. A cég még nem tudja, hogyan fog üzleti hasznot húzni, de azt tudja, hogy nem szeretné, ha a három nagy monopóliumból valaki más nyerje meg a versenyt. Ezért egy Llama nevű modellt tett elérhetővé, amely szintén ingyenesen hozzáférhető.

Ez egyfajta válasz volt a nagy monopóliumokra: egy esély arra, hogy a piac demokratizálódjon.

Most a kínaiak rájöttek arra, hogy mindabból a kutatási eredményből, amit az emberiség az utóbbi években a témában felhalmozott, hogyan lehet nagyon olcsón, nagyon könnyen, közel olyan szintű mesterséges intelligenciát előállítani, mint egy évvel ezelőtt a csúcstechnológia volt. És ez nekik kevesebb, mint 6 millió dollárba került, és egy kis csapattal csinálták meg, ráadásul egy kis kutatócsapattal. Innentől ez továbbfejleszthető, újra tréningezhető.

Pár millió dollárnyi energiát elégetve egy szerverteremben, a kommunista propagandát kiszedve, bárki tud csinálni egy saját változatot, mert ott van hozzá minden készen.

És ami még izgalmasabb, hogy amennyiben valaki erre építve egy új dolgot akar fejleszteni, akkor már ingyen elérhető ez a lépcső, és innen már csak a következő lépésre kell költeni. Azaz hirtelen a nyílt forráskódú, a mindenki által hozzáférhető, mindenki által ingyen használható technológia, ha nem is leelőzte, de majdnem utolérte a csúcstechnológiát.

– Ez nagyon szépen hangzik, hogy innentől kezdve bárki a saját képére és hasonlatosságára szabva újabb és újabb AI-okat tud létrehozni. Na, de ezt mégiscsak egy nem éppen baráti hatalom fejlesztette ki. Biztos, hogy nem veszélytelen ránk nézve, hogy ez az AI Kínából jön?

– Szerintem semennyire nem veszélyes. Nyilván a DeepSeek-ként elérhető modellben vannak olyan témák, amik a kínai központi narratívát tartalmazzák, és ha csak egy olcsó konkurenciája lenne a ChatGPT-nek, ha nem adtak volna ki semmit nyílt forráskódra, akkor ez egy olcsóbb, csak éppen egy másik ország aktuális narratíváját közvetítő modell lenne, amiben lehetne egyfajta társadalmi, kulturális, politikai veszély. De igazából mindegyik nagy nyelvi modell tud eszköz lenni arra, hogy valakinek a narratíváját közvetítse.

Úgyhogy a demokratikusabb világ irányába mind üzleti, mind társadalmi oldalról nem az vezet, hogy egy olyan modell nyerjen, aminek az értékeivel jobban egyetértek, hanem az, hogy ebből egy sokszereplős piac jöjjön létre, amiben sokféle modell van, és kialakul a modellek között egy verseny, mert ingyen elérhető most már nagyon sokféle modell.

Ennek adott egy újabb lökést most a DeepSeek is, de ez egyben azt is jelenti, hogy nagyon hamar fog valaki csinálni majd egy ugyanilyen tudású, szintén ingyenes, akár ingyen hozzáférhető, de a kínai helyett például egy európai narratívát közvetítő modellt. És igazából ez benne a jó. A társadalom érdeke nem abban van, hogy az amerikai vagy a kínai narratívát hordozó modell győzzön, hanem hogy nagyon sokféle modell legyen, és legyen köztük verseny.

– Nagyon sok esetben tetten értük azt, hogy a kínaiak elég kreatívan értelmezik a licencjogot. Biztosak vagyunk benne, hogy ez a DeepSeek teljesen originális fejlesztés, és nem részben ipari kémkedés eredménye?

– A mesterséges intelligencia területén az az izgalmas, hogy nagyon felgyorsultak az események, de a technológia nagyja bárki által elérhető tudományos publikációkban zajlik. A szédítő gyorsaságról tavaly nyáron volt egy személyes élményem: kijött egy új kutatási publikáció, ami újfajta algoritmust javasolt arra, hogy hogyan lehetne hatékonyabban képeket generálni. Majd pár nappal később megjelent a forráskód, ami ezt megvalósította, szintén ingyen hozzáférhetően, mert valaki ezt elolvasta és implementálta, ezután megint csak pár nappal később már le lehetett tölteni egy olyan ingyenes, közösség által fejlesztett szoftvert, ami ezt tudta, és pár héttel később pedig a fizetős szoftverekbe is beépült ez az új megoldás. Talán az OpenAI az egyetlen, aki a nevével ellentétben szinte semmit nem publikál, vagy nagyon keveset csak. A 60-as években az Intel, akkori nevén Fairchild Semiconductor marketingvezetője megfigyelte, hogy kétévente duplázódik az ugyanannyi dollárért eladott tranzisztoroknak a száma. Kétévente tudnak mindig duplázni és újra duplázni. Akkor 100 tranzisztor volt nagyjából egy mikrochipben. Gordon Moore volt ez az ember, és róla nevezték el Moore törvényét. Ha ez a jóslata akkor igaz, akkor most, mivel 60 év alatt 30-szor duplázott a technológia, a 100 darab tranzisztorból mára körülbelül 100 milliárdnak kellene lennie.

És így is lett, ha bemegyünk az almás boltba, akkor a 134 milliárd tranzisztorral rendelkező M2 Ultra processzoros Macintosh-t haza tudjuk vinni.

Az AI viszont, ahogy én is kutattam, nem ezen a pályán fejlődik, hanem ennél meredekebb a gyorsulás üteme. Összegyűjtöttem az ezzel kapcsolatos kutatásokat és eredményeket, amiből az rajzolódott ki, hogy a főbb hajtóerejei a mesterséges intelligencia fejlődésének oda mutatnak, hogy jelenleg nagyjából évi 26-szoros az a tempó, ahogy fejlődik.

Azaz évente tudunk olyat, hogy ugyanazt a szintet huszonhatod áron érhetjük el, vagy 26-szor pontosabbat tudunk létrehozni ugyanannyi pénzért. Ez kétéves távon 650-szeres fejlődés, ami eddig soha nem látott tempó az emberiség történelmében.

És ez alapján én azt számolgattam, hogy ha valaki a ChatGPT négyesnek az egy-másfél évvel, majdnem két évvel ezelőtti színvonalát most valaki a kutatási költség huszadáért, huszonötödéért, tehát pontosan olyasmi összegért tudja megvalósítani, mint amennyibe a DeepSeek került, az nagyjából ezen a trendvonalon van rajta. Azaz van-e egy brutális, felfoghatatlan, emberi aggyal beláthatatlan fejlődési tempó, és az, hogy a DeepSeek 6 millió dollárból megcsinálta azt a modellt, ami körülbelül az egy évvel ezelőtti ChatGPT-vel pariban van nagyjából, az pont ennek a brutális fejlődésnek a visszaigazolása.

– De ha innen nézzük, hogy az új kínai AI rajta van ezen a vonalon, akkor valójában nem volt akkora meglepetés, hiszen csak egy korábbi modellel jött ki, ami pontosan ennek megfelelően olcsóbb. Akkor viszont nem értem ezt a nagy tőzsdei pánikot.

– Az ad okot pánikra, az a nagy kérdés merült fel, hogy amit készítenek 5 milliárd dollárból, annak egy éven belül az értéke a huszada lesz. Ez a dilemmája annak a típusú kutatásnak, amit az OpenAI is végez, meg a Google, vagy az Anthropic is.

Ezeket a nagy nyelvi modelleket ennyire drágán fejleszteni fontos és jó cél, csak sosem fog anyagilag megtérülni. Amiért a befektetők ennyi pénzt fektettek ezekbe az alapkutatásokat végző cégekbe, az az a hit volt, hogy a hármójuk közül valamelyik ezt meg fogja nyerni, és monopóliumként ez majd sokszorosan megtérül. De amit a DeepSeek példája mutat, az pontosan az, hogy a tavalyi eredményt újra szinte fillérekért el lehet érni.

Azonban, ha évről évre drasztikusan csökken a belépési küszöb, hogy valaki ugyanezzel foglalkozzon, akkor nem lesz monopólium, és az nem tudja kirabolni az emberiséget, akkor nem tud az OpenAI-ba, vagy a Microsoftba, vagy a Google-be, vagy az Anthropicba fektetett sok milliárd dollár sokszorosan megtérülni. És ez okozta az ijedtséget, hogy ezek a típusú befektetések, amit az alapmodell fejlesztésére fordítanak, valószínűleg sohasem fognak megtérülni. Viszont voltak olyan cégek, amiknek nem esett a részvényárfolyama. Ezek azok voltak, amelyek nem ezzel a típusú alapkutatással foglalkoznak, hanem csak használják a mesterséges intelligenciát.

Egy olyan cég, ami a mesterséges intelligenciát használva szolgáltatást fejleszt egy iparág számára, annak ez a legjobb dolog, ami történhet, hogy hirtelen a költségei, amiből az adott piaci szolgáltatását nyújtani tudja, leesett a huszadára, vagy századára, és le fog majd újra esni, és újra.

És ez azt jelenti, hogy valószínűleg a mesterséges intelligencia körül a nagy megtérülés nem az alapmodellek fejlesztésében lesz, hanem a mesterséges intelligencia modellek ipari, vagy kereskedelmi hasznosításában, azaz a megoldások készítésében.

– Én szőrösszívű kapitalistaként valóban kivonnám a pénzemet az alapkutatásból, viszont ennek az lenne a következménye, hogy lelassul vagy leáll maga a fejlesztés, nem lesznek újabb modellek.

– Igen, és nem. Biztos, hogy emiatt lesz tőkekivonás ezekből a nagyon nagy alapkutató cégekből. A másik oldalról viszont van egy Hugging Face nevű gyűjtőoldal, ahol mesterséges intelligencia modelleket lehet publikálni ingyen. Az a különlegessége ennek az oldalnak, hogy ma már több mint egymillió különböző mesterséges intelligencia modell érhető el ott ingyen, publikusan a közösségbe bedobva, és több mint 3 millió fejlesztő van ebben a közösségben, akik mesterséges intelligencia fejlesztéssel foglalkoznak valamilyen szinten. Tehát nem fog ettől leállni a folyamatos fejlődés, mert már nem néhány szakember, szűk kis csoportokban, elszigetelten viszi előre ezt a tudományágat, hanem nagyon széles fejlesztőbázisa lett, rengeteg ebbe beletanuló szakértővel, akik együtt hozzák az innovációkat és áttöréseket.

Valószínűleg, ha a három nagy játékos visszavesz a fejlesztési tempóból, és kevesebb pénzből gazdálkodva fejleszt újabb és újabb modelleket, akkor is brutális tempóban fog fejlődni ez a terület, de egy sokkal kiegyensúlyozottabb irányban.

Például az Nvidia részvényei azért estek, mert rájöttek a befektetők is, hogy ha nem fog tízmilliárdokat költeni a Google évente AI-hardverek beszerzésére, akkor az a pénz nem fog beáramlani az Nvidiához, így hosszú távon nem tudja azt a profitabilitást, bevételszintet az Nvidia biztosítani. Mert a másik nagy csavar a sztoriban az, hogy a kínaiak azért tudták 6 millió dollárból megoldani a saját fejlesztésüket, mert az amerikaiak blokkolták, hogy a legkorszerűbb chiptechnológiához hozzáférhessenek Kínában, ezért kénytelenek voltak a számukra elérhető, kevésbé fejlett technológiát használva dolgozni.

– Hogy állunk az AI karbonlábnyomával? Bizonyos hírek szerint a legnagyobb környezetterhelést jelenleg ez az iparág okozza.

– Ez nem igaz. A ChatGPT elkér tőlünk 4-5 dollárt 1 millió szótagnyi gondolkodásért. Azért egymillió szótagnyi gondolkodás az sok, tehát azt be lehet látni, hogy annyit olvasni vagy írni, vagy végiggondolni, az nagyon sok gondolkodás, és az pár dollárba kerül. Ez a bizonyos 26-szoros fejlődési tempó, ebben az is benne van, hogy ugyanazt a szintű gépi gondolkodást, amit egy évvel ezelőtt egy dollárnyi energiából tudtunk megcsinálni, azt mostanra kb. a tizedéből. Tehát van egy drasztikus csökkenése az egy egységnyi gondolkodásra eső energiaköltségnek. Az tény, hogy nagyon sok cég rengeteg üzleti alkalmazásban és nagyon sok gondolkodást használ, és ezek nagyon központosítottan, néhány adatközpontban jelentkeznek, és nem mindenkinek otthon a saját számítógépén.

Azaz az energiafelvétel is pontszerűen, központosítottan történik jelenleg. De ez elosztva több százmillió végfelhasználóra, ha mindenki emiatt fél wattal többet fogyasztana a saját háztartásában, mert helyben futtatná ezeket a programokat, észre sem vennénk a teljes energiafelhasználásban ennyi többletet.

Számokra fordítva: az OpenAI néhány százmillió dollárt költ áramra évente, így alig egy ezrelékét használja az Egyesült Államok összes energiafelhasználásának, valószínűleg a teljes AI iparág is kevesebb, mint egy százalékát összesen, miközben a bitcoin globális működése a teljes amerikai fogyasztáshoz képest 2,5-4 százalékot. Az AI rengeteg közvetlen hasznot hajt, többszázmillió embernek segítve naponta, míg a másikkal csak spekulálni lehet. Abba is gondoljunk bele, hogy ha egy emberrel gondolkodtatnánk egymillió szótagnyit, akkor több hétig kellene őt etetni, itatni, energiával ellátni, kiszolgálni az igényeit, feldolgozott élelmiszert az asztalára tenni. Könnyen belátható, hogy csak ez nagyságrendekkel több, mint pár dollár. Ilyen szempontból az egységnyi elvégzett munkára vetített lábnyom messze tört része minden másnak, ráadásul több gondolkodást tud az emberiség végezni, mint korábban. Ráadásul a modellek robbanásszerű fejlődésével, ami akkor is észvesztően gyors marad, ha vissza is vesznek kissé a tempóból, hamarosan eljutunk oda, hogy

minden eszközünkbe, számítógépünkbe, mobiltelefonunkba, hűtőnkbe előbb-utóbb beépül majd az a képesség, hogy helyben tudjon mesterséges intelligenciát futtatni, és így ez az áramfelhasználás sem feltétlenül fog hosszú ideig a nagy adatközpontokban maradni, hanem ennek egyre nagyobb része ki fog kerülni a kliensekhez.

Ilyen körei voltak már a technológiának, amikor hirtelen mindent szerverekre raktunk, aztán meg kiderült, hogy sokkal praktikusabb egyes programokat helyben futtatni, mert már helyben is tudjuk, hiszen olyan okosak a készülékeink. Tehát nem gondolom, hogy ennek a technológiának hosszú távon brutális kell, hogy legyen az energialábnyoma, pontosan a fejlődési tempója teszi lehetővé azt, hogy ez ne így legyen.


Link másolása
KÖVESS MINKET:


JÖVŐ
A Rovatból
DeepSeek: elillant a nagy amerikai tech-cégek fölénye, de a semmiből felbukkant kínai cég körül is egyre több a kérdőjel
A DeepSeek megjelenése felforgatta a mesterséges intelligencia világát, ugyanakkor egyre többen sejtik mögötte a kínai államot, és az amerikaiak kétségbe vonják azt az állítását, mennyiből és hogyan jutott el idáig.


Úgy fest, a DeepSeek felrobbantotta az ipar eddig biztosnak hitt narratíváját az AI végtelen energia- és erőforrásigényéről, és akár véget is vethet az „AI-hasznosítással” operáló cégek varázsának a Wall Streeten. A befektetések dollármilliárdjait vonzó nagy nevekkel szemben (mint amilyen az OpenAI mellett az Nvidia, az Alphabet, a Microsoft stb.) most megjelent egy új kínai szereplő, és rámutat: egyáltalán nem biztos, hogy az USA meg tudja tartani vezető szerepét a technológia fejlesztésében.

A DeepSeek nagyméretű nyelvi modellje lényegében egy olcsóbb, hatékonyabb ChatGPT, amely a kínaiak állítása szerint az OpenAI költségvetésének töredékéből és sokkal kevesebb (ráadásul elavultabb, exportkorlátozások előtti) Nvidia chippel készült, mint bármelyik vezető chatbot.

„Ez hatalmas földrengés az AI szektorban. Mindenki csak néz, és azt mondja: 'nem gondoltuk volna, hogy ez lehetséges’. Most, hogy mégis az, át kell gondolnunk mindent, amit eddig terveztünk” – vallotta be a CNN-nek Gil Luria, a D.A. Davidson befektetési csoport technológiai kutatási vezetője.

Ugyancsak kellemetlen pillanat ez a Trump-adminisztráció számára, hiszen az új elnök gyakorlatilag napokkal a DeepSeek megjelenése előtt jelentett be félbillió dolláros magánszektorból származó amerikai befektetést olyan adatközpontok építésére, amelyekkel az Egyesült Államok megőrizhetné vezető szerepét az AI fejlesztésében. Talán még az USA kormányzatánál is rosszabbul érintheti a kínai nyelvi modell megjelenése az AI-chip szállító Nvidiát, hiszen történelmi veszteséget szenvedett el, miután a részvényeinek értéke a DeepSeek hatására egy nap alatt 17 százalékot, körülbelül 600 milliárd dollárt zuhant.

Forrás: Nvidia

Az Nvidia eddig az AI-forradalom legnagyobb nyertese volt: háromtrillió dolláros vállalattá vált, de ha a kínaiak valóban képesek voltak ChatGPT-szintű modellt alkotni tizedannyi (vagy kevesebb), korábbi generációs processzorral, akkor lehet, hogy az ügyfelei nem fognak a jövőben annyi chipet vásárolni, amennyit a cég remélt. Bár teljesen kizárt, hogy az Nvidia emiatt feltenné a kezét (nincs is rá oka, hiszen a nyelvi modelleken túl önvezető, robotikai és más AI technológiák egész sorához szállít hardvereket), azért elismerte: a DeepSeek modellje „kiváló AI-fejlesztés”, amely „jól illusztrálja, hogy hogyan lehet új modelleket létrehozni”.

A DeepSeek megjelenése tehát arra kényszerítette a befektetőket, hogy átgondolják az AI-ipar jelenlegi és jövőben várható helyzetét.

Az eddigi narratíva szerint az AI fejlesztéséhez folyamatosan növelni kell a számítási kapacitást, de a kínai AI megjelenése „egyértelművé teszi, hogy az adatközpontok nagy mértékű skálázása aligha lesz gazdaságilag kifizetődő” – mondta Luria.

Ugyanakkor a Szeretlek Magyarországnak nyilatkozó Balogh Petya szerint a DeepSeek létezése jó hír, mert demokratikusabb irányba viszi az AI-fejlesztést. Az AI fejlődéséről és várható üzleti hatásairól cégvezetői oktatást is szervező üzletember szerint a kínai nyelvi modellnek köszönhetően nem fog monopol helyzetbe kerülni maroknyi amerikai cég – ahogy az történt az online keresés (Google) vagy éppen a közösségi média esetében (Facebook).

Ha az USA nagytőkés technológiai vállalkozásainak nem is, az AI demokratizálódásának valóban jót tesz, hogy piacra lépett egy sokkal olcsóbban előállított, forráskódját ingyen megosztó alkalmazás. Azt azonban az amerikaiak vitatják, hogy a Deepseek tényleg csak egy kicsi kínai startup lenne, amely mindössze 5,6 millió dollárból létrehozta azt, amit nekik csak sok milliárd dollárból sikerült.

Több amerikai cég is bedobta: adatot lophatott a DeepSeek

A Microsoft és az OpenAI vizsgálatot indított annak kiderítésére, hogy egy, a kínai DeepSeek startuphoz köthető csoport jogosulatlanul szerzett-e adatokat az OpenAI technológiájából – értesült a Bloomberg. A Microsoft biztonsági szakértői azt állítják, már tavaly ősszel észlelték, hogy valakik nagy mennyiségű adathoz juthattak az OpenAI alkalmazásprogramozási felületén keresztül, ami az OpenAI szolgáltatásainak fő hozzáférési pontja a szoftverfejlesztők és ügyfelek számára.

A Microsoft – amely az OpenAI legnagyobb befektetője – állítólag azonnal jelezte a gyanús tevékenységet a cégnek, és az eset már akkor komoly aggodalmat keltett az amerikai technológiai szektorban.

David Sacks, a Fehér Ház mesterséges intelligenciáért és kriptovalutákért felelős szakértője a Fox Newsnak adott interjúban azt mondta, valóban „lehetséges”, hogy a DeepSeek amerikai szellemi tulajdont lopott. „Jelentős bizonyítékok utalnak arra, hogy a DeepSeek lényegében kinyerte az OpenAI modelljeiből a tudást” - fogalmazott.

A mesterséges intelligencia iparban elterjedt gyakorlat az ún. „desztillálás”, ami lehetővé teszi egy meglévő modellből származtatott, hatékonyabb rendszer kialakítását. Ez általában teljesen legális folyamat – egészen addig, amíg nem egy cég zárt, védett technológia adatait használják fel, mert az már komoly jogi problémákat vethet fel. A OpenAI felhasználási feltételei világosan kimondják, hogy az általuk generált adatokat tilos felhasználni versenytárs technológia létrehozására. Persze, hogy a Deepseek esetében mindez ténylegesen megtörtént-e, arra egyelőre nincs egyértelmű bizonyíték.

„Tudjuk, hogy a Kínai Népköztársaságban aktívan dolgoznak azon, hogy lemásolják a fejlett amerikai AI-modelleket” – nyilatkozta Liz Bourgeois, az OpenAI szóvivője a The New York Timesnak. „Jelenleg vizsgáljuk, hogy a DeepSeek jogosulatlanul használta-e fel a modelljeinket, és ha több információval rendelkezünk, megosztjuk azt.”

Nem is egy kicsi cég?

A Deepseek megjelenése azért robbant ekkorát, mert ha igaz, amit állítanak, akkor az eddig gondoltnál nagyságrendekkel kevesebből is elő lehet állítani mesterséges intelligenciát, nincs szükség óriási mennyiségű fejlett chipre, különleges videókártyákra, hatalmas adatközpontokra. Azt állítják, erre egy kicsi startup is képes lehet.

A 2019-ben alapított Deepseek mögött egy Liang Wenfeng nevű üzletember és a High-Flyer Quant nevű hedge fund áll. Liang Wenfeng szerint a DeepSeek működése radikálisan eltér a nagyobb tech-cégekétől: míg például az Alibaba több százezer alkalmazottat foglalkoztat, ők egy kutatóintézetre hasonlítanak, amelyet főként frissen végzett egyetemisták és doktorandusz hallgatók alkotnak. Liang szerint a hagyományos tech-mamutok „nem biztos, hogy alkalmasak a jövő AI-iparának formálására” a magas költségek és merev szervezeti struktúrák miatt.

Ugyanakkor a Forbes arról ír, hogy egyáltalán nem biztos, hogy a DeepSeek tényleg annyira kicsi, amekkorának láttatni próbálja magát. Egyes források szerint

egy hatalmas hardverfarmot építettek, amiben legalább 10 ezer, de akár 50 ezer Nvidia Tensor A-100 grafikus kártya is dolgozhat. Ez pedig több százmillió dollárba kerül.

Az is furcsa, hogy a cégnek nincsenek kereskedelmi tervei, látszólag nem érdeklik őket a bevételek. Az amerikaiak szerint mindez arra utal, hogy a vállalkozás mögött valójában a kínai állam állhat, amely így próbál globális pozíciókat elfoglalni a mesterséges intelligencia-elsőségért folyó versenyben.

Lopás nélkül nincs is AI?

Persze az is lehet, hogy mindez csak egy kommunikációs ellencsapás az amerikai techcégek részéről, ráadásul az ő esetükben sem egyértelmű, hogy jogilag tiszta megoldásokkal képezték ki saját modelljeiket.

Az OpenAI például több tucatnyi perrel néz szembe, amelyekben azzal vádolják, hogy szabálytalanul használt fel jogvédett internetes tartalmakat a modelljei kiképzéséhez.

A The New York Times is pert indított az OpenAI és partnere, a Microsoft ellen, mivel állításuk szerint cikkeik millióit használták fel a chatbot képzésére, ami a hírforrások konkurenciájává válhat.

Egy nemrég készült jelentés ráadásul arra is rámutatott, hogy az OpenAI YouTube-videók hanganyagaiból szintén leiratot készített, hogy aztán az AI-modelljei továbbfejlesztésére használja fel. Belső levelezések szerint a vezetők tudták, hogy ez szembe mehet a YouTube irányelveivel, ennek ellenére, egy belső csapat – amelynek tagja volt Greg Brockman, az OpenAI elnöke is – több mint egymillió órányi YouTube-videót dolgozhatott fel, hogy aztán a szöveges adatokat a GPT-4 modellbe töltse és ezzel alaposan felhúzza annak tudásbázisát.

Az OpenAI vezérei: Greg Brockman (balra) és Sam Altman. Fotók: Wikipedia

A OpenAI vezérigazgatója, Sam Altman korábban elismerte, hogy a fejlett mesterséges intelligencia modellek betanításához szerzői jogvédelem alatt álló anyagokra van szükség, és kijelentette, hogy enélkül lehetetlen lenne ilyen rendszereket fejleszteni. A kijelentés azonnal felháborodást váltott ki a közösségi médiában, és most vissza is hullik a vállalat fejére:

miközben ők azt kommunikálják, hogy a DeepSeek akár el is lophatta az adataikat, egyre többen vádolják őket képmutatással.

Egy Bluesky-felhasználó így fogalmazott: „nevetséges, hogy az OpenAI, amely minden kérdés nélkül falta fel az adatainkat, most ujjal mutogat a DeepSeekre, amiért pontosan ugyanezt csinálja”. Ed Zitron AI-kritikus pedig így kommentálta az ügyet: „elnézést, de nem bírom abbahagyni a röhögést. Az OpenAI, a vállalat, amely gyakorlatilag az egész internet ellopására épült, most azért panaszkodik, mert a DeepSeek esetleg a ChatGPT válaszaiból tanult.”

Újabb AI-modellek jönnek, a cél az AGI

Miközben mindenki a DeepSeek sikerére és az amerikai AI-cégek befeszülésére figyelt, az Alibaba is bejelentett egy új mesterséges intelligencia modellt, a Qwen 2.5-Max-ot. A kínai tech-óriás szerint az új modell „szinte minden területen felülmúlja a GPT-4o-t, a DeepSeek-V3-at és a Llama-3.1-405B-t [a Meta AI-modelljét]” – idézi az Alibaba Cloud hivatalos WeChat-oldalát a Reuters.

A bejelentés időzítése azt mutatja, hogy az Alibaba komoly nyomást érez a hazai versenytársak részéről, és valószínűleg így volt ezzel a TikTok anyavállalata, a ByteDance is, amikor két nappal a DeepSeek-R1 január 20-i megjelenése után közölte: frissítette saját AI-modelljét, amely szerintük szintén felülmúlja az OpenAI által kifejlesztett terméket. Ezt az állítást igazolták is egy AIME benchmark teszttel, ami azt méri, hogy egy mesterséges intelligencia modell mennyire érti az összetett utasításokat és hogyan reagál rájuk.

Mindez arra utal, hogy bármi is az igazság a DeepSeekről, Amerika komoly versenytársakkal nézhet szembe.


Link másolása
KÖVESS MINKET: