Az OpenAI bemutatta a GPT-4o modellt alapul vevő új képgeneráló funkciót, amely mostantól elérhető a ChatGPT felhasználói számára. A funkció minden ChatGPT verzióhoz alapértelmezett lesz, és lehetővé teszi a magas minőségű képek létrehozását anélkül, hogy külön modellt kellene választani, mint a DALL-E esetében.
A GPT-4o alapú kép-generálás különbözik az előző verzióktól, mivel javított képességgel rendelkezik a szöveg, logók és más összetett elemek pontosabb megjelenítésére. A nagy multimodális modell révén a GPT-4o képes dolgozni szöveggel, képekkel, audióval és videóval, így egyetlen kérés segítségével képes képeket létrehozni különböző objektumokkal és forgatókönyvekkel.
A díjmentes hozzáféréssel rendelkező felhasználók számára a generálásra vonatkozó korlátozások változatlanok maradnak (napi három képig), azonban az új rendszer jobb pontosságot biztosít a szöveges elemek képeken történő létrehozása során a korábbi modellekhez képest. Az új rendszer lépésről lépésre generálja a képeket, felülről lefelé és balról jobbra haladva, ami lehetővé teszi, hogy az összes elem részletesebben és helyesebben jelenjen meg.
Az új funkció lehetővé teszi a feltöltött képek szerkesztését is, új változatok létrehozásával, az eredeti képeket vizuális inspirációként használva.
[type] => post
[excerpt] => Az OpenAI bemutatta a GPT-4o modellt alapul vevő új képgeneráló funkciót, amely mostantól elérhető a ChatGPT felhasználói számára. A funkció minden ChatGPT verzióhoz alapértelmezett lesz, és lehetővé teszi a magas minőségű képek létrehozását anélk...
[autID] => 5
[date] => Array
(
[created] => 1743200700
[modified] => 1743175417
)
[title] => Az OpenAI bemutatta a GPT-4o alapú fejlettebb képgeneráló funkciót a ChatGPT számára
[url] => https://life.karpat.in.ua/?p=237058&lang=hu
[status] => publish
[translations] => Array
(
[hu] => 237058
[uk] => 236882
)
[trid] => vik3255
[aut] => gygabriella
[lang] => hu
[image_id] => 236884
[image] => Array
(
[id] => 236884
[original] => https://life.karpat.in.ua/wp-content/uploads/2025/03/screenshot-2025-02-04-at-095323.png
[original_lng] => 234398
[original_w] => 2036
[original_h] => 952
[sizes] => Array
(
[thumbnail] => Array
(
[url] => https://life.karpat.in.ua/wp-content/uploads/2025/03/screenshot-2025-02-04-at-095323-150x150.png
[width] => 150
[height] => 150
)
[medium] => Array
(
[url] => https://life.karpat.in.ua/wp-content/uploads/2025/03/screenshot-2025-02-04-at-095323-300x140.png
[width] => 300
[height] => 140
)
[medium_large] => Array
(
[url] => https://life.karpat.in.ua/wp-content/uploads/2025/03/screenshot-2025-02-04-at-095323-768x359.png
[width] => 768
[height] => 359
)
[large] => Array
(
[url] => https://life.karpat.in.ua/wp-content/uploads/2025/03/screenshot-2025-02-04-at-095323-1024x479.png
[width] => 1024
[height] => 479
)
[1536x1536] => Array
(
[url] => https://life.karpat.in.ua/wp-content/uploads/2025/03/screenshot-2025-02-04-at-095323-1536x718.png
[width] => 1536
[height] => 718
)
[2048x2048] => Array
(
[url] => https://life.karpat.in.ua/wp-content/uploads/2025/03/screenshot-2025-02-04-at-095323.png
[width] => 2036
[height] => 952
)
[full] => Array
(
[url] => https://life.karpat.in.ua/wp-content/uploads/2025/03/screenshot-2025-02-04-at-095323.png
[width] => 2036
[height] => 952
)
)
)
[video] =>
[comments_count] => 0
[domain] => Array
(
[hid] => life
[color] => red
[title] => Життя
)
[_edit_lock] => 1743168084:5
[_thumbnail_id] => 236884
[_edit_last] => 5
[views_count] => 1450
[_oembed_4c42cf9466ccfd63a339d0dec38f57f4] =>
Egy orosz dezinformációs hálózat manipulálja a nyugati chatbotokat – állítják amerikai kutatók. A ChatGPT és más alkalmazás válaszainak mintegy harmada Kreml-propagandát tartalmaz.
Szakértők szerint Oroszország a nyugati chatbotokat is manipulálja globális dezinformációs kampányaihoz. A NewsGuard adatelemző cég tanulmánya szerint a mesterséges intelligenciával működő párbeszéd-asszisztensek, például a ChatGPT válaszainak több mint egyharmada oroszbarát félretájékoztatást tartalmaz.
A kutatók szerint emögött a moszkvai Pravda (igazság) nevű hálózat áll, amely világszerte Kreml-barát propagandát terjeszt.
„A nyugati mesterséges intelligencia rendszerek eredményei között most hatalmas mennyiségű – 2024-ben 3 600 000 cikk – orosz propaganda szerepel, hamis állításokkal és propagandával fertőzve meg a válaszokat” – írják a kutatók jelentésükben.
A tanulmányhoz a NewsGuard a tíz legfontosabb mesterséges intelligencia alkalmazást vizsgálta meg, köztük a ChatGPT-4-et, a Smart Assistant-et, a Grokot, a Copilot-ot, a Meta AI-t, a Google Geminit és a Perplexity-t. Ezek mindegyike reprodukálta a Pravda által terjesztett hamis információkat, írja a tanulmány, hét chatbot még konkrét Pravda-cikkeket is idézett forrásként.
A kutatók szerint a Pravda hálózat úgy manipulálja a chatbotokat, hogy hamis híreivel elárasztja az AI-alkalmazások nagy nyelvi modelljeit (LLM), amelyekből a válaszokat generálják. Ezt a módszert „LLM grooming”-nak nevezik – írja a tanulmányról beszámoló Spiegel. A tanulmány szerint a mesterséges intelligencia chatbotok nemcsak felveszik az interneten keringő dezinformációkat, hanem szándékosan befolyásolják is őket.
Egy másik tanulmányban az amerikai Sunlight Project nevű NGO is a Pravda hálózat – más néven „Portal Kombat” – növekvő hatókörére figyelmeztet.
„A Pravda hálózat képessége a dezinformáció ilyen mértékű terjesztésére példátlan, és a mesterséges intelligencia rendszerek befolyásolására való lehetősége még veszélyesebbé teszi ezt a fenyegetést” – mondta Nina Jankowicz, a szervezet ügyvezető igazgatója az AFP-nek. „Az orosz befolyásszerzés hatókörének és kifinomultságának növekedésével a demokratikus vita integritása világszerte közvetlen veszélybe kerül.”
Ügyes módszerekkel árasztja el a webet az orosz dezinformációs gépezet, és úgy tűnik, már arra is rájöttek, hogyan lehet befolyásolni az MI-chatbotok válaszait.
Bizonyos esetekben a mesterségesintelligencia-chatbotok válaszaira is hatással lehet az orosz propaganda, derül ki a NewsGuard friss jelentéséből.
A híroldalakat értékelő rendszereket is fejlesztő cég állítja: bizonyítékokat talált arra, hogy a moszkvai székhelyű Pravda valótlan állításokat terjeszt, hogy befolyásolja a különböző MI-chatbotok válaszait.
A jelentés szerint a Pravda valósággal elárasztotta a keresési találatokat oroszbarát valótlanságokkal; csak 2024-ben 3,6 millió félrevezető cikket publikáltak. A NewsGuard az American Sunlight-projekt statisztikáit vizsgálva jutott ezekre a megállapításokra.
Mint kiderült: a 10 vezető chatbotot (így a ChatGPT-t és a Meta AI-t is) vizsgálva a szakemberek úgy találták, az esetek 33 százalékában valamennyi chatbot az orosz valótlanságokat ismételgette. Ilyen volt például az is, hogy Amerika titkos biofegyverlaborokat működtet Ukrajnában – összegez a TechCrunch.
A Pravda azért lehet hatékony az MI-chatbotok válaszainak befolyásolásában, mert fejlett keresőoptimalizálási megoldásokat alkalmaz – így a tartalmai láthatóbbá válnak. Igazán jó megoldás pedig jelenleg nincs erre, mivel a chatbotok nagyban támaszkodnak a webmotorokra.
Több ezer felhasználó egyszerre arra kezdett panaszkodni, hogy nem indul el, illetve a szokásosnál lassabb a ChatGPT mesterséges intelligencia program. A felhasználók egy része hibaüzenetet kapott, amikor megpróbált hozzáférni a webhelyhez és az alkalmazáshoz. Az OpenAI egyelőre nem ismerte el a problémát, így megkérdeztük magát ChatGPT-t is.
Az OpenAI népszerű chatbotjának, a ChatGPT-nek több ezer felhasználója jelentett fennakadásokat a szolgáltatásukban a downdetector.com kieséskövető oldal szerint – tudtam meg az Euronews.
Az OpenAI ugyan még nem ismerte el az üzemzavart, de a felhasználók a világ minden tájáról jelentettek problémákat az elmúlt két napban. A bejelentések száma csütörtökön, közép-európai idő szerint 12.30 körül ugrott meg. Az Egyesült Királyságban a közzététel időpontjáig több mint 5600, az Egyesült Államokban pedig több mint 4300 bejelentés érkezett az oldalra.
Ez történt hazánkban is. Míg az elmúlt két napban alig 1-2 bejelentés érkezett, addig csütörtökön 12.30 és 13.00 között több száz.
A felhasználók „Bad gateway” hibaüzenetet kapnak, amikor megpróbálnak hozzáférni a webhelyhez és az alkalmazáshoz.
A Világgazdaság szerkesztősége azt tapasztalta, hogy a mesterséges intelligencia chatbot működik, amit maga a program is megerősített számunkra.
A downdetector.com jelentései szerint a felhasználóknak szerdán is problémáik voltak a feltöltési sebességgel és a ChatGPT elérésével.
Egy friss kísérlet kimutatta, hogy elrejtett tartalmak felhasználásával manipulálható a ChatGPT keresőmotorja. A hibákat persze feltehetően hamar javítják majd.
Néhány napja már sima regisztrációval, fizetős ChatGPT Plus hozzáférés nélkül is elérhető az OpenAI által fejlesztett új, mesterségesintelligencia-alapú keresőmotor, amit a Guardian szerkesztősége azon melegében le is tesztelt, hogy mennyire manipulálható.
A lap által kedden megjelentetett cikk szerint az újságírók olyan weboldalak összefoglalására kérték a keresőt, amelyeken rejtett tartalmak voltak megtalálhatók. Ezek a rejtett tartalmak lehetnek harmadik féltől származó utasítások, amelyek megváltoztatják, bizonyos irányba terelik a ChatGPT válaszait, illetve lehetnek olyanok, amelyek eleve azért készültek, hogy befolyásolják a mesterséges intelligencia reakcióját: ilyen lehet például egy hosszabb szövegrészlet, ami egy termék vagy egy szolgáltatás előnyeit taglalja.
A kísérlet során egy URL-t adtak meg a ChatGPT-nek, ami egy fényképezőgép termékoldalának látszó, ám hamis weblapra mutatott. A mesterséges intelligenciától azt kérdezték, érdemes-e megvásárolni a gépet. A ChatGPT elsőre pozitív, de kiegyensúlyozott választ adott, rámutatva a gépnek néhány olyan tulajdonságára is, ami nem feltétlenül előnyös.
Abban az esetekben viszont, amikor az oldalon található rejtett szövegben arra utasították a ChatGPT-t, hogy előnyös értékelést adjon, a válasz mindig teljes mértékben pozitív volt. Ilyenkor a mesterséges intelligencia még akkor is így tett, ha az oldalon egyébként láthatóan negatív értékelések szerepeltek a termékről.
Jacob Larsen, a CyberCX kiberbiztonsági szakértője úgy fogalmazott, hogy ha a ChatGPT keresőjét így, a jelenlegi formájában hagyják működni, abban az esetben komoly kockázatot jelenthet, mert a fenti hibáit kihasználva a csalók olyan weboldalakat hozhatnak létre, amelyekkel becsaphatják a gyanútlan internetezőket.
A szakember ugyanakkor hozzátette, ez a keresőfunkció még igen friss fejlesztés, és mint ilyet, az OpenAI fejlesztői minden bizonnyal tesztelik, a hibákat pedig valószínűleg rövid időn belül javítani fogják.
A ChatGPT csak az egyik korai lépés volt az általános mesterséges intelligencia irányába. Az OpenAI 01 már a következő lépés lesz.
Az emberek az interneten egy furcsa új hibát találtak az OpenAI mesterséges intelligencia alapú chatbotjánál. A ChatGPT ugyanis bizonyos nevek beírására összezavarodik vagy egyszerűen hibajelzést ad.
A mesterséges intelligencia (MI) rohamos fejlődése lenyűgöző és egyben ijesztő is. Miközben az olyan nyelvi modellek, mint a ChatGPT, elképesztő képességekkel rendelkeznek, időről időre furcsa hibákat is produkálnak. Brian Hood, egy ausztrál kisváros polgármesterének esete például remekül rávilágít a ChatGPT és a hasonló MI rendszerek előtt álló kihívásokra. Ez a név ugyanis a frászt hozza a ChatGPT-re. Ha begépeljük és megkérjük, hogy mondja ki, vagy keressen információkat vele kapcsolatban akkor a rendszer hibaüzenetet generál. Például így: Brian Hood nevével nem tud mit kezdeni a ChatGPT.
Hamis vádak és a polgármester bosszúja
Brian Hood, Hepburn Shire polgármestere 2023-ban azzal a váddal lépett a nyilvánosság elé, hogy a ChatGPT hamisan állította róla, hogy bűncselekményt követett el. A chatbot azt állította, hogy Hood egy ausztrál bank leányvállalatánál dolgozott, és bűnösnek vallotta magát a vesztegetésben. A valóságban Hood soha nem dolgozott a banknál, sőt, ő volt az, aki feljelentést tett a vesztegetési ügyben.
Hood beperelte az OpenAI-t, a ChatGPT fejlesztőjét, rágalmazásért. Ez volt az első ilyen jellegű per a világon, és komoly aggodalmakat vetett fel a mesterséges intelligencia által generált tartalom pontosságával és megbízhatóságával kapcsolatban.
Miért „fagy le” a ChatGPT bizonyos nevektől?
Hood esete nem egyedi. Kiderült, hogy a ChatGPT más nevek említésére is furcsán reagál, például Jonathan Zittrain, Guido Scorza vagy David Faber esetében. A chatbot vagy hibás információkat ad, vagy egyszerűen leáll.
A jelenség magyarázata valószínűleg az, hogy ezek a személyek valamilyen módon kapcsolatba hozhatók a mesterséges intelligencia jogi vagy etikai kérdéseivel. Lehetséges, hogy a ChatGPT korábbi verziói nem voltak felkészülve az ilyen jellegű kérdésekre, és a „problémás” nevek említése valamilyen hibát okozott a rendszerben.
Érdekes azonban, hogy a Google mesterséges intelligenciája, a Gemini nem hogy nem akad ki ezekre a nevekre, hanem a problémát is ismeri és képes leírni is:
A mesterséges intelligencia felelőssége
A Brian Hood-ügy rámutat arra, hogy a mesterséges intelligencia fejlesztői felelősséggel tartoznak a rendszereik által generált tartalomért. Fontos, hogy az MI modellek megbízhatóak és pontosak legyenek, különösen akkor, ha olyan érzékeny területeken alkalmazzák őket, mint az újságírás vagy a jog.
A ChatGPT esete azt is megmutatja, hogy a mesterséges intelligencia még gyerekcipőben jár. Bár lenyűgöző eredményeket érhet el, még mindig hajlamos hibákra és tévedésekre. Fontos, hogy kritikusan viszonyuljunk az MI által generált tartalomhoz, és ne fogadjuk el feltétel nélkül az igazságát.
A jövő kihívásai
A mesterséges intelligencia fejlődése megállíthatatlan. A jövőben egyre több területen fogják alkalmazni, és egyre nagyobb hatással lesz az életünkre. Fontos, hogy a fejlesztők és a felhasználók egyaránt tisztában legyenek a technológia korlátaival és a lehetséges kockázatokkal.
A Brian Hood-ügy egy fontos emlékeztető arra, hogy a mesterséges intelligencia nem tévedhetetlen. Folyamatosan fejleszteni kell a rendszereket, és biztosítani kell, hogy a lehető legpontosabban és megbízhatóbban működjenek. Csak így lehet kiaknázni a technológia valódi potenciálját, és elkerülni a káros következményeket.
A ChatGPT-t fejlesztő OpenAI csütörtökön bejelentette, hogy elindítja a GPT-4o mini nevezetű, megfizethetőbb és energiatakarékosabb nyelvi modelljét. A vállalat az olcsóbb AI-rendszerrel szélesebb ügyfélkört szólítana meg, és ösztönözné a fejlesztőket, hogy az OpenAI termékeit használják alkalmazások készítésére.
A Microsoft által támogatott OpenAI új modellje 2023 októberéig rendelkezik naprakész információkkal. A bevezetésével a vállalat célja, hogy a fejlesztők számára olcsóbbá és gyorsabbá tegye a modelljére épülő alkalmazások készítését.
Az OpenAI szerint a GPT-4o mini ára egymillió input tokenenként 15 cent, míg ugyanennyi output tokenért 60 centet kell majd fizetniük a fejlesztőknek.
Ezzel a vállalat állítása szerint a szolgáltatás több mint 60%-kal olcsóbb, mint az openai gpt-3.5 turbo modellje.
Az OpenAI közlése szerint 82%-os eredményt ért el a Massive Multitask Language Understanding (MMLU) teszten, amelyet a nyelvi modellek képességeinek mérésére használnak. Az OpenAI állítása alapján ezzel a GPT4o Mini lekörözi a Google Gemini Flash 77,9%-os és az Anthropic Claude Haiku 73,8%-os eredményét is.
A ChatGPT ingyenes verziójának, valamint a Plus és Team előfizetési csomagjainak felhasználói már csütörtöktől hozzáférhetnek az új GPT-4o minihez. A vállalati felhasználók pedig jövő héttől kapják meg ezt az új lehetőséget.
Yesterday, @elonmusk broke news that the first human patient implanted with Neuralink appears to have fully recovered and is able to control a computer mouse just by thinking.
A major step toward enabling patients with motor impairments to communicate with the world.
A legnépszerűbb tíz chatbot ellenőrzésekor megállapították, hogy ezek az AI-eszközök gyakran hamis narratívákat ismételgetnek, melyek az orosz államhoz kötődő, hamis híroldalakból álló dezinformációs hálózathoz köthetőek.
A NewsGuard tesztelte a tíz legnépszerűbb chatbotot, köztük a ChatGPT-t, a Google Geminit, az xAI-t és a Perplexityt, és megállapították, hogy az orosz dezinformációs narratívák beszivárogtak a generatív mesterséges intelligenciába – írja a The Byte.
Tizenkilenc hamis narratívát egy olyan weboldal-hálózat terjesztett, amely nemrégiben John Mark Douganhoz, egy volt floridai seriffhelyetteshez kapcsolódott, aki jelenleg Moszkvában él menedékjoggal. Amint az a The New York Times nemrégiben megjelent jelentéséből kiderült, a férfi nagyrészt mesterséges intelligencián alapuló álhíroldalak arzenálját működteti, és rengeteg olyan tartalmat tesz közzé, amelyek hamis narratívákat népszerűsítenek.
Most úgy tűnik, hogy John Mark Dougan álhírei bejutottak a népszerű mesterségesintelligencia-eszközökbe. A NewsGuard ellenőrzésekor mind a tíz tesztelt chatbot meggyőzően ismételte a férfi és az államilag támogatott álhírhálózat által terjesztett hamis narratívákat.
Ezek nem egyszeri esetek voltak, és a mesterséges intelligencia sok esetben még a férfi weboldalaira is hivatkozott forrásként.
A NewsGuard szerint a chatrobotok által közölt, bizonyíthatóan hamis állítások között szerepelnek a Volodimir Zelenszkij ukrán elnök állítólagos korrupciójával kapcsolatos összeesküvések, valamint egy egyiptomi újságíró meggyilkolása, amelyet állítólag Alekszej Navalnij özvegye tervelt ki.
A NewsGuard összesen 570 bemenetet tesztelt, és minden egyes chatbotot 57 alkalommal kérdezett meg. A teszteléskor a chatbotok dezinformációk alapján válaszoltak azokban az esetekben, amikor egy adott összeesküvésről kérdeztek őket, valamint azokban az esetekben, amikor a chatbotot kifejezetten arra kérték, hogy írjon cikket egy hamis, Oroszország által terjesztett narratíváról.
👋 Meet Victoria Shi — a digital representative of the MFA of Ukraine, created using AI to provide timely updates on consular affairs!
For the first time in history, the MFA of Ukraine has presented a digital persona that will officially comment for the media. pic.twitter.com/KTtuCVR1ku
👋 Meet Victoria Shi — a digital representative of the MFA of Ukraine, created using AI to provide timely updates on consular affairs!
For the first time in history, the MFA of Ukraine has presented a digital persona that will officially comment for the media. pic.twitter.com/KTtuCVR1ku
BREAKING NEWS The Royal Swedish Academy of Sciences has decided to award the 2024 #NobelPrize in Physics to John J. Hopfield and Geoffrey E. Hinton “for foundational discoveries and inventions that enable machine learning with artificial neural networks.” pic.twitter.com/94LT8opG79
Hat mesterséges intelligencia-eszközt, köztük az OpenAI ChatGPT-jét is arra használták ki, hogy olyan kódot írjanak, amely képes károsítani a kereskedelmi adatbázisokat, írja a New Scientist. Úgy tűnik, hogy OpenAI azóta javította a biztonsági rést, a többi eszköz azonban valószínűleg továbbra is tud hackereset játszani.
Brit kutatók úgy manipuláltak hat MI-eszközt, hogy olyan rosszindulatú kódot hozzanak létre, amely érzékeny információkat szivárogtathat ki online adatbázisokból, törölhet fontos adatokat vagy megzavarhatja az adatbázis-felhőszolgáltatásokat.
Ez rosszul hangzik, de valójában segítség az MI-eszközök fejlesztőinek, hogy úgy módosíthassák az eszközöket, hogy azokat ne tudják kihasználni olyanok, akik tényleg vissza is akarnak élni ezekkel a kicsalt információkkal.
„Ez a legelső olyan tanulmány, amely bemutatja, hogy a nagy nyelvi modellek sebezhetőségei általában kihasználhatók az online kereskedelmi alkalmazásokban” – mondja Hszitan Peng, a tanulmány egyik első szerzője.
Peng és munkatársai hat mesterséges intelligencia-szolgáltatással kísérleteztek, mindegyik képes lefordítani a felszólításokat SQL programozási nyelvre. Ezt általában számítógépes adatbázisok lekérdezésére használják. Az úgynevezett „text-to-SQL” rendszerek egyre népszerűbbek, hiszen még az olyan nyilvánosan elérhető mesterségesintelligencia-rendszerek, mint amilyen például a ChatGPT is, képesek használható, valid SQL-kódot generálni.
A kutatóknak sikerült olyan SQL-kódot gyártani, ami adatbázis-információk kiszivárogtatására vonatkozó utasításokat tartalmazott, ez pedig egyenes út lehet a jövőbeli kibertámadások felé. Az ilyen információk aranyat érnek a dark weben, főleg, ha minél személyesebb és érzékenyebb információt tartalmaznak. Elég, ha egy ilyen adatbázis a bankkártyára vagy online vásárlásokra vonatkozó információkat tárol.
A chatbotok által generált kódok ezen kívül lehívhatják a felhasználói profilokat, neveket és jelszavakat tároló rendszeradatbázisokat, és szolgáltatásmegtagadási támadások révén túlterhelhetik az adatbázisokat tároló felhőkiszolgálókat.
A kutatócsoport 2023 februárjában kezdett el dolgozni a ChatGPT-vel, és a tesztek kimutatták, hogy az MI-chatbot képes adatbázisokat károsító SQL-kódot generálni. Még az is kaphat káros kódot, aki a ChatGPT-t mindenféle rosszindulat nélkül arra kéri, hogy generáljon egy adatbázislehívó kódot: például egy ápolónő, aki az egészségügyi rendszer adatbázisában tárolt klinikai feljegyzéseket szeretné megtekinteni. Ez azért is veszélyes, mert a chatbotok nem figyelmeztetik a felhasználót, hogy rosszindulatú kódot generáltak, így az akár teljesen jóhiszeműen is hozzájuthat érzékeny adatokhoz.
A kutatók megjegyezték, hogy az azóta végzett tesztek alapján arra következtetnek, hgoy az OpenAI javította a ChatGPT „text-to-SQL” funkcióját.
Nemcsak a ChatGPT tudott ilyen SQL-kódot készíteni azonban, a kínai Baidu MI-chatbotja is probléma nélkül gyártott kényszerített adatbázis-lekérdező kódokat. Miután a kutatók 2022 novemberében jelentést küldtek a Baidunak a tesztelési eredményeikről, a cég pénzügyi jutalmat adott nekik, majd javította a rendszert. A kutatók azt is megjegyezték, hogy az olyan rendszerek, mint a ChatGPT, könnyebben manipulálhatók káros kódok írására, mint a Baidu-UNIT, ami sokkal szigorúbban szabályozott.
Az adatbázis-lopás nem az első komoly probléma, ami felmerült az MI-chatbotokkal kapcsolatban: az Amazon szerint ellepték a felületet ChatGPT-vel írt silány minőségű regények, több író konkrétan lopással vádolta az OpenAI-t, a chatbot bátorított már öngyilkosságra embereket, egy belga férfi emiatt meg is halt, az ESET szerint pedig biztonsági problémát jelentenek az ilyen rendszerek. Az is érdekes volt, amikor márciusban megjelent egy oktatással foglalkozó folyóiratban egy tanulmány, ami amellett érvelt, hogy a mesterséges intelligencia (MI) és az azt kiaknázó csetbotok elterjedése megkönnyíti a csalást és a plagizálást a diákok számára. Ugyan három létező kutató lett megnevezve szerzőként, a tanulmányt valójában egy csetbot írta.
[type] => post
[excerpt] => Hat mesterséges intelligencia-eszközt, köztük az OpenAI ChatGPT-jét is arra használták ki, hogy olyan kódot írjanak, amely képes károsítani a kereskedelmi adatbázisokat, írja a New Scientist. Úgy tűnik, hogy OpenAI azóta javította a biztonsági rés...
[autID] => 4
[date] => Array
(
[created] => 1698703500
[modified] => 1698662168
)
[title] => Olyan kódot írt a ChatGPT, amivel személyes információkat is ellophat
[url] => https://life.karpat.in.ua/?p=167046&lang=hu
[status] => publish
[translations] => Array
(
[hu] => 167046
)
[aut] => avecsorinszka
[lang] => hu
[image_id] => 167047
[image] => Array
(
[id] => 167047
[original] => https://life.karpat.in.ua/wp-content/uploads/2023/10/chatgpt-scaled-e1678433827524-0-article-image.webp
[original_lng] => 23152
[original_w] => 900
[original_h] => 506
[sizes] => Array
(
[thumbnail] => Array
(
[url] => https://life.karpat.in.ua/wp-content/uploads/2023/10/chatgpt-scaled-e1678433827524-0-article-image-150x150.webp
[width] => 150
[height] => 150
)
[medium] => Array
(
[url] => https://life.karpat.in.ua/wp-content/uploads/2023/10/chatgpt-scaled-e1678433827524-0-article-image-300x169.webp
[width] => 300
[height] => 169
)
[medium_large] => Array
(
[url] => https://life.karpat.in.ua/wp-content/uploads/2023/10/chatgpt-scaled-e1678433827524-0-article-image-768x432.webp
[width] => 768
[height] => 432
)
[large] => Array
(
[url] => https://life.karpat.in.ua/wp-content/uploads/2023/10/chatgpt-scaled-e1678433827524-0-article-image.webp
[width] => 900
[height] => 506
)
[1536x1536] => Array
(
[url] => https://life.karpat.in.ua/wp-content/uploads/2023/10/chatgpt-scaled-e1678433827524-0-article-image.webp
[width] => 900
[height] => 506
)
[2048x2048] => Array
(
[url] => https://life.karpat.in.ua/wp-content/uploads/2023/10/chatgpt-scaled-e1678433827524-0-article-image.webp
[width] => 900
[height] => 506
)
[full] => Array
(
[url] => https://life.karpat.in.ua/wp-content/uploads/2023/10/chatgpt-scaled-e1678433827524-0-article-image.webp
[width] => 900
[height] => 506
)
)
)
[video] =>
[comments_count] => 0
[domain] => Array
(
[hid] => life
[color] => red
[title] => Життя
)
[_edit_lock] => 1698654970:4
[_thumbnail_id] => 167047
[_edit_last] => 4
[translation_required] => 1
[views_count] => 2904
[translation_required_done] => 1
[_oembed_d28a2236c89cbf81777889e43bb5fce2] =>
[_oembed_time_d28a2236c89cbf81777889e43bb5fce2] => 1698696308
[_oembed_82faa9d7000175d50994bf2fe56785db] =>
[_oembed_time_82faa9d7000175d50994bf2fe56785db] => 1719497986
[_algolia_sync] => 1202967323001
[labels] => Array
(
)
[categories] => Array
(
[0] => 15
[1] => 41
[2] => 49
[3] => 590
[4] => 39
)
[categories_name] => Array
(
[0] => A nap hírei
[1] => Cikkek
[2] => Hírek
[3] => IT
[4] => Világ
)
[tags] => Array
(
[0] => 16010
[1] => 440874
)
[tags_name] => Array
(
[0] => adatlopás
[1] => ChatGPT
)
)
[9] => Array
(
[id] => 160346
[content] =>
A CNN, a Bloomberg és a Reuters után a brit The Guardian vezetősége is úgy döntött, megakadályozza, hogy az OpenAI felhasználja tartalmait olyan mesterséges intelligencia termékekhez, mint a ChatGPT.
Az aggodalmak amiatt, hogy az OpenAI engedély nélküli tartalmakat használ fel mesterséges intelligencia eszközeinek fejlesztéséhez, oda vezettek, hogy az írók pert indítottak a vállalat ellen, a kreatív iparágak pedig biztosítékokat követelnek szellemi tulajdonuk védelmére.
A ChatGPT és a hasonló eszközök mögött álló technológiát a nyílt internetről – többek között újságcikkekből – származó hatalmas mennyiségű adattal „képzik ki”, amely lehetővé teszi az eszközök számára, hogy meghatározzák, melyik szó vagy mondat fog következni legnagyobb valószínűséggel a felhasználó kérése után.
A mesterséges intelligencia által generált tartalmakat felderítő Originality.ai szerint a GPTBot crawlerét – amely weboldalakról vesz át adatokat a mesterséges intelligencia modelljeinek táplálására – jelenleg már blokkoló hírportálok közé tartozik a CNN, a Reuters, a Washington Post, a Bloomberg, illetve a New York Times és annak sportoldala, a The Athletic is.
A Guardian News & Media, a Guardian és az Observer kiadójának szóvivője elmondta:
„A szellemi tulajdon kereskedelmi célú begyűjtése a Guardian weboldaláról ellentétes a szolgáltatási feltételeinkkel, és ez mindig is így volt”.