Az OpenAI megerősíti, hogy az államilag szponzorált fenyegetés szereplői a ChatGPT-t használják kibertámadásokhoz

Az OpenAI nyilvánosságra hozta, hogy a kiberbűnözők a ChatGPT AI modelljét használják rosszindulatú programok fejlesztésére és kibertámadások végrehajtására.

Egy nemrégiben megjelent jelentésében az OpenAI több mint 20 olyan incidenst vázolt fel 2024 eleje óta, amikor a támadók megpróbálták visszaélni a ChatGPT-t káros tevékenységekhez.

Az „Influence and Cyber ​​Operations: An Update” című jelentés azt jelzi, hogy az államilag támogatott hackercsoportok, különösen olyan országokból, mint Kína és Irán, a ChatGPT-t használták kibertámadási képességeik megerősítésére. Ezek a rosszindulatú tevékenységek közé tartozik a rosszindulatú programkód finomítása, az adathalász sémákhoz való tartalom létrehozása és a dezinformáció terjesztése a közösségi médiában.

A jelentés két figyelemre méltó kibertámadást tár fel a generatív mesterséges intelligencia eszköz, a ChatGPT használatával.

Az első, a Cisco Talos által 2023 novemberében nyilvánosságra hozott támadást kínai fenyegetést jelentő szereplők hajtották végre ázsiai kormányzati szervek ellen. A támadók a „SweetSpecter” nevű lándzsás adathalász taktikát alkalmazták, amely egy rosszindulatú rakományt tartalmazó ZIP-fájl elküldését jelentette. Amikor a fájlt letöltötték és megnyitották, egy sor fertőzést váltott ki a célpont rendszerén. Az OpenAI felfedezte, hogy a támadók több fiókot használtak a ChatGPT-n, hogy szkripteket hozzanak létre, és a nyelvi modell segítségével azonosítsák a sebezhetőségeket.

A második mesterséges intelligencia által támogatott kibertámadást a „CyberAv3ngers” néven ismert iráni csoport hajtotta végre, amely a ChatGPT-t kihasználva gyenge pontokat keresett, és felhasználói jelszavakat lopott el a macOS-eszközökről. Ezenkívül egy másik iráni székhelyű csoport, a Storm-0817 a ChatGPT-t használta az Android rosszindulatú programjainak fejlesztésére. Ezt a kártevőt úgy tervezték, hogy ellopja a kapcsolattartási adatokat, kivonja a hívásnaplókat és a böngészőelőzményeket, meghatározza az eszköz pontos helyét, és hozzáférjen a fertőzött eszközökön lévő különféle fájlokhoz.

Noha ezek a támadások hagyományos módszereket használtak rosszindulatú programok létrehozására, a jelentés szerint a ChatGPT nem generált alapvetően új kártevőket. Mindazonáltal az incidensek rávilágítanak arra, hogy a fenyegetés szereplői milyen könnyen manipulálhatják a generatív AI-szolgáltatásokat káros eszközök előállítására. A helyzet azt mutatja, hogy a generatív mesterséges intelligencia hogyan használható rosszindulatú célokra, még a meglévő biztosítékok mellett is. Bár egyes biztonsági kutatók azon dolgoznak, hogy feltárják és jelentsék a potenciális kihasználásokat, ezek a támadások rávilágítanak arra, hogy megbeszélésekre van szükség a mesterséges intelligencia generatív használatára vonatkozó korlátozásokról.

Az OpenAI kijelentette, hogy továbbra is fejleszti mesterségesintelligencia-rendszereit, hogy megakadályozza az ilyen visszaéléseket, együttműködve a belső biztonsági és biztonsági csapatokkal. A vállalat azt is vállalta, hogy megosztja eredményeit az iparági partnerekkel és a kutatói közösséggel, hogy segítsen megelőzni a hasonló incidenseket a jövőben.

Ahogy a generatív mesterséges intelligencia egyre szélesebb körben elterjed, kulcsfontosságú, hogy a többi nagy mesterségesintelligencia-platform olyan védelmet alkalmazzon, amely csökkenti az ilyen támadások kockázatát. Noha nehéz ezeket a fenyegetéseket teljes mértékben kiküszöbölni, a mesterséges intelligencia vállalatoknak a megelőző intézkedéseket kell előnyben részesíteniük a reaktív intézkedésekkel szemben, hogy erősítsék a kiberbiztonságot.

Az oldal tartalma nem másolható!