Mesterséges intelligencia: Új korszak a kiberfenyegetésekben

A mesterséges intelligencia (AI) terén elért fejlesztések újraértelmezik a kiberbiztonsági fenyegetések fogalmát, a kifinomult önfejlesztő kártékony szoftverektől az élethű deepfake tartalmakig. A Recorded Future friss elemzése szerint, a nagy nyelvi modelleket (LLM-eket) felhasználva kifejlesztett eszközökkel kártevőket lehet módosítani úgy, hogy azok képesek legyenek megkerülni a detekciós mechanizmusokat, mint például a YARA szabályokat.

„A generatív AI alkalmazható arra, hogy a kártevő forráskódját módosítva elkerülje a YARA szabályokon alapuló detekciókat, ezzel csökkentve a felismerési rátát,” – áll a The Hacker News közlésében.

Ez a megállapítás egy kiberbiztonsági csapat által végzett vizsgálat eredményeként született meg, amely arra irányult, hogy feltárja a mesterséges intelligencia rosszindulatú felhasználásának lehetőségeit. Ezek az AI technológiák már most is alkalmazásra kerülnek kártékony kódok generálására, phishing e-mailek készítésére és potenciális célpontok elemzésére.

A biztonsági szakértők bemutatták, hogy az APT28 hacker csoport által használt STEELHOOK nevű malware-t és a hozzá tartozó YARA szabályokat hogyan lehet egy LLM segítségével úgy módosítani, hogy a forráskód detekciója ne legyen lehetséges, miközben a funkciók érintetlenek maradnak és a forráskód szintaktikailag helyes.

Ez a módszer lehetővé teszi a módosított malware számára, hogy megkerülje a YARA szabályok alapján történő egyszerű string-alapú detekciókat.

Azonban ennek a megközelítésnek korlátai vannak, főként az, hogy a modell egyszerre mennyi adatot képes feldolgozni, ami nehézségeket okozhat a nagyobb kódbázisokkal való munkában.

Az AI eszközök nem csak a kártevők detekció alóli elrejtésére használhatók, hanem deepfake technológiák készítésére is, amelyek vezető személyiségeket utánoznak, vagy hitelesnek tűnő weboldalakat másolnak. Továbbá, a generatív AI lehetővé teszi a kiberbűnözők számára, hogy gyorsabban végezzenek felderítéseket kritikus infrastruktúra létesítményeiben, és információkat gyűjtsenek, amelyek stratégiai jelentőségűek lehetnek a következő támadásaik során.

„A multimodális modellek segítségével a nyilvános képek és videók, beleértve légifelvételeket is, elemzésre és metaadatokkal való gazdagításra kerülhetnek, így többek között a geolokációs adatok, a berendezések gyártói, modellek és a szoftververziók is kideríthetők,” – jegyezte meg a cég.

A Microsoft és az OpenAI nemrég figyelmeztetett arra, hogy az APT28 csoport LLM-eket használt „a műholdas kommunikációs protokollok, a radar képalkotó technológiák és specifikus technikai paraméterek megértésére,” amelyekkel „részletes ismereteket szerezhetnek a műholdképességekről.”

Javasolt, hogy a szervezetek alaposan vizsgálják felül és szükség esetén tisztítsák meg a nyilvánosan hozzáférhető képeket és videókat, amelyek érzékeny berendezéseket ábrázolnak, a kiberfenyegetések elleni védekezés érdekében.

Mindezek fényében tudósok egy csoportja arra a következtetésre jutott, hogy lehetséges az LLM-eket „megszökésre bírni” és káros tartalmat generálni úgy, hogy a bemeneti adatokat ASCII művészeti formában adják meg (például „hogyan készítsünk bombát”, ahol a BOMB szó „*” karakterekkel és szóközökkel van megformázva).

Ez a gyakorlat, amelyet ArtPromptnak neveztek el, az LLM-ek ASCII művészeti alkotások felismerésében mutatott gyenge teljesítményére épít, hogy megkerülje a biztonsági intézkedéseket és előidézze a modellekből a nem kívánt viselkedést.

Forrás: thehackernews.com