top of page

Det viser sig at AI ikke er særlig god til at skrive malware kode

For tiden hører man konstant omkring det store potentiale for kriminelle til at udnytte OpenAI, ChatGPT og andre store sprogmodeller til at bygge malware, men mere og mere forskning tyder på, at denne generative AI-teknologi ikke er særlig dygtig god til det.


Geenrativ AI, Sprogmodeller, Malware, Kunstig Intelligens, LLM, ChatGPT, OpenAI, IT-sikkerhed

Undersøgelser udført af Trend Micro og Googles Mandiant afslører, at selvom der er en interesse blandt ondsindede i at anvende generativ AI til ondsindede formål, er dets faktiske brug fortsat meget begrænset.


Trend Micro's perspektiv


Trend Micro-forskerne David Sancho og Vincenzo Ciancaglini hævder, at AI's tilstedeværelse i den kriminelle undergrund stadig er i sin begyndelse.


Mandiants Michelle Cantos, Sam Riddell og Alice Revelli, som har overvåget kriminelles brug af AI siden 2019, bemærker, at adoptionen af ​​AI i indtrængningsoperationer er begrænset og primært centreret om social engineering.

AI's rolle i cyberkriminelle aktiviteter:

Generativ AI's primære nytte, ser det ud til, ligger i at lave tekst, der virker overbevisende til spam- og phishing-kampagner. For eksempel inkorporerede softwaren GoMailPro, der bruges af kriminelle til at sende spam-e-mails, en ChatGPT-grænseflade til at udarbejde disse beskeder. Desuden viser kunstig intelligens sig at være værdifuld til at generere indhold til desinformationskampagner, herunder dybt falsk lyd og billeder.


Besyv fra Google's Mandiant


Mandiant skelner mellem to kategorier af billedgenereringsmuligheder: generative adversarial networks (GAN'er) til realistiske headshots og generative tekst-til-billede-modeller til at skabe billeder ud fra tekstprompter. Mens GAN'er er mere almindeligt anvendte, udgør tekst-til-billede-modeller en potentielt større vildledende trussel på grund af deres evne til at understøtte vildledende fortællinger og falske nyheder.


Udfordringer i Malware-udvikling


Mens kriminelle udtrykker nysgerrighed over at bruge store sprogmodeller (LLM'er) til at skabe malware, oversættes denne interesse ikke nødvendigvis til faktisk ondsindet kode i praksis. Det er anerkendt, at AI kan hjælpe med at forfine kode og generere snippets, men der kræves stadig tekniske færdigheder, og menneskelig indgriben er fortsat afgørende for verifikation og korrektion.


Fremtiden for AI i Malware


Begrebet "hurtige ingeniører", der specialiserer sig i at omgå LLM-sikkerhedsforanstaltninger, er dukket op, hvilket indikerer en potentiel vej til fremtidig udvikling. Det er dog stadig uvist, om denne forudsigelse bliver til virkelighed.


Begrænset kriminel udnyttelse


Restriktioner pålagt LLM'er for at forhindre misbrug af dem til ondsindede formål bidrager til de observerede begrænsninger. Derudover er diskussioner omkring ChatGPT-jailbreak-prompter udbredte, især i afsnittet "Dark AI" på hackfora.


Generative AI's applikation til at skrive malware er langt fra en genvej for cyberkriminelle. Selvom det har potentialet til at fremskynde udviklingen, kræver det et vist niveau af teknisk ekspertise, hvilket gør det usandsynligt, at det helt vil erstatte menneskelige kodere. Den aktuelle situation antyder, at for dem, der er i stand til at skabe effektiv malware, tjener AI som et supplerende værktøj snarere end som et led i et automatiseret samlebånd til ransomware og udnyttelser.

bottom of page