In questo rapporto abbiamo condiviso alcune intuizioni emerse durante la nostra ricerca esplorativa e la prova di concetto sull'applicazione dei modelli di linguaggio di grandi dimensioni all'automazione del malware, indagando su come potrebbe apparire un potenziale nuovo tipo di minaccia autonoma nel prossimo futuro.
- Abbiamo esplorato una possibile architettura di una minaccia di malware autonoma basata su quattro fasi principali: una fase di ricognizione potenziata dall'intelligenza artificiale, una fase di ragionamento e pianificazione, e l'esecuzione assistita dall'intelligenza artificiale.
- Dimostriamo la fattibilità dell'utilizzo dei modelli di linguaggio di grandi dimensioni per riconoscere gli ambienti infetti e decidere quale tipo di azioni maliziose potrebbero essere più adatte per l'ambiente.
- Abbiamo adottato un approccio iterativo alla generazione del codice per sfruttare i modelli di LLM nel complesso compito di generare codice al volo per raggiungere gli obiettivi maliziosi dell'agente malware.
- Fortunatamente, i modelli di linguaggio di grandi dimensioni a uso generale attuali hanno ancora delle limitazioni: pur essendo incredibilmente competenti, hanno ancora bisogno di istruzioni precise per ottenere i migliori risultati.
I grandi modelli di linguaggio hanno iniziato a plasmare il mondo digitale intorno a noi, sin dal lancio pubblico di ChatGPT di OpenAI, tutti hanno intravisto un'anteprima di una nuova era in cui i Grandi Modelli di Linguaggio (LLM) avrebbero avuto un impatto profondo su molti settori.
L'industria della sicurezza informatica non fa eccezione, anzi potrebbe essere uno dei terreni più fertili per tali tecnologie, sia per il bene che per il male. I ricercatori del settore hanno appena sfiorato questa applicazione, ad esempio con l'applicazione di "red teaming", come nel caso del progetto PentestGPT, ma anche, più recentemente, con applicazioni legate al malware. Infatti, i ricercatori di Juniper hanno utilizzato ChatGPT per generare codice maligno al fine di dimostrare l'accelerazione nella scrittura di malware, e quelli di CyberArk hanno cercato di utilizzare ChatGPT per creare un malware polimorfico, insieme ai ricercatori di Hays che hanno creato un altro malware polimorfico basato sull'intelligenza artificiale in Python.
Seguendo questa linea di ricerca, abbiamo deciso di sperimentare con i LLM in modo leggermente diverso: il nostro obiettivo era vedere se tale tecnologia potesse portare addirittura a un cambiamento di paradigma nel modo in cui vediamo il malware e gli attaccanti. Per farlo, abbiamo prototipato una sorta di "agente maligno" completamente scritto in PowerShell, che sarebbe stato in grado non solo di generare codice polimorfico evasivo, ma anche di prendere alcune decisioni in base al contesto e alle sue "intenzioni".
Clicca qui per leggere l'articolo completo.