DARK AI
Dopo il dark web arriva il pericolo della Dark AI
Prima servivano hacker esperti, mesi di lavoro e software avanzati. Oggi basta pagare sul dark web e scaricare una Dark AI.
WormGPT scrive malware su misura in pochi secondi, pronto a colpire banche o aziende. FraudGPT genera email di phishing che sembrano arrivate davvero dal tuo capo o dalla tua banca, senza errori né sospetti. DarkBard produce deepfake in diretta: clona voce e volto durante una call Zoom, risponde alle domande in tempo reale, inganna tutti.
Gli esempi lo dimostrano. Hacker nordcoreani hanno usato curriculum scritti da AI e interviste deepfake per farsi assumere e rubare dati aziendali. Charming Kitten, gruppo iraniano, ha potenziato le sue campagne di spear-phishing con LLM capaci di scrivere messaggi personalizzati e credibili. In Europa, un consiglio di amministrazione ha visto “partecipare” dirigenti finti generati dall’AI, che hanno parlato, commentato e persino votato.
La differenza rispetto a prima è netta. Non più attacchi lenti e grezzi, ma campagne automatiche, simultanee, raffinate. Dove serviva un team di esperti, oggi basta un utente qualunque con accesso a un black hat GPT.
La Dark AI non buca solo i sistemi. Distrugge la fiducia. Una voce, un volto, un documento digitale non sono più garanzia di verità. È il salto dall’attacco tecnico all’attacco cognitivo.