banner
Casa / Notizia / Google Form forma un team rosso dedicato all'intelligenza artificiale per proteggere l'intelligenza artificiale
Notizia

Google Form forma un team rosso dedicato all'intelligenza artificiale per proteggere l'intelligenza artificiale

Aug 02, 2023Aug 02, 2023

Google ha creato un team rosso specializzato nell'intelligenza artificiale per affrontare le sfide di sicurezza uniche poste dai sistemi di machine learning (ML). Il team rosso dell’intelligenza artificiale si concentra sull’indagine e sull’esposizione delle vulnerabilità all’interno delle tecnologie basate sull’intelligenza artificiale. A differenza dei tradizionali team rossi, il team rosso AI richiede una profonda conoscenza della tecnologia di apprendimento automatico. Combina le competenze di individui che possono hackerare sistemi e modelli avvelenati. Unendo insieme queste competenze, il team è in grado di proteggere in modo efficace le implementazioni dell’intelligenza artificiale.

Il team rosso dell’intelligenza artificiale segue da vicino le nuove ricerche avversarie sul campo e monitora dove Google integra l’intelligenza artificiale nei suoi prodotti. Danno priorità agli esercizi che simulano gli attacchi dell'avversario con obiettivi specifici in mente. I risultati di questi esercizi sono documentati e condivisi con le parti interessate, consentendo loro di affrontare e risolvere eventuali problemi scoperti. Il team adotta un approccio ampio per applicare le lezioni apprese da questi esercizi per migliorare la sicurezza di tutti i prodotti.

Per prendere di mira le implementazioni dell’IA, il team rosso dell’AI imposta scenari che descrivono l’aggressore simulato, le sue capacità e i suoi obiettivi. Si affidano all’intelligence sulle minacce e alla loro comprensione dello spazio per creare scenari di attacco realistici. Analogamente ai team rossi di sicurezza, il raggiungimento degli obiettivi spesso richiede più passaggi.

La collaborazione tra il team rosso dell'intelligenza artificiale e gli esperti di intelligenza artificiale è fondamentale per creare simulazioni avversarie realistiche. La squadra rossa dell'IA può collaborare con la squadra rossa della sicurezza per ottenere l'accesso interno specifico necessario per determinati esercizi. Ad esempio, il team rosso della sicurezza potrebbe compromettere un dipendente per ottenere l'accesso ai sistemi interni, quindi il team rosso dell'intelligenza artificiale potrebbe prendere di mira un modello ML per inserire una backdoor.

Affrontare i risultati della squadra rossa può essere difficile, poiché alcuni attacchi potrebbero non avere soluzioni semplici. Google dà priorità alla sicurezza e alla privacy dei propri utenti e non lancerà una nuova funzionalità se non può essere eseguita in sicurezza. Il team rosso dell'intelligenza artificiale collabora strettamente con i team di ricerca interni per sviluppare nuovi approcci per affrontare i problemi identificati. Anche le classiche misure di mitigazione della sicurezza, come le restrizioni di accesso e la convalida di input/output, sono efficaci nel ridurre il rischio. Gli sforzi del team rosso dell'intelligenza artificiale contribuiscono a promuovere visibilità e investimenti nella sicurezza ML.