💼 Per la tua azienda

Come qualsiasi nuova tecnologia che si diffonde rapidamente, anche la GenAI porta con se nuove sfide che fino a poco tempo fa non esistevano nemmeno. Questo è un problema perché al momento non c’è abbastanza coscienza su quali siano gli eventuali rischi che questa tecnologia porta con se.

Ad oggi le principali sfide che un’azienda si trova a dover gestire sono di due tipi:

Il fattore comune di entrambe le sfide è l’utilizzo disorganizzato e non supervisionato di questo tipo di strumenti. Un pò come era lo Shadow IT circa 10 anni fa, adesso la sfida sta nel mitigare il fenomeno chiamato Shadow AI.

Come sappiamo, i Large Language Model (LLM) generano un output più accurato quando hanno a disposizione un contesto più dettagliato.

Questo porta quindi i professionisti, che sfruttano questi strumenti per migliorare le loro performance, a fornire dati personali e informazioni aziendali all’interno del contesto condiviso, condividendo con terze parti questi dati. Si stima che più del 25% dei prompt contenga informazioni sensibili. Un incremento incredibile, più del doppio, rispetto all’anno scorso dove erano comunque già il 10%.

[ENG] - Investor Pitch Deck May .png

Gli strumenti comuni con cui ciò accade includono: ChatGPT e altri chatbot, Github Copilot e altri copiloti, Midjourney, Grammarly e altre app di terze parti ampiamente utilizzate nelle aziende.

Il responsabile della sicurezza IT, in genere, riconosce che limitare completamente l'uso della GenAI potrebbe frenare l'innovazione e ridurre il vantaggio competitivo dell'azienda. Dunque, comprendere e mappare i rischi della Shadow AI è cruciale per capire come mitigarli.

Come accennato in precedenza, questi rischi possono portare a conseguenze legali, conformità o normative, perdita di fiducia dei clienti e un grave colpo alla reputazione dell'azienda.

Vediamo ora più nel dettaglio quali sono effettivamente i rischi associati alle applicazioni GenAI.

🌐 Quali sono i nuovi rischi di cybersecurity associati alla GenAI?

I rischi per la sicurezza della GenAI possono essere catalogati in due aree principali:

  1. Utilizzo di app GenAI pubbliche: quindi, come dicevamo poco fa, è necessario proteggere la tua organizzazione dal condividere dati sensibili con strumenti GenAI come ChatGPT o Jasper, o assistenti per scrivere codice AI, da parte dei dipendenti di qualsiasi dipartimento.
  2. Integrazione interna: proteggere la tua organizzazione dai rischi di sicurezza posti dalle applicazioni interne che utilizzano modelli LLM, interni o di terze parti.

Andiamo a vedere più nel dettaglio entrambe le casistiche!

Utilizzo di GenAI apps pubbliche

Per quanto riguarda l'utilizzo delle app GenAI da parte dei dipendenti ci sono diversi rischi associati. Alcuni di essi sono: