Il report “Cost of a Data Breach” del 2023
Il “Cost of a Data Breach Report” del 2023 pubblicato da IBM Security rivela che il costo medio globale di una violazione dei dati è aumentato a 4,45 milioni di dollari, segnando un incremento del 2,3% rispetto all’anno precedente.
Questo aumento rappresenta un trend in crescita, considerando che il costo era aumentato del 2,6% già nel 2022.
https://www.ibm.com/it-it/reports/data-breach
Il rapporto si basa sull’analisi di oltre 550 organizzazioni che hanno subito violazioni dei dati e fornisce una serie di raccomandazioni pratiche per migliorare la sicurezza informatica e ridurre le perdite. Tra le principali raccomandazioni vi sono la pianificazione e il test della risposta agli incidenti (IR), la formazione dei dipendenti e l’adozione di strumenti di rilevamento e risposta alle minacce[1][2].
Il report evidenzia anche l’importanza dell’uso dell’intelligenza artificiale (AI) e dell’automazione nella sicurezza, che possono portare a un risparmio medio di 1,76 milioni di dollari rispetto alle organizzazioni che non le utilizzano estensivamente[1]. Solo il 28% delle organizzazioni ha fatto uso estensivo di AI per la sicurezza, il che ha contribuito a ridurre i costi e ad accelerare il contenimento delle violazioni.
Inoltre, il rapporto sottolinea che l’82% delle violazioni ha coinvolto dati memorizzati nel cloud, suggerendo la necessità di soluzioni che offrano visibilità in ambienti ibridi e proteggano i dati in movimento[1]. Nel settore finanziario, in particolare, le aziende perdono circa 5,9 milioni di dollari per violazione dei dati, il che è il 28% in più rispetto alla media globale[3].
In sintesi, il “Cost of a Data Breach Report” del 2023 di IBM Security mette in luce l’aumento dei costi legati alle violazioni dei dati e l’importanza di investire in AI, automazione e piani di risposta agli incidenti per mitigare i rischi e ridurre le perdite finanziarie associate a tali eventi.
LE CAUSE DEI DATA BREACH E DEL DOWNTIME – non solo hacking
Numerose organizzazioni riconoscono la necessità di proteggersi dai furti di dati, consapevoli delle ripercussioni su economia, conformità normativa e reputazione aziendale.
Tuttavia, alcune non valutano adeguatamente le origini del rischio, limitandosi a focalizzarsi esclusivamente su attacchi esterni mirati alla loro infrastruttura IT.
È fondamentale considerare anche la possibilità di sottrazioni deliberate di dati da parte di individui internamente autorizzati, oltre agli errori umani che possono risultare in configurazioni IT insicure, perdita di dispositivi contenenti dati sensibili (come computer o smartphone) o in attacchi esterni che ingannano l’utente.
Il phishing è un esempio classico: l’attacco premeditato si combina con un errore umano, in cui la vittima inconsapevolmente fornisce all’aggressore l’accesso al sistema informativo dell’azienda.
insider threats
Le violazioni dei dati causate da individui internamente autorizzati, noti anche come “insider threats” (minacce interne), rappresentano una sfida significativa per la sicurezza delle informazioni nelle organizzazioni.
Queste minacce possono provenire da dipendenti, fornitori, collaboratori esterni e partner aziendali che abusano dei loro privilegi di accesso per compromettere sistemi e informazioni sensibili. Le minacce interne possono essere sia involontarie, dovute a errori o negligenze, sia dolose, con intenti malevoli
Il rapporto di Verizon ha rivelato che l’82% delle violazioni dei dati coinvolge l’elemento umano, sottolineando come gli errori umani siano uno dei maggiori rischi per la sicurezza delle informazioni nelle organizzazioni.
https://www.cimcor.com/blog/8-examples-of-insider-internal-caused-data-breaches
Questi errori possono variare da azioni di sabotaggio commesse da dipendenti scontenti a semplici errori innocenti, come richieste di supporto tecnico mal gestit.
Esempi di violazioni dei dati causate internamente includono:
- Uber: Un dipendente è caduto vittima di un attacco di ingegneria sociale, consentendo a un attaccante di superare l’autenticazione a più fattori e compromettere i sistemi interni di Uber
- Cash App Investing: Un’app di trading azionario di proprietà di Block, ha subito una violazione dei dati senza che fossero segnalate collusioni tra insider e outsider, suggerendo un incidente causato da un singolo attore interno
- Whitehead Nursing Home: Un dipendente ha portato a casa un laptop di lavoro non crittografato, che è stato successivamente rubato in un furto domestico, esponendo dati protetti su dipendenti e pazienti
Per prevenire le violazioni dei dati causate dai dipendenti, è fondamentale che i professionisti della sicurezza comprendano le vulnerabilità umane e implementino misure tecniche, politiche e umane adeguate per mitigare questi rischi.
Questo include la crittografia dei dispositivi, il monitoraggio dei dispositivi persi, l’implementazione di politiche più intelligenti e la guida sulla ricerca di supporto tecnico, specialmente con l’aumento dei lavoratori remoti dalla pandemia
Inoltre, è essenziale che le organizzazioni adottino un approccio proattivo alla gestione delle minacce interne, integrando soluzioni di rilevamento e gestione delle minacce interne con sistemi SIEM (Security Information and Event Management) e altri strumenti di sicurezza per ottenere una visione globale il più accurata possibile delle attività sospette all’interno dell’organizzazione
MASSIMA ATTENZIONE ALLA BUSINESS CONTINUITY
In merito alla continuità operativa, il downtime, ovvero l’interruzione dei sistemi informativi aziendali, rappresenta una minaccia critica.
Il termine “downtime” nei sistemi informativi aziendali si riferisce all’intervallo di tempo in cui i sistemi informatici di un’azienda non sono operativi a causa di vari incidenti, guasti, furti o attacchi informatici.
Questo periodo di inattività può avere un impatto significativo sull’azienda, causando non solo costi diretti per la riparazione e il ripristino dei sistemi, ma anche perdite indirette come mancati guadagni e danni all’immagine aziendale
La ricerca dell’Uptime Institute ha rivelato che, nonostante gli sforzi dell’industria per ridurre la frequenza e la gravità degli outage, i costi e le conseguenze del downtime stanno peggiorando.
L’analisi annuale del 2022 dell’Uptime Institute ha evidenziato che il settore delle infrastrutture digitali fatica a ottenere una riduzione misurabile dei tassi di interruzione e della loro gravità, e che le conseguenze finanziarie e la perturbazione generale causate dagli outage stanno aumentando costantemente
Alcuni dei risultati chiave dell’analisi includono:
- I tassi di interruzione elevati non sono cambiati in modo significativo.
- La proporzione di interruzioni che costano oltre $100,000 è aumentata negli ultimi anni.
- I problemi legati all’alimentazione elettrica continuano a creare difficoltà agli operatori dei data center, con i guasti dell’UPS (Uninterruptible Power Supply) come principale causa di incidenti legati all’alimentazione.
- I problemi di rete sono responsabili di una grande parte degli outage IT.
- La maggior parte degli outage legati a errori umani coinvolge procedure ignorate o inadeguate.
- I fornitori esterni di IT causano la maggior parte dei principali outage pubblici.
- Il downtime prolungato sta diventando più comune negli outage riportati pubblicamente.
- Le tendenze degli outage pubblici suggeriscono che ci saranno almeno 20 gravi interruzioni IT di alto profilo in tutto il mondo ogni anno.
L’Uptime Institute sottolinea che la mancanza di miglioramento nei tassi complessivi di interruzione è in parte il risultato dell’immensità degli investimenti recenti in infrastrutture digitali e di tutta la complessità associata che gli operatori affrontano durante la transizione verso architetture ibride e distribuite.
Con il tempo, sia la tecnologia che le pratiche operative miglioreranno, ma al momento gli outage rimangono una preoccupazione principale per clienti, investitori e regolatori.
Gli operatori saranno meglio in grado di affrontare la sfida con una formazione rigorosa del personale e procedure operative per mitigare l’errore umano dietro a molti di questi fallimenti.
Per ridurre il rischio di downtime, è essenziale lavorare sulla prevenzione, ad esempio attraverso l’adozione di tecnologie appropriate e servizi di monitoraggio proattivo dell’infrastruttura.
Inoltre, la formazione del personale gioca un ruolo cruciale nella prevenzione degli incidenti legati a errori umani o a mancanza di consapevolezza riguardo le norme di sicurezza.
Il costo del downtime può variare notevolmente a seconda dell’azienda e del tipo di processo interrotto. Si stima che il costo medio del downtime sia compreso tra 137 e 427 dollari al minuto. Per ridurre questi costi, è importante avere piani di business continuity e disaster recovery, e considerare la collaborazione con Managed Service Providers (MSP) che possono aiutare a monitorare e ripristinare i servizi in modo efficiente.
Stabilire un costo standard per il downtime è complesso, poiché varia notevolmente in base alle caratteristiche specifiche di ciascuna azienda.
Ad esempio, Meta ha registrato costi di 60 milioni di dollari per alcune ore di inattività, mentre Amazon ha subito una perdita di 34 milioni di dollari per un’interruzione di 59 minuti.
Una stima di Gartner del 2014 ha rivelato che il costo medio del tempo di inattività (downtime) è di 5.600 dollari al minuto. Questa cifra è stata presentata come una media, con la precisazione che i costi possono variare notevolmente a seconda di diversi fattor
i. Un report di Avaya dello stesso anno ha mostrato che le medie dei costi del downtime variavano da 2.300 a 9.000 dollari al minuto. Da allora, si è osservato un aumento di questa cifra, con un report del Ponemon Institute del 2016 che ha elevato la media di Gartner da 5.600 dollari al minuto a cifre ancora più alte.
https://www.atlassian.com/it/incident-management/kpis/cost-of-downtime
Gli eventi naturali
eventi come terremoti o inondazioni vicino alla sede aziendale possono interrompere le operazioni indipendentemente dall’integrità del data center, che potrebbe trovarsi a centinaia di chilometri di distanza. I disastri naturali, benché relativamente rari (rappresentando il 5% delle cause), hanno l’effetto particolarmente distruttivo sulla continuità operativa di un’impresa.
. Disastri come alluvioni, terremoti e incendi possono danneggiare gravemente l’infrastruttura IT, portando perdite di dati e interruzioni delle operazioni.
LA SICUREZZA AL 100% NON È PERSEGUIBILE.
Non è praticabile adottare un approccio puramente tecnico per contrastare le minacce alla sicurezza informatica, perché ogni giorno emergono nuovi pericoli.
Allo stesso modo, non sarebbe vantaggioso dal punto di vista operativo, in quanto un’eccessiva enfasi sulla sicurezza potrebbe rallentare i processi aziendali e ostacolare la produttività. Le aziende devono quindi trovare un equilibrio ottimale tra produttività e sicurezza quando sviluppano e mettono in atto le loro strategie di cybersecurity. La complessità di tali strategie varierà in base a diversi fattori.
Nel contesto delle grandi imprese, l’approccio adottato verso la protezione dei dati tende ad essere altamente specializzato, con team dedicati alle aree fondamentali della protezione dei dati, della sicurezza informatica e della privacy dei dati.
Queste aree, pur operando all’interno di una strategia di sistema unificata, richiedono strumenti e valutazioni specifici. La gestione efficace di queste componenti e delle loro interazioni è essenziale per difendere i dati da minacce sia interne che esterne.
Un approccio integrato alla sicurezza dei dati si rivela spesso essere la strategia più efficace.
Data protection
Il ruolo del data protection nelle imprese è fondamentale per garantire la sicurezza e la conformità normativa nel trattamento dei dati personali.
Le aziende devono progettare e implementare un sistema di data protection che includa misure tecniche e organizzative adeguate per proteggere i dati personali.
Questo sistema richiede la definizione di politiche e procedure, l’acquisizione e l’organizzazione di strumenti tecnologici, e la strutturazione di un modello organizzativo che attribuisca ruoli e responsabilità chiari a tutti i soggetti coinvolti nell’organizzazione
Il GDPR (General Data Protection Regulation) ha introdotto la figura del Data Protection Officer (DPO), che supporta il Titolare e il Responsabile del trattamento dei dati nell’assicurare la conformità alle normative sulla protezione dei dati.
Il DPO deve essere competente, affidabile e responsabile, e deve possedere una conoscenza specialistica della normativa di riferimento. Tra i suoi compiti principali vi sono il controllo del rispetto del GDPR da parte dell’azienda, il supporto al Titolare del Trattamento dei Dati nelle decisioni relative alla gestione dei dati, e la gestione dei rapporti con le Autorità competenti.
Inoltre, il DPO è responsabile di gestire la privacy aziendale e di assicurare che tutti gli attori dell’impresa rispettino le normative sulla protezione dei dati. In caso di data breach, il DPO consiglia al Titolare quali misure adottare per risolvere il problema.
Per supportare efficacemente il DPO e garantire una gestione ottimale della privacy, può essere utile avere un team di supporto interno che collabori con il DPO.
Questo team può includere funzioni come le risorse umane, l’IT, e la funzione legale, che insieme contribuiscono a creare un sistema di gestione integrato per la privacy.
DATA SECURITY
Il Ruolo della Data Security nelle Aziende
La data security, o sicurezza dei dati, è un aspetto fondamentale per le aziende di ogni dimensione e settore. In un’epoca caratterizzata da una crescente digitalizzazione, la protezione dei dati diventa cruciale per salvaguardare le informazioni sensibili e garantire la continuità delle operazioni aziendali. La sicurezza dei dati comprende l’adozione di misure tecniche, organizzative e procedurali volte a prevenire, rilevare e rispondere a potenziali minacce che possono compromettere l’integrità, la riservatezza e la disponibilità delle informazioni.
Importanza della Data Security
La data security è importante per diverse ragioni:
- Protezione contro le minacce informatiche: Le aziende sono costantemente esposte a rischi di sicurezza come malware, ransomware, phishing e altri tipi di attacchi informatici che possono compromettere i dati sensibili.
- Conformità normativa: Le imprese devono rispettare le normative sulla protezione dei dati, come il GDPR in Europa, che impone requisiti rigorosi per la gestione dei dati personali.
- Salvaguardia della reputazione aziendale: Una violazione dei dati può danneggiare gravemente la reputazione di un’azienda, influenzando la fiducia dei clienti e delle parti interessate.
- Continuità del business: La perdita o il compromesso dei dati può interrompere le operazioni aziendali, causando downtime e perdite finanziarie significative.
Strategie di Data Security
Per affrontare queste sfide, le aziende adottano diverse strategie di data security, tra cui:
- Valutazione delle vulnerabilità e gestione dei rischi: Identificazione e valutazione delle vulnerabilità nei sistemi informatici per determinare i rischi e implementare le misure di mitigazione appropriate.
- Crittografia dei dati: Utilizzo di algoritmi di crittografia per proteggere i dati durante la trasmissione e l’archiviazione, rendendoli inaccessibili a utenti non autorizzati.
- Autenticazione multifattoriale (MFA): Implementazione di MFA per aggiungere un ulteriore livello di sicurezza all’accesso ai sistemi e ai dati aziendali.
- Backup e disaster recovery: Creazione di copie di backup dei dati critici e sviluppo di piani di disaster recovery per garantire il ripristino rapido delle operazioni in caso di incidenti.
- Formazione e sensibilizzazione dei dipendenti: Educazione dei dipendenti sulle migliori pratiche di sicurezza e sulle minacce informatiche per ridurre il rischio di errori umani che possono portare a violazioni dei dati.
Tecnologie e approcci vincenti
Le strategie e gli strumenti impiegati per garantire la sicurezza dei dati comprendono misure contro l’accesso e la modifica non autorizzati dei dati, oltre alla prevenzione dei tentativi di furto.
Queste misure sono essenziali indipendentemente dalla natura della minaccia, che sia essa causata da un errore umano o un attacco intenzionale.
La complessità della sicurezza dei dati odierna deriva non solo dall’aumento delle minacce e dal volume dei dati da proteggere, ma anche dalla crescente complessità delle infrastrutture IT aziendali, che sono ormai distribuite, ibride e spesso basate su architetture multicloud.
Per essere efficace, la sicurezza dei dati deve avvalersi di strumenti e tecnologie specifiche, operando a più livelli.
Sicurezza Fisica
La protezione dei data center contro tentativi di intrusione è una componente fondamentale della sicurezza informatica e fisica delle aziende. Questa necessità deriva dall’importanza critica dei data center, che immagazzinano ed elaborano dati sensibili e supportano le operazioni aziendali quotidiane. La sicurezza dei data center deve essere multilivello, combinando misure fisiche e informatiche per prevenire, rilevare e rispondere a potenziali minacce.
La sicurezza fisica dei data center include una serie di misure e tecnologie progettate per proteggere le strutture fisiche e l’hardware al loro interno da accessi non autorizzati, sabotaggi o danni fisici.
Queste misure possono includere:
- Sistemi di sicurezza perimetrale: Sensori perimetrali esterni e interrati, recinzioni, barriere e altri dispositivi fisici che impediscono l’accesso non autorizzato all’area del data center.
- Controlli di accesso: Sistemi di autenticazione che possono includere badge, codici PIN, biometria e altri metodi per garantire che solo il personale autorizzato possa accedere alle aree sensibili.
- Sorveglianza video: Telecamere di sicurezza posizionate strategicamente per monitorare l’attività intorno e all’interno del data center, fornendo registrazioni utili per le indagini in caso di incidenti.
- Protezione contro incendi e disastri naturali: Sistemi di rilevamento e soppressione degli incendi, nonché progettazione e costruzione che tengono conto della resistenza a terremoti, alluvioni e altri disastri naturali.
Sicurezza Informatica
Parallelamente alle misure fisiche, la sicurezza informatica gioca un ruolo cruciale nella protezione dei data center. Questo include:
- Firewall e sistemi di prevenzione delle intrusioni: Per proteggere la rete del data center da attacchi esterni e interni[5].
- Crittografia dei dati: Per garantire che i dati sensibili siano inaccessibili in caso di violazione[5].
- Gestione delle vulnerabilità e patching regolare: Per assicurarsi che software e hardware siano aggiornati e protetti contro le ultime minacce conosciute.
- Monitoraggio e risposta agli incidenti: Sistemi che rilevano attività sospette o malevole e attivano risposte per mitigare gli attacchi.
Best Practices e Considerazioni
Per garantire una protezione efficace, i data center devono adottare un approccio olistico alla sicurezza che integri misure fisiche e informatiche. Alcune best practices includono:
- Valutazione dei rischi e pianificazione della sicurezza: Comprendere le potenziali minacce e vulnerabilità per sviluppare un piano di sicurezza completo.
- Formazione e sensibilizzazione del personale: Assicurarsi che tutti i dipendenti siano consapevoli delle politiche di sicurezza e sappiano come rispondere in caso di incidenti.
- Test e simulazioni regolari: Eseguire test di penetrazione e simulazioni di disastro per valutare l’efficacia delle misure di sicurezza e identificare aree di miglioramento.
CRITTOGRAFIA E DATA MASKING
La crittografia e il data masking sono due tecniche fondamentali utilizzate per proteggere i dati sensibili all’interno delle organizzazioni. Entrambe le tecniche mirano a garantire la sicurezza dei dati, ma operano in modi diversi e servono a scopi differenti.
Crittografia
La crittografia è il processo di conversione dei dati da una forma leggibile (testo in chiaro) a una forma non leggibile (testo cifrato) utilizzando un algoritmo e una chiave di crittografia.
Questo processo assicura che solo coloro che possiedono la chiave corretta possano decifrare e accedere ai dati originali. La crittografia è utilizzata per proteggere i dati durante la trasmissione e l’archiviazione, garantendo che solo gli utenti autorizzati possano accedere alle informazioni sensibili. La crittografia è menzionata come una delle tecniche di offuscamento dei dati, insieme ad altre come la tokenizzazione.
Data Masking
Il data masking, o mascheramento dei dati, è una tecnica che sostituisce i dati sensibili con dati fittizi o alterati, mantenendo però l’usabilità dei dati per scopi non produttivi come test, sviluppo e formazione. Esistono due tipi principali di data masking:
- Data Masking Statico (SDM): i dati vengono mascherati in modo persistente in una copia del database originale. Questo approccio è utile per creare ambienti di test o sviluppo dove i dati sensibili sono sostituiti da dati fittizi, ma funzionalmente simili.
- Data Masking Dinamico (DDM): i dati originali rimangono nel repository, ma vengono mascherati al momento dell’accesso in base al profilo dell’utente. Gli utenti autorizzati vedono i dati originali, mentre gli utenti non autorizzati vedono i dati mascherati.
Le tecniche di data masking includono la pseudonimizzazione, l’anonimizzazione, la sostituzione, la variazione di numero e data, e la crittografia. Queste tecniche consentono di proteggere i dati sensibili senza compromettere la funzionalità dei sistemi che li utilizzano.
Mentre la crittografia è essenziale per proteggere i dati sensibili durante la trasmissione e l’archiviazione, garantendo che solo gli utenti con la chiave corretta possano accedere ai dati, il data masking è particolarmente utile per proteggere i dati sensibili in ambienti non produttivi. Il data masking permette di utilizzare dati realistici e funzionali senza esporre le informazioni sensibili, riducendo così il rischio di violazioni dei dati durante lo sviluppo, il test e la formazione.
CONTROLLO DEGLI ACCESSI
Il controllo degli accessi è un processo fondamentale per la sicurezza sia fisica che informatica, che consente di regolare l’accesso a determinate risorse, come edifici, reti informatiche, sistemi software e dati sensibili.
Questo processo è cruciale per prevenire l’esposizione non autorizzata di informazioni personali e per proteggere le risorse aziendali da accessi non autorizzati e potenziali minacce.
Le aziende possono implementare sistemi di controllo degli accessi che variano dal manuale al meccatronico, e possono includere dispositivi come badge, sistemi di autenticazione biometrica, PIN, password e sistemi di autentificazione elettronica[2][6]. Questi sistemi possono essere integrati con software di gestione degli accessi per monitorare efficacemente gli accessi dei dipendenti, dei visitatori e degli automezzi attraverso i varchi aziendali.
La revisione regolare degli accessi è una pratica importante per mantenere la sicurezza e la conformità normativa, e può includere la creazione e l’aggiornamento di policy di controllo degli accessi, l’adozione di processi formali di revisione e l’utilizzo di software di controllo degli accessi nei prodotti IAM (Identity Access Management).
PREVENZIONE DELLA PERDITA DEI DATI
La prevenzione della perdita di dati (DLP, Data Loss Prevention) è un aspetto critico delle strategie di cybersecurity e gestione dei dati per organizzazioni di tutte le dimensioni.
Comprende un insieme di tecnologie, politiche e pratiche progettate per impedire che informazioni sensibili vengano perse, utilizzate impropriamente o accessibili da utenti non autorizzati.
Le strategie DLP sono fondamentali per proteggere la proprietà intellettuale, i dati personali e altre informazioni di valore da minacce quali violazioni dei dati, minacce interne e cyberattacchi.
Componenti Chiave della DLP
Identificazione e Classificazione dei Dati Sensibili
Il primo passo in una strategia DLP comporta l’identificazione e la classificazione dei dati sensibili all’interno dell’organizzazione. Questo processo aiuta a determinare quali dati necessitano protezione e il livello di sicurezza richiesto.
Crittografia e Controlli di Accesso
Criptare i dati a riposo e in transito assicura che, anche se i dati vengono intercettati o accessibili da individui non autorizzati, rimangano illeggibili e sicuri. I controlli di accesso restringono ulteriormente l’accesso ai dati solo al personale autorizzato, minimizzando il rischio di esposizione dei dati.
Monitoraggio Regolare e Audit
Il monitoraggio continuo dell’accesso ai dati e del loro movimento all’interno dell’organizzazione aiuta a rilevare potenziali perdite di dati o tentativi di accesso non autorizzati. Gli audit di sicurezza regolari sono anche cruciali per valutare l’efficacia delle misure DLP e identificare aree di miglioramento.
Educazione dei Dipendenti
Educare i dipendenti sulle migliori pratiche di cybersecurity e sull’importanza della protezione dei dati è fondamentale. I programmi di sensibilizzazione possono ridurre significativamente il rischio di perdita di dati a causa di errori umani.
Procedure di Risposta agli Incidenti
Avere un piano di risposta agli incidenti chiaro è essenziale per minimizzare i danni causati da una violazione dei dati. Questo include passaggi per identificare la violazione, contenere il danno e implementare azioni correttive per prevenire futuri incidenti.
Sfide e Soluzioni
Implementare una strategia DLP può essere difficile a causa della complessità degli ambienti IT, del volume dei dati gestiti e della natura in evoluzione delle minacce informatiche. Tuttavia, utilizzare soluzioni DLP avanzate e aderire alle migliori pratiche può aiutare le organizzazioni a proteggere efficacemente i loro dati sensibili. Soluzioni come Forcepoint DLP, Nightfall e Microsoft Purview offrono strumenti completi per la protezione dei dati, inclusi monitoraggio, crittografia e capacità di risposta agli incidenti.
SICUREZZA DELL’APPLICAZIONE
Importanza della sicurezza delle applicazioni
La sicurezza delle applicazioni è fondamentale perché le applicazioni sono sempre più disponibili su varie reti e connesse al cloud, rendendole più suscettibili a minacce e violazioni della sicurezza.
Poiché gli hacker prendono spesso di mira le applicazioni, è essenziale proteggerle per impedire accessi non autorizzati e violazioni dei dati. Il test della sicurezza delle applicazioni è un componente chiave che aiuta a rivelare i punti deboli a livello di applicazione, aiutando nella prevenzione degli attacchi
Tipi di misure di sicurezza dell’applicazione
- Autenticazione : garantisce che solo gli utenti autorizzati possano accedere all’applicazione. Ciò può comportare la richiesta di nomi utente e password, nonché l’autenticazione a più fattori, che può includere qualcosa che l’utente conosce (come una password), qualcosa che possiede (come un dispositivo mobile) e qualcosa che è (come un’impronta digitale).1.
- Autorizzazione : determina cosa può fare un utente autenticato all’interno dell’applicazione1.
- Crittografia : protegge i dati sensibili dall’essere visti o utilizzati dai criminali informatici, particolarmente importante nelle applicazioni basate su cloud in cui i dati viaggiano tra l’utente e il cloud1.
- Registrazione : aiuta a identificare chi ha effettuato l’accesso all’applicazione e cosa ha fatto in caso di violazione della sicurezza, fornendo un registro delle attività con timestamp1.
- Test di sicurezza dell’applicazione : processo necessario per garantire che tutti i controlli di sicurezza funzionino correttamente1.
- Sicurezza delle applicazioni mobili : i dispositivi mobili sono suscettibili agli attacchi mentre trasmettono e ricevono informazioni attraverso Internet. Le reti private virtuali (VPN) e il controllo delle app mobili rispetto alle policy di sicurezza aziendali possono migliorare la sicurezza1.
Sicurezza della rete
La sicurezza della rete si concentra sulla protezione dell’infrastruttura di rete e dei dati trasmessi su di essa da accessi non autorizzati, attacchi e violazioni. Comprende una varietà di tecnologie, processi e pratiche hardware e software progettati per salvaguardare la rete e i dati.
Componenti chiave della sicurezza di rete
- Firewall : fungono da barriera tra la rete interna attendibile e le reti esterne non attendibili, come Internet, controllando il traffico di rete in entrata e in uscita in base a regole di sicurezza predeterminate1.
- Sistemi di prevenzione delle intrusioni (IPS) : monitora le attività della rete e del sistema per rilevare attività dannose o violazioni delle policy e può bloccare o impedire automaticamente tali attività1.
- Prevenzione della perdita di dati (DLP) : impedisce ai dati sensibili di lasciare la rete senza autorizzazione1.
- Reti private virtuali (VPN) : crea una connessione sicura e crittografata su una rete meno sicura, come Internet, garantendo la riservatezza e l’integrità dei dati in transito1.
- Zero Trust Network Access (ZTNA) : presuppone che nessun utente o dispositivo sia affidabile fino a prova contraria, garantendo l’accesso solo in caso di necessità e riducendo al minimo la potenziale superficie di attacco1.
Le misure di sicurezza della rete sono in continua evoluzione per contrastare nuove minacce, richiedendo uno sforzo continuo per stare al passo con i potenziali aggressori. È inoltre fondamentale disporre di piani di risposta agli incidenti in caso di violazioni2.
Sicurezza degli endpoint
La sicurezza degli endpoint, invece, si concentra sulla protezione dei dispositivi (endpoint) che si connettono alla rete, come computer, smartphone e tablet. Ha lo scopo di proteggere questi endpoint dallo sfruttamento da parte di attori malintenzionati e di proteggere i dati a cui accedono ed elaborano.
Componenti chiave della sicurezza degli endpoint
EPP
Le piattaforme di protezione degli endpoint, note come EPP (Endpoint Protection Platforms), sono sistemi di sicurezza informatica che offrono una soluzione centralizzata per la difesa dei dispositivi finali, o “endpoint”, come computer, smartphone e altri dispositivi connessi a una rete aziendale, dal software malevolo, comunemente chiamato malware.
Un esempio di piattaforma di protezione degli endpoint (EPP) potrebbe essere un software di sicurezza aziendale che viene installato su tutti i dispositivi dell’azienda, come laptop, desktop, server e smartphone. Questo software funziona come la prima linea di difesa contro malware come virus, trojan, worm e ransomware.
Supponiamo che un dipendente tenti di scaricare un’applicazione che sembra legittima, ma che in realtà contiene un trojan. L’EPP sul dispositivo del dipendente rileverebbe il comportamento sospetto del file scaricato, come tentativi di connessione a server remoti noti per essere command and control centers per malware. Il sistema EPP potrebbe quindi bloccare automaticamente l’esecuzione del file, mettere in quarantena il trojan e notificare l’amministratore di sistema dell’incidente di sicurezza, prevenendo così potenziali danni alla rete aziendale e ai dati.
Queste piattaforme combinano le funzionalità degli antivirus tradizionali, che rilevano e rimuovono virus e altri tipi di malware basandosi su firme digitali note, con tecnologie più avanzate e moderne.
Le soluzioni di sicurezza per gli endpoint possono includere:
Antivirus e Antimalware: Software progettati per rilevare, prevenire e rimuovere software dannosi.
Firewall: Dispositivi o software che monitorano e controllano il traffico di rete in ingresso e in uscita basandosi su regole di sicurezza prestabilite.
Sistemi di prevenzione delle intrusioni (IPS): Dispositivi o software che esaminano il traffico di rete per bloccare attività sospette o dannose.
Gestione delle Patch: Assicurarsi che tutti i dispositivi siano aggiornati con le ultime patch di sicurezza.
Controllo degli Accessi: Limitare l’accesso ai dispositivi e ai dati in base al ruolo dell’utente all’interno dell’organizzazione.
Crittografia: Proteggere i dati rendendoli illeggibili senza una chiave di decrittazione.
Rilevamento e Risposta agli Endpoint (EDR): Soluzioni che non solo prevengono gli attacchi, ma monitorano anche i dispositivi per rilevare comportamenti sospetti e rispondere agli incidenti di sicurezza.
L’obiettivo di un’EPP è quindi quello di fornire una difesa robusta e multi-strato contro una varietà di minacce informatiche, riducendo il rischio di attacchi dannosi e mantenendo la sicurezza dei dati aziendali.
EDR
Le soluzioni di Endpoint Detection and Response, note come EDR, sono strumenti avanzati di sicurezza informatica che si concentrano sul monitoraggio continuo e sulla risposta alle minacce avanzate negli endpoint di una rete. Questi sistemi sono progettati per fornire una visibilità dettagliata sull’attività che si verifica nei dispositivi finali, come computer e dispositivi mobili, consentendo alle organizzazioni di rilevare rapidamente comportamenti sospetti o potenziali incidenti di sicurezza.
Un esempio di soluzione Endpoint Detection and Response (EDR) potrebbe essere il seguente scenario: in un’azienda, un dipendente riceve una email di phishing e clicca accidentalmente su un link malevolo. Questo link scarica un software dannoso sul suo laptop senza che il dipendente se ne accorga.
L’EDR installato sul laptop del dipendente entra in azione monitorando il comportamento sospetto. Rileva che un nuovo processo sta tentando di stabilire una connessione con un server esterno noto per essere associato a cybercriminali. Prima che il malware possa causare danni, l’EDR isola automaticamente il dispositivo dalla rete aziendale per prevenire la diffusione dell’infezione e avvisa il team di sicurezza IT.
Il team di sicurezza utilizza poi gli strumenti di indagine dell’EDR per analizzare l’attività sospetta, confermare la natura del tentativo di attacco e identificare il punto di ingresso del malware. Successivamente, l’EDR aiuta a ripulire il laptop, rimuovendo il malware e ripristinando i file compromessi da backup recenti. Grazie all’EDR, l’attacco è stato contenuto e gestito rapidamente, minimizzando l’impatto sull’azienda.
e funzionalità chiave delle soluzioni EDR includono:
Rilevamento: EDR utilizza tecniche avanzate per monitorare continuamente gli endpoint alla ricerca di attività sospette o anomalie che potrebbero indicare una minaccia, come comportamenti di malware o segni di un attacco in corso.
Analisi: Quando viene rilevata un’attività sospetta, le soluzioni EDR analizzano il contesto e le azioni correlate per determinare se si tratta di una vera minaccia e quali potrebbero essere le sue implicazioni.
Risposta: Una volta identificata una minaccia, le soluzioni EDR possono rispondere automaticamente per contenere l’attacco e prevenire danni ulteriori. Questo può includere l’isolamento dell’endpoint dalla rete o l’esecuzione di azioni per rimuovere il malware.
Indagini Forensi: Dopo un attacco, le soluzioni EDR possono fornire strumenti per eseguire indagini forensi dettagliate per capire come è avvenuto l’attacco, cosa è stato colpito e come prevenire incidenti simili in futuro.
Integrazione e Automazione: Le soluzioni EDR spesso si integrano con altre piattaforme di sicurezza e utilizzano l’automazione per migliorare la velocità e l’efficacia della risposta agli incidenti.
BACKUP E DISASTER RECOVERY, I PILASTRI DELLA CONTINUITÀ DEL BUSINESS
La distinzione tra backup e disaster recovery, sebbene spesso confusi, è fondamentale per comprendere come le aziende possono proteggersi da eventi potenzialmente catastrofici.
Il backup, in informatica, è una procedura che consiste nel creare una copia di sicurezza di dati da un sistema informatico.
Questa copia può essere utilizzata per ripristinare l’originale in caso di perdita dei dati, guasti hardware, attacchi informatici, errori umani o altri disastri.
Il backup è quindi un elemento fondamentale per la continuità operativa di un’azienda o per la sicurezza dei dati personali di un individuo
Esistono diverse tipologie di backup:
- Full backup: copia completa di tutti i dati e file.
- Cold backup (backup a freddo): copia dei dati effettuata quando il sistema non è in uso
- Hot backup (backup a caldo): copia dei dati effettuata mentre il sistema è in uso, senza interrompere le operazioni normali
- Backup differenziale: copia solo dei dati modificati rispetto all’ultimo full backup
- Backup incrementale: copia dei dati modificati rispetto all’ultimo backup di qualsiasi tipo
Il backup può essere eseguito su diversi supporti, come dischi rigidi esterni, nastri magnetici, dispositivi di archiviazione su rete (NAS), o su cloud, utilizzando servizi di backup online che offrono spesso spazio di archiviazione illimitato e accessibilità ai dati da qualsiasi luogo
La frequenza con cui si effettua il backup dipende dall’importanza dei dati e dalla velocità con cui questi cambiano. Per le aziende, è consigliabile pianificare backup regolari come parte di un piano di disaster recovery, per garantire la capacità di ripristinare i dati e continuare le operazioni in caso di emergenza
Il Disaster Recovery (DR) è una componente critica della strategia di business continuity di un’organizzazione, che si concentra sul ripristino dell’accesso e della funzionalità dei sistemi informatici e dei dati in seguito a un evento disastroso, come calamità naturali, guasti tecnici o attacchi informatici
Come funziona il Disaster Recovery?
Il Disaster Recovery (DR) consiste nel prepararsi a rispondere a un’emergenza informatica in modo che un’azienda possa continuare a lavorare anche se succede qualcosa di grave, come un attacco informatico o un guasto serio.
Per farlo, l’azienda tiene copie dei suoi dati e sistemi in un luogo sicuro lontano dalla sede principale, chiamato “off-premise”. Se qualcosa va storto nella sede principale, l’azienda può usare queste copie per recuperare le informazioni perse e spostare temporaneamente il suo lavoro su computer in questo luogo sicuro per continuare le operazioni come se niente fosse.
Elementi chiave del Disaster Recovery
- Replica dei dati: Salvataggio e sincronizzazione dei dati in una posizione sicura e separata.
- Failover: Trasferimento dei carichi di lavoro ai sistemi di backup per mantenere i processi di produzione attivi.
- Failback: Ritorno ai sistemi primari una volta che il disastro è stato gestito e i sistemi sono stati riparati o sostituiti.
Tipologie di Disaster Recovery
- Hot site:
Un hot site è un’infrastruttura IT che funge da replica del sito primario di un’azienda, situata in un’area geograficamente separata e dotata di tutte le risorse tecnologiche necessarie per mantenere le operazioni aziendali in caso di disastro.
Questo tipo di infrastruttura è sempre operativa e contiene copie aggiornate di tutti i dati critici, consentendo un rapido ripristino delle funzioni aziendali senza interruzioni significative del flusso di lavoro.
Il hot site è progettato per ridurre al minimo il downtime in caso di eventi imprevisti come guasti tecnici, attacchi informatici o calamità naturali. È più costoso rispetto ad altre soluzioni di disaster recovery, come il cold site, a causa della necessità di mantenere un’infrastruttura IT parallela sempre aggiornata e pronta all’uso. Tuttavia, per le aziende che richiedono alta disponibilità e non possono permettersi lunghi periodi di inattività, il hot site rappresenta una soluzione efficace per garantire la continuità operativa.
Un cold site
è una soluzione di Disaster Recovery che consiste in un’infrastruttura di base situata in una seconda sede, utilizzata raramente, che può essere attivata in caso di necessità, come in seguito a un disastro. A differenza di un hot site, che è sempre operativo e contiene copie aggiornate di tutti i dati critici, un cold site è caratterizzato da spazio minimo e installazioni di base, senza hardware o software preinstallati. Questo significa che, sebbene i cold site siano meno costosi da mantenere rispetto ai hot site, richiedono più tempo per essere attivati e configurati in caso di emergenza
Il funzionamento di un cold site prevede che, in caso di disastro, l’infrastruttura necessaria venga allestita e configurata a partire da zero o da una configurazione molto basilare. Questo può includere l’installazione di hardware, il caricamento di software e la configurazione di reti e sistemi di comunicazione. Poiché un cold site non dispone di dati o applicazioni prontamente disponibili, è necessario anche ripristinare i backup dei dati critici per riprendere le operazioni
I cold site sono generalmente considerati una soluzione adeguata per organizzazioni che possono tollerare tempi di inattività più lunghi senza subire impatti significativi sulle loro operazioni.
Sono particolarmente adatti per scenari in cui il costo di mantenere un hot site non è giustificabile rispetto al rischio di disastro e al tempo di inattività accettabile.
In sintesi, i cold site offrono un’opzione di Disaster Recovery più economica rispetto ai hot site, ma con tempi di ripristino più lunghi. Sono ideali per organizzazioni che necessitano di una soluzione di backup per i loro dati e sistemi, ma che possono permettersi un certo grado di inattività in caso di disastro
Importanza del Disaster Recovery
Il DR è essenziale per garantire che le operazioni aziendali possano continuare senza interruzioni significative e per proteggere i dati critici. Senza un piano di DR, le aziende rischiano di subire tempi di inattività prolungati o di non essere in grado di riprendersi da una perdita di dati, il che potrebbe avere conseguenze devastanti
Implementazione del Disaster Recovery
Un piano di DR efficace richiede un’analisi approfondita dell’impatto aziendale, la definizione di strategie e procedure di emergenza, e la formazione del personale coinvolto. È importante anche testare periodicamente il piano per assicurarsi che funzioni come previsto.
In conclusione, il Disaster Recovery è un processo proattivo e pianificato per garantire la resilienza e la continuità delle operazioni aziendali in caso di eventi disastrosi, proteggendo i dati e i sistemi critici
RESILIENZA E SICUREZZA DEL DATA CENTER, IL PRIMO ALLEATO DEL BUSINESS
Un data center è una struttura fisica centralizzata che ospita computer aziendali, rete, storage e altre apparecchiature IT essenziali per le operazioni di un’organizzazione. Queste strutture sono progettate per conservare, gestire e distribuire grandi quantità di dati e applicazioni, garantendo al contempo sicurezza, affidabilità e alta disponibilità. I data center possono variare in dimensioni, da piccoli armadi a grandi magazzini, e possono essere gestiti internamente dalle aziende o noleggiati da fornitori di servizi esterni
Componenti e Infrastruttura
I componenti chiave di un data center includono:
- Server: Per l’elaborazione dei dati.
- Sistemi di storage: Per l’archiviazione dei dati.
- Dispositivi di rete: Come router e switch, per la connettività e la distribuzione dei dati.
- Sistemi di sicurezza: Firewall, software per la protezione di rete e misure fisiche come videosorveglianza e limitazione degli accessi per proteggere i dati.
- Infrastrutture di supporto: Sistemi di alimentazione, gruppi di continuità (UPS), sistemi di raffreddamento, e sistemi antincendio per garantire il funzionamento ottimale e la sicurezza delle apparecchiature
Evoluzione e Tipologie
I data center hanno subito significative trasformazioni, passando da tradizionali server fisici a reti virtuali che supportano l’elaborazione distribuita.
Questo ha portato alla creazione di data center virtualizzati o Software-Defined Data Center (SDDC), che sono più efficienti, con requisiti di alimentazione inferiori e una maggiore flessibilità nell’uso delle risorse IT.
Questi data center moderni possono essere ospitati in cloud pubblici o privati, offrendo alle aziende scalabilità, risparmio sui costi e accesso a tecnologie avanzate
Importanza e Utilizzo
I data center sono essenziali per la continuità operativa delle aziende, supportando una vasta gamma di applicazioni aziendali e attività, dalla gestione dei dati e delle applicazioni business-critical, alla digitalizzazione e all’analisi dei dati.
Con l’avanzamento delle tecnologie digitali e l’aumento della quantità di dati generati, i data center continuano a evolversi per soddisfare le esigenze di efficienza, sicurezza e sostenibilità ambientale
La resilienza del data center
La resilienza del data center si riferisce alla capacità di un data center di mantenere operazioni continue e di riprendersi rapidamente da qualsiasi forma di interruzione, dovuta a guasti delle apparecchiature, interruzioni di corrente o altri eventi imprevisti.
Questo concetto è parte integrante dell’architettura di un data center ed è spesso associato a piani di ripristino di emergenza e strategie di protezione dei dati
Componenti chiave della resilienza del data center
Il raggiungimento della resilienza del data center coinvolge diversi componenti e strategie critici:
- Componenti ridondanti : l’utilizzo di sistemi e strutture ridondanti garantisce che se un elemento si guasta, un altro può subentrare senza problemi, riducendo al minimo i tempi di inattività e mantenendo la continuità del servizio1.
- Monitoraggio e avvisi : il monitoraggio continuo delle operazioni del data center aiuta a identificare potenziali problemi prima che diventino problemi significativi. Insieme a meccanismi di allarme efficaci, questo può prevenire interruzioni12.
- Test e simulazione : testare regolarmente la capacità del data center di gestire i guasti e simulare scenari di disastro è fondamentale per valutare e migliorare la resilienza. Ciò può comportare l’interruzione dell’alimentazione al data center durante i periodi di bassa attività per valutare l’efficacia dei sistemi ridondanti e delle procedure di ripristino1.
Resilienza vs ridondanza
La resilienza di un data center è come la capacità di una città di riprendersi rapidamente dopo un terremoto: non basta avere ambulanze e vigili del fuoco di riserva (ridondanza), ma è necessario un piano completo che preveda strade alternative, esercitazioni di emergenza e una comunicazione efficace per assicurarsi che tutto funzioni bene anche dopo la scossa.
In pratica, avere ridondanza significa che se una parte del data center smette di funzionare, c’è un pezzo di ricambio pronto per prendere il suo posto.
Ma la resilienza va oltre: significa che l’intero sistema del data center è progettato per affrontare problemi senza fermarsi.
Questo richiede di pensare a tutto ciò che potrebbe andare storto, controllare regolarmente se tutto funziona come dovrebbe e fare delle prove per assicurarsi che, in caso di guai, il piano di emergenza funzioni davvero. Quindi, la resilienza è una strategia più ampia che include la ridondanza come uno dei suoi elementi.
Importanza della resilienza del data center
La resilienza di un data center è come avere una fortezza che protegge le informazioni importanti di un’azienda.
Immagina che i dati siano come l’oro e il data center sia la cassaforte dove lo tieni al sicuro.
In un mondo sempre più digitale, dove i dati sono preziosi, è cruciale che questa cassaforte sia robusta abbastanza da resistere a qualsiasi problema, come guasti tecnici, attacchi informatici o disastri naturali.
Se la cassaforte è ben costruita, l’azienda può continuare a lavorare senza interruzioni, anche se succede qualcosa di inaspettato, perché l’oro (i dati) rimane al sicuro e accessibile. Questo significa meno problemi e più stabilità per l’azienda.
Strategie per migliorare la resilienza
Per migliorare la capacità di un data center di resistere e riprendersi da problemi e guasti, le aziende possono adottare diverse strategie:
- Configurazioni di Ridondanza: Questo significa avere parti di scorta per ogni componente importante del data center, così se qualcosa si rompe, c’è già un sostituto pronto per entrare in azione.
- Test e Simulazioni: Come fare delle prove antincendio, è importante testare regolarmente il data center simulando guasti per vedere come reagisce e per trovare i punti deboli, migliorando così le procedure per quando ci sono emergenze vere.
- Monitoraggio Attento: Bisogna tenere d’occhio costantemente il data center per individuare e risolvere eventuali problemi prima che diventino seri e causino danni maggiori.
- Infrastrutture Resilienti: Investire in sistemi di alimentazione, reti e misure di sicurezza robusti che possano supportare il lavoro continuo del data center anche in condizioni difficili.
DATA CENTER SECURITY
La sicurezza del data center comprende misure sia fisiche che digitali progettate per proteggere le risorse e le operazioni di un data center da varie minacce.
Componenti chiave della sicurezza del data center
- Misure di sicurezza fisica : includono luoghi sicuri, controlli di accesso fisico e sistemi di monitoraggio per proteggere la struttura del data center da accessi non autorizzati o minacce fisiche. Per salvaguardare i locali vengono impiegate tecniche quali CCTV, guardie di sicurezza in loco e misure anti-tailgating23.
- Misure di sicurezza digitale : concentrarsi sulla protezione del data center dalle minacce informatiche. Ciò comporta l’implementazione di robusti controlli di accesso alla sicurezza IT, firewall, sistemi di prevenzione e rilevamento delle intrusioni e altre soluzioni di sicurezza su misura per le esigenze dei data center. L’obiettivo è proteggere server, applicazioni e dati da accessi o attacchi non autorizzati12.
- Ridondanza e tolleranza ai guasti : i data center sono progettati con ridondanza e tolleranza ai guasti per garantire un funzionamento continuo. Ciò include componenti con capacità ridondante e percorsi di distribuzione per proteggere da eventi fisici e garantire l’integrità del data center1.
- Segmentazione : riduce la portata di un attacco limitandone la capacità di diffondersi nel data center. È particolarmente importante per i server con cicli di patch ritardati o sistemi legacy che non ricevono versioni di manutenzione o aggiornamenti di patch1.
Nel settore della protezione dei data center, le aziende e i fornitori di servizi adottano una serie di precauzioni per prevenire l’ingresso di intrusi.
I data center più avanzati utilizzano un approccio di sicurezza a più livelli che include guardie di sicurezza, vari metodi di autenticazione, scanner biometrici, barriere di protezione per gli armadi contenenti i server e altre misure. Questo tipo di sicurezza fisica è essenziale per difendere i dati e rappresenta una pietra miliare nella capacità di un’organizzazione di resistere e recuperare da eventi avversi.
Sfide e strategie
Proteggere un data center moderno è impegnativo a causa della natura dinamica dei carichi di lavoro che si spostano in ambienti fisici e multicloud. Le policy di sicurezza devono cambiare dinamicamente per consentire l’applicazione e la sicurezza delle policy in tempo reale.
Inoltre, le applicazioni mobili e web aumentano la superficie di attacco, creando più vie di sfruttamento
Conclusioni
In conclusione, l’ultimo “Cost of a Data Breach Report” del 2023 pubblicato da IBM Security ci fornisce un promemoria allarmante ma necessario: i costi associati alle violazioni dei dati continuano a salire, sottolineando l’urgenza per le organizzazioni di rafforzare le loro difese. Con un incremento medio globale del costo di una violazione dei dati che raggiunge i 4,45 milioni di dollari, diventa evidente che la sicurezza informatica non è più un optional ma una necessità imprescindibile.
La crescita costante dei costi legati ai data breach è un indicatore chiaro del valore sempre più elevato dei dati nell’economia digitale e delle conseguenze devastanti che una loro compromissione può avere in termini finanziari, legali e di reputazione. Le raccomandazioni fornite dal rapporto, come la pianificazione e il test della risposta agli incidenti, la formazione dei dipendenti e l’adozione di strumenti avanzati di rilevamento e risposta alle minacce, sono passi essenziali verso la creazione di un ambiente più sicuro.
L’uso dell’intelligenza artificiale e dell’automazione emerge come un fattore chiave per ridurre i costi e accelerare il contenimento delle violazioni, ma solo una minoranza di organizzazioni sembra sfruttare appieno queste tecnologie. È fondamentale che ci sia un cambio di paradigma verso l’adozione di queste soluzioni avanzate per restare al passo con gli attori minacciosi sempre più sofisticati.
Inoltre, il rapporto ci ricorda che non tutte le minacce provengono dall’esterno: le “insider threats”, o minacce interne, rappresentano una percentuale significativa dei data breach. Questo richiede un approccio olistico alla sicurezza che non trascuri l’elemento umano e che integri tecnologie come i sistemi SIEM per una gestione proattiva delle minacce.
Non possiamo ignorare il fatto che l’82% delle violazioni coinvolge dati nel cloud. Questo dato ci impone di riflettere sulla necessità di soluzioni che offrano visibilità e protezione in ambienti ibridi, dove i dati sono in costante movimento.
In sintesi, la resilienza e la sicurezza dei data center non sono mai state così critiche come ora. Investire in AI, automazione e piani di risposta agli incidenti non è solo una scelta strategica ma una necessità che può determinare la sopravvivenza stessa di un’organizzazione nell’era digitale. Le aziende devono agire ora per proteggere il loro futuro.