Tutti gli articoli dedicati a prodotti, tematiche e soluzioni relativi allinfrastruttura IT aziendale

cyber-security

Ottobre è Cyber Security Month 2019

Ottobre è il mese dedicato alla campagna European Cyber Security Month 2019.

L’Unione Europea, nello specifico l’ENISA ovvero l’Agenzia europea per la sicurezza delle reti e dell’informazione, ha lanciato questa campagna per promuovere la conoscenza delle minacce informatiche, le metodologie per contrastarle e fornire informazioni in merito alla sicurezza e ai rischi che si corrono in caso di attacco informatico.

In che modo? Attraverso una serie di eventi e attività volti alla divulgazione delle pratiche da seguire per navigare in sicurezza utilizzando tecnologie sempre connesse e quindi potenzialmente sempre a rischio (per conoscere gli eventi in programma clicca qui).

In Italia, l’European Cyber Security Month, è in gestione da CLUSIT – Associazione Italiana per la Sicurezza Informatica insieme a Università e Centri di Ricerca.

L’obiettivo di tali incontri è duplice: aumentare la consapevolezza dei rischi che si corrono e diffondere modelli di comportamento utili a garantire più sicurezza.

Sia a casa che al lavoro ogni giorno siamo alle prese con email spam, pagine web a rischio, furti di informazioni personali,… perché ci troviamo molto spesso a sottovalutare la messa in sicurezza dei nostri dati personali (o le informazioni aziendali) con la possibilità che vengano utilizzati per scopi poco etici.

Per capire l’entità del fenomeno, riteniamo sia utile fornire una panoramica sul trend attuale: da una parte troviamo hacker sempre più aggressivi e competenti, dei veri professionisti del crimine informatico, e dall’altra parte tecnologie sempre più evolute nel tentativo di innalzare le difese.

Il trend attuale

Che il 2018 sia stato un anno nero per la Cyber Security ne siamo consapevoli. Aspettiamo di sapere cosa emergerà dal prossimo rapporto dell’Associazione italiana per la sicurezza informatica (Clusit) su com’è andata nel corso del 2019.

Se pensiamo alla nostra quotidianità, in realtà, potremmo già fare qualche supposizione. Quante email spam ci arrivano ogni giorno nella posta in arrivo? Quanti pop-up si aprono ogni volta che visitiamo siti web e informazioni online?

L’email è il canale di comunicazione più utilizzato dalle aziende italiane e di conseguenza rappresenta il primo canale di diffusione di malware, phishing e attacchi informatici in generale. [Rapporto Clusit, 2018].

Inoltre, sempre secondo il Rapporto Clusit, nel 2018 è stato registrato un aumento degli attacchi gravi con finalità di Cybercrime (+43,8%) e di quelli riferibili ad attività di Cyber Espionage (+57,4%).

Il bersaglio principale rimangono i dati, sia aziendali, che personali con tecniche di attacco più elaborate, studiate nei minimi dettagli e di conseguenza più gravi rispetto agli anni passati.

grafico-cybersecurity

Clusit – Rapporto 2019 sulla sicurezza ICT in Italia

La tecnica più utilizzata rimane l’impiego di malware (38%) seguita da attacchi eseguiti con tecniche sconosciute (26%).

Ciò che ci succede tutti i giorni, confermato anche da questi dati, ha aumentato parecchio la preoccupazione e le aziende stanno facendo una corsa contro il tempo per mettere in atto dei provvedimenti a tutela dei propri sistemi informatici.

Come prevenire gli attacchi informatici?

Prima di tutto è necessario partire dalle persone e dai loro comportamenti.

Sembrerà banale, ma anche utilizzare la stessa password per più applicazioni può risultare fatale. Oppure non porre troppa attenzione all’indirizzo email del mittente che potrebbe essere falso.

Per verificare il mittente ed essere sicuri della provenienza dell’email, basta un semplice gesto: spostare il cursore sul nome del mittente vi permetterà di visualizzarne l’indirizzo email completo.

Ecco un esempio:

esempio-email-virus

Un’adeguata formazione del personale è imprescindibile, ancora prima dell’adozione di tecnologie avanzate per la messa in sicurezza della propria struttura IT. Così facendo i dipendenti dell’azienda saranno in grado di riconoscere le minacce ed evitarle.

Inoltre, la quantità di informazioni raccolte e possedute dalle aziende è aumentata in maniera esponenziale e il fenomeno dell’interconnessione le ha rese più vulnerabili.

Investire sull’aggiornamento, la formazione dei dipendenti e sull’utilizzo di infrastrutture cyber resilienti o rischiare di perdere tutto?

Oggi sottovalutare i rischi derivanti da attacchi informatici è un azzardo che le aziende non possono più permettersi di correre e avere un’infrastruttura adeguata, con sistemi evoluti di protezione dei dati è fondamentale.

Ma chi si occupa della gestione e protezione dei dati, della manutenzione dell’infrastruttura, della valutazione dei rischi,…?

Sono attività complesse, che richiedono un team competente ed esperto oltre che un investimento economico non indifferente.

Vorresti avere la certezza di utilizzare un’infrastruttura affidabile e sicura ma non sai come fare? Perché non affidarsi ad un fornitore esterno?

Axioma, grazie alle collaborazione con clienti e partner, offre servizi sistemistici in outsourcing, sistemi di backup e disaster recovery dei dati e servizi di consulenza, valutazione e analisi dei rischi attraverso personale esperto e preparato sulla conoscenza di queste problematiche.

 

amazon-aws-cloud

Amazon AWS: quali sono i vantaggi?

L’utilizzo del Cloud da parte delle aziende aumenta costantemente e come abbiamo approfondito in un articolo di qualche mese fa sta avendo un ruolo sempre più importante nello sviluppo di strategie IT volte alla Digital Transformation.

I vantaggi di questa tecnologia ormai li conosciamo tutti: scalabilità, flessibilità, riduzione dei costi di gestione dell’infrastruttura,… senza rinunciare alla sicurezza.

Oggi il cloud pubblico suscita molto interesse da parte dei professionisti di settore perché non si limita a soddisfare queste esigenze, ma ha anche la caratteristica del pay per use che lo rende economicamente vantaggioso a seconda della tipologia di fruizione dei servizi.

Ma in un mercato dove tutti offrono la miglior tecnologia, a chi rivolgersi? Perché è importante affidarsi a partner certificati?

Noi di Axioma, che offriamo soluzioni software in cloud da molti anni, non potevamo certo rinunciare all’esperienza e all’affidabilità di un brand riconosciuto e certificato come Amazon AWS per offrire una modalità di adozione dei nostri prodotti all’altezza dei cambiamenti richiesti dalla Digital Transformation.

Vediamo insieme quali sono le caratteristiche di questa tecnologia e perché abbiamo colto questa opportunità.

Cos’è Amazon AWS?

AWS, acronimo di Amazon Web Services, è la piattaforma di cloud pubblico che offre Amazon con una serie di servizi legati al mondo dell’elaborazione, storage, database, reti, analisi, machine learning e intelligenza artificiale, sicurezza e sviluppo presente a livello globale.

AWS vanta milioni di clienti attivi in tutto il mondo di qualsiasi settore e dimensione, dalle start-up alle multinazionali e organizzazioni del settore pubblico. Inoltre, la rete di partner AWS include migliaia di system integrator di sistemi specializzati e affidabili.

Milioni di clienti, sparsi per il mondo e con esigenze diverse. Sarà davvero così efficiente?

La risposta ve la diamo con questo grafico.

grafico-amazon-aws

 

Nel mercato dell’infrastruttura Cloud, AWS ha battuto Microsoft e Google guadagnandosi il primo posto e generando un ricavo annuo di circa 18 miliardi di dollari.

Si può dire che AWS è leader nel cloud e le previsioni per il 2020 non sono da meno. Buttarsi in questo segmento per Amazon ha significato una fonte di guadagno sia in termini di brand, sia in termini economici, infatti, “AWS rappresenta per Amazon il 58% dei guadagni totali, rendendola la sua più grande fonte di incassi” [Amazon Web Services Research, 2018].

Se la scelta del cloud provider deve orientarsi su brand accreditati, con un portfolio clienti molto ampio e investimenti constanti su nuovi servizi e funzionalità, ecco la risposta alla domanda sul perché abbiamo scelto di affidarci ad un partner come Amazon AWS.

Ma entriamo un po’ più nel dettaglio e andiamo a vedere quali sono i vantaggi di questa modalità di fruizione e di questa piattaforma.

Quali sono i vantaggi di Amazon AWS?

Innanzitutto partiamo dai vantaggi che derivano dall’adozione di servizi IT erogati da un Cloud Pubblico e che abbiamo già citato in un articolo precedente.

Ne riprendiamo alcuni:

  • gestione della complessità dell’architettura IT e dei fattori di rischio che ne derivano delegata interamente al fornitore
  • scalabilità nell’infrastruttura e nelle risorse
  • disponibilità e rapidità delle risorse digitali

Questo per il cliente si traduce in riduzione dei costi e nessun incarico in merito alla gestione dell’infrastruttura e dell’hardware.

A questi possiamo aggiungere i vantaggi di affidarsi ad un partner certificato come Amazon AWS:

  • alta gamma di servizi e funzionalità complete per l’infrastruttura e supporto per lo sviluppo di progetti innovativi su architetture moderne e performanti.
  • presenza geografica globale e diversificata, per rendere disponibili servizi e soluzioni applicative in contesti geografici distribuiti, aumentandone tolleranza ai guasti e scalabilità rispetto alle infrastrutture con data center tradizionali. Ciononostante, per gli amanti della Patria, l’anno prossimo AWS aprirà una region italiana.
  • presenza di AWS Marketplace, una sorta di catalogo digitale dove è possibile cercare, testare, acquistare e distribuire in AWS soluzioni software e tutta una serie di servizi legati allo storage, business intelligence, networking,…Questa piattaforma è un incentivo per tutte quelle imprese che intendono avviare progetti digitali e possono farlo in maniera autonoma, con risorse immediatamente disponibili e dove i costi sono determinati dall’uso effettivo, in totale trasparenza.
  • maggior protezione e sicurezza dei dati. AWS supporta elevati standard di sicurezza e certificati di conformità e tutti i servizi di data storage offrono la possibilità di crittografare tali dati.

Insomma, Amazon AWS è un partner tecnologico con risorse finanziarie tali da garantire innovazione continua, esperienza, affidabilità e sicurezza.

Tutti i fattori che inizialmente potevano essere visti come ostacoli (soprattutto legati alla sicurezza), ora che le imprese stanno utilizzando e toccando con mano i vantaggi di una tecnologia di questo tipo, si sono trasformati in grandi opportunità di innovazione.

Tutto ciò, unito all’esperienza del nostro team dedicato al Cloud, consente ai clienti un risparmio ed un utilizzo delle applicazioni è in grado di offrire soluzioni software in cloud utilizzando un’infrastruttura all’avanguardia e gestita la personale qualificato ed esperto.

 

 

cloud-pubblico

Le opportunità nel Cloud Pubblico

Da quando si è iniziato a parlare di Cloud ad oggi, le cose sono cambiate notevolmente.

Oggi chi vuole intraprendere un processo di trasformazione digitale non può non cogliere le opportunità di questa tecnologia che, nonostante un’evoluzione un po’ titubante, è riuscita ad entrare a far parte delle strategie IT aziendali.

Come sta andando il Cloud in Italia?

In Italia, secondo l’Osservatorio Cloud Transformation, nel 2018 il mercato Cloud italiano ha toccato quota 2,34 miliardi di euro ed è in forte crescita rispetto all’anno precedente (+19%).
Inoltre, l’82% delle imprese medio-grandi utilizza almeno un servizio in Public Cloud e nel 23% dei casi in maniera estesa su processi mission-critical.

Possiamo dire che il mercato del Cloud è in forte crescita e anche se ci è voluto del tempo è entrato a far parte delle tecnologie più utilizzate nel mondo del business.

Le imprese hanno reso il Cloud una parte integrante della loro strategia IT perché consente di basare il proprio sistema informativo su un’infrastruttura all’avanguardia e all’altezza dei cambiamenti indotti dalla Digital Transformation. Se pensiamo che fino a poco tempo fa il motivo principale che portava le imprese a scegliere il Cloud era prettamente economico, oggi sono diventati evidenti molti altri vantaggi in termini di sicurezza IT e flessibilità.

Il Cloud può essere declinato in più modalità in base alla tipologia di servizio fornito. Possiamo distinguere tra Infrastructure as a Service (IaaS), quando vengono erogati servizi infrastrutturali, relativi a capacità elaborativa, storage, rete ed altri elementi di base; Software as a Service (SaaS), nel caso in cui, invece, si tratti di servizi applicativi, che risultano accessibili indipendentemente dalla collocazione e dal tipo di device utilizzato; e Platform as a Service (PaaS) quando si tratta di erogazione di servizi applicativi come sistemi operativi, linguaggi, middleware, tecnologie di base dati e l’ambiente runtime necessari per eseguire l’applicazione.

In questo articolo però ci soffermeremo sulla modalità di erogazione di tali servizi, in funzione della tipologia di rete a cui gli utenti sono connessi. Perché?

Chi lavora in ambito ICT si è reso conto che mantenere un’infrastruttura efficiente e performante è molto dispendioso in termini di tempo e costi. Noi di Axioma sappiamo bene quanto sia impegnativo far funzionare un datacenter e quanto sia importante garantirne la sicurezza, ed è il motivo per cui l’attenzione delle imprese si sposta sempre più verso un ecosistema che abilita a 360 gradi la fornitura di infrastruttura digitale e servizi di gestione, ovvero il Cloud Pubblico.

Opportunità del Cloud pubblico

Senza soffermarci sulla terminologia, spesso poco significativa rispetto alle esigenze dei clienti, è importante sottolineare come il Cloud Pubblico rappresenti un modello di fruibilità delle tecnologie IT sempre più tendente al concetto di “utility”, esattamente come per la fruizione dell’energia elettrica o dell’acqua potabile.

Un esempio di provider di Cloud Pubblico è AWS di Amazon, che ha tutte le caratteristiche per affermarsi come un partner affidabile e autorevole. Promuove l’erogazione di soluzioni software in logica SaaS, ha intrapreso iniziative solide e continuative con molti clienti e ha localizzato i datacenter in Italia, in città fortemente strategiche dal punto di vista commerciale. Tutti punti di forza che portano le imprese a valutare le opportunità che può offrire questa tecnologia.

Attraverso l’adozione di servizi IT erogati da un Cloud Pubblico, l’azienda cliente delega in toto i tutti i fattori di rischio che possono limitare o negare il vantaggio competitivo rappresentato dalla digitalizzazione dei processi di business. Primo su tutti possiamo citare il rischio derivante dalla complessità raggiunta dalle architetture IT, sia in termini di scelte tecnologiche che di governo quotidiano.

I processi di Business modulati attraverso le tecnologie digitali necessitano di garanzie ormai ben definite:

  • elasticità (scalabilità) nei modelli architetturali e nelle risorse di elaborazione/memorizzazione dei dati
  • disponibilità continua delle tecnologie adottate, strumenti e metodologie per il ripristino rapido
  • rapidità di approvvigionamento delle risorse digitali necessarie

Il Cloud Pubblico è in grado di soddisfare queste esigenze, coniugando i benefici economici del pay per use all’alta flessibilità e disponibilità geografica. Cosa significa?

Che a seconda delle esigenze di business è possibile aumentare o diminuire la fruizione dei servizi e i relativi costi e che tali servizi, sono disponibili in qualsiasi posizione geografica. Senza dimenticare che viene meno l’onere della gestione dell’infrastruttura e dell’hardware, di cui si occuperà il provider.

Il modello pubblico offre una serie di vantaggi e funzioni che suscitano un forte interesse da parte dei CIO, ma per quanto riguarda i rischi?

Affidando l’intera gestione dell’infrastruttura ad un provider esterno, l’azienda cliente ha una limitata capacità di governo del complesso tecnologico e deve essere in grado di sostenere
nel tempo gli importanti impegni finanziari assunti. Inoltre, la scelta del cloud provider dovrà prediligere brand riconosciuti, certificati e di grandi dimensioni, per garantire affidabilità in termini di capacità di gestione rispetto alla numerosità di clienti.

Per questo motivo in quanto fornitori di soluzioni software in cloud, riteniamo che i criteri più importanti che giocano un ruolo fondamentale nella scelta del fornitore siano l’esperienza e l’affidabilità.

Axioma, grazie alla partnership con Amazon AWS, offre un cloud pubblico che garantisce agilità nella progettazione di piattaforme applicative, esaustività e granularità dei servizi offerti, ma soprattutto competenza tecnica estesa e comprovata per garantire la massima sicurezza sui dati del cliente.

 

protezione dei dati

La protezione dei dati nell’era dell’interconnessione

Quante volte quest’anno abbiamo sentito parlare di attacchi informatici?

Il 2018 si è rivelato l’anno con più attacchi informatici dal 2011. Si sono registrati 1.552 attacchi gravi, ovvero il +38% rispetto all’anno precedente, con una media di 129 attacchi al mese [Fonte: Rapporto Clusit cyber security, 2019] e ora che il 2019 è appena iniziato, la percentuale è aumentata ulteriormente.

Il 2018 è stato un anno movimentato per il settore ICT: GDPR, Fatturazione Elettronica B2B e l’espansione di tecnologie legate ai Big Data, Analytics e Internet of Things hanno messo le imprese di fronte ad una riorganizzazione aziendale a 360° gradi: nuove strategie, nuove tecnologie e nuove figure professionali che hanno aumentato il rischio.

I dati come patrimonio aziendale

In un mercato in continua evoluzione , dove il processo di trasformazione digitale ormai è diventato inarrestabile – coadiuvato dalle nuove normative che hanno avuto impatto sulle tecnologie -, diventa fondamentale mettere in atto strategie per la messa in sicurezza del bene più prezioso con cui lavoriamo tutti i giorni: i dati.

Riprendendo un commento degli esperti legali di P4i-Partners4Innovation:

Dalla pubblicazione del d.lgs.231/2001 (che preme per l’adozione di Modelli organizzativi preventivi della criminalità d’impresa) al d.lgs.81/2008 (che impone la redazione del Documento di valutazione dei rischi dei lavoratori) al recentissimo GDPR e d.lgs.101/2018 (che prescrive l’adozione di misure idonee a consentire un trattamento lecito dei dati personali), il legislatore torna a ribadire con sempre maggior vigore ed insistenza un principio fondante dell’imprenditoria: l’accountability, che, tra le varie declinazioni, può certamente essere tradotto anche come “la responsabilità di operare in modo sicuro”.

Ogni reparto quindi, alla luce dei nuovi adempimenti, ha dovuto analizzare la quantità, la qualità, la tipologia dei dati in suo possesso ed il loro trattamento, gli strumenti in uso per gestirli e archiviarli ed effettuare una rivalutazione dei rischi. I sistemi informatici sono il magazzino 4.0 di tutti i dati e i documenti aziendali e devono garantire che essi vengano trattati e archiviati in tutta sicurezza, che siano sempre disponibili e recuperabili in caso di qualsiasi evento perturbativo.

Inoltre, la costante diffusione dei sistemi di IoT, Big Data e Intelligenza Artificiale ha portato ad un aumento considerevole dei touchpoint digitali con i clienti e fornitori e ad un flusso di informazioni sempre più connesso alla rete. Questo prevede una gestione molto più complicata e onerosa della protezione dei dati perché qualsiasi evento (perdita di connessione, data breach, allagamento, incendio, perdita di corrente, …) può comprometterne l’integrità e, nel peggiore dei casi, causarne la perdita.

Ad ogni reparto la propria valutazione dei rischi

GDPR, fatturazione elettronica, Industria 4.0 e nuove tecnologie: ognuno di essi ha un impatto considerevole sulle aziende:

  • Il GDPR ha impattato molto sulle attività marketing, di profilazione e gestione del database aziendale ai fini commerciali: modifiche ai requisiti per ottenere il consenso e nuovi diritti per i destinatari. Il trattamento delle informazioni di clienti e potenziali tali necessita di un sistema compliance per tracciarne la registrazione, il consenso fornito in base alla tipologia di comunicazione e il loro archivio, ma soprattutto per la garanzia che i dati vengano conservati in sicurezza e consultati solo da personale che ne detiene il diritto.
  • Ma il GDPR ha avuto un impatto ancora più forte su tutti i sistemi aziendali. Responsabili del trattamento, esperti legati e direttori IT hanno il compito di salvaguardare i dati personali di dipendenti, fornitori e clienti e adeguare i sistemi al fine di ridurre al minimo i rischi di data breach. Sono state revisionate quindi le politiche di trattamento dei dati e, di conseguenza, l’organizzazione delle persone e del loro lavoro nella gestione dei dati personali
  • La fatturazione elettronica ha introdotto nuovi rischi nella gestione dei dati, tanto da far alzare la mano al Garante privacy per alcuni dubbi sulla sicurezza. Anche questa nuova normativa, che ha sostanzialmente digitalizzato lo scambio di dati per la fatturazione, sia passiva che attiva, ha portato le aziende a prestare molta più attenzione alla sicurezza dei dati, al loro trattamento e conservazione.
  • E poi, il mondo dell’industria, che grazie al Piano Impresa 4.0 è sempre più connessa. I processi produttivi sono caratterizzati dall’interconnessione tra macchinari e sistemi e quindi da uno scambio elevato e continuo di informazioni. La mancanza di un’infrastruttura evoluta e performante potrebbe causare lo spegnimento degli impianti con impatti devastanti sull’intero stabilimento o la mancata raccolta di informazioni fondamentali per la pianificazione di tutto il reparto. Un minimo errore causerebbe grosse perdite economiche.

Ogni giorno ogni reparto gestisce una mole di dati non indifferente. Un discorso che vale per tutti è che bisogna essere consapevoli che qualsiasi evento, anche un banalissimo calo di tensione, potrebbe portare alla perdita di questi dati. E allora la domanda da porsi è: quante informazioni siamo disposti a perdere?

Oggi avere avere un’infrastruttura adeguata e sistemi evoluti di protezione di dati e ambienti applicativi è importante tanto quanto avere un team dedicato alla sua gestione e manutenzione.

La soluzione potrebbe essere quella di formare il personale interno con l’obiettivo di creare figure professionali specifiche che si possano dedicare esclusivamente alla sicurezza dei sistemi aziendali. Questo tipo di soluzione, però, potrebbe risultare troppo onerosa, sia in termini economici che di tempo.

Una valida alternativa? Affidarsi a un fornitore esterno competente ed esperto del settore, che grazie ad una collaborazione duratura con clienti e partner ha acquisito un elevato grado di professionalità e conoscenza di queste problematiche.

Axioma ad esempio offre servizi di consulenza e analisi dei rischi, presidi sistemistici in outsourcing attraverso anche sistemi di backup e disaster recovery dei dati,  per permettere ai nostri clienti di lavorare in modo sicuro e sollevarli da qualsiasi preoccupazione.

Assintel report 2019: spesa, priorità e cambiamenti organizzativi in ambito ICT in Italia

Assintel Report 2019: spesa, priorità e cambiamenti organizzativi in ambito ICT in Italia

Assintel Report 2019: la trasformazione digitale deve essere veramente compresa e inserita in una strategia bene precisa per trarne beneficio.

Analisi_IT

Ricerca in ambito IT 2018: dati e tendenze in Italia

Negli articoli precedenti abbiamo trattato il tema della valutazione di un nuovo software in azienda e di quali sono le best practice per affrontare questo progetto nel migliore dei modi. Oggi invece diamo uno sguardo a come si sta muovendo il mercato e quali sono i cambiamenti nel ruolo dell’area IT nelle aziende italiane.

Per farlo abbiamo preso in analisi il report Insight Intelligence Technology Index che ha come scopo quello di fotografare il livello di adozione e l’impatto delle nuove tecnologie su un panel di aziende di nove Paesi europei. Per quanto riguarda l’ambito italiano, sono stati coinvolti 100 responsabili IT di aziende di diverse dimensioni.

Breve conclusione: questo reparto sta acquistando un’importanza sempre più rilevante e strategica per il business aziendale, ma nonostante ciò continuano ad essere presenti molte criticità.

I dati più rilevanti

Il dato che spaventa maggiormente è la valutazione da parte dei responsabili IT della propria area. Infatti circa il 76% dei rispondenti è convinto che sia destinata al fallimento per l’incapacità di puntare verso l’innovazione. Il problema che frena l’ascesa di progetti innovativi è la mancanza di tempo (43%). Supportare e manutenere i sistemi informativi già presenti occupa gran parte delle attività quotidiane, rubando del tempo alla ricerca di strumenti più evoluti ed innovativi.

Il reparto IT, infatti, non è attivo solo durante i progetti di software selection, anzi, si occupa del corretto funzionamento e controllo dei sistemi informativi, dell’infrastruttura e della sicurezza dei dati aziendali: monitoraggio e valutazione delle problematiche legate alle applicazioni e alle loro funzionalità e poi aggiornamenti, sviluppi, implementazioni,… insomma, numerose attività che non lasciano spazio ad una corretta valutazione del mercato e di nuove tecnologie, ma portano gli IT a concentrarsi solo sulla gestione dei sistemi e servizi già presenti in azienda.

Il 67% dei responsabili IT lamenta esigenze in conflitto e risorse insufficienti. Infatti emerge che le scelte tecnologiche sono influenzate dalle richieste e dalle esigenze di tutti i reparti: per il 26% dalla produzione, per il 15% dal customer service, logistica e supply chain 15% e infine vendite (11%) e marketing (8%).

Sviluppando esigenze diverse, la conseguenza è che molto spesso, le richieste di progresso tecnologico espresse dall’IT non siano accolte con lo stesso entusiasmo dal resto dell’azienda. Vengono viste come troppo innovative rispetto ai processi di business, ancora fermi alla gestione delle attività in maniera tradizionale. Quello che manca è una corretta definizione di ruoli e responsabilità (circa per il 38% delle imprese) ed un allineamento tra le pratiche di business e il supporto all’innovazione che potrebbe fornire il reparto IT.

A conferma di ciò, anche noi molte volte, durante l’analisi delle esigenze di aziende intenzionate a rivoluzionare i processi aziendali, ci siamo imbattuti in realtà dove la volontà di adottare soluzioni software per automatizzare e supportare le attività quotidiane si scontrava con il radicamento al “abbiamo sempre fatto così” delle risorse operative.

Budget in aumento e investimenti nel cloud

Un aspetto positivo è che il budget dedicato all’IT è in crescita: il 50%  afferma che il budget 2018 è superiore rispetto al 2017 di circa il 20%. Sembrerebbe quasi un controsenso se poi risulta che per l’86% dei casi, una delle principali fonti di preoccupazione degli IT italiani sia il controllo dei costi, contro il 79% della media europea. Nonostante questo aumento, il budget risulta comunque insufficiente. Viene ancora visto come un costo, piuttosto che un investimento quindi speso per per la gestione e la manutenzione dei sistemi già presenti e delle risorse dedicate a queste attività piuttosto che per progetti rivolti all’innovazione.

Infine, dati molto positivi a favore del cloud, che per il 61% si rivela una scelta molto utile per rendere più flessibile la funzione dell’IT e quasi il 100% delle aziende che hanno investito nel cloud nel 2017 ne hanno tratto benefici. Il cloud infatti, slega l’azienda da investimenti economici legati all’adozione di un’infrastruttura adeguata, garantisce la sicurezza dei dati e la manutenzione che rimane a carico del fornitore. Si parla di vantaggi non solo economici, ma anche organizzativi.

benefici_cloud

“Benefici che derivano dagli investimenti nel cloud”

In conclusione, se da un lato i responsabili IT devono ancora trovare il giusto equilibrio tra una corretta definizione del proprio ruolo, la gestione delle attività quotidiane e le richieste espresse dai diversi reparti, la tendenza è quella di ottimizzare il supporto all’organizzazione aziendale e riuscire a liberarsi da attività a minor valore aggiunto per concentrarsi maggiormente su progetti innovativi.

cybercrime

Fattore umano: l’anello debole per i cyber criminals

Il cybercrime esiste da quando è nato lo spazio cyber ma solamente ora si è evoluto a tal punto da colpire anche le aziende leader con sistemi di sicurezza reputati inviolabili. Di fronte a tale realtà come stanno reagendo aziende e istituzioni?

La preoccupazione verso le minacce informatiche è aumentata e con essa anche i provvedimenti per tutelare maggiormente i propri sistemi. I top manager per esempio hanno cominciato a prendere seri provvedimenti, a partire da un’adeguata formazione e l’adozione di tecnologie all’avanguardia per proteggere la propria struttura IT. Nonostante queste misure, a marzo 2017 l’Italia, che sembrava sulla giusta strada in termini di sicurezza informatica, è salita di “un’altra posizione nella classifica globale, divenendo il secondo paese più colpito in Europa.”

Come fare quindi per proteggersi dal cyber crime?

Come si è potuto constatare, adottare tecnologie super avanzate serve a poco se poi non si ha un’adeguata conoscenza in termini di security IT e, nonostante si sappia che il fattore umano in questo contesto è la principale causa di attacchi IT, molte aziende ancora non investono nella formazione del personale. Il rapporto 2017 di Verizon ha riportato “42.068 incidenti di sicurezza e 1.935 violazioni provenienti da più di 84 paesi” sostenendo che “gli attacchi che sfruttano il fattore umano” sono ancora un tasto dolente.

Le istituzioni si stanno impegnando per migliorare la sicurezza IT ma molte aziende, come confermano diversi indagini, non sembrano ancora aver capito l’importanza di difendersi adeguatamente. Come già detto, il fattore che incide di più e che porta ad accedere più facilmente ai dati sensibili è il fattore umano. I cyber criminali sfruttano soprattutto quattro aspetti principali del comportamento umano per convincere gli utenti a rivelare informazioni: entusiasmo, distrazione, curiosità e incertezza.

La formazione prima di tutto

Molti dipendenti sottovalutano il problema e commettono errori banali ma fatali. L’81% di violazioni hacker è avvenuta tramite password rubate, password che si possono definire deboli. Gli accorgimenti principali che si dovrebbero prendere sono semplici ma se attuati possono davvero evitare catastrofi. In primis è importante formare il personale: un’adeguata cultura in materia di sicurezza e di difesa IT permette di individuare la maggior parte delle minacce. Il secondo suggerimento consiste nel consentire l’accesso a determinate informazioni solo ed esclusivamente a personale che ne ha bisogno per poter eseguire il proprio lavoro. Crittografare i dati sensibili è il terzo consiglio che i più esperti si sentono in dovere di dare perché i dati crittografati risultano difficili da decifrare quindi inaccessibili.

In ultimo ma non per ultimo, implementare una buona protezione di base può davvero fare la differenza. Vuoi iniziare a fare la differenza? Comincia dalla nostra suite di prodotti: Kaspersky, Spamina, Nagios e Veeam sono alcuni dei più importanti leader a livello internazionale in materia di security e sono nostri partner, perché vogliamo offrirvi i migliori servizi in termini di efficienza e affidabilità.

cybercrime

Cybercrime: le tendenze per il primo semestre 2018

Eccoci arrivati a luglio di questo 2018, pronti per trarre un bilancio di ciò che è successo da gennaio a oggi, nel primo semestre di quest’anno punteggiato di attacchi informatici sempre più insidiosi.

Dal “Cyber Attack Trends: 2018 Mid-Year Report” di Check Point Software Technologies emerge chiaro un dato: il cybercrime sta diventando sempre più forte e i crimini sono aumentati.

E si parla di una percentuale notevole, poiché dal 20,5% di imprese attaccate del 2017, siamo passati al doppio con ben il 42%.

Gli attacchi celebri tra il 2017 e il 2018 sono stati parecchi. Ricordiamo ad esempio il virus Taxalolo con le sue 88 aziende colpite solo in Italia, Bad Rabbit o andando un pochino più indietro WannaCry. La loro fama, dovuta ai danni provocati, è servita a farli uscire dalle testate giornalistiche di addetti ai lavori e a portarli anche sui media generalisti. Eppure non è bastato per convincere le aziende ad adottare politiche serie di prevenzione e protezione, tant’è che gli attacchi negli ultimi mesi sono raddoppiati.

Sistemi in cloud sotto attacco

Una delle novità riscontrate nel rapporto è che sono aumentati gli attacchi alle infrastrutture cloud. Ma qual è la causa? Non ci avevano giurato che il cloud è più sicuro proprio perché più controllato?

Innanzitutto bisogna considerare il fatto che queste tendenza è del tutto naturale: la scelta del cloud da parte delle aziende è aumentata esponenzialmente negli ultimi tempi, proprio per i vantaggi che ne derivano. È quindi logico che diventi il principale target delle organizzazioni criminali, che ovviamente mirano al massimo guadagno.

Inoltre, come abbiamo sempre detto, il cloud è vantaggioso ma dipende dal fornitore, che deve essere serio e in grado di proteggere con misure sempre aggiornate i sistemi che gli vengono affidati.

Oltre alla scelta del fornitore giusto è fondamentale poi adottare alcune best practice che possano garantirci la sicurezza di sistemi e dati.

Formazione prima di tutto

Una considerazione che ad esempio va fatta è che spesso gli attacchi sono resi possibili dall’ingenuità delle persone, che con leggerezza cliccano su un link sbagliato o si fidano di mittenti di e-mail fraudolente. A volte quindi basterebbe semplicemente un minimo di formazione a tutti i dipendenti per bloccare all’ingresso qualsiasi tentativo di attacco, che una volta avviato è molto difficile da fermare.

D’altra parte più il progresso tecnologico avanza, più i criminali troveranno sempre nuove strade per attaccarci e quindi l’aggiornamento e la formazione costante sono la prima e fondamentale arma contro questi malfattori.

Backup e ripristino: la prudenza non è mai troppa

Eppure a volte accade che l’attacco arrivi nonostante tutta la prudenza possibile. Cosa fare in quel caso? Anche in questa situazione basta un pochino di lungimiranza. Se i tuoi dati e i tuoi sistemi sono al sicuro con backup programmati e un ripristino rapido, puoi arrivare a ridurre in modo drastico le conseguenze di una qualsiasi interruzione del lavoro.

Il livello di servizio, cioè la frequenza con cui eseguire il backup e il tempo di fermo che la tua azienda è in grado di sopportare, è qualcosa che si può definire in base a un analisi del rischio stabilita da esperti del settore.

Se poi si vuole abbandonare ogni preoccupazione, è possibile affidare tutto questo in outsourcing a un fornitore di fiducia, che si occuperà di garantire la sicurezza con le tecniche e le tecnologie più all’avanguardia.

Openbanking

Banche e openbanking: è arrivato il momento di cambiare?

Recentemente ho letto un articolo de Il Sole 24ORE  dal titolo “L’innovazione in banca parte dalla piattaforma” in cui si promuoveva il concetto di openbanking e di utilizzo di piattaforme open per rispondere al meglio al mercato, sia ai clienti che ai competitor.

L’openbanking sembrerebbe la risposta ai problemi del mondo bancario, da troppo tempo monolitico e poco aperto alla collaborazione.

Partiamo dal problema. Per le banche le sfide di oggi, definite sfide 4.0, sono riassumibili in questi punti:

  1. concorrere con competitor del tutto nuovi al settore (es. Big tech) a cui il digitale ha aperto le porte
  2. affiancarsi a partner moderni e innovativi per essere più affascinanti nei confronti dei clienti, soprattutto per i millennials
  3. rispondere più velocemente e con servizi sempre accessibili alle aziende
  4. migliorare l’efficienza aziendale, migliorando i processi e riducendo i costi

La piattaforma dell’openbanking abiliterebbe la collaborazione e il contatto tra banche e soggetti innovatori per lo sviluppo di nuove soluzioni che da una parte migliorano il rapporto con la clientela e dall’altra efficientano i processi operativi. Si tratta di un ecosistema in cui banche, startup e altri player possono collegare le proprie soluzioni, competenze, tecnologie e servizi per ridurre i costi e velocizzare i processi di innovazione e risposta ai clienti.

«Laddove c’è un forte brand il marketplace proprietario può funzionare, ma in caso contrario diventa più efficiente il modello della piattaforma aperta a servizi diversi, anche di soggetti concorrenti» [Paolo Gianturco, partner Deloitte, Fintech & Fsi Tech Leader]

Per fare ciò è necessario lo sviluppo di una piattaforma tecnologicamente moderna, aperta e quindi in grado di integrare diversi programmi. Si parla quindi di API (application programming interface), cioè di connettori, e di opensource. Termine che ha sempre spaventato le banche per questioni di sicurezza e protezione di rete e dati, ma che oggi torna in auge e anzi viene promosso poiché raccoglie tutti i vantaggi di cui oggi le banche hanno bisogno.

Un openbanking basato su una piattaforma open source è quanto più di open si possa pensare. Sarebbe uno scardinamento a 360° del tradizionale sistema bancario, statico e chiuso, che è stato anche il freno al motore dell’innovazione e della competizione.

Una migliore predisposizione all’opensource da parte delle banche era emersa anche dallo studio condotto da NextValue (che puoi scaricare gratuitamente a questo link).

Il dato interessante che emerge dal report è sull’utilizzo di questa tecnologia tra le aziende del mondo finanziario: più dell’80% dichiara, infatti, di ricorrere e far uso di sistemi opensource.

Uso dell'opensource in Italia

Superati gli ostacoli che impedivano all’open source di varcare la porta delle banche, oggi ritroviamo questa tecnologia in maniera diffusa tra gli istituti, anche se si concentra su processi non-mission critical a indicare che comunque prevale un approccio più cauto. Sui problemi di sicurezza e risk management l’open source ha fatto passi da gigante negli ultimi 10 anni e la percezione delle imprese Italiane sembra essere migliorata. Un po’ come è stata recentemente la paura del cloud.

Cosa ha spinto le banche a introdurre l’opensource?

Per definizione, l’accesso pubblico al codice sorgente riduce i costi legati alle licenze ed alla manutenzione. Eppure, sebbene il principale beneficio resti il contenimento dei costi (71%), più della metà del nostro panel (53%) ha individuato la facilità di accesso all’innovazione come fattore chiave per l’adozione di software open source. L’open source permette infatti di testare nuove soluzioni senza rischiare. Grazie ad un ampio set di componenti ed una forte riduzione dei costi è possibile sperimentare nuove idee e prototipare nuove soluzioni, con un investimento minimo in termini di tempi e risorse.

Ed ecco che ritroviamo quanto scritto precedentemente: in un mercato dove la competitività si gioca sulla velocità e adeguatezza delle risposte al cliente – sempre e ovunque- sulla riduzione dei costi di gestione e sull’aumento dell’efficienza ecco che l’open source si rivela uno strumento in grado di guidare il settore in questa corsa verso l’innovazione.

Openbanking e open source potrebbero dunque rivelarsi la chiave di volta per l’immobilismo delle banche italiane e fornire nuova linfa ad un mercato che viene sempre più minacciato dai nuovi player, big tech prima di tutto.

progetti-open-source

Progetti open source per ambienti mission-critical

“L’open source non è più un tool di nicchia con un impatto ristretto ai processi non-mission critical delle imprese italiane. Al contrario, le soluzioni open source sono sempre più utilizzate per guidare il processo di innovazione delle core-operations e la loro adozione in processi mission critical è ormai prevalente.” Questo è quanto viene affermato nel report di NextValue, secondo cui più del 63% del panel utilizza progetti open source in ambito mission-critical contro un 56% in ambito non-mission critical. Nello specifico:

figura05(b)

Nonostante la titubanza di alcuni, molte aziende stanno utilizzando piattaforme open source anche per progetti complessi e centrali nelle politiche aziendali, definiti appunto più in generale come mission-critical per indicare i processi/attività essenziali per la corretta operatività della propria impresa. Per interpretare le dinamiche future, è stato chiesto al panel se nella scelta futura di un software sarebbe disposto a valutare una soluzione open. È emerso che “l’84% dei rispondenti intende valutare soluzioni open source in futuro: il 59% per l’automazione di processi non-mission critical, il 43% per l’automazione di processi mission-critical. Considerando le scelte singole, il 24% del panel intende focalizzarsi esclusivamente su processi mission-critical, il 40% solo su processi non-mission critical, mentre il 19% del panel su entrambe le aree.”

figura07b

Open source e mission critical: sì o no?

Ad oggi il mercato è caratterizzato da una forte personalizzazione. Questo comporta per le aziende di ogni settore e di ogni dimensione di rispondere in tempi brevi con prodotti/servizi di qualità.

Le aziende si trovano quindi a dover fare di più con meno tempo e spesso con poche risorse.

La soluzione a tale problema è proprio l’open source, sfruttato nei processi core business aziendali proprio perché permette di innovare e personalizzare rapidamente e contenendo i costi. Quello che però molte aziende non considerano è che è necessario implementare le stesse misure e accortezze che si applicano per l’introduzione di soluzioni informatiche “tradizionali”, a maggior ragione se si tratta di processi mission-critical.

Cosa intendiamo dire nello specifico?

L’open source ha diversi vantaggi tra i quali c’è il sostegno fondamentale della community che permette di sviluppare al meglio una soluzione. Uno però dei problemi più frequenti è che spesso le aziende “non hanno le competenze, oltre che le risorse (in termini di tempo e costi) per interagire con la community e trarne così vantaggi reali quali flessibilità, velocità e risparmio di tempo e costi.” È quanto afferma lo stesso G. Anguilletti, Country Sales Italia di Red Hat, leader nell’offerta open source.

La collaborazione con l’azienda vendor rappresenta in questo caso il valore strategico perché permette di valutare per esempio il livello di maturità dei sistemi informativi e capire quanto siano “pronti” o meno a determinate soluzioni. La cooperazione diretta consente inoltre di formare adeguatamente tutte le risorse per la corretta gestione delle core operations.

Certo è che formare adeguatamente le risorse e implementare misure di sicurezza come per le soluzioni IT tradizionali rappresenta un costo diverso. Vi chiederete quindi se l’open source sia davvero una scelta strategica.

Per rispondervi, riporto quanto affermato da una ricerca IDG (IT mission critical: l’evoluzione delle infrastrutture a supporto delle nuove tecnologie):

“Customers now have greater access to and dependence upon mission-critical data via the applications they use, and they expect results more quickly than they did in the past. If a customer can’t place an order with one store, there’s another alternative just a few clicks away. That means any system involved in fullfilling the transaction needs mission-critical performance and availability because a system failure can impact not only revenue but a company’s reputation in the industry.”

In poche parole, i clienti si aspettano maggior velocità e performance nelle transazioni rispetto al passato, quindi qualsiasi errore potrebbe incidere molto negativamente sulla stessa reputazione aziendale. La ricerca riporta un esempio tipicamente appartenente al mondo B2C, cioè un cliente che, di fronte a un ordine online, decide di interrompere la procedura perché l’applicazione è troppo lenta e poco intuitiva. Lo stesso concetto vale anche per il mondo B2B.Un esempio?

Un CRM intuitivo può fare la differenza nella gestione clienti e rendere questi ultimi soddisfatti e quindi fidelizzati. Ad esempio, con un sistema di raccolta segnalazioni online che permette sia al personale interno che ai clienti di inserire con facilità in un CRM intuitivo eventuali richieste e avere la sicurezza di rispondere a tutti in tempi brevi.

Rapidità, personalizzazione, alto livello di prestazione sono tutte caratteristiche che oggi incidono molto anche nel business to business. Per riuscire dunque a stare a passo con le richieste e i cambiamenti repentini del mercato odierno servono soluzioni scalabili, ma soprattutto affidabili, dato che stiamo parlando sempre di processi mission-critical.

Nonostante dunque i costi iniziali di investimento, necessari per gestire al meglio e in modo integrato hardware, application, processi e risorse, l’open source rimane comunque una soluzione vantaggiosa perché consente di rispondere in tempi brevi e apportare qualsiasi modifica-personalizzazione in qualsiasi momento.

Progetti open Source e Mission-Critical con le giuste attenzioni

Axioma, che ha sviluppato diverse soluzioni sfruttando una piattaforma Java opensource, è consapevole di quali servizi potrebbe aver bisogno un’azienda per poter gestire al meglio e a lungo termine i propri progetti open source e mission critical. Nello specifico i servizi di Axioma comprendono:

  • Consulenza nell’individuazione di prodotti open source e Java
  • Consulenza nell’uso di piattaforme per lo sviluppo di applicazioni
  • Formazione e supporto sull’uso di piattaforme open source per lo sviluppo di applicazioni gestionali
  • Consulenza sull’architettura delle applicazioni open source
  • Sviluppo e aggiornamento di applicazioni gestionali in Java
  • Installazione e configurazione di prodotti open source

In questo modo hai la sicurezza di portare a termine un progetto e di gestirlo al meglio, con tecnologie sicure e innovative.

Vuoi saperne di più? Dai uno sguardo a quali soluzioni abbiamo implementato grazie a una piattaforma open source Java!