Principale > Blog sul backup e sul ripristino > I 15 migliori fornitori e aziende HPC

I 15 migliori fornitori e aziende HPC

Aggiornato 2nd Maggio 2024, Rob Morrison

Che cos’è l’HPC?

HPC è High-Performance Computing – un processo di risoluzione di problemi computazionali estremamente complessi con l’aiuto di cluster di computer e supercomputer. L’HPC utilizza elementi come algoritmi, architetture informatiche, linguaggi di programmazione, elettronica digitale e software di sistema per creare un’infrastruttura complessa in grado di risolvere compiti incredibilmente sofisticati utilizzando l’elaborazione parallela dei dati.

Si tratta di una tecnologia che esiste da decenni, con un’impennata di popolarità relativamente recente dovuta all’improvvisa espansione del numero di sviluppi e casi d’uso legati all’AI. Le infrastrutture HPC sono regolarmente incaricate di archiviare, analizzare e trasformare grandi masse di dati che le aziende e i governi generano regolarmente.

I sistemi HPC si sforzano di essere sempre più veloci con il passare del tempo, eseguendo calcoli sempre più complessi, ma le sfide dell’ottimizzazione di varie applicazioni e progetti possono talvolta rappresentare un forte vento contrario a questo progresso. Poiché la gestione dei dati è essenziale per l’efficienza dei calcoli HPC, questa sfida è qualcosa che i fornitori di software e hardware cercano di risolvere in molti modi diversi.

Tuttavia, il mercato HPC continua a crescere a un ritmo impressionante. Straits Research prevede che il mercato HPC crescerà da 49,99 miliardi di dollari (2023) a 91,86 miliardi di dollari (2030), con un CAGR del 9,1%.

Il fatto che la generazione quotidiana di dati continui a crescere in tutto il mondo mette ancora più pressione sugli ambienti HPC, motivandoli a cercare opzioni migliori e più veloci. L’ascesa delle implementazioni HPC nel cloud si sta rivelando un’opzione aggiuntiva ed efficace per mitigare questi problemi, offrendo potenzialmente ad alcuni utenti un’alternativa più efficiente ed economica alle infrastrutture HPC on-premise.

In questo contesto, è molto importante imparare come funziona l’HPC e quali sono le difficoltà che sta affrontando ora (e nel prossimo futuro).

HPC vs Supercomputer

C’è molta sovrapposizione e confusione tra l’High Performance Computing e i Supercomputer. Ogni soluzione ha diverse definizioni, e ci sono anche alcune somiglianze tra i due. La differenza più grande tra HPC e Supercomputer è il fatto che un Supercomputer è un sistema singolo che può essere diverse volte più potente di qualsiasi computer di livello cliente. L’HPC, invece, tende ad essere una combinazione di più sistemi e risorse utilizzate in parallelo.

È facile capire come i Supercomputer e l’HPC siano così simili e allo stesso tempo così diversi. C’è anche il fatto che i Supercomputer sono di solito molto più costosi e sono personalizzati per un compito specifico, mentre l’HPC è un sistema molto più versatile che può essere configurato per svolgere compiti diversi, se necessario.

A volte, alcune varianti di software meno recenti potrebbero non essere in grado di sfruttare tutti i vantaggi dell’HPC, a causa dell’incapacità di utilizzare efficacemente le funzioni di calcolo parallelo. In questo tipo di casi d’uso, i supercomputer possono avere un vantaggio significativo e spesso sono l’unica opzione.

Industrie chiave che traggono i maggiori benefici dall’HPC

Ci sono molti settori diversi che utilizzano attivamente l’HPC nel loro lavoro, che si tratti di ingegneria, progettazione, modellazione, ecc. Ecco alcuni dei maggiori gruppi di casi d’uso delle soluzioni HPC:

  • Petrolio e gas. Gli HPC vengono utilizzati per analizzare nuove potenziali ubicazioni di pozzi e migliorare la produttività delle trivelle esistenti.
  • Fintech. L’HPC è in grado di eseguire molte forme diverse di modellazione finanziaria, e può anche seguire l’andamento delle azioni in tempo reale.
  • Difesa. L’HPC migliora notevolmente la capacità degli enti governativi di gestire enormi pool di dati per eseguire varie azioni e operazioni legate alla sicurezza.
  • Intrattenimento. L’HPC ha molti casi d’uso diversi, tra cui il rendering di effetti speciali per video e film, la creazione di animazioni, ambienti 3D, transcodifica e altro ancora.
  • Sanità. L’HPC è fondamentale per lo sviluppo di farmaci e per i processi di ricerca sulle cure nel settore.
  • Ricerca. I progetti scientifici sono il pane e il burro delle capacità di calcolo ad alte prestazioni, in quanto offrono un modo rapido e conveniente per gestire enormi volumi di dati per uno scopo specifico.

Breve storia dell’HPC

La continua sovrapposizione tra HPC e Supercomputer è il grande motivo per cui molta della storia dei Supercomputer viene spesso trattata anche come storia dell’HPC. L’intera categoria di hardware risale agli anni ’40, passando attraverso diverse iterazioni prima di crescere in popolarità dopo gli anni ’50 (IBM 7090, CDC 6600).

Il concetto di calcolo parallelo è stato introdotto poco dopo (dopo gli anni ’80), come una delle prime menzioni di questo concetto nella storia, insieme allo sviluppo di cluster di computer che potevano eseguire compiti complessi come un unico ambiente interconnesso.

Allo stesso tempo, anche la popolarità dei Personal Computer continuò a crescere, suscitando sempre più interesse nell’intero settore. I cluster HPC hanno continuato a crescere e a svilupparsi come concetto nel corso degli anni, con l’idea del cloud computing come una delle tendenze più recenti che molte delle migliori aziende HPC sul mercato ora offrono. L’HPC è un concetto estremamente efficace così com’è, e con il futuro sempre più dipendente da tecnologie come l’informatica quantistica e l’Intelligenza Artificiale – questo concetto continuerà a crescere e a fiorire con il passare del tempo.

Principali concorrenti nel settore HPC

Il mercato delle soluzioni HPC è sorprendentemente ampio, considerando quanto queste soluzioni possano essere complesse e consumare risorse. Eppure, la domanda complessiva di questo tipo di offerte sembra crescere regolarmente in molti settori – ed è per questo che la maggior parte delle aziende HPC continua a crescere fino a diventare imprese molto grandi. L’elenco qui di seguito illustra 15 diversi esempi di aziende che offrono funzionalità HPC in un modo o nell’altro.

Va notato che il termine “soluzione HPC” è relativamente ampio e può coprire diversi gruppi aziendali. Alcune di queste aziende offrono HPC come servizio cloud, altre forniscono un’implementazione HPC on-premise, e ci sono anche diverse opzioni che sono note per il loro contributo al settore in termini di nient’altro che di capacità hardware.

Microsoft Corporation

Microsoft è un noto gigante tecnologico e il suo servizio cloud Azure è senza dubbio uno dei maggiori concorrenti nel suo campo. Due diversi elementi contribuiscono in modo specifico alle distribuzioni HPC: Azure CycleCloud e Azure Batch.

Il primo è una soluzione complessa che offre la gestione dei carichi di lavoro HPC con molte caratteristiche di valore. La seconda è una soluzione di scalabilità e pianificazione in grado di calcolare e scalare le risorse necessarie con la quantità di lavoro che deve essere eseguita in un ambiente HPC. Non è raro che Microsoft collabori anche con vari fornitori di hardware per creare hardware su misura per la sua infrastruttura Azure, in modo da poter gestire i flussi di lavoro HPC.

La combinazione di hardware e software, sotto l’occhio vigile di Microsoft, crea ciò che è noto come Microsoft Azure HPC: un’infrastruttura completa costruita ad hoc che ospita soluzioni HPC-ready con molteplici vantaggi rispetto alle versioni HPC tradizionali on-premise.

Si tratta di una soluzione veloce, scalabile ed economica che riduce notevolmente i costi iniziali per l’implementazione dell’HPC, supporta diversi tipi di carichi di lavoro HPC e può essere personalizzata per avere le capacità sufficienti per gli obiettivi e i casi d’uso specifici di un cliente. Può anche essere integrato con altri prodotti Azure, come Azure Machine Learning, creando molteplici nuove opportunità nell’HPC.

Intel

Un’altra famosa azienda tecnologica è Intel Corporation, una delle più grandi aziende di produzione di CPU del pianeta. I processori Intel Xeon sono realizzati appositamente per gli ambienti HPC e simili, indipendentemente dal settore in cui vengono utilizzati. Intel fornisce anche diversi toolkit e documenti per semplificare il processo di programmazione dei sistemi basati su Xeon.

Alcuni dei vantaggi più significativi dei processori Intel Xeon nel contesto dell’HPC sono:

  • Scalability.
  • Prestazioni core.
  • Prestazioni di memoria.
  • Capacità di simulazione.
  • ISA.

I processori Xeon sono noti per la loro struttura multi-core, costruita appositamente per distribuire il carico tra decine di core del processore contemporaneamente. Si tratta di un caso d’uso perfetto per i carichi di lavoro HPC, che velocizza il tempo necessario per eseguire un processo di calcolo medio per i ricercatori e altri esperti HPC.

I calcoli stessi nei processori Xeon sono molto più veloci per via del numero maggiore di core e della velocità di clock più elevata di ciascun core, offrendo prestazioni significativamente più elevate su tutta la linea, soprattutto quando si tratta di calcoli complessi di cui si occupa solitamente l’HPC.

Poiché l’HPC lavora spesso con serie di dati incredibilmente grandi, le alte prestazioni della memoria sono praticamente un requisito. Fortunatamente, i processori Xeon sono dotati di controller di memoria più veloci e di canali di memoria più ampi, per garantire che il potenziale dell’hardware di memoria venga sfruttato appieno e che non ci siano colli di bottiglia sul lato della CPU.

Le prestazioni non sono tutto ciò che l’HPC richiede all’hardware nel suo complesso: la stabilità per periodi prolungati di calcoli intensivi è altrettanto importante. L’industria si riferisce a questo aspetto come RAS, ovvero Affidabilità, Disponibilità e Assistenza. Si tratta di una combinazione di caratteristiche come la diagnostica avanzata, la correzione degli errori e molte altre che assicurano tempi di inattività minimi e una completa integrità dei dati.

ISA sta per Instruction Set Architecture, è un insieme di istruzioni dettagliate per calcoli matematici e scientifici. Lo scopo principale dell’ISA è quello di massimizzare la convenienza e migliorare le prestazioni dei carichi di lavoro HPC quando si lavora con i processori Intel Xeon.

Il resto delle capacità di Intel nel campo dell’HPC ruota ancora intorno ai processori Xeon, in un modo o nell’altro. Ad esempio, oneAPI HPC Toolkit di Intel è una combinazione di vari strumenti di sviluppo che facilitano il miglioramento delle prestazioni e l’ottimizzazione delle operazioni di programmazione eseguite sui processori Xeon. In alternativa, c’è anche il pacchetto HPC Software and Tools che offre diverse soluzioni per l’ottimizzazione del sistema, l’analisi delle prestazioni e la gestione dei carichi di lavoro per le soluzioni HPC che girano su processori Xeon.

Amazon Web Services

Amazon Web Services è una filiale di Amazon, una delle più grandi aziende del mondo. La specialità principale di AWS è il cloud computing in diversi settori e per diversi target, tra cui clienti abituali, aziende e persino agenzie governative. Può anche fornire funzionalità HPC basate sul cloud a istituzioni finanziarie, organizzazioni di ricerca, aziende di ingegneria e aziende scientifiche orientate alla salute.

AWS cerca di stare al passo con le tendenze moderne del settore tecnologico, e i suoi tentativi di introdurre la potenza dell’AI e del ML nei suoi servizi ne sono l’esempio più recente. In questo modo, Amazon SageMaker può ora migliorare le sue capacità di analisi dei dati grazie all’introduzione dell’apprendimento automatico in questo flusso di lavoro.

Questo non vuol dire che l’attuale offerta cloud di Amazon non sia straordinaria di per sé. Offre un’ampia personalizzazione in termini di numero di risorse necessarie per ogni cliente, combinando scalabilità e convenienza in un unico pacchetto. AWS nel suo complesso è relativamente facile da gestire e la sua infrastruttura globale permette di distribuire infrastrutture cloud HPC in molte parti diverse del mondo senza problemi.

Poiché AWS è una piattaforma enorme con decine di risorse e funzioni diverse, è opportuno menzionare quali di queste risorse sono direttamente collegate alle capacità HPC di Amazon:

  • Amazon FSx è un file system ad alte prestazioni che viene utilizzato per gestire set di dati HPC che tendono ad essere di dimensioni estremamente grandi.
  • AWS Batch è uno strumento dedicato alla scalatura e alla programmazione di lavori per carichi di lavoro HPC specifici.
  • Amazon EC2 è una raccolta di infrastrutture virtuali on-demand, tra cui GPU potenti, CPU veloci e altri hardware/software costruiti esplicitamente per i carichi di lavoro HPC.
  • AWS ParallelCluster facilita la distribuzione e il controllo dei cluster HPC, con la possibilità di aumentare o diminuire il numero di cluster quando necessario.
  • EFA (Elastic Fabric Adapter) è un’infrastruttura di rete a bassa latenza che offre la massima velocità di comunicazione possibile tra i cluster nell’infrastruttura HPC.

DataDirect Networks

Anche se DataDirect Networks non è così nota come altri concorrenti di questo elenco, è considerata la più importante azienda privata di archiviazione dati. È tra i nomi più noti del mercato HPC e offre infrastrutture ad alte prestazioni per scopi specifici.

Le capacità di DataDirect includono miglioramenti in campi come la collaborazione (con l’aiuto della gestione dei dati multi-cloud), l’ottimizzazione (con migliori prestazioni di archiviazione) e la riduzione dei costi (grazie a soluzioni HPC scalabili ed efficienti).

Alcuni dei risultati e dei vantaggi più significativi di DataDirect Networks sono:

  • I sistemi di file paralleli consentono ai nodi HPC di accedere agli stessi dati simultaneamente, migliorando le prestazioni su tutta la linea.
  • Gli oltre 20 anni di esperienza di DDN le conferiscono un’esperienza e una conoscenza del settore senza precedenti, consentendole di fornire alcuni dei migliori ambienti HPC sul mercato.
  • Scalabilità, sicurezza e stabilità sono altrettanto fondamentali per DDN. Garantiscono la protezione dei dati sensibili della ricerca, assicurando al contempo che l’ambiente sia scalabile ma stabile.
  • Le prestazioni dell’exascaler rientrano nel regno delle possibilità per le soluzioni HPC di DataDirect Networks, migliorando in modo significativo le prestazioni della ricerca e di altri compiti orientati all’HPC.

Il calcolo exascale è un tipo di sistema di supercomputer in grado di eseguire operazioni di calcolo ai livelli exascale, un livello di prestazioni di calcolo completamente nuovo che richiede un sistema di archiviazione specificamente modificato per essere in grado di lavorare con tali prestazioni al massimo.

Penguin Computing

Penguin Computing rappresenta un altro fornitore privato di HPC, creato nel 1998. Penguin Computing è in grado di fornire una gamma di prodotti e servizi, che si tratti di server Linux, software di gestione dei cluster, soluzioni di cloud computing, soluzioni AI e altro ancora.

Penguin Computing offre ai suoi clienti soluzioni HPC semplificate, con prestazioni elevate e bassa complessità di gestione. Queste soluzioni possono essere scalate facilmente, combinando l’hardware e il software in più modi, per soddisfare i requisiti di ogni target.

Il contributo di Penguin Computing al settore HPC è piuttosto significativo. Offre infrastrutture HPC basate sul cloud con supporto di framework AI, rendendo possibile la combinazione dei due, se possibile, come mezzo per migliorare i carichi di lavoro HPC. C’è anche il fatto che il software di Penguin Computing rende molto più facile la gestione di ambienti HPC complessi, a prescindere da quanto siano grandi o sofisticati.

L’offerta dell’azienda copre anche gli ambienti HPC fisici e persino i server ottimizzati per Linux per lo stesso scopo. Ogni pacchetto include una combinazione di memoria veloce, processori ad alte prestazioni e hardware GPU efficiente. Penguin Computing supporta anche TrueHPC – un’iniziativa combinata di AMD e NVIDIA, che promuove la collaborazione e l’innovazione all’interno del mercato con le migliori pratiche e gli standard aperti.

Dell Technologies

Dell è un altro nome familiare nell’ambiente tecnologico generale. Come marchio, Dell è di proprietà di Dell Technologies, la sua società madre, nata nel 2016 dalla fusione tra Dell ed EMC. Dell Technologies offre molti servizi e soluzioni, tra cui opzioni hardware e software per diversi clienti.

Questo include anche capacità HPC, come l’implementazione della produzione, la valutazione, il test, la creazione di pezzi proof-of-concept, ecc. L’offerta di Dell nell’ambiente HPC non è molto diversa da quella di altre aziende che forniscono infrastrutture HPC basate su cloud on demand. Si tratta di un’alternativa veloce e relativamente economica alle implementazioni HPC on-premise, che può anche essere facilmente scalata in entrambi i sensi e richiede molta meno manutenzione. Dell è anche orgogliosa dei suoi tempi di implementazione HPC, offrendo implementazioni HPC estremamente veloci per i clienti con vincoli di tempo.

L’esperienza di Dell come azienda tecnologica è supportata da decenni di lavoro nel settore. Offre una profonda comprensione di come funziona l’HPC e di cosa ha bisogno per funzionare correttamente. Le soluzioni HPC di Dell basate sul cloud sono distribuite utilizzando migliaia di server Dell EMC e tre potenti supercomputer collegati in un’unica infrastruttura grazie a sofisticati sistemi di gestione dello storage.

Ci sono molti hardware che Dell può fornire come parte della sua infrastruttura HPC, che si tratti di hardware di rete, hardware di archiviazione o hardware di server. Tutti questi componenti sono personalizzati per i carichi di lavoro HPC fin dall’inizio. Allo stesso tempo, le capacità di Dell non si fermano alla fornitura di hardware in molteplici forme: ci sono anche servizi come:

  • Sviluppo della prova di concetto
  • Supporto continuo
  • Implementazione del prodotto
  • Valutazione iniziale

IBM

IBM è un’azienda tecnologica americana che esiste da oltre 100 anni. Il suo ramo IBM Spectrum Computing è stato creato per fornire servizi HPC ai suoi clienti in diversi modi. Ci sono offerte separate che IBM può proporre, tra cui:

  • Servizi ad alte prestazioni per l’analisi, perfetti per i settori della finanza o delle scienze biologiche, o per qualsiasi altro campo di lavoro che richieda regolarmente calcoli di carichi di lavoro ad alta intensità di dati.
  • Spectrum HPC, un set di strumenti completo per ottimizzare e gestire gli ambienti HPC esistenti o crearne di nuovi.
  • High-Performance Services for HPC, una soluzione per l’intero ciclo di vita dell’infrastruttura HPC, a partire dalla pianificazione e dall’implementazione, fino al supporto continuo fino alla chiusura.

L’azienda è nota per i suoi investimenti nelle tecnologie informatiche nel corso degli anni – ATM, DRAM, floppy disk e hard disk sono solo alcuni esempi delle creazioni di IBM. Il lungo elenco di invenzioni che possono essere attribuite direttamente a IBM è una testimonianza delle sue capacità in materia di innovazione e sviluppo tecnologico.

IBM supporta anche le implementazioni HPC ibride con facilità, offrendo la possibilità di collegare le sue capacità HPC basate sul cloud con l’hardware on-premise che il cliente potrebbe già avere. Le capacità HPC di IBM sono veloci e personalizzabili, sfruttando decenni di esperienza nel settore per creare un livello di servizio impressionante nel settore.

Alphabet

Alphabet è un enorme conglomerato tecnologico con sede in California; è spesso considerato una delle aziende di maggior valore del pianeta. Alphabet è stata creata dopo una ristrutturazione di una nota azienda chiamata Google nel 2015, rimanendo la società madre di Google fino ad oggi.

È possibile suddividere le capacità di Google legate all’HPC in sei categorie:

  1. Google Cloud può fornire un’infrastruttura personalizzata per casi d’uso molto specifici e ristretti, offrendo un’incredibile combinazione di potenza di calcolo e archiviazione. Questo è potenziato dalla potenza di calcolo del cloud, dalle soluzioni di archiviazione dei dati e dall’infrastruttura di rete ad alte prestazioni, che sono necessarie per mantenere tutta questa infrastruttura. Le soluzioni Cloud HPC di Google sono probabilmente il loro principale coinvolgimento diretto nello spazio HPC.
  2. Google partecipa e collabora spesso con varie organizzazioni di ricerca e istituti di istruzione per sviluppare nuove tecnologie nel mercato HPC e migliorare quelle esistenti. Questo aiuta diverse aziende del mercato a raggiungere nuovi mercati che necessitano della potenza dell’HPC, tra cui la scienza del clima, la biotecnologia, il calcolo quantistico, ecc.
  3. Lo status generale di Google come una delle più grandi aziende tecnologiche del mondo la rende un’ottima scelta per i servizi HPC, grazie alle sue capacità di rete veloce, agli alti livelli di efficienza, alla disponibilità costante e all’impressionante scalabilità.
  4. L’ampia versatilità di Google è di per sé un enorme vantaggio, in quanto offre un pacchetto di soluzioni che funziona sia per gli ambienti accademici che per quelli commerciali, quando necessario. Ciò consente ad Alphabet di creare valore in diversi mercati, migliorando i livelli complessivi di servizio in diversi settori.
  5. La capacità di Google di integrare nuove tecnologie nelle soluzioni esistenti spinge all’innovazione, migliorando al contempo le prestazioni e la versatilità del suo servizio HPC.
  6. Questo non significa che le tecnologie più tradizionali non vengano costantemente sviluppate e migliorate sotto Alphabet. Tutt’altro: la pura dedizione di Google a lavorare con tecnologie all’avanguardia serve costantemente a migliorare le capacità di soluzioni come l’HPC per diversi settori industriali.

Atos

Atos è una grande azienda di servizi IT che si concentra principalmente sulla fornitura e sulla gestione di infrastrutture HPC. È in grado di distribuire queste infrastrutture, di gestirle e di consultare gli utenti quando si tratta di problemi che possono verificarsi in queste infrastrutture.

Atos può offrire opzioni di infrastrutture HPC sia on-premise che basate sul cloud. Offre anche servizi di gestione HPC, alleggerendo il pesante fardello della gestione di infrastrutture HPC complesse da parte dei suoi utenti. Altri servizi di Atos includono programmi di formazione avanzata che ruotano attorno alle capacità HPC, per assicurarsi che i clienti siano in grado di utilizzare al meglio il software e l’hardware, se vogliono gestirli da soli.

Atos è in grado di fornire e gestire implementazioni HPC ibride, nonché infrastrutture on-premise e cloud separatamente. Questo si combina con un’impressionante scalabilità, che è una capacità molto preziosa in un ambiente moderno con una crescente richiesta di dati.

Per gli utenti HPC, Atos è un orchestratore e un consulente affidabile nel settore, che offre un pacchetto completo di infrastrutture HPC e la capacità di gestirle all’interno della stessa azienda. Questo lascia agli utenti finali molto più tempo per concentrarsi sulla ricerca o su altri compiti che richiedono l’HPC in qualche modo, forma o modo.

Exagrid

ExaGrid è una soluzione di archiviazione di backup principalmente orientata all’hardware, costruita appositamente per grandi volumi di dati. Si basa su un modello di archiviazione a livelli e su un’intelligente politica di backup che rende sempre accessibili i backup più recenti, senza bisogno di compressione. Si tratta di una soluzione di backup veloce, scalabile e affidabile che può essere eccellente anche per la protezione dei dati HPC, combinando prestazioni ed efficienza economica.

Exagrid è stato progettato per gestire grandi masse di dati, il che lo rende particolarmente utile per le implementazioni HPC. Inoltre, offre processi di ripristino estremamente rapidi per lo storage regolare e le macchine virtuali, senza che sia necessario alcun tipo di reidratazione prima che i dati possano essere riutilizzati.

Le altre capacità di ExaGrid includono un’impressionante efficienza dei costi, grazie all’architettura dei prezzi a livelli e alla dipendenza da una combinazione di hardware e software per le attività di backup e ripristino. Ogni unità è un sistema autonomo con storage, memoria, processore e altri elementi necessari, il che rende la scalabilità molto più facile nel lungo periodo, perché alcuni elementi possono essere sostituiti invece dell’intera appliance.

Riscala

Rescale è uno sviluppo relativamente recente in questo settore: si tratta di una società di software creata nel 2011 e che ora offre sia servizi cloud che funzionalità software cloud. L’offerta di Rescale si chiama Cloud Intelligent Computing; può essere utilizzata per ottimizzare i flussi di lavoro HPC esistenti (per lo più esempi on-premise).

L’azienda introduce regolarmente nuove e migliori tecnologie cloud nell’HPC per facilitare la connessione dei flussi di lavoro HPC on-premise con le loro controparti cloud-centriche. Ad esempio, la possibilità di accedere alle risorse HPC da remoto rappresenta un enorme vantaggio per gli sforzi di collaborazione e innovazione nel settore, poiché la connessione è sicura e protetta, e la possibilità di contattare queste risorse migliora drasticamente la mobilità delle operazioni HPC.

Inoltre, Rescale può offrire un provisioning rapido per i cluster HPC basati sul cloud, risolvendo uno dei problemi principali delle implementazioni HPC originali (lunghi tempi di provisioning). In questo modo, le soluzioni HPC possono essere scalate o ridotte rapidamente, migliorando in modo significativo sia la convenienza che le prestazioni di queste implementazioni.

Rescale, inoltre, non cerca di vincolare i clienti a lavorare con un unico fornitore di cloud storage, creando opportunità di supporto con vari fornitori di cloud HPC, pur essendo in grado di gestirli tutti tramite Rescale.

L’azienda è comunque in grado di offrire tutti i vantaggi di base di un ambiente HPC cloud, come tempi di implementazione più rapidi rispetto all’HPC on-premise, scalabilità più rapida, gestione più semplice e costi iniziali più bassi. Questi tipi di vantaggi si combinano bene con i miglioramenti apportati da Rescale al flusso di lavoro HPC esistente, creando un pacchetto di servizi e ambienti piuttosto interessante.

Advanced HPC

Un’altra azienda relativamente piccola (rispetto a Microsoft e Amazon) specializzata in servizi HPC si chiama proprio così: Advanced HPC. È stata fondata nel 2009 e rimane tuttora uno dei principali fornitori di servizi HPC sul mercato. Non solo Advanced HPC offre server ad alte prestazioni, soluzioni di rete e offerte di infrastrutture, ma ci sono anche molte opportunità di formazione tra cui scegliere.

Altre capacità di Advanced HPC includono molteplici servizi professionali sul mercato, compresa la capacità di gestire:

  • cluster HPC,
  • Soluzioni NAS per le aziende,
  • File system paralleli e altro ancora.

AHPC offre la capacità di costruire soluzioni HPC complete chiavi in mano da zero, invece di vendere solo componenti separati per sistemi HPC. Ognuno di questi sistemi può essere personalizzato in modo specifico e necessario per il campo di lavoro del cliente, creando un approccio unico per ogni cliente con cui AHPC lavora.

Il normale pacchetto di vantaggi si applica anche ad AHPC: sono inclusi costi iniziali più bassi, l’infrastruttura è molto più flessibile, più facile da gestire e i tempi di implementazione sono nettamente superiori a qualsiasi implementazione on-premise.

HPE

HPE è l’acronimo di Hewlett Packard Enterprise, un’azienda multinazionale di tecnologia dell’informazione degli Stati Uniti. È stata creata nel 2015 come parte della scissione dell’azienda Hewlett-Packard. HPE si concentra principalmente sul segmento B2B del mercato, offrendo funzionalità come networking, server, storage, containerizzazione e altro ancora.

Le capacità di HPE, uno dei fornitori HPC più importanti, includono:

  • High-Performance Storage – una soluzione di archiviazione costruita specificamente per i carichi di lavoro veloci ad alto volume che l’HPC si aspetta dalle sue computazioni e dai suoi calcoli.
  • Server ottimizzati per l’HPC – combinazioni di funzionalità di rete veloci, processori ad alta velocità e pool di memoria estremamente ampi.
  • HPE Superdome Flex Server – un server modulare unico per i carichi di lavoro HPC.

HPE può offrire capacità di consulenza nel campo dell’HPC (progettazione ottimale dell’infrastruttura e obiettivi di performance previsti), capacità HPC basate sul cloud (capacità di base di implementazione dell’HPC nel cloud) e assistenza completa ai clienti per gli ambienti HPC esistenti (ampia competenza tecnica sul tema dell’HPC, risoluzione dei problemi, manutenzione continua e altro ancora).

Le funzionalità HPC in cloud di HPE offrono la stessa serie di vantaggi della maggior parte dei fornitori HPC in cloud, tra cui una gestione più semplice dell’infrastruttura, un costo di implementazione iniziale più basso, un’elevata velocità di implementazione e prestazioni ancora migliori grazie all’hardware di HPE, costruito su misura e ottimizzato per i carichi di lavoro HPC.

Storj

Storj è un servizio di archiviazione cloud distribuito che utilizza le tecnologie blockchain per offrire una soluzione sicura e protetta per l’archiviazione dei dati, soprattutto per le informazioni sensibili come i dati di formazione HPC. Storj è in grado di offrire un accesso altamente efficiente ai dati, indipendentemente dalla loro ubicazione specifica. Può anche lavorare con grandi volumi di dati con facilità, il che lo rende un concorrente privilegiato per i casi d’uso orientati all’HPC.

Si tratta di una soluzione efficiente dal punto di vista dei costi, con una struttura decentralizzata, che crea una combinazione insolita di alta sicurezza e prezzo basso nello stesso pacchetto. La struttura in questione offre anche molta ridondanza per impostazione predefinita, rendendola estremamente preziosa per tutti i casi d’uso che apprezzano l’alta disponibilità e la durata (l’HPC è uno degli esempi principali di tali clienti).

Bacula Enterprise

Bacula Enterprise è una piattaforma di backup e ripristino completa e altamente sicura che eccelle negli ambienti HPC, con molte funzionalità e caratteristiche specifiche per HPC tra cui scegliere. Supporta diversi tipi di storage, tra cui storage fisico, storage virtuale, cloud storage, database, applicazioni e così via. La soluzione stessa è stata progettata per gestire sistemi di dati vasti e complessi senza fare affidamento su prezzi basati sulla capacità, il che la rende un’opzione interessante per molti settori e campi di specializzazione, compreso l’HPC.

Il sistema modulare di Bacula lo rende un’ottima scelta praticamente per qualsiasi ambiente complesso, grazie alla capacità di espandere le sue funzionalità originali con uno sforzo minimo. Inoltre, è ottimo nella gestione e nel trattamento di grandi volumi di dati in forme diverse – una capacità significativa che le infrastrutture HPC sono sempre alla ricerca. Il software di Bacula è anche altamente scalabile e personalizzabile, ampliando in modo significativo le sue capacità in termini di clientela potenziale. Il sistema di abbonamento utilizzato da Bacula Enterprise è un altro vantaggio per i settori che lavorano regolarmente con grandi masse di dati, come l’industria HPC. Ad esempio, il modello di licenza è altamente modulare, il che significa che gli utenti pagano solo le licenze per i moduli (o plugin) utilizzati. Ancora meglio, Bacula non struttura le sue licenze in base al volume di dati, il che significa che il software non solo è facilmente scalabile dal punto di vista del design, ma anche del prezzo.

Un’altra testimonianza delle capacità di Bacula nel campo dell’HPC è il numero di diversi clienti che ha raccolto nel corso degli anni, tra cui organizzazioni che utilizzano regolarmente infrastrutture HPC – Queen’s University School of Computing, Texas A&M University, University of Ghent e persino la stessa NASA. Grazie ai suoi livelli di sicurezza più elevati, Bacula è utilizzato dalla più grande organizzazione di difesa del mondo e dal più grande istituto di credito non bancario del mondo.

Un’area importante in cui Bacula contribuisce al mondo HPC è la conformità. Per molte organizzazioni che si trovano sempre più spesso a dover soddisfare i requisiti normativi e le esigenze di conformità, l’ampia reportistica di Bacula su interi ambienti HPC le aiuta a raggiungere gli standard e le certificazioni per essere correttamente operative.

Le sfide dell’HPC

L’HPC può essere uno strumento molto potente nelle giuste circostanze, ma la tecnologia ha la sua parte di svantaggi e sfide. Alcune di queste sfide sono relativamente comuni per un settore in rapida evoluzione come l’HPC, mentre altre sono un po’ più insolite in confronto.

  • Le infrastrutture HPC in sede sono spesso estremamente costose in termini di prezzo iniziale. Il servizio HPC nel cloud è una buona alternativa, molto più economica in confronto, ma potrebbe non offrire la flessibilità e la convenienza di un’infrastruttura fisica gestita personalmente. Per questo motivo, molte aziende cercano di lavorare con una forma di ambiente HPC ibrido, che offre anche le proprie sfide legate alla complessità.
  • I sistemi HPC utilizzano decine di GPU e CPU in un’unica soluzione e la compatibilità è un argomento molto problematico per queste soluzioni, che richiedono molte conoscenze e risorse per assicurarsi che il sistema funzioni correttamente (un problema importante per le implementazioni HPC on-premise). La stessa logica si applica al lato software dell’argomento: la parallelizzazione non è una tecnologia plug-and-play, ma richiede molte ottimizzazioni e configurazioni per garantire che i compiti di calcolo siano distribuiti in modo uniforme tra le risorse HPC.
  • Il rapido avanzamento generale del settore, soprattutto quando si tratta di miglioramenti legati all’AI, rende ancora più costoso tenere il passo con i progressi legati all’HPC, sia in termini di hardware che di software. Certo, questo è un problema molto più grande per le installazioni HPC on-premise, ma anche gli HPC basati sul cloud sono suscettibili dello stesso problema – e l’inconveniente degli aggiornamenti regolari si tradurrebbe prima o poi in un costo di servizio più elevato.
  • Gestire gli HPC nel loro complesso può essere un compito estremamente difficile che non molti professionisti IT sono in grado di gestire. Il problema generale è ancora più grave per le implementazioni HPC ibride, a causa della combinazione di soluzioni HPC fisiche e virtuali. Trovare anche un solo professionista di questo tipo può essere piuttosto impegnativo, e mantenere la stessa persona in azienda è una sfida ancora più grande in un ambiente moderno con un alto livello di concorrenza.
  • La sicurezza dei dati nel suo complesso rimane un problema significativo per qualsiasi settore moderno, compreso l’HPC, soprattutto quando si tratta di ambienti HPC ibridi e basati su cloud.
  • I problemi di consumo energetico esistenti sono presenti anche per le soluzioni HPC, poiché queste soluzioni utilizzano più unità hardware contemporaneamente, aumentando i livelli di consumo energetico complessivo in modo esponenziale. L’efficienza energetica è un argomento molto importante in questo contesto.

Il futuro dell’HPC

Se è vero che gran parte della recente popolarità dell’HPC può essere attribuita all’improvvisa ascesa dell’IA come ultima “tendenza IT”, il panorama generale di queste tecnologie di alto livello è relativamente volatile, e costringe i fornitori di HPC ad adattarsi ed evolversi il più velocemente possibile per rimanere rilevanti. Per questo motivo, il settore HPC continuerà ad esistere finché ci sarà una domanda di potenza di calcolo massiccia per casi d’uso specifici – che si tratti di AI, IoT, imaging 3D, in combinazione con uno dei tanti tipi di aree applicative diverse, come la simulazione della fisica delle particelle, l’analisi meteorologica, la scoperta di farmaci e la modellazione molecolare, il sequenziamento del genoma, l’esplorazione spaziale, l’esplorazione di petrolio e gas, l’imaging sismico e la modellazione dei terremoti, ecc. Gli sviluppi entusiasmanti e significativi dell’HPC, sia sul fronte tecnico che su quello strategico, significano che questa disciplina ha un futuro brillante e sicuramente contribuirà molto all’umanità in futuro.

Informazioni sull'autore
Rob Morrison
Rob Morrison è il direttore marketing di Bacula Systems. Ha iniziato la sua carriera nel marketing IT con Silicon Graphics in Svizzera, ottenendo ottimi risultati in vari ruoli di gestione del marketing per quasi 10 anni. Nei 10 anni successivi, Rob ha ricoperto anche diverse posizioni di gestione del marketing in JBoss, Red Hat e Pentaho, assicurando la crescita della quota di mercato di queste note aziende. Si è laureato all'Università di Plymouth e ha conseguito una laurea ad honorem in Digital Media and Communications e ha completato un programma di studi all'estero.
Lascia un commento

Il suo indirizzo e-mail non sarà pubblicato. I campi obbligatori sono contrassegnati da *