Il Crick ha subito una sostituzione completa HPC che ha incluso la sostituzione di storage, networking e calcolo della CPU, nonché un aggiornamento della GPU. James Clements, direttore delle operazioni IT e vice CIO presso il Francis Crick Institute, ha esaminato i 120 laboratori e le 15 piattaforme scientifiche e tecnologiche per capire i piani, i desideri e ciò che funzionava o non funzionava.
Nel solo progetto TRACERx EVO, il team ha osservato notevoli accelerazioni per il sequenziamento dell'intero genoma durante il test di Parabricks, tra cui l'allineamento FastQ e la chiamata DeepVariant. "Questo farà risparmiare quasi nove anni di tempo di elaborazione rispetto alla nostra attuale offerta di servizi HPC", spiega Clements.
Oltre al notevole risparmio di tempo, il team di Crick ha apprezzato l'approccio pratico con NVIDIA e la capacità di fornire feedback. Come afferma Clements, "siamo stati in grado di lavorare direttamente con il team di prodotto per testare le funzionalità di sviluppo e contribuire con idee per lo sviluppo futuro".
Di conseguenza, l'implementazione del Crick consiste in tre cluster, tutti connessi attraverso la rete NDR InfiniBand, tra cui:
- NVIDIA A100 per un cluster di scopo generale conveniente e spazio efficiente, utilizzato per carichi di lavoro non ottimizzati.
- NVIDIA L40 per la biologia della struttura, la microscopia crio-elettronica funziona per GPU a basso costo.
- NVIDIA H100 per carichi di lavoro specifici, tra cui soluzioni ottimizzate come Parabricks.
Sia A100 che H100 sono su server Dell che utilizzano GPU SXM4 da 80 GB.
Clements riassume che l'impatto di NVIDIA "porterà a beneficio di Crick con decine di migliaia di ore di tempo di attesa risparmiato ogni singolo anno. Fornirà anche una piattaforma hardware per l'innovazione futura."