Dai dati relazionali che consentono ai ricercatori di vedere la posizione delle cellule in relazione ad altre cellule, ai dati di imaging che possono essere utilizzati sovrapponendoli ai dati molecolari, la multi-omica spaziale offre nuove opportunità per una comprensione più profonda. Tuttavia, queste nuove funzionalità presentano anche nuove sfide computazionali. Per TGen era fondamentale non solo trovare un modo per affrontare tali sfide, ma anche far sì di essere in grado di sfruttare al massimo i campioni ricevuti dagli studi clinici.
I flussi di lavoro standard per l'elaborazione di dati a cella singola erano gestibili, poiché il team ha lavorato raramente con grandi dataset. Una volta che il team è passato all'analisi spaziale, si è subito reso conto che si trattava di una sfida più grande. Le prime esecuzioni da strumenti omici spaziali hanno portato fino a 10 milioni di celle. Lo strumento Xenium Analyzer, con tecnologia NVIDIA, riduce il tempo per ottenere i risultati eseguendo analisi integrate e fornendo formati di file comuni per l'uso in strumenti di terze parti. Tuttavia, i flussi di lavoro standard utilizzati per l'analisi terziaria, dei componenti principali e di clustering hanno richiesto 10-14 ore.
A peggiorare le cose, queste pipeline non sono fisse. I dati passano attraverso le pipeline e i risultati vengono quindi valutati in base alle prestazioni dell'algoritmo di clustering. Se le prestazioni non soddisfano le aspettative, si modificano i parametri e si ripete il processo. Come spiega Banovich, "Ciò inizia a diventare davvero proibitivo se ciascuna di queste iterazioni richiede un processo di 10 ore. Di conseguenza, anche con 3 o 4 milioni di cellule, ci voleva troppo tempo."