Von relationalen Daten, die es Forschern ermöglichen, zu sehen, wo Zellen in Bezug zueinander stehen, bis hin zu bildgebenden Daten, die zur Überlagerung mit molekularen Daten verwendet werden können, bietet räumliche Multi-Omics neue Möglichkeiten für ein tieferes Verständnis. Diese neuen Funktionen bringen jedoch auch neue Rechenherausforderungen mit sich. Es war für TGen von entscheidender Bedeutung, nicht nur einen Weg zu finden, diese Herausforderungen zu meistern, sondern auch sicherzustellen, dass sie das Beste aus den aus klinischen Studien erhaltenen Proben herausholen können.
Die Standard-Workflows für die Verarbeitung von Einzelzellendaten waren überschaubar, da das Team selten mit großen Datenmengen arbeitete. Als das Team auf räumliche Daten umstellte, erkannte es schnell, dass dies eine größere Herausforderung war. Die ersten paar Durchläufe von räumlichen Omics-Instrumenten führten zu bis zu 10 Millionen Zellen. Das Xenium Analyzer-Instrument mit NVIDIA Technik beschleunigt die Zeit zu den Ergebnissen, indem es eine On-Board-Analyse durchführt und gängige Dateiformate für die Verwendung in Drittanbieter-Tools gebräuchlichen Dateiformaten ausgab. Die für tertiäre und Hauptkomponenten sowie Clustering-Analyse verwendeten Standard-Workflows erforderten aber 10 bis 14 Stunden.
Was die Sache noch verschlimmerte war, dass diese Pipelines nicht fix sind. Daten werden durch Pipelines geleitet und Ergebnisse werden dann daraufhin beurteilt, ob der Clustering-Algorithmus wie erwartet funktioniert hat. Falls nicht, werden die Parameter angepasst und der Prozess wird wiederholt. Banovich erläutert: „Es wird immer unmöglicher, wenn jede dieser Iterationen 10 Stunden dauert. Wir waren mit der Tatsache konfrontiert, dass der Vorgang selbst bei 3 oder 4 Millionen Zellen zu lange dauerte.”