News-Center (Newsroom)

Neuronenzellen-Forschung: Milliarden Daten in Minutenschnelle analysieren

 
 

Frankfurter Goethe-Zentrum setzt auf NVIDIAs CUDA-Technologie

Der Siegeszug moderner GPU-Lösungen im Bereich Wissenschaft und Forschung ist nicht aufzuhalten. Neuestes Beispiel ist die am Frankfurter Goethe-Zentrum für wissenschaftliches Rechnen (G-CSC) durchgeführte Neuronenzellen-Forschung. Auf Basis von NVIDIAs CUDA-Technologie wird sie heute schneller und wesentlich kostengünstiger als mit einer CPU-Lösung durchgeführt.

DIE HERAUSFORDERUNG

Rekonstruierte Nervenzelle Eine besonders rechenintensive Anwendung bei der Neuronenzellen-Forschung ist der Algorithmus NeuRA (Neuron Reconstruction Algorithm – www.neura.org). Mit ihm werden aus dreidimensionalen Bildern von einzelnen Neuronenzellen, die durch konfokale oder 2-Photonen-Mikroskopie aufgenommen werden, Dreiecksgitter der Zellenoberflächen generiert. Der inzwischen preisgekrönte Algorithmus wurde ursprünglich von Prof. Dr. Gabriel Wittum und seinem Team am Interdisziplinären Zentrum für Wissenschaftliches Rechnen (IWR) in Heidelberg entwickelt und am Goethe-Zentrum für Wissenschaftliches Rechnen (G-CSC) Frankfurt weiter optimiert. Die Rekonstruktionen der Neuronenzellen können dabei vielfältig eingesetzt und genutzt werden: Zum Beispiel als vereinfachte Visualisierung der Zellen, zur Vermessung der Nervenzellen oder zur Simulation von Signalverarbeitungsprozessen auf den rekonstruierten Geometrien – und damit gewissermaßen auf „echten“ Zellen.

Der trägheitsbasierte Diffusionsfilter ist insgesamt der speicher- und rechenintensivste Verarbeitungsschritt. Für das Filtern eines Datensatzes der Dimension 256 x 256 x 216 braucht ein Intel-Xeon-Prozessor mit 3 GHz fast zwei Stunden – bei einem Speicherbedarf von etwa 2 Gigabyte. Da dieser Filterprozess aber in hohem Maße parallelisiert werden kann, bietet sich der Einsatz von modernen Grafikprozessoren an.

DIE LÖSUNG

Ausschnitt der rekonstruierten NeuronenzelleDie Frankfurter setzen dabei auf den Computing-Prozessor Tesla C1060 von NVIDIA, den weltweit ersten Mehrkern-Teraflops-Prozessor. Im Unterschied zu CPUs stehen wesentlich mehr Transistoren für Berechnungen zur Verfügung. Eine Tesla C1060, die über ausreichend Speicher zur direkten Verarbeitung eines Datensatzes mit 256 x 256 x 216 verfügt, benötigt im Vergleich zur genannten Intel-CPU für den Filterprozess 70 Sekunden. Sie ist damit fast 100-mal schneller.

Moderne 2-Photonen-Mikroskope liefern Daten in einer Auflösung von 2.048 x 2.048 x 368, die knapp 1,5 Gigabyte groß sind und deren Filterung über 200 Gigabyte Speicher benötigt. Diese Bilder werden in überlappende Teilbilder zerlegt, die dann einzeln gefiltert werden können. Beim Filtern wird eine nichtlineare Wärmeleitungsgleichung auf den Bilddaten gelöst. Hierbei werden vier Zeitschritte berechnet. Das Filtern des angeführten Datensatzes in der Dimension 2.048 x 2.048 x 368 bedeutet folglich das Aufstellen und Lösen von vier linearen Gleichungssystemen mit jeweils knapp 1,5 Milliarden Unbekannten.

DIE AUSWIRKUNGEN

Unter Verwendung des im Rechenzentrum Frankfurt, das heißt am Center for Scientific Computing CSC, installierten Parallelrechners Scout ist die Filterung eines solchen hochaufgelösten Datensatzes in weniger als drei Minuten möglich. Die komplette Rekonstruktion benötigt rund fünf Minuten. Zur Konfiguration des Scout-Rechners gehören 96 Tesla-C1060-GPUs, die auf 16 Knoten verteilt sind und eine Spitzenleistung von 100 Teraflops bieten. Die Kosten für das Gesamtsystem beliefen sich auf circa 270.000 Euro. Ein vergleichbarer CPU-basierter Parallelrechner wäre rund 20-mal teurer.

Abbildungen
Ausschnitt einer Volumenaufnahme eines Mikroskopbildes
Ausschnitt einer Volumenaufnahme eines Mikroskopbildes (Quelle: IZN Heidelberg, Prof. Dr. Hannah Monyer und Dr. Jakob v. Engelhardt)

Identischer Ausschnitt nach Anwendung des trägheitsbasierten Diffusionsfilters (Quelle: Goethe-Zentrum für wissenschaftliches Rechnen G-CSC)


 
 
 
 
FacebookTwitterGoogle+XingPinterest