UNIVERSITÉ DE GENÈVE

FACULTÉ DES SCIENCES

Groupe de physique appliquée
Pr Pierre Descouts

FACULTÉ DE MÉDECINE

Département de radiologie
Pr Alfred Donath

Monte Carlo Simulation Studies of Scatter Correction in Positron Emission Tomography

Thèse
présentée à la Faculté des Sciences de l'Université de Genève
pour obtenir le grade de Docteur ès Sciences,

mention interdisciplinaire

par

Habib ZAIDI

(d'Algérie)

Jury :
Pr Alfred Donath
Pr Pierre Descouts
Pr David Townsend
Pr Andrew Todd-Pokropek
Pr Thierry Pun

Thèse n° Sc. 3142

Genève, 2000


      Positron Emission Tomography (PET) is a well-established radio-tracer imaging modality which offers the possibility of quantitative measurements of physiological and biochemical processes in vivo, as well as providing a useful clinical diagnostic tool. Several factors affect the image quality and the quantitative accuracy of the data obtained from a PET scan. These include the physical properties of the detectors, scanner design, attenuation and scatter compensation, and the reconstruction algorithm.

      Various analytical (exact and approximate) and iterative algorithms have been proposed for 3D reconstruction in PET. Iterative reconstruction methods applied to image reconstruction should result in possibly better images than analytical reconstruction algorithms. To fully investigate this potential, an object-oriented library for 3D PET reconstruction has been developed. This library has been designed so that it can be used for many algorithms and scanner geometries. Its flexibility, portability, and modular design have helped greatly to (i) develop new iterative algorithms, (ii) compare iterative and analytic methods using simulated, phantom and patient data, and (iii) adapt and apply the developed reconstruction algorithms to different designs of PET tomographs. As 3D iterative reconstruction algorithms are time-consuming, the library contains classes and functions to run parts of the reconstruction in parallel, using parallel platforms with a distributed memory architecture.

      Simulation techniques have become an important and indispensable complement to theoretical derivations, experimental methods and clinical studies in nuclear medicine research and development. They have been found useful in problems where theoretical solutions are unavailable, experimental studies are inadequate and clinical studies are too difficult and expensive. Simulation techniques consist of computer phantoms, models of the nuclear medicine data acquisition process and image reconstruction and analysis methods.

      Monte Carlo techniques have become popular in different areas of medical physics with advantage of powerful computing systems. Recent developments in nuclear medicine instrumentation and multiple-processor parallel processing systems have created new opportunities for Monte Carlo simulation in nuclear medicine imaging research. In particular, they have been extensively applied to simulate processes involving random behaviour and to quantify physical parameters that are difficult or even impossible to calculate by experimental measurements. The large number of applications of the Monte Carlo method attests to its usefulness as a research tool in different areas of nuclear medicine imaging including detector modelling and systems design, image reconstruction and scatter correction techniques, internal dosimetry and pharmacokinetic modelling.

      To evaluate the effects of both attenuation and scatter as well as the relative performance of image reconstruction algorithms in 3D PET imaging in different clinical situations, a Monte Carlo program called Eidolon has been developed. Simple shape-based phantom geometries and more complex voxel-based non-homogeneous anthropomorphic phantoms can be simulated. Different detector materials can be chosen for the scintillator. The energy resolution is simulated by convolving the imparted energy with an energy-dependent Gaussian function. Comparisons with experimental measurements and published results as well clinical studies have shown good agreement. The usefulness of the Monte Carlo code for the simulation of important parameters in volume-imaging PET tomographs has been demonstrated.

      Basic aspects and strategies of running Monte Carlo calculations on parallel computers are described and the different steps involved in porting the software on a parallel architecture based on PowerPC 604 processors running under AIX 4.1 presented. A linear decrease of the computing time was achieved with the number of computing nodes. The parallelisation paradigm used in this work is independent from the chosen parallel architecture.

      The accuracy of Monte Carlo simulations strongly depends on the accuracy in the probability functions and thus on the cross section libraries used for photon transport calculations. A comparison between different photon cross section libraries and parametrizations implemented in Monte Carlo simulation packages developed for positron emission tomography and the most recent Evaluated Photon Data Library (EPDL97) developed by the Lawrence Livermore National Laboratory (LLNL) in collaboration with NIST was performed for several human tissues and common detector materials for energies from 1 keV to 1 MeV. This latter library is currently adopted as a standard in nuclear industry and is thought to be the more up-to-date and complete database available. It was carefully designed in the form of look-up tables and integrated in our simulation environment significantly improving the efficiency and accuracy of the Eidolon simulation package.

      Scatter correction techniques can be evaluated using either Monte Carlo simulation studies, experimental phantom measurements and clinical studies. Accurate Monte Carlo simulation is still considered as the gold standard since it allows to separate scattered and unscattered events and compare the estimated and true scatter components. A simple parametrization of the scatter response function and scatter fraction have been obtained using Monte Carlo simulations with the aim to apply the developed models in either model or iterative-based scatter compensations.

      An improvement and extension to whole-body 3D imaging of a recently proposed Monte Carlo-based scatter correction (MCBSC) method (Levin et al 1995) is presented. A new scatter correction method called Statistical Reconstruction-Based Scatter Correction (SRBSC) based on estimating the low-frequency component corresponding to scatter events using ordered subsets - expectation maximisation (OSEM) reconstruction is also proposed in this work and evaluated against more common correction methods. Five scatter correction methods based on subtracting an estimated scatter component from the projection data were compared in this thesis where applicable. These include the dual-energy window (DEW) technique, convolution-subtraction method (CVS), two variants of the Monte Carlo-based scatter correction technique (MCBSC1 and MCBSC2) and the newly developed SRBSC. The aim was to compare the estimated scatter distributions with the true scatter distribution in the standard acquisition window. It was concluded that all the methods improve the contrast compared to the case where no correction is applied and that an accurate modelling of the scatter component is essential for a proper scatter correction.

      Key words: PET, Monte Carlo simulation, 3D reconstruction, Scatter correction, Parallel computing.


2D
two-dimensional
3D
three-dimensional
3DRP
the 3D reprojection algorithm
ACFs
attenuation correction factors
CA
attenuation corrected data
CSF
cerebro-spinal fluid
CT
computed tomography
CVS
convolution-subtraction method
DEW
dual-energy window method
ETM
estimation of trues method
FAVOR
fast volume reconstruction
FBP
filtered backprojection
FORE
Fourier rebinning algorithm
FOV
field-of-view
IMC
inverse Monte Carlo
LE
lower energy window
LLT
lower level threshold
LOR
line of response
MCBSC
Monte Carlo-based scatter correction
MET
multiple emission tomography
MLEM
maximum likelihood - expectation maximisation
MRI
magnetic resonance imaging
MSRB
multi-slice rebinning
NC
no correction applied
NEC
noise equivalent counts
NMR
nuclear magnetic resonance
OSEM
ordered subsets - expectation maximisation
OSMD
ordered subsets - mirror descent
PARAPET
PARAllel PET Scan long term European research project
PET
positron emission tomography
PMT
photomultiplier tube
PSF
point-spread function
SF
scatter fraction
SNR
signal-to-noise ratio
SRBSC
statistical reconstruction-based scatter correction
SPECT
single-photon emission computed tomography
srf
scatter response function
SSRB
single-slice rebinning
TOR
tube of response
UE
upper energy window
ULT
upper level threshold
urf
unscatter response function

      L'imagerie médicale est née avec la découverte des rayons X par le professeur William Roentgen en 1895. Depuis, ces techniques d'exploration n'ont cessées de se développer pour donner naissance à l'imagerie isotopique incluant la tomographie par émission monophotonique (TEMP), la tomographie à rayons X, et l'imagerie par résonance magnétique nucléaire. La Tomographie par Emission de Positons (TEP) est un outil d'exploration fonctionnelle in vivo, qui permet des études physiologiques telles que le métabolisme, la pharmacocinétique des liaisons entre ligandes et neurorécepteurs, la synthèse protéique et l'étude du débit cérébral. Ces acquisitions sont obtenues par injection d'une molécule radioactive marquée par des isotopes du carbone, du fluor, ou de l'oxygène (émetteurs de positons). Le résultat est une image quantitative du fonctionnement de l'organe étudié, qui fournit des renseignements sur la capacité de cet organe à fixer, assimiler, et transformer la substance qui lui a été fournie. La TEP fait donc partie des techniques d'imagerie fonctionnelle et se distingue d'autres techniques tomographiques (Scanner à rayons X, IRM), qui donnent une description anatomique de l'organe examiné (voir Fig. 1.1).

      1. Introduction

      Ce travail fait partie du projet PARAPET (PARAllel PET Scan), financé par la Commission Européenne et le gouvernement Suisse, dont le but consiste à élaborer des méthodes itératives de reconstruction volumique des données TEP par l'utilisation de technologies avancées permettant un calcul parallèle et donc un meilleur rendement. Ce projet inclut également le développement d'un logiciel modulaire de simulation des données TEP par la méthode de Monte Carlo. Les différentes méthodes de reconstruction seront évaluées à l'aide d'une librairie complète de données simulées, de fantômes mesurés et de cas cliniques.

      Le projet englobe les principaux leaders au niveau Européen : la Grande-Bretagne est représentée par l'hôpital de Hammersmith et l'université de Brunel; l'Italie par l'Ospedale San Rafaele; La Suisse par l'Hôpital Cantonal Universitaire de Genève, Israël par l'Institut technologique d'Israël. Le principal fournisseur Européen de systèmes de calcul parallèle: Parsytec, Allemagne, ainsi que le constructeur de scanners, ELGEMS, Israël, sont les deux partenaires industriels dans ce projet. Le projet a une dimension Européenne forte grâce au rassemblement des principaux chercheurs, cliniciens et un principal constructeur de matériel informatique à travers l'union Européenne dans une collaboration renforcée par la participation d'institutions reconnues pour leurs compétences dans le domaine en Suisse et en Israël.

      Le projet produira une librairie modulaire et flexible de reconstruction 3D des données TEP moyennant des algorithmes analytiques et itératifs et les rendra disponibles pour une exploitation dans des environnements cliniques. Un but important du projet est de créer des versions parallèles de ces algorithmes en utilisant des systèmes multiprocesseurs à mémoire distribuée. Les associés dans le projet utilisent la série Parsytec CC de systèmes parallèles, mais le but est de créer des programmes parallèles réalisant la fonction d'indépendance de la plate-forme informatique.

      Dans ce travail de thèse, nous nous sommes intéressés à trois aspects importants en imagerie TEP: la modélisation et la simulation des tomographes par la méthode de Monte Carlo, la reconstruction tridimensionnelle des images, et la correction du rayonnement diffusé. Notre travail de thèse comporte plusieurs chapitres qui peuvent être des sujets de recherche à part entière.

      Le chapitre 1 présente une introduction aux techniques d'imagerie médicale ainsi que les objectifs de notre travail de recherche. Nous introduisons au chapitre 2 la technique de tomographie par émission de positons ainsi que l'instrumentation associée, les protocoles d'acquisition en deux (2D) et trois dimensions (3D), et la correction des données obtenues en vue d'obtenir des images quantitatives. Différentes techniques de reconstruction des images TEP sont exposées au chapitre 3. La librairie de reconstruction volumique d'images TEP ainsi que les récents développements algorithmiques et résultats issus du projet PARAPET sont également exposés dans ce chapitre.

      Dans le chapitre 4, les principes de la méthode de Monte Carlo sont présentés, suivis par une revue des différents domaines d'application de cette technique en imagerie TEP. Les travaux de recherche et développement utilisant cet outil pour différentes applications, telles que la conception de tomographes ou de collimateurs, la reconstruction d'images, le développement et la validation des algorithmes de correction des effets d'atténuation et de diffusé Compton, la dosimétrie et le planning de traitement, ainsi que la modélisation de la cinétique des traceurs sont discutés.

      Dans le chapitre 5, nous décrivons le développement et l'implémentation d'un outil original de simulation par la méthode de Monte Carlo des tomographes TEP cylindriques opérant en mode 3D. Les différentes étapes de développement et validation de ce simulateur appelé, Eidolon, ainsi que les techniques utilisées pour modéliser des 'fantômes' numériques représentant des organes ou tissus du corps humain sont explorées dans ce même chapitre.

      Dans le chapitre 6, nous exploitons les données récentes sur les sections efficaces d'interaction des photons avec la matière (Evaluated Photon Data Library, EPDL97) développées par le Lawrence Livermore National Laboratory (LLNL) pour améliorer la précision du simulateur et faciliter l'accès à ces paramètres lors de l'exécution du programme. A l'issue de ces résultats, nous discutons les différents paramètres qui altèrent la précision des simulations. Afin de rendre l'utilisation du simulateur plus conviviale, il faut mettre en oeuvre un mécanisme qui permet de réduire le temps d'exécution des simulations. Différentes approches pour l'implémentation parallèle du simulateur et la distribution des nombres aléatoires aux différents processeurs sont exposées dans le même chapitre. Le système parallèle Parsytec CC ainsi que l'implémentation du code Eidolon sur ce dernier sont aussi été décrits en détail.

      Enfin nous développons dans le chapitre 7, la stratégie mise en oeuvre pour quantifier les différentes composantes qui caractérisent le rayonnement diffusé en imagerie TEP afin des les distinguer d'autres phénomènes qui dégradent la qualité des images obtenues. Depuis au moins deux décennies, les chercheurs se sont penchés sur le problème de la correction du rayonnement diffusé et ont tenté de le résoudre. Les deux algorithmes de correction proposés dans notre travail sont basés : (i) sur l'utilisation de la simulation par la méthode de Monte Carlo pour évaluer la distribution spatiale du rayonnement diffusé et le soustraire des projections acquises, (ii) utiliser la reconstruction statistique pour évaluer cette distribution par reprojection de l'image estimée correspondant aux faibles fréquences, et donc aux événements diffusés. Ces algorithmes ont été validés d'abord sur des fantômes simulés, des mesures expérimentales, puis sur des cas cliniques pour deux types d'investigations (cerveau et thorax). Enfin, les conclusions principales et la suite suggérée de cette recherche sont présentées dans le chapitre 8.

      Ce travail de thèse a donc pour but d'améliorer la qualité et la précision quantitative des images métaboliques en tenant compte des caractéristiques des tomographes, de mieux comprendre l'origine et l'ampleur des rayonnements diffusés, de restituer le contraste par la correction de cet effet et en conséquence, de conduire à une quantification plus précise des images TEP. Notre travail a donc un quadruple objectif et s'oriente autour de quatre grands axes de recherche :

      2. La tomographie à émission de positons

      La tomographie à émission de positons est une modalité bien établie de formation d'images de radio-traceurs qui offre la possibilité de faire des mesures quantitatives des processus physiologiques et biochimiques in vivo, mais aussi de fournir un outil diagnostique clinique utile. Plusieurs facteurs affectent la qualité des images et l'exactitude des données obtenues à partir d'une acquisition en TEP. Ceux-ci incluent les propriétés physiques des détecteurs, la conception et les performances du tomographe, la compensation des effets d'atténuation et du rayonnement diffusé, et l'algorithme de reconstruction.

      La production de molécules marquées est l'élément clé de la TEP. Cette synthèse nécessite la production d'isotopes d'éléments naturels, émetteurs de positons. La très courte durée des radioéléments utilisés en TEP nécessite leur production sur le site même de l'utilisation. Plusieurs machines permettent d'accélérer des particules légères à des énergies suffisantes pour créer par bombardement de cibles, ces isotopes. Le centre TEP des Hôpitaux Universitaires de Genève sera équipé d'un cyclotron de 18 MeV, fabriqué par la société IBA, Belgique, qui permettra principalement la production de quatre radioéléments qui sont les isotopes de l'oxygène (15O), de l'azote (13N), du carbone (11C), et du fluor (18F). Les radioéléments sont produits par réaction nucléaire, en bombardant par un faisceau de particules accélérées, des cibles constituées par des éléments naturels appropriés.

      Le traceur injecté aux patients est un émetteur b+. Une fois émis, le positon effectue un petit parcours dans le milieu, puis s'annihile avec un électron. Du fait de la conservation de l'énergie et de la quantité de mouvement, cette annihilation s'accompagne de l'émission de deux photons antiparallèles d'énergie 511 keV. Ces rayonnements vont ensuite être détectés au niveau des couronnes de détecteurs. La question qu'on peut se poser c'est comment peut-on savoir alors que deux photons détectés au niveau de la couronne sont issus de la même annihilation? Les photons émis lors d'une annihilation atteindront les détecteurs avec une différence de temps très faible. On se fixe alors un seuil temporel. Si le laps de temps séparant l'arrivée des deux photons est en dessous de ce seuil, les photons sont considérés comme détectés simultanément. Cette détection correspond à un événement. Si le temps qui sépare l'arrivée des deux photons est supérieur au seuil, l'événement produit par la paire de photons n'est pas accepté. Deux photons détectés presque simultanément déterminent une ligne de coïncidence (ou ligne de réponse), sur laquelle l'annihilation est supposée s'être produite. C'est aussi la ligne où a eu lieu la désintégration du noyau, au parcours du b+ près.

      La couronne entourant l'objet est constituée d'un ensemble de détecteurs ou cristaux scintillateurs et d'un nombre défini de photomultiplicateurs. De plus, on définit pour chaque détecteur l'ensemble des autres détecteurs qui peuvent réagir en coïncidence avec lui. Cette ouverture définit le champ de vue transaxial correspondant à une zone de reconstruction à l'intérieur de la couronne.

      Les données brutes sont le résultat de la comptabilisation des événements (2 photons détectés en coïncidence), avec une information supplémentaire de localisation sur la ligne de coïncidence si l'on dispose du temps de vol (temps séparant l'arrivée du premier photon de celle du second). A l'acquisition, on récupère donc soit les projections soit les événements en mode liste. Toutefois, à l'enregistrement des données, la caméra effectue une transformation en une géométrie équivalente où les coïncidences sont classées selon leur direction dans une barrette de détecteurs fictifs (ensemble de détecteurs correspondant à une même direction).

      Quoiqu'il en soit, nous avons jusqu'ici supposé que la ligne de coïncidence contenait le point d'émission des photons d'annihilation. Malheureusement un certain nombre de facteurs physiques rendent inexacts la localisation de cette droite. Parmi ces facteurs citons :

      3. La reconstruction 3D des images TEP

      Si on considère que les photons sont émis en opposition, on en déduit une ligne sur laquelle le positon avant annihilation était supposé se trouver. Cette hypothèse de bon sens se modélise fort bien d'un point de vue mathématique. Dans un repère défini, on recueille dans une direction tout ce qui se trouve sur la ligne de coïncidence. Par le terme projection, on désigne de manière générale, le lien physique existant entre la distribution de l'activité et le jeu de données issues de la caméra. Modéliser ce lien physique n'est pas trivial.

      Le principe général de la reconstruction d'images est qu'un objet (x,y) peut être exactement reproduit à partir de l'ensemble de ses projections p(s,Ø) pris à différents angles par un procédé d'inversion (voir Fig. 3.1). La solution analytique à ce problème d'inversion a été connue pendant plus de 80 années grâce au travail initial du célèbre mathématicien Autrichien J. Radon (1917). En fait, il a pu montrer qu'il était possible de remonter à l'information bidimensionnelle à l'aide de ces projections (données mono-dimensionnelles). C'est dans la forme du profil suivant les différentes directions de projection qu'est contenue cette information 2D (transformation de Radon). Malheureusement, cette modélisation mathématique a été élaborée dans un contexte continu.

      Cependant, une différence majeure existe entre une reconstruction bi- et tridimensionnelle. Dans le cas 2D, le problème est entièrement déterminé analytiquement et la solution existe et est unique, alors que dans le cas 3D l'information supplémentaire sur les projections obliques est analytiquement superflue, dans la cas où nous ne sommes pas concernés par l'évaluation des variations statistiques. Par conséquent la procédure de recouvrement n'est plus unique, et un nombre infini de méthodes de reconstruction analytiquement équivalentes peut être conçu.

      Pour reconstruire les coupes tomographiques à partir des données de projections, on peut distinguer principalement trois classes de méthodes (voir Fig. 3.3) :

      Les méthodes de reconstruction implémentées sur la plupart des systèmes commerciaux et utilisées en routine reposent sur l'approche standard de reconstruction par rétroprojection filtrée. A coté de ces méthodes dites standards, les techniques de reconstruction basées sur une modélisation statistique des données connaissent un essor considérable, notamment avec l'emploi des champs de Markov qui permettent de glisser de l'information à priori lors de la reconstruction. En raison des nombreux paramètres spécifiques à chaque image reconstruite, elles restent mal commodes pour un emploi standard. En effet, pour améliorer la qualité des reconstructions, il est nécessaire d'ajuster ces paramètres au cas par cas.

      Dans le cadre du projet PARAPET, une librairie de classes et de fonctions pour la reconstruction 3D d'images TEP a été conçue (Labbé et al 1999a). Sa conception modulaire utilise les outils orienté-objet du langage de programmation C++: les objets d'un seul bloc cachent les détails de l'implémentation à l'utilisateur, et la hiérarchie entre les objets est élaborée en utilisant le concept d'héritage (Fig. 3.5). La librairie contient des classes et des fonctions pour exécuter des parties de la reconstruction en parallèle sur des architectures à mémoire distribuée. Ceci donne la possibilité d'exécuter la librairie sur des ordinateurs massivement parallèles, aussi bien que sur des stations de travail.

      La librairie a été conçue de sorte qu'elle puisse être utilisée pour élaborer différents algorithmes pour différentes géométries de tomographes TEP incluant la géométrie cylindrique et les gamma caméra à deux têtes opérant en mode de détection en coïncidence. Elle peut-être installée sur tous les systèmes informatiques supportant le compilateur Visual C++ de Microsoft ou GNU C++ de Free Software Foundation. Cette librairie fournit des classes générales pour la manipulation des matrices d'images et de sinogrames ou projections, aussi bien que les opérateurs d'épandage et de reprojection qui opèrent sur ces données (Labbé et al 1999b).

      Le projecteur estime des données de projection à partir d'une image. Cet opérateur est basé sur l'utilisation de l'algorithme de Siddon (1985), qui calcule la longueur de l'intersection des lignes de coïncidences avec les voxels de l'image et prend en considération les symétries géométriques du volume d'image. L'opérateur d'épandage est basé sur une extension à la géométrie 3D cylindrique de l'algorithme par accroissement de Cho et al (1990). La mise à jour des valeurs des voxels est calculée par interpolation bilinéaire entre quatre éléments de projection (Egger et al 1998). La combinaison de l'algorithme par accroissement avec l'exploitation des symétries géométriques du volume d'image a comme conséquence une mise en place très rapide de l'opérateur d'épandage.

      Il existe autant de différentes méthodes pour la reconstruction d'images que de chercheurs dans le domaine. Plus en fait, parce que beaucoup de chercheurs ont proposés plusieurs méthodes. Le problème avec les publications scientifiques est qu'avant qu'elles paraissent, les auteurs ont déjà trouvé de meilleures méthodes ou des variantes de celles-ci qui permettent une nette amélioration. Comme indiqué précédemment, l'avantage des algorithmes itératifs est davantage prononcé dans le cas de données de faibles statistiques. L'amélioration de la qualité des images est clairement montrée dans la Figure 3.7 qui illustre des images du fantôme Utah simulé avec une faible statistique, reconstruites avec différents algorithmes. Les résultats confirment le fait que la qualité des reconstructions de l'algorithme ML-EM (maximum de vraisemblance) commence à se détériorer lorsque nous augmentons le nombre d'itérations. Une amélioration substantielle a été obtenue avec OSEM combiné avec le filtrage itératif de Metz (Jacobson et al 1999).

      Le consortium de PARAPET a apporté une contribution significative dans le domaine de la reconstruction 3D d'images TEP. Ceci inclue le développement d'un nouvel algorithme appelé COSEM (Coïncidence list OSEM ) qui réalise la même fonction que OSEM mais sur des données acquises en mode liste (Levkovitz et al 1999), l'amélioration des performances de OSEM par filtrage itératif en utilisant le filtre de Metz (IUFM-OSEM) (Jacobson et al 1999), le développement de l'algorithme Ordered Subsets Mirror Descent (OSMD) (Ben Tal et al 1999), et la proposition de la technique inverse Monte Carlo (IMC) pour la reconstruction des images TEP qui inclue intrinsèquement la correction des effets d'atténuation et du diffusé.

      La librairie de parallelisation développée fournit au programmeur une interface commune pour créer des applications parallèles capables de tourner sur différentes plates-formes (Sadki et al 1999). Elle opère avec différentes librairies du type 'message-passing': PVM et EPX sont supportés à l'heure actuelle, et le soutien de MPI peut être ajouté à l'avenir. La librairie se compose d'un ensemble de classes C++ qui définissent une interface commune de programmation parallèle indépendante de la librairie 'message-passing' utilisée. Ainsi, une application est complètement isolée dans une librairie de niveau inférieur et son code 'message-passing' n'exige aucune modification une fois mis en communication sur une plate-forme différente (tant que la plate-forme requise est supportée par la librairie). Une photographie du système parallèle Parsytec CC installé aux Hôpitaux Universitaires de Genève est présentée dans la figure 3.11.

      En résumé, une version parallèle de différents algorithmes analytiques et itératifs a été mise en application par nos collaborateurs en utilisant une librairie orientée-objet et une approche de parallelisation de type 'coarse-grain' basée sur la division de l'espace de projections (Sadki et al 1999). L'implémentation sur un système parallèle Parsytec CC à 12 noeuds, montre une accélération d'environ un facteur 7 (le facteur d'accélération maximum possible étant égal au nombre total de processeurs déduit de 1). L'accélération, en fonction du nombre de processeurs s'est avérée semblable pour un large volume (GE-Advance) et pour un volume relativement petit de données (RPT-1). La parallelisation des algorithmes constitue une étape importante vers la réalisation de temps de reconstructions acceptables pour une application en routine clinique.

      4. La méthode de Monte Carlo appliquée à la simulation des tomographes TEP

      La modélisation mathématique du processus d'acquisition est nécessaire pour l'évaluation de divers paramètres dans les systèmes d'imagerie médicale nucléaire puisqu'aucune solution analytique n'est possible pour la résolution de l'équation de transport décrivant l'interaction des photons avec les structures atténuantes non-uniformes du corps humain et les géométries complexes de détection.

      Les techniques de Monte Carlo sont devenues populaires dans différents domaines de la physique médicale bénéficiant de systèmes de calcul puissants mis à la disposition de la communauté scientifique durant ces dernières années. En particulier, ils ont été intensivement appliqués pour simuler des processus physiques stochastiques et pour estimer des paramètres physiques difficilement mesurables par des techniques expérimentales. Les innovations médicales nucléaires récentes, telles que la TEMP, la TEP, et la tomographie à émission multiple (TEM) se prêtent parfaitement à la modélisation par la méthode de Monte Carlo en raison de la nature stochastique des processus d'émission, de transport et de détection des rayonnements. Les facteurs qui ont contribué à une utilisation plus large incluent des modèles améliorés des procédés de transport de radiation, du caractère pratique de l'application avec le développement des techniques d'accélération et l'amélioration de la vitesse des ordinateurs. Les propriétés statistiques des données de projection simulées doivent être proches de celles obtenues par un imageur TEP. Le chapitre 4 de cette thèse présente la dérivation et la base méthodologique pour cette approche et récapitule leurs domaines d'application dans la formation des images TEP. Une vue d'ensemble des programmes de simulation existants est présentée et illustrée à l'aide d'exemples dans un article récent (Zaidi 1999a).

      La programmation orientée-objet (POO) a été largement répandue pour la conception et le développement de logiciels performants répondant aux exigences de l'ingénierie biomédicale et les sciences de la vie. La première version du simulateur de Monte Carlo, Eidolon, a été implémentée en Objective-C (NextStep 1992a), un langage de programmation orienté-object basé sur la norme ANSI C en utilisant l'environnement de développement NextStep 3.3 (NextStep 1992b). Afin de faciliter la possibilité d'ajouter de façon incrémentale des fonctionnalités au programme, une conception modulaire comportant des éléments ou des modules chargés dynamiquement a été adoptée. Le bloc fonctionnel de base est une classe type qui permet d'accéder à des objets, de les examiner, les ajuster, les créer et les détruire à l'aide d'un inspecteur graphique. Ceci a été alors employé pour mettre en application une classe pour les sources, les détecteurs et un modèle du milieu atténuant ainsi que des classes paramétriques simples pour les sinogrames et l'image de référence pour visualiser et sauvegarder les données produites (Zaidi et al 1999a).

      Les organigrammes représentés sur les figures 5.4 et 5.5 détaillent les différentes étapes du programme de simulation de Monte Carlo. En ce qui concerne le traçage des photons dans la matière et le volume de détection, dés que le point d'émission et la direction du photon sont connus, la distance maximale que peut parcourir le photon est calculée, puis comparée à la distance de réalisation d'un effet Compton et à la distance d'absorption par effet photoélectrique. Un échantillonnage aléatoire permet de déterminer l'histoire de ce photon. Plutôt que de simuler des émissions isotropes dans tout l'espace, on se limite à un angle polaire défini autour de l'objet.

      Le simulateur de Monte Carlo permet de simuler diverses configurations des modules d'acquisition de données TEP et d'obtenir une information détaillée sur les différents processus se produisant dans le fantôme et les détecteurs. Par exemple, le spectre d'énergie, la fonction de dispersion ponctuelle et la fraction de diffusé peuvent être obtenus. Le code permet également de séparer les différents événements qui composent les photons détectés: les événements primaires, les événements diffusés, ..etc., et de faire une investigation détaillée sur la distribution spatiale et énergétique des événements diffusés qu'il serait difficile, voire impossible à obtenir en utilisant les techniques expérimentales actuelles. Le simulateur a été validé en comparant les résultats du modèle à des mesures expérimentales ainsi que des études cliniques.

      Les nombreuses et multiples applications de la technique de Monte Carlo pour la simulation des données TEP rendent souhaitable l'amélioration de l'exactitude et la vitesse de calcul des codes de Monte Carlo. L'exactitude des simulations dépend fortement de l'exactitude dans les fonctions de probabilité et ainsi des librairies de sections efficaces utilisées pour des calculs de transport de photons. En outre, un temps de calcul assez important est exigé pour obtenir des données simulées avec une bonne statistique.

      Les simulations précises de Monte Carlo se fondent sur la compréhension et la modélisation détaillée du transport de rayonnements et sur la disponibilité de bases de données fiables des paramètres physiques (Zaidi 1999a). Comme discuté et historiquement passé en revue de manière assez détaillée dans l'article de Hubbell (1999), il existe beaucoup de compilations des données de sections efficaces d'interaction des photons avec la matière (voir Fig. 6.5). Les discordances et l'enveloppe d'incertitude des données disponibles d'interaction ont été examinées de temps en temps, y compris les effets de la liaison chimique moléculaire et ionique, en particulier à proximité des pics d'absorption.

      Dans le Chapitre 6, une comparaison systématique entre différentes librairies (EPDL97, XCOM, PHOTX) et paramétrisations (GEANT, PETSIM) de sections efficaces d'interaction des photons avec la matière a été effectuée pour des tissus humains et des scintillateurs utilisés pour la détection dans la gamme d'énergie 1 keV - 1 MeV. Alors que la différence moyenne globale est faible, il y a une plus grande variation (50%) entre les sections efficaces pour quelques composés. Les différences globales sont récapitulées dans les tableaux 6.4 et 6.5 pour les différents matériaux étudiés. L'effet d'utiliser différentes sections efficaces sur la simulation des données TEP a aussi été étudié. Les résultats présentés dans cette thèse ont prouvés que l'effet d'utiliser différentes librairies de sections efficaces est apparent sur les données produites de projection et les images reconstruites (figures 6.9 - 6.14). La librairie a été soigneusement conçue sous forme de tables "look-up" pour faciliter le stockage des données en mémoire, et simplifier l'accès pour une utilisation optimale par le logiciel de Monte Carlo (Zaidi et al 1999b).

      La librairie EPDL97 est adoptée comme standard International dans l'industrie nucléaire non pas parce qu'elle est parfaite, mais plutôt parce qu'elle pourrait servir comme une référence qui peut être mise à jour pour rajouter les derniers résultats obtenus. Par conséquent, nous recommandons fortement que les données de cette librairie servent de standard et remplacent les autres librairies employées dans les codes de Monte Carlo pour simuler les systèmes d'imagerie médicale. Ceci aidera à éliminer les différences potentielles entre les résultats obtenus avec différents codes (Zaidi 1999b).

      Les simulations de Monte Carlo sont connues pour être particulièrement coûteuses en temps de calcul. C'est d'ailleurs l'un des principaux inconvénients. Ainsi, le développement d'ordinateurs avec des capacités spéciales pour le calcul vectoriel ou parallèle a ouvert une nouvelle voie pour les chercheurs dans le domaine. Eidolon a donc été implémenté sur le système parallèle Parsytec CC mis à notre disposition dans le cadre du projet PARAPET. Une diminution linéaire du temps de calcul avec le nombre de processeurs a été obtenue (Zaidi et al 1998). Le code parallélisé (architecture maître-esclave) comprend les parties suivantes :

  1. un mécanisme principal de 'commande' pour produire des tâches;
  2. un certain nombre de procédés esclaves de 'simulation' pour exécuter des tâches et produire des données;
  3. un processus d'analyse pour collecter les données et analyser les résultats.

      5. Correction du rayonnement diffusé en imagerie TEP

      L'un des principaux obstacles à l'utilisation des tomographes TEP opérant en mode 3D est l'augmentation de la fraction de diffusé qui influence la sensibilité et représente plus que 30% des données acquises. L'inclusion des événements diffusés dégrade la qualité des images et peut parfois réduire l'exactitude diagnostique. En plus d'une diminution du contraste, des événements peuvent également apparaître dans les régions de l'image où il n'y a pas d'activité (par exemple en dehors du patient). Les photons diffusés proviennent du milieu atténuant, y compris la table, et du tomographe TEP lui-même. Le problème de détection, modélisation et correction du rayonnement diffusé est étudié en détail dans le chapitre 7 en exploitant le code de Monte Carlo à cette fin.

      Il n'y a aucun consensus dans la littérature sur la façon de classifier les coïncidences détectées en TEP. La classification adoptée dans ce travail distingue une composante fixe, selon le tomographe, et une composante variable, selon l'objet à scanner. Ceci a mené à quatre classes distinctes: événements primaires, diffusé dans l'objet, diffusé dans le détecteur, et diffusé mixte (voir Table 7.1).

      La motivation pour développer des modèles de rayonnement diffusé est évidente quand nous considérons les différentes applications possibles. Par exemple, pour la compensation du diffusé moyennant une reconstruction par un algorithme itératif, il est nécessaire de calculer la fonction de distribution du rayonnement diffusé à chaque point dans le milieu atténuant pour chaque vue de projection. Dans ce travail, une simple paramétrisation de la fonction de distribution du diffusé est présentée en modélisant par simulation les fonctions de réponse à une source linéaire par des kernels mono-exponentiels (voir Tables 7.2 - 7.4). Les fractions du rayonnement diffusé sont paramétrisées également par une fonction convenable simple (voir Fig. 7.7 - 7.9).

      Beaucoup de chercheurs se sont penchés sur le problème de la compensation du diffusé exigée pour l'analyse quantitative des images TEP. Des procédures sophistiquées élaborées pour sa correction sont à l'étude, en particulier celles basées sur des approches de convolution-soustraction, sur des modèles adéquats du rayonnement diffusé, ou intégrées dans des méthodes itératives de reconstruction. Les méthodes de Monte Carlo donnent davantage de perspicacité et de force et offrent elles-mêmes un procédé possible de correction. La différence principale parmi les méthodes de correction est la manière dont la composante de rayonnement diffusé dans la fenêtre d'énergie choisie est estimée. Un nombre non-négligeable de techniques de correction du diffusé ont été proposées dans la littérature. Elles peuvent être divisées en quatre catégories principales:

      Une amélioration de l'exactitude et l'extension à l'acquisition TEP en 3D du corps entier d'une méthode récemment proposée (Levin et al 1995) ainsi qu'une nouvelle approche de correction du rayonnement diffusé sont proposées dans cette thèse et évaluées par analyse comparatif avec des méthodes plus communes de correction en utilisant des données simulées par le code Monte Carlo, des mesures expérimentales et des études cliniques.

      La méthode basée sur la technique de Monte Carlo (MCBSC1) utilise la simulation pour évaluer la distribution des événements diffusés à partir du volume reconstruit corrigé, en supposant que le nombre d'événements dans chaque voxel correspond exactement au nombre de photons d'annihilation émis à l'emplacement correspondant dans l'objet simulé. Les simulations de Monte Carlo exigent comme paramètres d'entrées la distribution de la source, aussi bien que la distribution correspondante des coefficients d'atténuation. La distribution des coefficients d'atténuation dans les différents organes et tissus sont obtenues à partir d'une image segmentée dérivée d'une acquisition de transmission. Les sinogrames des événements simulés primaires et diffusés sont créés et utilisés pour estimer la distribution du rayonnement diffusé pour n'importe quel plan donné. Les sinogrames correspondants au diffusé sont ensuite multipliés par un facteur dépendant du nombre d'événements détectés puis soustraits du sinograme mesuré. Les effets de l'activité provenant de l'extérieur du champs de vue ainsi que la pré-correction du rayonnement diffusé sur la précision de la méthode ont aussi été étudiés (MCBSC2).

      La compensation du rayonnement diffusé moyennant une reconstruction itérative est une technique dans laquelle la fonction de distribution du diffusé est modélisée pendant le processus de reconstruction. Dans cette thèse, on propose une nouvelle technique pour la correction du diffusé pour l'imagerie TEP appelée correction du diffusé basée sur une reconstruction utilisant un modèle statistique (SRBSC). Le principe de la méthode est basé sur l'hypothèse que l'image correspondant aux événements diffusés dans les données de projection consiste principalement d'une composante de basse fréquence de la distribution d'activité et que cette composante converge plus rapidement que la composante à haute fréquence en augmentant le nombre d'itérations de l'algorithme de reconstruction ML-EM.

      Les caractéristiques d'exactitude quantitative et de propagation de bruit de différentes techniques de correction du diffusé ont été étudiées avec des fantômes simulés, des mesures expérimentales et des études cliniques. Toutes les méthodes de correction améliorent de manière significative le contraste des images. D'une façon générale, nous avons montré que les différences dans les distributions estimées du diffusé n'ont pas un impact significatif sur les résultats quantitatifs finaux puisque la plupart des calculs des coefficients de recouvrement se sont avérés inférieurs à 6%. Dans cette étude, la méthode de la double fenêtre s'est avérée nettement supérieure dans les études expérimentales en terme d'exactitude quantitative aux dépens d'une détérioration significative du rapport signal à bruit. D'autre part, l'immunité contre le bruit des méthodes de reconstruction statistique les rendent particulièrement applicables pour les études d'émission de faible statistique en vue d'une correction du diffusé. La méthode de la double fenêtre est la méthode la plus facile à mettre en oeuvre mais exige une calibration spécifique pour chaque système. Un inconvénient important est que quelques systèmes commerciaux ne permettent pas la saisie des événements dans des fenêtres séparées (par exemple GE-Advance).

      Le procédé de correction du diffusé basé sur la méthode de Monte Carlo peut être répété itérativement pour réduire les erreurs systématiques dues à la présence du diffusé dans les images d'émission et les faibles statistiques des données simulées. Il est évident que la correction du diffusé en utilisant la méthode de Monte Carlo n'est pas pratique pour une application en routine clinique avec les ordinateurs généralement disponibles aux centres TEP. Cependant, les systèmes multiprocesseurs de traitement parallèle deviennent de plus en plus accessibles à la communauté scientifique, donc le développement et la caractérisation de telles techniques de correction et l'étude de l'effet des approximations sur leur exactitude sont souhaitées.

      6. Conclusions et développements futurs

      Dans les chapitres présentés dans cette thèse, nous avons vu comment il était possible à l'aide du sinogramme fourni par la caméra TEP de reconstruire une image 3D en utilisant une méthode analytique directe ou une approche statistique. En ce qui concerne la mise en oeuvre, on s'est surtout penché sur la définition des caractéristiques générales d'une librairie de reconstruction des images TEP.

      En conclusion, nous avons apporté une contribution spécifique au développement d'un outil de simulation des tomographes TEP par la méthode de Monte Carlo en utilisant des techniques modernes de développement des programmes informatiques, ainsi que l'amélioration de ses performances par l'utilisation de plates-formes parallèles multiprocesseurs, et sa précision et son efficacité en adaptant une librairie complète de sections efficaces d'interaction des photons avec la matière, plus récente, largement utilisée, et mieux adaptée pour ce type d'applications.

      Une des applications potentielles du simulateur consiste en la génération de données pour tester et évaluer les algorithmes de reconstruction. Dans cette thèse, nous nous sommes intéressés à l'étude de la contribution du rayonnement diffusé et sa correction. L'utilisation du simulateur TEP nous a apporté des informations complémentaires importantes pour l'évaluation de la distribution spatiale des événements détectés. Ce qui nous a permis de corriger le rayonnement diffusé en imagerie TEP par la méthode de Monte Carlo, et d'évaluer les performances de la nouvelle méthode proposée dans cette thèse et la comparaison à d'autres méthodes développées par d'autres groupes de recherche. En conséquence, notre travail ouvre des perspectives intéressantes à la compréhension des phénomènes liés à la dégradation des images TEP. Il serait souhaitable de pouvoir implémenter d'une manière efficace l'approche basé sur la technique de Monte Carlo inverse pour la reconstruction des images décrite dans le Chapitre 3 et d'explorer plus en détail une alternative à la méthode de correction du rayonnement diffusé par l'approche Monte Carlo direct en pré-calculant les paramètres requis pour une géométrie donnée et en les adaptant à des cas plus complexes.


      The work behind this thesis was carried out at the Division of Nuclear Medicine, Geneva University Hospital. I wish to express my sincere thanks to all enthusiastic friends at the Division, with whom I have had the privilege to work. Especially I want to thank some people of special importance to me :

      Professor Alfred Donath, my main thesis advisor to whom I express my sincere gratitude for his valuable support, advice and everlasting enthusiasm. Thank you for the way you are!

      Professor Pierre Descouts, thesis co-advisor, for continuous support and encouragement throughout the project and for solving numerous practical administrative problems.

      Dr Christian Morel, PD, scientific supervisor and co-author, who started and closely followed the project that led to this dissertation. His stimulating interest, criticism and valuable comments throughout the work are greatly acknowledged.

      Professor David Townsend (University of Pittsburgh PET facility), Professor Andrew Todd-Pokropek (University College London) and Professor Thierry Pun (Geneva University), for accepting to be part of the jury and for their judicious comments and criticisms which significantly improved the quality of this thesis.

      Dr Claire Labbé, for fruitful and stimulating discussion, collaboration, and help to solve some image reconstruction software problems.

      Alix Hermann Scheurer and Dr Matthias Egger, for sharing with me their knowledge and software in PET simulation and 3D image reconstruction.

      All partners and project managers of the PARAPET project for stimulating discussions, exchange of ideas, data and programs, and for creating a pleasant scientific environment: K. Thielemans, D. Belluzzo, V. Bettinardi, M.C. Gilardi, E. Pagani, M. Jacobson, S. Kaiser, V, Friedrich, R. Levkovitz, G. Mitra, T.J. Spinks, P. Valente, A. Zverovich, M Zibulevsky, M. Sadki, M. Wilk, F. Wray, D. Jeffery. Thank you all!

      Dr Terry Spinks and Dr Dale Bailey, for providing their scatter correction software.

      Dr Kris Thielemans, and Darren Hogg for providing data acquired on the ECAT 953B scanner and Isabella Castiglioni for providing data acquired on the GE-Advance scanner.

      Dr Luc Bidaut, for his assistance with image segmentation of patient transmission data.

      Professor Daniel Slosman and Professor François Terrier, for their assistance and support.

      The staff of doctors, neuropsychologists, technicians, and secretaries at the Division of Nuclear Medicine, working with the PET cameras and many other devices who in various ways contributed to this work.

      A special THANK YOU to my dear parents, relatives and friends, without their love and support, this thesis would not have been possible at all.

      Finally, thanks to all 'late-evening' and 'week-end' working friends, for pleasant company over the years.

      This work was supported in part by the Schmidheiny Foundation, the Swiss National Science Foundation under project 2100-043627.95, and the Swiss Federal Office for Education and Science under grant 96.193 within the European Esprit LTR project PARAPET (EP23493).


[Next]