(EN) Disclosed in the present invention are a deep learning framework and method for generating a CT image from a PET image. The method comprises: obtaining, by means of inverse calculation of an attenuation correction mechanism, an attenuation correction coefficient map by using a first PET image which is not subjected to attenuation correction and a corresponding second PET image which is subjected to attenuation correction; and obtaining, by means of fitting learning of a graph-to-graph generative adversarial network, a mapping relationship between the attenuation correction coefficient map and a CT modal image by using the obtained attenuation correction coefficient map, so as to achieve a generation process from a PET image to the CT modal image. In the graph-to-graph adversarial network, a generator thereof uses the attenuation correction coefficient map as an input, uses the CT modal image as an output, and uses an image input by the generator as a discrimination condition of a discriminator to distinguish the authenticity of the generated CT modal image. According to the present invention, PET attenuation correction and CT image reconstruction can both be achieved, reconstruction difficulty of the CT image can be effectively reduced by means of the attenuation correction coefficient map, and the quality of the CT image is improved.
(FR) La présente invention concerne un cadre d'apprentissage profond et un procédé destiné à la génération d'une image de tomodensitométrie (CT) à partir d'une image de tomographie par émission de positrons (PET). Le procédé consiste : à obtenir, au moyen d'un calcul inverse d'un mécanisme de correction d'atténuation, une carte de coefficient de correction d'atténuation à l'aide d'une première image PET qui n'est pas soumise à une correction d'atténuation et une seconde image PET correspondante qui est soumise à une correction d'atténuation ; et à obtenir, au moyen d'un apprentissage par ajustement d'un réseau contradictoire génératif graphique à graphique, une relation de mappage entre la carte de coefficient de correction d'atténuation et une image modale de CT à l'aide de la carte de coefficient de correction d'atténuation obtenue, de façon à réaliser un processus de génération à partir d'une image de PET vers l'image modale de CT. Dans le réseau contradictoire graphique-graphique, un générateur de celui-ci utilise la carte de coefficient de correction d'atténuation en tant qu'entrée, utilise l'image modale de CT comme sortie et utilise une image entrée par le générateur comme condition de discrimination d'un discriminateur pour distinguer l'authenticité de l'image modale de CT générée. Selon la présente invention, une correction d'atténuation de PET et une reconstruction d'image de CT peuvent à la fois être obtenues, la difficulté de reconstruction de l'image de CT peut être efficacement réduite au moyen de la carte de coefficient de correction d'atténuation, et la qualité de l'image de CT est améliorée.
(ZH) 本发明公开了一种由PET图像生成CT图像的深度学习框架和方法。该方法包括:利用未经衰减校正的第一PET图像和对应的经衰减校正的第二PET图像,通过对衰减校正机制的逆向计算,获得衰减校正系数图;利用所获的衰减校正系数图,通过图对图生成对抗网络的拟合学习,获得所述衰减校正系数图和CT模态图像之间的映射关系,从而实现了PET图像到CT模态图像的生成过程。在所述图对图对抗网络中,其生成器以所述衰减校正系数图作为输入,以CT模态图像作为输出,并以所述生成器输入图像作为判别器的判别条件以区分生成的CT模态图像的真伪。利用本发明能同时实现PET衰减校正和CT图像重建,借助衰减校正系数图能有效地降低CT图像地重建难度,同时提高CT图像质量。