ACTUALITES

Modélisation des noyaux dans un sphéroïde

Au-delà de l’image

  |   Actualités, EN PAGE D'ACCUEIL, Lettre d'information

La compréhension toujours plus approfondie des mécanismes du vivant a largement été possible grâce aux progrès de la microscopie. A la croisée de nombreuses disciplines, l’imagerie a permis de créer les outils supports des découvertes. Mais « voir » une image ne suffit plus, il faut pouvoir en exploiter le contenu en l’analysant, en le quantifiant. Associer à une plateforme d’imagerie du vivant, un plateau dédié au traitement des images et l’expertise d’une équipe de mathématiciens : un pari gagnant ?

 


L’évolution des technologies…

 

La microscopie a connu, avec l’amélioration des lasers et des capteurs, des avancées spectaculaires : super-résolution *, imagerie 4D, imagerie à feuille de lumière… Que ce soit en augmentant la résolution ou un multipliant le nombre de dimensions, les volumes de données acquises sont de plus en plus importants. Ainsi, des instruments comme le microscope à feuille de lumière (SPIM) réalisent des séries de 5000 images en moins d’une heure…Une expérience occupe rapidement des espaces de stockage de l’ordre du téraoctet. Ces données sont ensuite difficiles à stocker et surtout à exploiter. Ce qui avant pouvait se faire « à la main » explique Pierre Weiss, chercheur de l’équipe de mathématiques PRIMO, « doit aujourd’hui être automatisé par le biais d’algorithmes ». L’automatisation des processus de traitement d’images devient alors une impérative nécessité si l’on veut pouvoir exploiter toute l’information générée avec la plus grande objectivité.

 

 

…Impliquent la collaboration de nombreuses compétences

 

Exemple de dérayage d'une image issue du SPIM

 

Les dispositifs optiques, quels qu’ils soient, produisent des images « bruitées ». Le SPIM produit ainsi des images striées, ce « bruit » lié à l’acquisition interfère avec l’exploitation optimale des informations contenues dans ces images. Pour pallier le problème, l’équipe de mathématiciens PRIMO (ITAV / IMT) a conçu un algorithme capable d’éliminer ces stries.  Cependant, dans cette course au traitement de données, ce sont maintenant les ordinateurs qui peinent. « Il faut être capable de représenter, de simplifier tout en contrôlant l’erreur d’approximation, afin que la solution puisse fonctionner sur nos ordinateurs avec un temps de calcul raisonnable » explique Pierre Weiss, responsable de cette équipe. Grâce à la collaboration de la plateforme de traitement et d’analyse d’image, cette solution condensée est désormais utilisable en routine.

 

Exemple d’amélioration de l’image par un opérateur de flou variable.

Cependant comme en témoigne Mathieu Vigneau, ingénieur en traitement et analyse de données sur la plateforme, si ces étapes sont indispensables pour tout travail d’exploitation d’une image, cette phase doit avant tout se penser en amont de l’acquisition : « Jusqu’à présent sous-estimé, le traitement de l’image est pourtant le décodeur indispensable à la lecture et la compréhension de la donnée biologique. Cette étape clé, ne peut aujourd’hui être vue comme une étape à posteriori mais doit être pensée et intégrée en amont du processus d’imagerie » insiste-t-il.

 

Cette démarche a déjà débouché sur de nombreux résultats. Que ce soit le développement d’une solution logicielle permettant de détecter et mesurer de manière semi-automatisée les paramètres morphologiques de noyaux au sein d’un tissu par microscopie à feuille de lumière  [1] ou l’étude des variations de fluorescence dans des fibres musculaires de souris atteint de sarcopénie par microscopie confocale [2] …le doute n’est plus permis sur la valeur ajoutée d’une association entre biologistes, mathématiciens et bio-informaticiens.

 

[1] Impact of physical confinement on nuclei geometry and cell division dynamics in 3D spheroids – Desmaison et al – Jun 2018 – Scientific Reports 8(1)
[2] The exerkine apelin reverses age-associated sarcopenia – Vinel et al – July 2018 – Nature Medicine 24(Pt B):1-12

 

 


Témoignages


 

 

Mathieu VigneauMathieu Vigneau, Ingénieur responsable de la plateforme de Traitement et d’analyse d’images (ITAV / TRI-Genotoul)

 

L’analyse d’images : une étape clé dans la compréhension et l’exploitation de la donnée biologique

 

 

“Biologiste de formation, j’ai acquis durant mes années de thèse des compétences avancées en traitement de données. Cette double compétence est indispensable dans mon domaine car elle permet de comprendre la donnée/l’image que l’on souhaite analyser, et d’identifier ainsi la solution la plus adaptée à l’échantillon à imager.

 

Au sein de l’ITAV, nous développons des algorithmes spécifiques de chaque échantillon et de chaque problématique abordée. Lorsqu’un biologiste vient à notre rencontre, nous mettons en place un protocole avec un échantillon test afin d’évaluer la faisabilité et les besoins en termes de traitement de données. Le service entièrement dédié à l’analyse et au traitement représente une plus-value majeure pour les travaux des biologistes et constitue, de par la présence de ressources humaines dédiées, une spécificité au sein du réseau TRI-Genotoul.

 

Grace à cette démarche, mon souhait est d’amener les biologistes à prendre conscience que le traitement/l’analyse d’images n’est pas qu’un simple outil de « cosmétique », mais bien une étape clé dans la compréhension et l’exploitation de la donnée biologique.”

 

 


 

Pierre WeissPierre Weiss, chercheur CNRS, responsable équipe PRIMO (ITAV / IMT)

 

Réduire la complexité, conserver la précision

 

 

“Les dégradations apparaissant sur une image sont la résultante de facteurs extrêmement variés. Utiliser des théories traditionnelles telles que la propagation d’ondes, mènerait à des modèles bien trop complexes pour être utilisables. Lorsqu’on souhaite restaurer une image, on utilise donc des outils plus simples. Les logiciels professionnels de défloutage font par exemple l’hypothèse que le système optique est invariant dans l’espace, or il varie !

 

Notre équipe développe des modèles mathématiques capables de reproduire les dégradations précises des images, tout en étant suffisamment légers pour être utilisables par nos ordinateurs. L’apprentissage de ces modèles [3] permet d’appréhender la multitude des opérateurs (température, défauts pouvant causer des dégradations). Dans notre domaine, on dit qu’on échantillonne une surface de petite dimension plongée dans un espace gigantesque.

 

Après l’étape de calibration qui permet « d’apprendre » cette surface, on peut restaurer les images en identifiant un point, un opérateur, sur celle-ci et en inversant son action. Ces outils peuvent alors servir à restaurer des images en améliorant leur résolution mais également, à déterminer à partir d’un type de flou donné, les conditions d’observation de l’échantillon qui ont pu conduire à cette image.”

 

[3] en collaboration avec T. Mangeat (C.B.I UT3/CNRS)