Please vote for me...

Recherche

Archives

Pages

Rubriques

Liens

1 août 2013 4 01 /08 /août /2013 20:34

Voici un petit tutorial pour réajuster l'alignement des trois couches de couleurs d'une image, comme par exemple Jupiter que nous allons voir ici.

Dans Iris, charger l'image au format Tiff (issu généralement de Registax ou Autostakkert)

Recalage de couches couleurs avec Iris
Recalage de couches couleurs avec Iris

Ensuite, aller dans Photo Numérique -> Séparation RGB et donner le nom pour chaque couche.

Recalage de couches couleurs avec Iris
Recalage de couches couleurs avec Iris

Régler les seuils au max pour voir correctement l'image.

Recalage de couches couleurs avec Iris

Aller dans Visualisation -> (L)RGB

Recalage de couches couleurs avec Iris

Les noms des couches sont déjà remplis avec la commande de séparation...

Recalage de couches couleurs avec Iris

Régler le pas de déplacement des couches. Personnellement, je le mets à 0.5 pour suffisamment de finesse de déplacement

Recalage de couches couleurs avec Iris

Quand l'alignement est jugé correct, il n'y a plus qu'à cliquer sur OK
Enfin, on sauvegarde le résultat, ici en TIFF.

Dans ce format, la qualité est conservée. On peut ensuite retourner sous Photoshop par exemple pour d'autres traitements...

Recalage de couches couleurs avec Iris
Partager cet article
Repost0
3 août 2012 5 03 /08 /août /2012 21:58

Voici un petit tuto sur ma façon de coloriser mes images Halpha. C'est une méthode parmi d'autres, ni meilleure, ni moins bonne... Sur Internet, il existe de nombreux tutoriaux sur le sujet. Voici ma pierre à l'édifice. Je vais travailler ici sur une protubérence. La technique fonctionne aussi sur des images du globe.

Prenons donc une image de départ, issue des traitements Autostakkert, Registax et Photoshop classiques pour affiner les détails.

Etape1

On reste bien sûr dans Photoshop pour la suite des opérations. On va commencer par simuler un effet coronographe (globe noir) et recadrer pour ne garder que la partie utile de l'image. Pour le globe noir, le plus compliqué est de trouver la bonne taille de ce globe, pour qu'il corresponde à la taille du globe capturé. Après quelques calculs sur la formule de l'équation d'un cercle, pour trouver le centre de ce cercle et son rayon, on crée une image avec un cercle noir de taille approchante au résultat souhaité, puis on recadre au plus juste sur le disque noir, et enfin on redimensionne à la taille souhaitée. Après avoir applati l'image (addition des différents calques), on obtient un masque de globe à garder pour la suite. Il suffit simplement de le charger, de le copier et de le coller en tant que calque sur l'image à masquer. on paramètre ce calque en mode différence pour l'aligner correctement sur l'image de travail, et quand l'alignement souhaité est atteint, on remet en mode normal et on sélectionne la partie blanche de ce calque pour la supprimer. le mode coro est activé...

Etape2

Maintenant, la partie colorisation. Dans le menu Niveaux, on laisse le premier onglet RGB tranquille. On passe à l'onglet du rouge en ne rêglant que le curseur du milieu. On cherche une couleur jaune orangée, donc on accentue le rouge, et on diminuera le vert et le bleu.

Niveaux

On obtient alors une belle couleur. Ces réglages ne sont pas fixes. Ca peut varier selon vos goûts.

Etape3

Pour le globe, ensuite, mais ce n'est  pas une obligation suivant le résultat souhaité, je passe souvent à un réglage contraste/luminosité pour booster la luminance et contraster les filaments et les possibles flares ou les zones actives. Ici, ce n'est pas conseillé pour l'image des protus car on a un fond de ciel non négligeable, mais aussi des détails très faibles. Donc difficile de bidouiller quelque chose de correct. Donc je préfère laisser comme ça. Maintenant, il ne faut pas hésiter à tester des réglages pour obtenir le résultat souhaité, sans pour autant tomber dans l'excès. J'essaie aussi de toujours travailler sur la globalité de l'image pour éviter les travers des bidouillages de retouche d'image pour obtenir une image faussée, au risque d'avoir des zones moins bonnes mais correspondant à ce que j'ai filmé...

Partager cet article
Repost0
4 juillet 2012 3 04 /07 /juillet /2012 14:38

Depuis quelques semaines, un nouveau venu dans la cour des logiciels de traitement est arrivé. Il s'agit d'autostakkert2 (oui, vous avez bien lu "2"... Le "1" a dû passer aux oubliettes...) Voici donc ma première expérience de ce logiciel. Cet article sera peut-être suivi plus tard d'un complément au gré de mes tests.

Pour commencer, il faut d'abord parler de l'acquisition, étape non négligeable dans cet article.
Pour les acquisitions avec la caméra PLa-Mx de chez I-Nova, qui peut capturer en 8 ou 12 bits, j'utilise l'utilitaire founi avec à savoir PLx Capture.

PlxCaptureReglages
Cliquez sur l'image pour la voir en taille réelle


Les films sont capturés en 12 bits, compatible Lumenera. Mais ce n'est pas lisible directement par Autostakkert. Celui-ci peut ouvrir des films SER et AVI en 8 ou 16 bits, mais pas mes 12 bits de la PLa Mx... Il faut donc convertir... Et pour convertir, j'ai deux étapes à passer. D'abord avec Batch Processing, une application livrée avec PLx Capture. Cette application est cencée prendre une liste de films à convertir et les convertir comme il faut, avec les réglages voulus... Ce qui n'est évidemment pas le cas !! Ce serait trop simple... ;)) Je dois donc faire les conversions film par film... D'un film à l'autre, certains réglages ne restent pas. A l'issue de cette étape, je récupère un répertoire plein d'images que je n'ai plus qu'à réassembler en films AVI avec Virtual Dub.

Donc première étape Batch Processing :
Voici mes réglages de départ, avant que je teste Autostakkert :

BatchProc1 2
 

 
Cela me donnait un écran principal suivant :

BatchProc1

Cliquez sur l'image pour la voir en taille réelle

 Après beaucoup de déboires de conversion, je me suis rendu compte qu'il fallait décocher une case magique. Dans l'onglet Options, il faut décocher "Normalize 12 bits to 16 bits". J'ai l'impression qu'il ne normalise pas comme il faut. Je décoche aussi "Preview images..." pour alléger les ressources processeur.

BatchProc2 2
 

 
Ce qui donne :
BatchProc2
Cliquez sur l'image pour la voir en taille réelle

 
Retour dans l'onglet principal. Je choisir le format PNG, qui accepte le 16 bits, et qui est lu par Virtual dub, ce qui n'est pas le cas du TIFF... On ne va pas non plus choisir le FITS (sauf si on voulait travailler avec Iris, ce qui n'est pas le cas dans le présent article)... Et comme je travaille en 12 bits, pas d'accès permis au BMP et au JPG. Normal... Reste plus qu'à lancer la conversion. Et répéter pour tous les films à traiter.

Deuxième étape Virtual Dub :
Maintenant que j'ai un répertoire rempli d'images PNG, reste plus qu'à réassembler le tout. Pour cela, on charge la première image, et ensuite on choisit "Save as AVI", "ok" et c'est tout. Je récupère ainsi ma liste de films AVI prêts à être traités avec Autostakkert.

Beaucoup de temps de préparation, mais j'espère que ce Autostakkert tient ses promesses en termes de performances et rapidité !!!

Passons donc maintenant à la partie la plus importante, Autostakkert :
Tout d'abord, on découvre une interface très simplifiée (par rapport en tout cas aux concurrents) avec trois étapes claires. On ouvre, on analyse, on finalise. C'est on ne peut plus simple... Il existe déjà pas mal de docs et tutoriaux sur le net pour ce logiciel. Personnellement je me suis basé sur celui de mon ami Jean-Louis, simple clair et didactique (voir le lien dans la rubrique... Liens... comme par hasard...)

autostakkert1
 

 
Dans ce cas, j'ai filmé une tache, mais j'ai aussi effectué une PLU. Nous allons donc commencer par nous occuper de la PLU pour ensuite la charger pour les traitements. Donc première étape, je charge mon film fraîchement converti en cliquant sur 1) Open puis en choisissant le film à traiter. Pour l'instant, comme je travaille sur une tache solaire, je coche "surface" et "crop", ce qui permet d'éliminer les bords accidentés du traitement, qu'on couperait de toute façon après dans Photoshop. Ensuite, dans le menu "Image Calibration", je clique sur "Create Master Flat" et je donne un nom à ma PLU. Et c'est tout. Pour le film à traiter proprement dit, on recommence par charger le film et régler les paramètres, sans oublier de charger la PLU, dans le menu "Image calibration" toujours, en cliquant sur "Load Master Flat". Pour le Quality Estimator, c'est "gradient" qui est coché, et je n'ai pas d'autre choix ("Edge" est grisé... Il n'est disponible que quand on choisit "Planet" à la place de "Surface" ). Vient ensuite le "Noise robust". C'est le moyen d'indiquer au logiciel la qualité du film, 1 étant très bon, et 6 franchement très moyen. Pour ce film, j'ai choisi 4. A savoir que sur un Centrino Duo avec 2 Go de Ram, ça m'a demandé plus de 4 heures de traitement pour un film de 1300 images... Plus ce paramètre diminue, et plus le temps de traitement s'écourte. On en revient à l'adage des débuts : Un bon film pour de bonnes images. Si vous capturez un film moyen, vous aurez besoin de beaucoup de ressources et de savoir-faire pour en tirer une bonne image. Et pour la "Reference frame", "autosize" est déjà coché, je n'y touche pas. Dernière chose à faire, c'es désigner l'élément de l'image qui servira de référence pour le traitement. Pour ce faire, on passe à l'autre fenêtre qui s'est ouverte lors du chargement du film, et en maintenant CTRL, on clique sur la zone choisie.

autostakkert2
 

 
Enfin, on clique sur 2) Analyse. Ce qui est la deuxième étape. L'analyse est somme toute assez rapide. Ce qui vient ensuite l'est beaucoup moins.


Troisième étape, le traitement. Pour cette troisième partie, nous avons encore deux ou trois ajustements à faire avant de lancer le traitement. tout d'abord dans la deuxième fenêtre, qui s'ouvre dès le chargement du film, il faut déterminer "AP size", qui est la taille de chaque zone de traitement de l'image. Plus c'est petit et plus ce sera précis, mais plus il y en aura, et le traitement en sera d'autant plus long. Il faut donc bien réfléchir à ce paramètre, en fonction de la qualité du film. Personnellement, j'ai pris la taille la plus petite proposée, soit 25. Puis on les affiche sur l'image avec le bouton "Place APs in grid". On peut ensuite revoir les paramètres si ceux-ci ne conviennent pas et raffraichir l'affichage en rappuyant sur "Place APs in Grid". Au passage MinBright permet de choisir les zones où on ne veut pas de zones de traitement. Ce paramètre indique l'intensité lumineuse à partir de laquelle on place des zones. Utile notamment pour les protubérances, car on n'a pas besoin de s'occuper du fond de ciel, par exemple. On abordera ce sujet plus tard. En haut, "Multiple Map" est coché, on le garde (c'est un des intérêts du logiciel, on va tout de même pas s'en passer...). Ensuite, dans la fenêtre principale, on choisit le format (ici, le TIFF, format pratique pour la suite), et le nombre d'images à garder. J'ai choisit les 20% meilleures. On garde "HQ refine", et pas de drizzle. Pour l'instant je ne cherche pas à agrandir mes images, je veux simplement les traiter à leur taille d'origine. Je n'ai pas une qualité de film qui pourrait me permettre de les agrandir. Le paramètre "sharpened images" m'est inconnu pour l'instant. J'en ferai un test dans un deuxième temps.


Il ne reste plus qu'à cliquer sur 3) Stack, et partir faire un tour...

Quand tout est fini, on obtient une image non finalisée. Reste à appliquer des ondelettes, masque flou ou les deux, suivant les goûts. Pour ma part, pour ce test, j'ai utilisé Registax pour appliquer des ondelettes (deux fois en fait, une première fois assez sévère sur le niveau 1, et une deuxième fois ensuite toujours sur le niveau 1 mais plus léger). Voici la comparaison. Tout d'abord le traitement Registax direct, suivi de la version Autostakkert.

 

Registax5
Autostakkert

Pour Registax et Autostakkert, j'ai centré le traitement sur la tache. Ensuite, la grosse différence que je vois est sur le pourtour, où la surface est plus fine avec Autstakkert que Registax. Pour le reste, ce n'est pas super flagrant.

Par la suite, j'ai testé d'autres réglages. "Sharpened Images" permet de rajouter dans le répertoire de destination une version traitée du résultat (un unsharp mask je pense), mais il n'y a aucun réglage possible, à part un dosage entre l'image originale et l'image traitée apparemment. Bizarre comme réglage, mais bon... D'autre part, ce qui pèse sur le traitement et les ressources processeur, c'est le nombre d'AP, les zones de traitement sur l'image. On peut régler le nombre en jouant sur la taille et sur MinBright. Par contre, apparemment le paramètre Noise robust n'a pas l'air de beaucoup influer sur la durée du traitement... Ne jouerait-il pas plutôt d'ailleurs sur le bruit de l'image plus que sur la qualité d'un film du point de vue de la turbulence ?... A voir avec de plus amples tests.

 

Petite note de mise à jour : Je viens de faire un test malgré moi. J'ai oublié de charger la PLU. Du coup, j'ai pu me rendre compte que la PLU ralentit aussi beaucoup les calculs d'alignement (au lieu de passer 3 ou 4 heures à attendre, les calculs ont été faits en moins d'une demi-heure...) Donc, il ne reste plus qu'à avoir un capteur nickel !!! ;)))

Partager cet article
Repost0
15 février 2012 3 15 /02 /février /2012 12:02

Aujourd'hui je reviens sur la colllimation de mon laser ...... de collimation. J'ai donc suivi la méthode que j'ai trouvé sur internet : placer le laser sur un support qui permette de le faire tourner autour de son axe et d'avoir une distance suffisante entre le laser et la cible pour avoir une bonne précision de réglage. On peut voir le montage sur la photo suivante :

CollimLaser

Avec une échelle pliable et trois serre-joints, le tour est joué. L'échelle permet d'avoir une distance suffisante avec le sol. J'ai choisi d'opérer en position verticale. Comme ça, on évite les flexions, et on peut tourner autour facilement. Pour fixer le laser, j'ai utilisé la bague de réduction 2po vers 1,25po du porte-oculaire du Newton, prise dans un serre-joint. Cela garantit la bonne tenue du laser.

CollimLaser2

Une fois le laser mis en place, on l'allume et on note l'emplacement du premier point. On tourne le laser de environ 120° et on note le nouveau point, puis rebelotte une troisième fois. Au final, si le laser est collimaté correctement, on n'a qu'un seul point. Par contre, si ce n'est pas le cas, on obtient un joli triangle. Plus ce triangle est grand, plus le travail à faire est important. Pour obtenir le point à viser, il faut effectuer quelques tracés. La cible finale est le centre du cercle qui passe par les trois points de départ. On obtient le centre de la façon suivante :

Triangle cerclecirconscrit

Donc, sans retirer le laser de sa position, on agit sur les trois vis de réglage du laser pour amener le point au centre du cercle. Quand cette opération est terminée, le laser peut être utilisé sans soucis pour collimater vos instruments.

Partager cet article
Repost0
23 novembre 2011 3 23 /11 /novembre /2011 23:28

Lors de mes acquisitions du 18/11/2011, j'en ai profité pour saisir Jupiter avec la plupart des grossissements à ma disposition, soit au foyer, barlow 2x, barlow 3x, barlow 5x, et l'association de la barlow 2x et de la barlow 3x. A partir de ces acquisitions, je pouvais donc mesurer les grossissements résultants.

Il faut savoir qu'une barlow, la plupart du temps, ne donne pas la même focale résultante pour une webcam ou utilisée avec un oculaire. La preuve ici. Le principe est simple. On mesure d'abord le globe pris au foyer. Ce sera notre référence. Il suffit ensuite de mesurer les globes pris avec les grossissements différents pour en déduire les focales résultantes. voici les résultats :

                             Taille          Focale           Grossissement    Rapport F/D
                          en pixels    résultante             résultant             résultant
Foyer                      43         1019.89mm               x1                        5.1
Barlow 2X            101         2395.55mm              x2.35                 11.98
Barlow 3X            148         3510.31mm              x3.44                 17.55
Barlow 5X            238         5644.96mm              x5.53                 28.22
Barlow 2X+3X      351         8325.14mm             x8.16                 41.63

On remarque tout de suite que la webcam semble booster les performances des barlows...Sur plusieurs forums ou sites, on peut lire qu'on peut, avec une webcam ou la plupart des caméras astro, pousser le rapport F/D au moins à 30 voire plus. Donc je considère que le montage avec une barlow 5x reste valide, mais que l'association de la 2x et la 3x réclame des conditions exceptionnelles pour espérer obtenir quelque chose de correct.

Voyons maintenant le point de vue mathématique de la chose. Comment suis-je arrivé à ces calculs ?
Tout d'abord, la résolution du capteur qui est la relation entre la taille d'un pixel sur le capteur et la focale résultante (incluant toutes les optiques de grossissement ou de réduction) est la suivante :

r = arctan(p/F)

où p est la taille d'un pixel du capteur en millimètres et F la focale résultante de l'instrument. Le résultat est en radians. De plus, le résultat étant très petit, on peut approximer arctan(x)=x. Du coup, si on passe le tout en degrés, on a :

     180 * p
r = ---------
       Pi * F

Ou, si on passe en arcsecondes de degrés (parce que le résultat est très petit) :

                  180 * p
r = 3600 * ---------
                    Pi * F

Dans le cas de ma webcam (Philips SPC900), p=0.0056mm. Donc :

      1155.083
r = -------------    (1)
             F

D'autre part, pour un objet qui mesure n pixels sur une image, et avec un diamètre apparent DA (à noter à partir des données de Cartes du ciel à la date et heure de visualisation), on a un pixel qui couvre un angle :

a = DA / n avec DA en secondes d'arc et n le nombre de pixels

Or, a représente la résolution d'un pixel... De ce fait, en mettant les deux équations face à face, on a :

      1155.083           DA
r = ------------- = a = -----
              F                    n

A partir des valeurs de DA et n, on veut obtenir F, donc :

       1155.083 * n
F = ------------------    (2)
                 DA

Cette formule m'a permis de remplir la colonne "focale résultante". Le grossissment résultant est obtenu en divisant le résultat de la ligne en court par le résultat de la première ligne. Et le rapport F/D (Focale sur diamètre) me parait évident... Si, si, regardez bien... ;)))) C'est ce qu'on appelle le rapport d'ouverture. Plus il est faible, plus l'instrument est ouvert. Donc, pour un diamètre donné, il collecte plus de lumière, mais a une focale plus faible donc grossit moins. Plus on est ouvert (moins de 10), plus on s'oriente vers les objets faibles du ciel profond, et plus on est fermé (plus de 10), et plus on vise les planètes. F/D de 10 permet une bonne polyvalence.

Ces formules sont à adapter à votre matériel (taille de pixel pour votre caméra, focale de l'instrument...)

Partager cet article
Repost0
2 septembre 2011 5 02 /09 /septembre /2011 15:21

Pourquoi les astronomes filment un sujet pour ensuite n'en obtenir qu'une image finale ?????

C'est du simplement au traitement numérique du signal...
Les films obtenus lors de capture sont des successions d'images constituées de 0 et de 1. Et là, les matheux crient "youpi, on va pouvoir s'amuser !!!". En considérant que nous sommes dans le cadre de la théorie, des tas de théorèmes et formules peuvent nous aider à récupérer les images tant convoitées...

Pour simplifier un peu, une image brute d'un film, c'est le sujet photographié, avec un nuage de pixels recouvrant notre sujet, appelé bruit. L'avantage de l'astronomie est que nous filmons un sujet qui ne bouge pas (on oublie pour l'instant la turbulence, le suivi de la monture...) Par contre, la théorie du signal nous dit que le bruit de cette image brute est statistiquement un bruit gaussien qui a l'étonnante particularité de tendre vers 0 quand on l'intègre sur une longue période. En d'autre termes, plus on additionne d'images du même sujet immobile mais avec ce fameux bruit gaussien très présent sur les images de départ, plus ce bruit s'atténue, voire tend à disparaitre... C'est pas fabuleux, ça ???

Du coup, on pourrait additionner des millions d'images pour être au top !!! Réellement, c'est pas tout à fait aussi simple que ça...

Tout d'abord, ce fameux bruit, qui est issu de nombreuses sources (aussi diverses et variées qu'il y d'intermédiaire entre le sujuet lui-même et la surface du disque dur sur laquelle est enregistrée l'image) ne suit pas tout à fait la théorie. Du coup, son éviction, si on applique la méthode, marche dans la plupart des cas, mais pas forcément totalement. Par exemple, si on force sur les traitements, on peut le voir rappliquer à grandes enjambées...

De plus d'autres éléments perturbateurs viennent mettre leur grain de sel. Il faut notamment tenir compte de la turbulence, qui fait que mon sujet, subitement, n'est plus aussi immobile qu'il n'y parait. Ca peut aller parfois jusqu'à la danse du ventre en live sur votre écran... N'essayez même pas de faire des captures, ou vous devrez passer des journées à corriger le problème...

D'autre part il s'agit aussi d'avoir un bon suivi, grace à une bonne mise en station, et du coup obtenir un bon alignement des images de départ. Sinon, on récupère de la soupe...

En fait, toujours avoir en tête : De bonnes images au départ pour avoir de bonnes images au final...

Partager cet article
Repost0
2 septembre 2011 5 02 /09 /septembre /2011 10:21

Voici un petit tutorial sur MON utilisation d'IRIS, qui n'est pas forcément la meilleure, mais, pour l'instant, celle qui fonctionne le mieux chez moi pour l'acquisition et le traitement d'images solaires (mais applicable aussi  parfois sur d'autres films récalcitrants)

 

Pour un max d'infos, un seul lien : http://www.astrosurf.com/buil/iris/iris.htm

 

Pour l'acquisition, j'ai une webcam Phjilips SPC900 non modifiée. Je la paramètre en NB à 10im/s en 640*480. Cela me donne un bon compromis entre cadence de capture et qualité d'image, du point de vue du bruit, de la turbulence, de la compression de images...

 

Je capture toujours sur le disque C: de mon portable, d'une part parce que la partition D: semble endommagée partiellement, et d'autre part parce que la capture sur un support externe semble moins fluide. Cela n'engendre pas de complications particulières car, une fois la session de capture terminée, il suffit simplement de tout transférer sur un autre support.

 

Une fois cette session terminée, je commence par archiver tous les films séparément en archives RAR pour un stockage et une gestion plus aisée par la suite. Ca me permet de réduire l'emcombrement final d'un facteur 5 environ, et ce avant tout tri des films. Une fois gardé le best of des films les plus à même d'être gardés, une session peut la plupart du temps tenir sur un CD...

 

Ensuite, on peut attaquer les prétraitements. Dans IRIS, une fois la conversion du film effectué (Fichier->Conversion AVI, sélection de l'AVI, canal N&B nommé i, puis clic sur "convertir"), il s'agit d'abord d'aligner toutes les images. Certains préfèrent d'abord faire un tri, mais je considère que le tri sera plus efficace sur un détail souhaité que sur l'ensemble d'une image.

 

On charge la première image :

 

>load i1

 

On sélectionne la zone qui va servir de référence pour l'alignement (de préférence une zone bien contrastée, et présente totalement sur toutes les images sans exception). Personnellement, je choisis une zone pas trop grande, entourant un détail particulier que je considère comme principal dans le rendu final. En Halpha, je vais par exemple sélectionner une protubérance. Puis on va donner les paramètres à appliquer pour calculer l'alignement :

 

>pregister i p 256 599

 

Pregister est la commande de base pour l'alignement des images planétaires. Cette commande demande le nom des images à aligner (i), le nom des images une fois l'alignement effectué (p), la taille de la fenêtre à étudier pour estimer les dérives d'une image à l'autre (256), et pour finir le nombre d'images à aligner (599). Come je capture à 10im/s pendant 60s, je dois normalement obtenir à chaque fois 600 images. Or, il peut arriver qu'une image passe à la trappe car le système, au moment de la capture de cette image, était occupé. Pour ce qui est de la taille de la fenêtre, on peut proposer 64, 128, 256 ou 512. Plus la valeur est élevée, plus le traitement prendra de temps. a l'inverse, plus la valeur est faible, moins le traitement sera précis. Cela ne veut pas dire qu'il faut tout le temps prendre 512. Simplement, on augmente la valeur sur des films plus exigents, où ça "bouge" plus...

 

Quand le traitement est terminé, on va pouvoir trier les images de la meilleure à la plus mauvaise. En opérant de cette façon, on va réellement trier en fonction d'un détail souhaité. Il peut arriver que, lors de l'alignement, certaines images ne soient pas alignées. Cette méthode de tri va donc pouvoir écarter ces images décalées car ne correspondant pas au détail de référence. On charge donc la première image  alignée précédemment :

 

>load p1

 

Sur cette image, on encadre à la souris le détail qui nous intéresse le plus, puis on lance le traitement :

 

>bestof p 599

 

Rien à dire de particulier sur cette commande. Une fois le tri effectué, IRIS génère une liste classée des images. Il faut donc appliquer ce tri :

 

>select p s

 

Les images triées sont les images nommées s... Ensuite, j'additionne les images que je considère comme bonnes :

 

>add_norm s 150

 

Je considère que les 150 meilleures images du tri peuvent dans la grande majorité des cas être gardées. Je ne travaille pas à longue focale et à des diamètres plutôt faibles, donc la question de la résolution ne se pose pas trop. Pour ce qui est de la fonction "add_norm", elle normalise le résultat de l'addition pour que le pixel ayant la valeur la plus élevée plafonne à 32700. Chaque valeur de pixel (son intensité) est codée sur 16 bits, ce qui donne 32768 valeurs possible, 0 étant le noir total. Dans le cas de notre fonction ça nous garde un peu de marge mais pas forcément suffisamment pour la suite des traitements. Du coup j'applique une autre commade :

 

>mult 0.75

 

Ceci permet de descendre toutes les valeurs de pixel à 75% de leur valeur d'origine. La valeur max descend donc à 24525. On retrouve donc de la marge pour la suite, car tout traitement par la suite risque de réaugmenter les valeurs des pixels. Si on était déjà au maximum, ça donnerait alors des zones saturées, ce qu'on veut éviter par dessus tout...

 

Enfin, pour éviter d'avoir à refaire tout ça :

 

>save f

 

Cela sauve ce résultat au format FITT, format utilisé par IRIS pour garder l'image en 16 bits et travailler dessus.

Au passage, tout ce que nous venons de voir est un script présent dans la fenêtre script. Ce script est sauvegardable en le copiant-collant dans le notepad, par exemple (et réutilisable de la même façon... Vous le tapez une fois pour toute, et ensuite c'est juste du copier-coller). De plus on peut revenir sur la plupart des étapes. Si le résultat final ne nous plait pas, on peut par exemple reprendre l'étape de réalignement en changeant des paramètres. Cette façon de procéder demande un peu d'espace disque (environ trois à quatre fois la taille du film) mais cela garantit des retours en arrière immédiats.

 

A ce stade, nous avons une image avec un aspect lissé, dans la mesure du possible, exempte de bruit. A partir de maintenant, on va pouvoir s'intéresser aux détails et essayer de les accentuer. Les deux plus utilisés sont le masque flou et les ondelettes. Personnellement, je commence toujours par les ondelettes. Si cela ne donne rien de bon, le masque flou aura du mal à faire mieux... Dans le menu ondelettes (traitements->ondelettes), je coche la case "verif. auto", ce qui permet de voir en temps réel ce qu'on fait. Ensuite je joue avec le premier curseur. C'est celui qui agit sur les détails les plus fins, et dans la plupart des cas, si on part avec un film de bonne qualité en terme de mise au point, c'est le seul curseur qu'on devrait toucher. Attention par contre car c'est aussi celui qui vous ramène le plus rapidement des artéfacts de traitement et du bruit... Tout est affaire de compromis. Maintenant, si la turbulence est très présente, vous ne gagnerez pas grand chose. Pour avoir de bonnes images finales, il faut avoir de bonnes images au départ. IRIS ne fait pas de miracle.

 

Ensuite vous pouvez cumuler les traitements. D'abord des ondelettes, puis un masque flou, ou simplement deux masques flous... Seule votre imagination et le résultat final vont vous brider...

 

Quand l'objectif est atteint, on peut sauver le résultat. Pour moi, je sauve en BMP pour ensuite pouvoir ajuster ensuite le traitement avec d'autres logiciels :

 

>savebmp final

 

D'autres formats d'enregistrement sont disponibles. Voir la doc pour la liste.

 

Ceci est le processus de base. Mais pour le Halpha, IRIS ne veut rien savoir. Il faut que je rajoute une étape intermédiaire pour lui faciliter le calcul d'alignement.

 

Une fois le fichier converti, j'applique un masque flou sévère sur la séquence d'images. Ceci a pour but d'accentuer au maximum le contraste et les détails de l'image : Menu traitement-> masque flou d'une séquence

Images d'entrée : i

Coef sigma : 5

facteur : 40

Images de sortie : m

Nombre : 599

Et on coche (si ce n'est déjà fait) planétaire

 

Ca donne une série d'images atroces et bourrées de défauts. C'est cette série qui va servir de référence pour effectuer l'alignement. Comme au début, on calcule l'alignement :

 

>pregister m p 256 599

 

Je ne reviens pas sur l'explication de cette commande. Ensuite, au lieu d'effectuer le bestof sur cette série, ce qui ne donnerait rien d'exploitable, on utilise le fichier résultat d'IRIS lors du calcul d'alignement pour appliquer cet alignement sur les images i de départ :

 

>file_trans i p 599

 

On demande à IRIS d'aligner de la même façon les images d'origine que les images masque floutées...

 

Ensuite seulement, on reprends le script pour effectuer le bestof et l'addition. Si au départ, IRIS n'arrivait pas à calculer le bon alignement avec les images d'origine, avec celles de la série du masque flou, l'alignement se fait sans soucis. Il se peut que ce soucis d'alignement ne soit du qu'aux images que je récupère du PST. Sur d'autres systèmes optiques, les images peuvent être différentes, et donc cette méthode n'est pas utile. Encore une fois, je précise que cette méthode est faite pour des films récalcitrants, ici pour le HAlpha, mais peut être aussi utilisé ailleurs.

 

A vous de tester maintenant, voire de peaufiner la méthode...

Partager cet article
Repost0