Aller au contenu

ms55

Banni
  • Compteur de contenus

    310
  • Inscription

  • Dernière visite

  • Jours gagnés

    7

Tout ce qui a été posté par ms55

  1. Je me demande si en France, un C11 n'est pas suffisant pour faire du planétaire. Avec un ciel qui se dégrade d'année en année, il serait plus raisonnable d'améliorer les logiciels d'acquisition que d'essayer de toujours monter en diamètre. Après Jupiter l'an passé, c'est Saturne qui démarre la saison. En utilisant la même approche que pour Jupiter, j'ai fait une première dé-rotation en ligne le 18 mai, elle devrait s'améliorer dans les prochains mois quand Saturne sera proche de l'opposition : Bien sûr ce n'est pas encore parfait parce qu'il manque les satellites, parce que l'hexagone est mal défini et qu'Encke n'est pas présente sur les anses mais c'est de la vidéo assistée c'est à dire du traitement en ligne sur une planète encore trop basse sur l'horizon. 😉
  2. J'ai trouvé sur le site ALPO-Japan une image faite par D.Peach pratiquement au même moment que la n°85 (image de gauche) : Je pense qu'il ne devait pas avoir de bonnes conditions ce soir là mais ce qui m'intrigue c'est le lissage de son image qui fait disparaître certains détails. Est-ce lié au traitement du bruit résiduel avec les outils actuels ? Turbu est un logiciel qui apporte la simplicité et la rapidité du visuel assisté à la production de vidéos de qualité astrophoto. Reste encore à le tester sur Saturne (en cours), Mars (prochainement) et le Ciel Profond (en cours) avant de l'embarquer en 2023 sur une carte Jetson Nano Next ou Jetson Orin NX. Une version pour PC sous linux est téléchargeable sur le site : www.gpu-vision.fr , c'est la version qui a permis de faire des tests sur Jupiter en 2021.
  3. A partir des 8 images prétraitées ondelettes avec AstroSurface et dérotées avec WinJupos, zjpc obtient l'image suivante : Je vais essayer à partir de cette image qui contient les principaux détails, de me rapprocher de celle obtenue avec le logiciel "turbu". Dans un premier temps, j'obtiens celle-ci : Puis celle-là en utilisant un algorithme proche du "Multiscale Sharpen" d'Astra Image : Il ne reste plus qu'à comparer les 2 approches : Ce sont pratiquement les mêmes images. La différence c'est que "turbu" est capable de créer ce type d'image lors de l’acquisition qui se fait en live. C'est normal, puisque les passages nuageux entraînent un temps d'intégration des images brutes variable de 1 minute à 2,5 minutes pour Jupiter. Lors de cette soirée, les passages nuageux étaient nombreux mais cela n'empêche pas d'obtenir un résultat comme le montrent ces images. Pour Saturne et Mars, il y a un peu plus de marge.
  4. Les outils "classiques" permettent de comparer les 2 approches : Il n'y a pas que la turbulence qui est gênante, il y a aussi les nuages d'altitude qui étaient bien présents lors de la soirée du 21 août 2021 . Le logiciel "turbu" s'adapte à la luminosité de l'objet et permet d'obtenir le meilleur empilement possible à un moment donné. Je ne crois pas que FireCapture fasse cela et pourtant avec le réchauffement climatique les conditions d'observation se dégraderont de plus en plus. Dans le cas présent, malgré les passages nuageux, les images n°35 à n°120 sont exploitables soit 86/145=60% de l'ensemble des images acquises lors de la soirée. Tout cela s'est confirmé lors d'autres observations et se confirmera certainement dans 2 mois avec l'arrivée de Saturne, puis Jupiter et puis Mars. La différence en 2022, c'est que la dé-rotation se fera en ligne, l'image de la vidéo assistée deviendra alors une image haute résolution comme l'image de droite. Le fossé entre le visuel assisté et l'astrophoto planétaire est en train de disparaître grâce à l'utilisation du calcul par le GPU.
  5. A partir des 9 images brutes données plus haut (n°59 à n°67), j'ai fait évoluer le module "planet" qui est maintenant capable de fournir en ligne de commande linux, les images haute résolution n°59 à n°67 suivantes : $ planet png/{59..67}.png derot/59.png $ planet png/{59..67}.png derot/60.png $ planet png/{59..67}.png derot/61.png $ planet png/{59..67}.png derot/62.png $ planet png/{59..67}.png derot/63.png $ planet png/{59..67}.png derot/64.png $ planet png/{59..67}.png derot/65.png $ planet png/{59..67}.png derot/66.png $ planet png/{59..67}.png derot/67.png Les paramètres sont calculés automatiquement grâce au spectre de puissance pour donner la meilleure image possible compte tenu de la rafale d'images fournie en entrée. Le module "planet" sera intégré cet été au logiciel "turbu" pour créer en ligne une vidéo assistée composée d'images quasi photographiques. Le nombre d'images en entrée peut varier en fonction de la force de la turbulence. Bien que ce ne soit pas son but, le module "planet" pourrait traiter des images empilées issues d'AS3 ou de tout autre logiciel faisant du stacking. Je reste curieux de voir ce que les astrams peuvent produire avec les logiciels existants (AstroSurface, Astra Image, SIRIL, WinJupos, ...) à partir des 9 images (brutes empilées) en entrée. 😉 Prochaine étape Saturne qui pointe le bout de son nez dans 2 mois.
  6. Sur 145 images de la vidéo assistée, 60% sont exploitables (n°35 à n°120) c'est à dire permettent de produire des images comme dans la série suivante (n°62 à n°64) : Les images de droite ont été obtenues par dé-rotation de 9 images centrées sur l'image de gauche. Je ne sais pas si les outils de traitement actuels permettent d'atteindre la même qualité, il faudrait faire un essai à partir des images n°59 à n°67 issues de l'empilement pour obtenir l'image n°63 : Les images issues de l'empilement : Si vous obtenez un résultat semblable, cela voudra dire que vos logiciels actuels permettent d'extraire autan d'information que le logiciel "turbu". La seule différence sera alors que "turbu" travaille en ligne et qu'il lui faut environ 30s entre chaque image finale (image de droite). Si vous n'obtenez pas un résultat semblable, cela voudra dire que les logiciels actuels ne permettent pas de tirer le maximum de vos images empilées sous AS3 ou similaire. Cela voudrait dire aussi que vous avez des tonnes d'images empilées qui ne sont pas exploitées à leur juste valeur. Je suis curieux de voir le résultat que vous allez obtenir pour l'image n°63. L'écart que j'obtiens pour les images n°62, 63 et 64 est le suivant :
  7. La dernière mouture du logiciel "turbu" que je testerai cet été verra l'arrivée du répertoire "derot". Au stade actuel du développement voici à quoi cela ressemble : A gauche la vidéo assistée, c'est à dire ce que voit l'utilisateur au bout de 30s sur son écran. A droite la dé-rotation, c'est à dire la combinaison d'images de la vidéo assistée qui se fait en tâche de fond.
  8. Ces courbes représentent le spectre de puissance normalisé des images. Pour le détail, voir par exemple : https://fr.mathworks.com/matlabcentral/fileexchange/24227-powerspectrum-m Toute autre représentation est possible mais il semble que ce soit celle retenue par Fitswork que pas mal d'astrams utilisent. J'utilise le spectre de puissance au départ lors du choix de l'image de référence afin de déterminer automatiquement les bons paramètres. Par exemple pour générer l'image n°66 de la vidéo assistée à partir de l'empilement de 5400 images brutes 800x600 @ 180fps : a) l'empilement prend 5400/180 = 30s b) le calcul de l'image de la VA demande 2/100e de seconde avec ma carte graphique compte tenu des paramètres fournis par le spectre de puissance : $ planet png/66.png sharp/66.png 80000 0.27 1.4 1.6 6300 le logiciel "planet" simule ce que fait le logiciel "turbu" pour passer des images empilées (répertoire png) aux images du VA (répertoire sharp). Je mettrai prochainement cette manip sur le site afin que ceux qui ont installé linux puissent tester, après exécution du logiciel "planet" : En même temps cela permettra de vérifier que tous les modules sont bien installés.
  9. Il y a en effet un écart de netteté important entre les 2 images comme le montre la courbe suivante : La courbe correspondant à ton image passe par le point (0.30, -80dB) ce qui est assez éloigné du point (0.44, -80dB) . On retrouve bien les principaux détails mais l'image manque de netteté. La dernière méthode permet d'atteindre une qualité photo lors de la séance de vidéo astro, j'ai une image à l'écran issue de l'empilement au bout de 30s (image de gauche) de qualité analogue à la tienne et pendant ce temps la dé-rotation qui tourne en tâche de fond produit une image haute résolution (image de droite) : Je compare la courbe de mon image de la vidéo assistée (courbe rouge) avec la courbe de la tienne (courbe bleu) : Les courbes sont maintenant très proches mais la mienne résulte du traitement d'une seule image obtenue au bout de 30s d'acquisition (800x600 @180fps) sans dé-rotation et non de 7 avec dé-rotation comme dans ton cas, il y aurait donc déjà un écart au niveau des algorithmes utilisés. La version du logiciel turbu (sous linux uniquement) téléchargeable depuis janvier 2022 sur le site www.gpu-vision.com produit l'image de gauche dans le sous-répertoire "sharp". La version que je testerai cet été (sous linux uniquement) produira en plus l'image de droite dans le sous-répertoire "derot".
  10. Ce qui serait intéressant c'est de comparer avec ce que font les outils actuels (AstroSurface, WinJupos, ...) à partir des images empilées contenues dans le répertoire png du lien suivant : http://gpu-vision.fr/site/file/source/jup-210811/png.zip Le traitement actuel (vidéo ci-dessus) donne par exemple pour l'image n°61 : ou pour l'image n° 66 : L'objectif du logiciel turbu est de réduire le fossé de qualité existant actuellement entre la vidéo assistée et l'astrophotographie en utilisant pour cela la puissance de calcul des cartes graphiques. Dans un premier temps, je m'intéresse à la Lune et aux planètes mais le Ciel Profond est en cours de développement.
  11. Avec une meilleure maîtrise de la dé-rotation voici le résultat final 8 mois plus tard : 😉 Avec quelques détails intéressants : La vidéo correspondante : Le changement de couleur en début de la vidéo correspond à un des passages nuageux signalé plus haut. Ce dernier traitement des images de la vidéo assistée sera appliqué cet été à Mars, Jupiter et Saturne pour être embarqué plus tard sur une carte Jetson Nano Next. Le traitement de dé-rotation est effectué en tâche de fond de la vidéo assistée (en live). En fin d'acquisition, il n'y a plus rien à traiter. 😉 PS : ce n'est pas la meilleure session de cet été (à cause des passages nuageux et de la collimation qui est perfectible) mais celle qui me sert à faire des essais en vu de la prochaine saison.
  12. Entre 2 passages nuageux de 1h30 à 3h10 TL. C11@f/20 + ASI 462MC + EQ6-R Pro. Images 65 à 70 :
×
×
  • Créer...

Information importante

Nous avons placé des cookies sur votre appareil pour aider à améliorer ce site. Vous pouvez choisir d’ajuster vos paramètres de cookie, sinon nous supposerons que vous êtes d’accord pour continuer.