Aller au contenu

Messages recommandés

Posté (modifié)

Avec des conditions de turbulence différentes, j'obtiens des images sensiblement identiques en jouant sur le paramètre N (voir posts précédents pour la technique) :

 

moon2.png

 

moon1.png

 

Ces 2 images ont été obtenues en visuel assisté en moins de 3 minutes chacune (traitement compris).

Modifié par ms55
  • J'aime 3
  • Merci / Quelle qualité! 2
Posté

Impressionnant... le résultat est bluffant pour un investissement en temps ridicule. 

J’imagine qu’il est aussi possible de faire la même chose en post traitement sur les séquences déjà acquises...

Le logiciel qui fait ça est il accessible au commun des Astram

Posté (modifié)
Citation

Le logiciel qui fait ça est il accessible au commun des Astram

Voir le lien suivant pour la technique :

http://people.csail.mit.edu/miika/eccv18_deblur/

 

A cela, il faut greffer le logiciel d'acquisition, d'alignement et d'empilement en temps réel permettant d'obtenir les images : input1, input2, ..., inputN.
En faisant varier N, je peux m'adapter à différentes conditions de turbulence comme dans l'exemple de ce post pour obtenir toujours la même qualité d'image.
 

unet_moon.png

Citation

Toujours efficace ce mode de prises de vues ;) 

Rendez-vous dans 1 mois pour un prochain essai.
En fait, c'est une application qui récupère les "lucky regions" et qui ignore par exemple les passages nuageux.
L'exemple suivant permet de mieux cerner cela.

image_1.png

 

PS1 : la collimation du C11 n'est pas parfaite, il devrait être possible d'améliorer encore la qualité.
PS2 : Une caméra monochrome serait mieux adaptée pour la Lune que l'ASI 224MC.
PS3 : Une cartographie de la lune à cette échelle devrait être possible en une soirée (à intégrer au logiciel ainsi que la reconnaissance des objets).

Modifié par ms55
  • J'aime 2
Posté

Merci encore pour ce partage... ça donne envie d’essayer mais les logiciels pour faire fonctionner tout ça sont-ils accessibles aux Astrams amateurs que nous sommes? Ou est-ce plutôt des programmes développés dans des labos de recherche et dont l’utilisation reste réservée aux spécialistes ?

Posté (modifié)
Citation

Merci encore pour ce partage... ça donne envie d’essayer mais les logiciels pour faire fonctionner tout ça sont-ils accessibles aux Astrams amateurs que nous sommes? Ou est-ce plutôt des programmes développés dans des labos de recherche et dont l’utilisation reste réservée aux spécialistes ?

Tous ces logiciels sont regroupés sous un même logiciel qui fait l'acquisition (Image brute), l'empilement (Image N) et le traitement final (Résultat) en quasi temps réel avec une carte graphique (calcul par le GPU). C'est bien plus simple et rapide que d'avoir à manipuler 3 logiciels ou plus (FireCapture+AS3+PIPP+...) pour obtenir un résultat analogue. Reste encore à tester les planètes qui seront en position plus favorable l'an prochain. L'idée reste de rapprocher le visuel assisté de l'astrophotographie à partir d'un seul logiciel.

 

Figure1.png

Modifié par ms55
  • J'aime 1
Posté
Il y a 1 heure, ms55 a dit :

Tous ces logiciels sont regroupés sous un même logiciel qui fait l'acquisition (Image brute), l'empilement (Image N) et le traitement final (Résultat) en quasi temps réel avec une carte graphique (calcul par le GPU). C'est bien plus simple et rapide que d'avoir à manipuler 3 logiciels ou plus (FireCapture+AS3+PIPP+...) pour obtenir un résultat analogue. Reste encore à tester les planètes qui seront en position plus favorable l'an prochain. L'idée reste de rapprocher le visuel assisté de l'astrophotographie à partir d'un seul logiciel.

 

Figure1.png


merci encore pour ces infos, mais comment peut-on se procurer ce logiciel et sur quel type de matériel fonctionne-t-il (je pense notamment à la carte graphique nécessaire et à la mémoire vive ou encore à la vitesse du système de stockage) ? Car s’il faut un PC de compétition pour y arriver ça risque de ne pas rendre le système très nomade... par contre si ça tourne sur un petit portable ça pourra s’utiliser partout...

Posté (modifié)
Citation

Car s’il faut un PC de compétition pour y arriver ça risque de ne pas rendre le système très nomade... par contre si ça tourne sur un petit portable ça pourra s’utiliser partout...

Ce système tourne actuellement sur une Jetson Nano, une GTX 1050 Ti et une GTX 1660 Ti.
La première carte est un peu juste mais Nvidia annonce une Jetson Nano Next pour 2021 avec des performances améliorées et toujours une consommation maîtrisée.
La deuxième a juste un temps de latence à l'initialisation sinon tout fonctionne très bien toute la nuit avec une batterie 12V/80Ah et un convertisseur 12V/20V.
La dernière carte graphique résout ce problème de latence, c'est ma config actuelle.
J'attends que Nvidia sorte une Jetson Nano un peu plus puissante courant 2021(Jetson Nano Next)  pour mettre à disposition le logiciel via un site internet dédié. 

 

L'ensemble matériel/logiciel pourrait ressembler à ceci et consommer 15W :
 

nano_next.jpg

 

PS : pas de pb de stockage de données puisque seules les images N sont conservées.

Modifié par ms55
  • J'aime 2
Posté (modifié)

@ms55Merci encore une fois pour ces précisions. 
Je ne connaissais pas le system Jenson Nano de Nvidia... un espèce de Rasperry Py orienté machine learning. 
Je serai très intéressé pour tester ton logiciel quand tu le publieras.

Et encore bravo, car j’imagine que c’est un peu de boulot que de développer cette solution...

Modifié par Titophe
Posté (modifié)

Un petit test en faisant varier N (N=6 image du haut et N=12 image du bas ) :
 

moon2.png

 

moon1_1.png

Modifié par ms55
  • J'aime 2
Posté

On gagne effectivement un peu en netteté pour N=12. Mais c'est déjà impressionnant avec seulement 6 images.

Il serait intéressant de voir une image brute à titre de comparaison.

Posté

Vraiment très prometteur ça.

On a en quasi direct l'image finale.

A voir sur les gazeuses cet été mais ça devrait fonctionner aussi, y a pas de raisons.

Et pourquoi pas extrapoler en CP?

ça ressemble à du visuel assisté, mais avec le traitement final en même temps...

resterait le pb des DOF (Dark/Offset/Flats) à soustraire en même temps...

Bon je m'emporte, pour le moment c'est de la lune qu'il s'agit ;) 

Posté (modifié)
Il y a 7 heures, Eridan31 a dit :

On gagne effectivement un peu en netteté pour N=12. Mais c'est déjà impressionnant avec seulement 6 images.

Il serait intéressant de voir une image brute à titre de comparaison.

Si la turbulence était nulle, on aurait : Image_brute = Image_N.
C'est un cas qui se produit très rarement, dans la pratique, il faut une rafale d'images brutes pour construire une image N.
Il y a 2 façons de procéder :
- un algorithme mesurant la qualité permet de faire un tri en cours d'acquisition (méthode classique),
- un algorithme récupère les 'lucky regions' pour remplir la courbe de l'image du milieu (méthode plus rapide).
Dans les 2 images précédentes une centaine d'images brutes suffisent pour construire une image N.
Si la turbulence augmente, ce nombre peut passer à 200, 300 ou plus jusqu'à obtenir la qualité escomptée.
Le remplissage des courbes sert aussi à faire la mise au point sans avoir à regarder l'image qui se forme à l'écran, c'est plus précis et plus rapide que n'importe quelle autre solution. D'autre part quand ça turbule beaucoup la MAP classique est pratiquement impossible à faire alors qu'ici l'objectif c'est de remplir une courbe.
Le résultat c'est le traitement des images N (de 6 à 12 en général car dès la cinquième image la convergence est bonne).
 

Figure1.png

Modifié par ms55
  • J'aime 1
  • Merci / Quelle qualité! 1
Posté (modifié)
Il y a 4 heures, sebseacteam a dit :

Vraiment très prometteur ça.

On a en quasi direct l'image finale.

A voir sur les gazeuses cet été mais ça devrait fonctionner aussi, y a pas de raisons.

Et pourquoi pas extrapoler en CP?

ça ressemble à du visuel assisté, mais avec le traitement final en même temps...

resterait le pb des DOF (Dark/Offset/Flats) à soustraire en même temps...

Bon je m'emporte, pour le moment c'est de la lune qu'il s'agit ;)

 

Les planètes et les nébuleuses planétaires brillantes se traitent comme la lune.
Les planètes Jupiter et Saturne seront plus faciles à observer en France dans les prochaines années.
Pour le ciel profond, le deep learning permet de faire l'apprentissage de la caméra pour les darks en particulier.
J'ai commencé à faire de la vidéo assistée du CP en 2004 et cela m'a permis de parcourir les 2 volumes du NSOG.
Aujourd'hui, le CP devient possible en visuel assisté et en couleur, ce sera pour 2022.

Modifié par ms55

Rejoignez la conversation !

Vous pouvez répondre maintenant et vous inscrire plus tard. Si vous avez un compte, connectez-vous pour poster avec votre compte.

Invité
Répondre à ce sujet…

×   Collé en tant que texte enrichi.   Coller en tant que texte brut à la place

  Seulement 75 émoticônes maximum sont autorisées.

×   Votre lien a été automatiquement intégré.   Afficher plutôt comme un lien

×   Votre contenu précédent a été rétabli.   Vider l’éditeur

×   Vous ne pouvez pas directement coller des images. Envoyez-les depuis votre ordinateur ou insérez-les depuis une URL.

  • En ligne récemment   0 membre est en ligne

    • Aucun utilisateur enregistré regarde cette page.
×
×
  • Créer...

Information importante

Nous avons placé des cookies sur votre appareil pour aider à améliorer ce site. Vous pouvez choisir d’ajuster vos paramètres de cookie, sinon nous supposerons que vous êtes d’accord pour continuer.