Aller au contenu

Messages recommandés

Posté (modifié)

Bonjour à tous,

l'optique adaptative est encore difficilement accessible aux amateurs, mais je me demandais s'il n'y avait pas un cas où on pourrait avoir une alternative logicielle : l'imagerie planétaire à haute vitesse. Je lance donc l'idée ci-dessous, je pense que beaucoup de gens ici sont bien plus compétents que moi dans l'optique et l'acquisition...

 

Un système d'optique adaptative repose sur deux composants principaux : un analyseur de front d'onde et un correcteur de front d'onde, généralement un miroir déformable. Mon idée est de ne pas utiliser un correcteur matériel, mais logiciel qui déformerait les images acquises. Le problème est que cela ne peut se faire que pour des acquisitions de pose très courte, sinon plusieurs déformations sont superposées et on ne peut plus corriger. Le planétaire (Jupiter, Venus et Mars), solaire et lunaire sont donc les seules cibles que je vois.

 

Pour l'analyse du front d'onde, les pros utilisent un Shack-Hartmann à haute vitesse. Je n'ai pas trouvé de prix pour ces équipements mais je suppose que c'est assez cher vu que c'est rare. Je me demandais plutôt s'il n'était pas possible d'utiliser une caméra d'acquisition classique relativement rapide, par exemple la iNova à 100Hz, pour fabriquer un analyseur de front d'onde "du pauvre" basé sur les images défocalisées. Quand on défocalise on voit des turbulences sur l'image capturée, je ne sais pas dans quelle mesure c'est exploitable pour calculer un modèle de la turbulence réelle, mais j'ai l'impression que les gradients de luminosité dans le disque lumineux sont assez faciles à modéliser.

 

Questions :

  • quelle est la fréquence moyenne des variations front d'onde dues aux turbulences atmosphériques ? Disons pour un télescope de 400mm de 2m de focale avec un mauvais ciel ? Je ne trouve pas de réponse exacte, mais visiblement les observatoires professionnels utilisent une correction de l'ordre de 1000Hz, ce qui est bien plus grand que les temps de pose habituels pour le planétaire, mais ce n'est pas le même diamètre et il doit y avoir une certaine marge d'erreur.
  • d'un point de vue optique, les variations de luminosité qui sont vues quand on défocalise correspondent à quoi exactement ? Est-ce que défocaliser l'image d'une planète permet d'avoir assez d'informations pour modéliser les turbulences sur toute l'image de la planète ? Et aussi de ses satellites ou étoiles dans le champ éventuels ?
  • quelqu'un a une idée du prix d'un analyseur de front d'onde ou une meilleure idée que moi pour une version moins chère ? Un avantage ici est que cela peut se faire en post-processing et donc qu'on peut avoir des traitements lents sur PC et pas sur matériel dédié. Peut-être que la correction logicielle est utilisable quand même si un bon analyseur existe pour les amateurs.

 

J'espère que ce n'est pas une idée totalement farfelue, et que ça pourra donner des idées à certains. Je sais qu'il existe des logiciels de traitement qui déforment les images pour réaligner des points des planètes, Registax il me semble, mais a première vue les déformations sont discontinues, alors qu'avec une analyse par transformée de Fourier par exemple on pourrait avoir une correction continue, reste à voir si c'est meilleur en pratique...

 

Edit : j'ajoute une image pour mieux expliquer la partie analyse de front d'onde.

defoc_norm.png

L'idée est donc d'utiliser ces variations de luminosité pour modéliser le front d'onde. Peut-être en faisant des coupes (pas au hasard, il y a un sens de déplacement des turbulences) dans l'image et des FFT en 1D sur ces coupes, peut-être directement en 2D, je ne sais pas trop...

 

Merci de m'avoir lu.

Modifié par vinvin
Posté

Si j'ai bien compris la manip :

- 1 caméra à 100Hz pour récupérer le front d'onde à partir d'une lame semi réfléchissante.

- 1 caméra acquisition pour récupérer l'image de l'objet

 

On synchronise les deux puis en offline, pour chaque image du front d'onde on génère une sorte de masque qui permettra de valider les zones nettes de l'image synchrone et en cumulant on construit une image complète.

Est-ce que c'est comme ça que tu voyais les choses ?

 

Question :

Histoire d'éviter les 2 caméras, est-ce qu'il est possible de faire une analyse de front d'onde à partir d'une image standard ?

Posté (modifié)

Je voyais ça comme ça pour le montage oui, mais pour le calcul plutôt que de valider certaines zones nettes je pensais plutôt faire un modèle de la turbulence associée à chaque image pour déformer et récupérer une image nette entière de l'autre coté.

Edit : on pourrait utiliser un tube en parallèle aussi, pour éviter de diluer l'image envoyée à la caméra d'acquisition, qui aura bien besoin de toute sa luminosité pour atteindre les temps de pose très courts.

 

Bonne question sinon, on peut partir d'une image censée être ronde pour une planète et regarder quelles sont les variations de la rondeur mais ça me parait moins précis que quand on voit les différence de lumière à l'intérieur de l'image défocalisée.

Modifié par vinvin
  • 4 semaines plus tard...
Posté

J'ai un peu creusé l'idée depuis, j'ai parlé avec des gens compétents surtout, et j'ai tendance à croire que c'est faisable. Je posterai ici l'avancement de mes recherches, en attendant de faire mieux si ça mène quelque part.

 

Pour la partie capteur, le test de Roddier utilise deux images défocalisées, une intra et une extra focale, pour construire le front d'onde dans des applications de détection de défauts des optiques. C'était aussi utilisé (je crois à un moment, en tout cas c'était proposé par Roddier) comme capteur de front d'onde pour les optiques adaptatives. La différence avec ce que je propose est qu'il y a deux images défocalisées, ce qui permet de calculer le sens des variations de front d'onde.

La question maintenant est de savoir s'il y a moyen avec une approche probabiliste ou autre de n'utiliser qu'une seule image défocalisée. Il s'agirait de ne pas ne pas diluer encore plus le signal et ne pas avoir besoin de deux caméras, vu que le but est que ce soit accessible aux amateurs donc peu cher ou gratuit.

 

Pour la partie actionneur, la déformation logicielle des images au lieu d'utiliser un miroir déformable, serait basée sur une déconvolution, processus qui est aussi bien connu. Le but de l'analyseur de front d'onde du coup est de fournir la réponse impulsionnelle (point spread function - PSF). Cette PSF est ensuite utilisée par la déconvolution pour revenir à une image moins floue, le moins dépendant de la qualité de l'analyseur de front d'onde.

Posté

Pas besoin de 2 camera pour le détecteur, tu peux avoir ton intra et ton extra sur le même capteur.

 

Par contre il te faut une source ponctuelle à l'infini pour faire le roddier et je ne vois pas trop comment faire à part émettre un laser dans le champ.

 

En temps réel ça va être compliqué, d'une part pour la vitesse de calcul et d'autre part pour la sensibilité du capteur à une telle fréquence. Il faut un laser puissant, car tu sera dé-focalisé et à 10ms d'exposition.

 

En post traitement on peut faire de la déconvolution sur les satellites des planètes (voir doc Iris). Mais c'est pas une source ponctuelle avec les optique actuelles de grand diamètre.

Posté (modifié)

Bonjour,

 

Il te faudrait donc simplement des enregistrements synchro pour un post traitement.

Pourquoi donc aller ajouter des contraintes temps réel dures là ou ça n'est pas nécessaire ?

Pour encore plus de précision il faudrait également une image de référence pour tenir compte des défauts de la ou des optiques de mesure.

 

En gros il te faudrait trois optiques:

L'imageur principal

Un Rodier intra

Un Rodier extra

Les deux optiques à Rodier qui pointent non pas la planète mais une étoile pas loin.

La seule contrainte temps réel serait alors sur la capture des images et le calage des films entre eux.

 

Pour la synchro départ entre les films tu peux imaginer un gros écran qui bouchera la vue et que tu retires subitement.

Tu pourrais même éventuellement te servir de la phase couverte pour produire du dark et du flat et là rien n'interdit d'utiliser des ordis ou appareils différents pour la capture à condition qu'ils aient le même FPS.

Ne mets pas de contraintes temps réel là ou c'est inutile.

 

En travaillant sur des fichiers tu simplifieras beaucoup la partie traitement et tu utiliseras tout ce qui existe déjà pour les captures ou pour l'analyse d'un Rodier.

 

Bonne chance :beer:

Modifié par Leimury
Posté
Pas besoin de 2 camera pour le détecteur, tu peux avoir ton intra et ton extra sur le même capteur.
Simultanément???

 

Les deux optiques à Rodier qui pointent non pas la planète mais une étoile pas loin.

Quelle serait la distance maximale pour un front d'onde similaire?

Pasque une étoile suffisamment brillante près de la lune par exemple, on vient d'avoir Véga là, mais sinon???

 

Intéressant en tout cas!

 

Patte.

Posté
Simultanément???

 

 

oui mais il faut un splitter et une lentille (plate) pour décaler un des 2 faisceau. (tu décale la Map de 1/3 de l'épaisseur du verre). Rien n’empêche d'envoyer ces 2 faisceaux sur un même capteur qui sera lui même décalé physiquement par rapport au capteur principal.

Posté
On synchronise les deux puis en offline, pour chaque image du front d'onde on génère une sorte de masque qui permettra de valider les zones nettes de l'image synchrone et en cumulant on construit une image complète.

 

Pas besoin de seconde optique ni de calcul du front d'onde. Les logiciels qui empilent les images sont capables de mesurer la netteté d'une partie de l'image. En travaillant par zones, le logiciel peut conserver uniquement les parties nettes des frames pour l'empilement.

 

 

Perso je ne pense pas que la manip proposée (correction logicielle de l'image sur base du Roddier) soit viable car même en sachant comment le front d'onde est déformé, il n'est pas possible de rendre nette une image qui ne l'est pas. A défaut de déformer le miroir, il faudrait pouvoir au moins ajuster la MAP en temps réel et à >100Hz. Avec un actuateur piezo, c'est peut-être possible.

 

Bon, après j'espère que vinvin a quand même raison. :)

Posté

Et si !

Avec les matrices de convolution on peut le faire !

 

En fait tu peux flouter ou rendre plus net mais c'est plutôt artificiel car les détails perdus lors de la prise de vue n'apparaîtront pas mais la ligne floue deviendra nette.

 

Là ce que Vivin voudrait faire n'est pas possible avec une simple convolution.

Hors de question d'appliquer une matrice sur toute l'image car il voudrait en fait inverser les défauts constatés au Rodier.

C'est son intuition...pourquoi pas ?

 

Au fait, ceux qui utilisent des lunettes utilisent ils la convolution sur les deux couches touchées par le chromatisme ?

 

Bon ciel

Posté

Wow merci à tous pour les réponses !

Quand j'ai eu l'idée je pensais surtout aux déformations géométriques de l'image, pas aux défauts de mise au point sur l'image. Il est probable que ce problème de mise au point soit en réalité le problème principal... On peut garder seulement les parties nettes au traitement comme disait OrionRider; à mon avis il faut faire des tests pour voir si ce n'est pas mieux d'avoir des parties un peu floues mais bien alignées plutôt que de garder moins de parties nettes dans les images finales.

 

J'avais un peu oublié aussi qu'il fallait une source ponctuelle. Est-ce que ça fait vraiment une image non exploitable une planète en défocalisé ? Et pour reprendre la question de syncopatte, quelle serait la distance maximale de pointage en parallèle sur une étoile pour un front d'onde similaire ? Probablement très faible.

Pour l'image intra et extra focale sur le même capteur, ça ne change pas le problème de la dilution si j'ai bien compris, et vu qu'il faut une capture rapide, ça serait bien d'éviter de diviser par 2 ou 4.

 

Le faire en temps réel ou non n'est pas vraiment un problème, c'est juste plus rigolo et joli si c'est en temps réel mais dans un premier temps ça sera en post production si ça se fait.

 

Hors de question d'appliquer une matrice sur toute l'image car il voudrait en fait inverser les défauts constatés au Rodier.
Je ne connais pas encore les matrices de convolution, mais pourquoi est-ce hors de question ?

 

Merci, bon ciel !

Posté (modifié)

Bonjour,

 

Fais voir une recherche avec les mots clef "matrice convolution", les documents ne manquent pas.

Tu trouveras pas mal de matrices existantes par exemple pour flouter ou rendre plus net

http://docs.gimp.org/fr/plug-in-convmatrix.html

Ça tombe bien, gimp est gratuit :)

Disons que la convolution est un gros morceau mais que ça ne peut pas tout faire.

Par exemple pour le détourage on a plus tôt fait de faire son propre algo parce que si la convolution permet de faire apparaître les détours de l'objet ce sont des données brutes pas vraiment exploitables.

On peut préférer travailler autrement pour produire par exemple uniquement des formes fermées (Shapes dans la plupart des langages et librairies)

En fait on te parlera beaucoup de la convolution et ça ressemble à une baguette magique dès qu'on parle traitement mais ça ne fait qu'illusion.

Dans ton cas ça ne servira pas à grand chose.

 

Si on doit se rattacher à ce qui existe:

Ton cas se rapprocherait plus d'une calibration de caméra.

Imagines par exemple deux caméras pour de la vision artificielle: un pixel de différence et ça peut changer pas mal la profondeur.

Que ce soit pour de la mesure ou des capteurs visuels on recherche quelquefois une très grande précision dans l'image (un des trucs qui doit un peu manquer à Kinekt :be:).

Comme on sait que rien n'est parfait on image une mire et on mesure comment elle a été déformée.

De ce calcul nait un bignou qui sera appliqué à chaque image pour avoir quelque chose qui soit le plus fidèle possible à la réalité.

Ne t'imagines surtout pas que ceux qui utilisent ça aient des optiques pourries, au contraire !

http://fr.wikipedia.org/wiki/Calibration_de_cam%C3%A9ra

Fais voir une recherche sur "Calibration Camera" et accroches toi bien !

La difficulté sera d'adapter le résultat de mesure du Rodier à tout ce fatras mathématique.

 

Dans ton cas la mire c'est les Rodiers et tu recalibres sur chaque image.

Encore une fois oublies le temps réel et traites des fichiers.

 

Tu as le polynômes de Zernick qui permet de caractériser les défauts sur un front d'onde de façon vraiment très pragmatique.

http://www.airylab.com/index.php?option=com_content&view=article&id=14&Itemid=10

Si Chonum passe dans le coin il pourra peut être t'en toucher deux mots.

Pas besoin d'être calé en optique pour voir que ça marche quand une mesure permet ensuite de simuler la réalité: Ce que j'en avais vu c'est qu'après mesure des franges sur un banc laser son logiciel était foutu de produire l'intra et l'extra focale de mon 150/750 comme si j'étais sous le ciel !

Peut être bien qu'en en passant par là tu pourras produire le bignou de calibration.

 

Bon ciel et bon courage :beer:

Modifié par Leimury
Posté

Ah oui je connaissais en fait les matrices de convolution, j'avais oublié... Ça peut être utilisé dans l'implémentation, pour donner la valeur de chaque pixel à partir d'une matrice différente, générée à partir du polynôme de Zernick ou autre. Je suis en train de lire des articles de Roddier, et dans un il présente une analyse du front d'onde avec une fonction laplacienne, ce qui me semble tout de même plus simple à calculer que le polynôme de Zernick, je m'orienterais plutôt là dessus.

Il faut que je regarde la calibration de caméra oui, ça correspond bien aux déformations géométriques dont je parlais.

Merci !

Posté (modifié)

Alors là,

tu entres dans les méandres de la mise en oeuvre (et des bugs :be:).

gF5CM.gif

 

En tout cas ton projet n'est pas idiot, bonne chance :beer:

 

Il te reste plus qu'à trouver un nom cool

Plop, déjà pris

Iris, déjà pris

 

Je te propose...

iUD07FnqF91m7.gif

VEDL Un nom mystérieux, un truc qu'on trouve pas encore sous google. Vivin Est Dans Laplace

 

Encore mieux: Cinematic Reactiv Optical Tracking Transcient Effect

Modifié par Leimury

Rejoignez la conversation !

Vous pouvez répondre maintenant et vous inscrire plus tard. Si vous avez un compte, connectez-vous pour poster avec votre compte.

Invité
Répondre à ce sujet…

×   Collé en tant que texte enrichi.   Coller en tant que texte brut à la place

  Seulement 75 émoticônes maximum sont autorisées.

×   Votre lien a été automatiquement intégré.   Afficher plutôt comme un lien

×   Votre contenu précédent a été rétabli.   Vider l’éditeur

×   Vous ne pouvez pas directement coller des images. Envoyez-les depuis votre ordinateur ou insérez-les depuis une URL.

  • En ligne récemment   0 membre est en ligne

    • Aucun utilisateur enregistré regarde cette page.
×
×
  • Créer...

Information importante

Nous avons placé des cookies sur votre appareil pour aider à améliorer ce site. Vous pouvez choisir d’ajuster vos paramètres de cookie, sinon nous supposerons que vous êtes d’accord pour continuer.