Aller au contenu

Messages recommandés

Posté (modifié)

J'ai vu sur le forum d'à coté une animation obtenue à partir de 2 images de Jupiter prises par Kant à 20 minutes d'intervalles.

 

J'ai refait le même genre de manip avec 2 images de Jupiter que j'avais pris le 11 août 2021 entre 2h04 et 2h24 TL :
jup_result.gif.13f96d9802cc0b3c798e62689a8f86e1.gif


En fait pour faire une rotation complète de Jupiter avec la méthode présentée, il suffit de disposer d'une bonne image prise toute les 10 minutes (20 minutes c'est trop long) soit 6 images par heure ou 60 images en 10 heures.
L'image prise toutes les 10 minutes peut elle aussi être une image créée avec le même algorithme qui ne donne pas d'artefact et/ou de satellite ovalisé comme Winjupos.
A essayer lors de la saison 2022 avec Jupiter un peu plus haut en métropole.
Enfin, le temps pour calculer les images intermédiaires est de l'ordre de quelques secondes avec une GTX 1050 Ti et il doit être encore possible d'optimiser.

 

La version avec 3 images de Jupiter prises à 10 minutes d'intervalle et avec 3 images de même qualité (la déconvolution aveugle permet d'homogénéiser les 3 images) :

jup_result2.gif.2528fdb10a54c85e7a8db42cf8693329.gif

 

PS : les images issues de Winjupos ne sont pas un bon choix en entrée car elles contiennent des artefacts sur le limbe et sur l'ombre des satellites. Ce qui n'est pas le cas avec l'algorithme utilisé ici. 😉

Modifié par ms55
  • Merci / Quelle qualité! 1
  • Gné? 1
Posté
il y a une heure, ms55 a dit :

j'ai décidé de tenter ma petite animation à partir des 2 images JPEG suivantes prises par Kant :

Et cet astram est au courant que ses images sont réutilisées ici ? 

Posté
il y a 18 minutes, Drase a dit :

Et cet astram est au courant que ses images sont réutilisées ici ? 

Je lui ai envoyé hier l'animation en messagerie privée et s'il n'est pas d'accord, j'efface le sujet. 😉

Posté
il y a 10 minutes, ms55 a dit :

Je lui ai envoyé hier l'animation en messagerie privée et s'il n'est pas d'accord, j'efface le sujet. 😉

C’est que… ça ne répond pas à ma question 😅 et en plus la démarche est faite à l’envers. 

m’enfin bon, c’est pas mon débat, bonne continuation avec ton algorithme 

Posté

Bonjour,

 

je viens de voir que mes photos sont utilisées sans autorisation. 
 

c’est dommage.

 

ce n’est pas parce qu’on m’envoie un message auquel je n’ai pas répondu (parceque pas vu) que je donne une autorisation…..

  • J'aime 3
  • Merci / Quelle qualité! 1
Posté
Il y a 5 heures, kant a dit :

 

c’est dommage.

 

 

Eh oui, le minimum de respect du travail de l’auteur. 
Ça se sentait quand même, c’est pour ça que je me suis permis de poser la question, restée sans réponse. 

En tous cas superbes tes photos Kant. 

 

  • J'aime 1
Posté

Bonsoir :)

Un excellent travail, on attend la suite promise ! ;)

 

Citation

le temps pour calculer les images intermédiaires est de l'ordre de quelques secondes avec une GTX 1050 Ti

 Et peut-on savoir quelle méthode est utilisée pour ce calcul ?

Merci :)

 

Posté (modifié)
Il y a 12 heures, Nebulium a dit :

Bonsoir :)

Un excellent travail, on attend la suite promise ! ;)

 

 Et peut-on savoir quelle méthode est utilisée pour ce calcul ?

Merci :)

 

C'est un algorithme qui utilise des primitives d'ArrayFire 3.9 pour mettre en œuvre un flot optique de précision.
Il est intégré au logiciel "turbu" au même titre que les algorithmes permettant :

- de créer une image de référence,
- d'aligner les images brutes sur cette image de référence,

- de fusionner les "lucky regions",

- de réaliser une déconvolution aveugle adaptée à la turbulence atmosphérique (faible, normale ou forte).
Le modèle de 2019 a été complété par l'ajout d'objets dynamiques (détection d'impacts sur Jupiter par exemple) comme dans la publication suivante qui n'est pas "temps réel" (voir figure 1 et table 1) :
https://arxiv.org/pdf/2009.00071.pdf

 

Sur 2 minutes, Jupiter peut être considéré comme une scène statique qui peut être traversée par des objets dynamiques (ombre d'un satellite ayant une vitesse de rotation supérieure, impact sur la planète, ...), le modèle retenu permet de traiter ces 2 aspects. Il est aussi utilisé dans le cas de la turbulence à longue distance avec des objets qui peuvent traverser la scène comme dans la publication ci-dessus. La différence avec les modèles existants c'est sa vitesse de traitement due à l'utilisation d'autres algorithmes dans un environnement GPU. 

 

Il me reste encore à peaufiner la déconvolution aveugle et à intégrer l'algorithme qui applique un modèle de dégradation aux images brutes en entrée.
La fin est prévue pour la prochaine saison et cela devrait me permettre de sortir des images de Mars, Jupiter et Saturne en conditions de turbulence faible, normale et forte.

 

Le logiciel "turbu" est actuellement en version 0.1, il est public sous Ubuntu 18.04 mais je n'ai pas vu beaucoup de vidéos produites avec lui (à part la douzaine que j'ai réalisé cet été), pour l'instant j'ai surtout lu des critiques qui ne font pas avancer le schmilblick. 😉
En 2022, il évoluera en version 0.2 qui intégrera un modèle de dégradation en entrée et ceux qui auront réussi à utiliser la version 0.1 pourront profiter de cette nouvelle version, les autres seront spectateurs. 😉
Tout cela sera expliqué sur le site "gpu-vision" qui est en cours de rédaction.

Les 2 images fournies en entrée par Kant ont subit les inconvénients de WinJupos (artefact "ring" au niveau du bord et "œil de merlan" au niveau de l'ombre du satellite).
L'autre inconvénient de WinJupos c'est qu'il ne gère pas les occultations (par exemple le passage de la GTR au bord de la planète).
Je ferais à l'occasion un test 5 minutes avant le passage au bord de la planète (image1) et 5 minutes après (image 2).

WinJupos ovalise aussi les satellites, ce qui gâche le résultat final. 🥲

Modifié par ms55
sui:
Posté (modifié)

Je veux bien essayer mais je ne tourne pas sur Linux, et je ne trouve rien sur le net au sujet de ce logiciel.

C est peut être la raison pour laquelle il y a peu de monde qui l’utilise.

 

ca a l air pourtant intéressant 

Modifié par kant
Posté

Hello :)

Merci pour ce retour rapide et détaillé, @ms :)

Il va me falloir un certain temps pour ingurgiter tout ça !  ;)

 

 

il y a 34 minutes, kant a dit :

je ne tourne pas sur Linux, et je ne trouve rien sur le net au sujet de ce logiciel.

 

@ms55 avait créé jadis un site où c'était bien expliqué ;)

 

Posté
il y a 24 minutes, Nebulium a dit :

 

@ms55 avait créé jadis un site où c'était bien expliqué ;)

 

L'hébergeur Online.net a merdé et du coup la base de données a été vérolée. J'ai changé d'hébergeur et du coup j'en ai 2 pour le prix d'un :
www.gpu-vision.fr

www.gpu-vision.com

j'ai choisi un outil sans base de données pour réaliser ces 2 sites, le premier en français et le second en anglais.
L'idée c'est de mettre dans un premier temps toutes les infos nécessaires pour installer et lancer "turbu version 0.1" sur PC ou Jetson (Nano, TX2 NX, Xavier NX, Xavier, ...).
La version 0.2 se poursuivra en 2022 avec ceux qui auront passé le cap de la version 0.1

 

Posté (modifié)
Citation

Je veux bien essayer mais je ne tourne pas sur Linux, et je ne trouve rien sur le net au sujet de ce logiciel.

C est peut être la raison pour laquelle il y a peu de monde qui l’utilise.

 

ca a l air pourtant intéressant 

L'idée est de faire un logiciel embarqué qui tourne sur une carte de la famille Nvidia Jetson : Nano, TX2 NX, Xavier NX, ... et dont la consommation n’excède pas 20W.
Sur Jetson Nano 4GB "turbu version 0.1" a une autonomie de 8h (2 batteries 5V3A pour le calculateur et l'écran tactile).
La prochaine étape sera de monter en puissance avec les cartes TX2 NX et Xavier NX en attendant le modèle Nano Next prévu pour 2023.
Ce système sera réellement intéressant s'il permet effectivement d'imager sous turbulence forte, j'ai fait quelques tests cet été mais c'est en 2022 que j'aurai la réponse avec Mars, Jupiter et Saturne. 😉

Pour ceux qui n'ont pas de carte Jetson, j'ai fait une version 0.1 qui tourne sur toute machine Ubuntu 18.04 ou Linux Mint 19.3 possédant au moins une carte GTX1050 Ti.
Pour Windows et OSX que je n'utilise plus depuis au moins 10 ans, je ne ferais pas de version. :
En 2023, il n'y aura plus qu'une seule version 1.0 sous Jetson Nano Next, elle sera gratuite pour tous ceux qui auront installé et utilisé "turbu version 0.1" avec succès. 😉

 

Concernant les 33 images JPEG obtenues à partir des images n°1 et n°33 de Kant, c'est plus facile d'analyser les fichiers originaux que ceux extraits d'un gif animé qui apporte son lot de bruit et d'artefact (20 minutes cela fait beaucoup, 10 minutes seraient plus raisonnable) :

 

image n°1 (Kant) :

1.jpeg

 

image n°2 (algo ms55) :

2.jpeg

 

3.jpeg

 

4.jpeg

 

5.jpeg

 

6.jpeg

 

7.jpeg

 

8.jpeg

 

9.jpeg

 

10.jpeg

 

11.jpeg

 

12.jpeg

 

13.jpeg

 

14.jpeg

 

15.jpeg

 

16.jpeg

 

17.jpeg

 

18.jpeg

 

19.jpeg

 

20.jpeg

 

21.jpeg

 

22.jpeg

 

23.jpeg

 

24.jpeg

 

25.jpeg

 

26.jpeg

 

27.jpeg

 

28.jpeg

 

29.jpeg

 

30.jpeg

 

31.jpeg

 

image n°32 (algo ms55) :

32.jpeg

 

image n°33 (Kant) :

33.jpeg

 

PS : le résultat serait nettement meilleur si les images n°1 et n°33 n'avaient pas été traitées avec WinJupos mais avec un algorithme gérant un flot optique de précision.
Pour le vérifier, il suffirait d'avoir les quelques images ayant permis de produire les images n°1 et n°33. 😉

 

La vidéo  :

jup_kant.gif.670d2eaab3c8269b32ff2173c07704ee.gif

 

Qualité des images :
q_kant.png.8d82948b481b5d3530a1e0ca184036f2.png

La linéarité est presque parfaite.

 

Je serais maintenant curieux de voir la même manip avec WinJupos parce que quand je vois les critiques sur le forum d'à coté, il y a de quoi tomber de sa chaise. 🤣🤣🤣

 

Modifié par ms55
  • Gné? 1
Posté

Pour ma part je ne suis pas impressionné par les satellites. Avec Photoshop on peut les coller facilement, c est ce que tout le monde fait quand on fait une derotation par winjupos.

 

par contre l’ombre qui suit m’intrigue. J’avoue que ça c’est pas commun.


malheureusement on ne peut pas tester, pour ma part je n’ai pas Linux, et d’autre part lorsqu’une connaissance a jeté un œil en essayant, il n’a rien compris ne serait ce qu’à l’installation. 
 

C’est donc très compliqué d’avoir le

moindre jugement. Tant qu’il m’est impossible de refaire la manip, ben ça ne me sert à rien.

 

 

  • J'aime 1
Posté
il y a 46 minutes, kant a dit :

Pour ma part je ne suis pas impressionné par les satellites. Avec Photoshop on peut les coller facilement, c est ce que tout le monde fait quand on fait une derotation par winjupos.

Ça fait un traitement supplémentaire mais si les utilisateurs de WinJupos y trouvent leur compte, tant mieux.

 

Citation

par contre l’ombre qui suit m’intrigue. J’avoue que ça c’est pas commun.

Un algorithme de flot optique devrait être robuste aux occlusions, il semble que ce ne soit pas le cas avec WinJupos.
Comment faites vous avec WinJupos quand la GTR passe de l'autre coté du globe ?

 

Citation

malheureusement on ne peut pas tester, pour ma part je n’ai pas Linux, et d’autre part lorsqu’une connaissance a jeté un œil en essayant, il n’a rien compris ne serait ce qu’à l’installation. 

Oui c'est un problème qui devrait être résolu avec l'ouverture d'un site internet en janvier 2022, je voulais le terminer pour fin 2021 mais comme je veux faire du pas à pas ça prend du temps.

 

Citation

C’est donc très compliqué d’avoir le

moindre jugement. Tant qu’il m’est impossible de refaire la manip, ben ça ne me sert à rien.

Cela montre déjà qu'il y a une autre façon de faire et peut-être que cela servira un jour à ceux qui utiliseront le logiciel "turbu". 
Moi cela m'a servi de test pour l'algorithme qui calcule la qualité d'une image, les valeurs se répartissent linéairement entre l'image n°1 de meilleure qualité et l'image n°33 de qualité moindre, ce qui est bon signe.

Posté (modifié)

Retour sur une vidéo présentée fin août 2021 sur ce fil (à l'époque, je n'avais pas implémenté la dérotation) :

 

Aujourd'hui, j'ai remplacé l'utilisation du deep-learning par l'utilisation d'un algorithme de dérotation (flot optique de précision gérant les occultations) dans le logiciel "turbu version 1.0" :
- à gauche les images 59 à 115 issues de la vidéo assistée réalisée avec "turbu version 0.1" le 11 août 2021 entre 1h57 et 3h04 TL,
- à droite les images obtenues avec l'option dérotation du logiciel "turbu version 0.1" sur 16 minutes (j'ai fait d'autres essais avec 10/12/14/16/18/20 minutes).
Cette vidéo montre aussi la gestion des occultations (occlusions) lors du passage de la GTR au bord du globe :
jup_derot_16.thumb.gif.facb9e4a81f26a0970f1c5d5aee0fab0.gif

 

La GTR au bord du globe :
98.thumb.png.48ba810c6660cab06da0301519387045.png

 

La meilleure image dérotée de la vidéo :
66.thumb.png.c8c32d091aa32310d897e4beb8d64c9f.png

Voilà, je pense avoir fait une présentation assez complète de la dérotation avec "turbu version 0.1" : pas d'artefact, gestion des occultations, des satellites, des ombres de satellites. 😉
C'est le même algorithme de flot optique de précision qui est utilisé :
-
pour créer les images n°2 à n°32 à partir des images n°1 et n°33 de Kant (2 images espacées de 20 minutes en entrée donnent 31 images en sortie),
- pour créer les images de droite de la vidéo ci-dessus à partir des images de la vidéo assistée du 11 août 2021 (une rafale de 15 images en entrée donne une image dérotée en sortie).
Le but de la dérotation est de réduire le bruit et de montrer plus de détails, je pense que cet algorithme répond à cela.
Le logiciel "turbu version 0.1" permet :
- d'obtenir des images comme celles de gauche dans la vidéo ci-dessus,
- d'améliorer, si besoin, ces images en faisant appel à la dérotation.
La dérotation pouvant se faire en cours d'observation ou après coup, elle permet d'obtenir des images de meilleure qualité, c'est plus de l'astrophoto que de la vidéo assistée.
La prochaine version de turbu intégrera un modèle de dégradation en entrée et une amélioration de l'algorithme de déconvolution aveugle. Cela devrait permettre d'obtenir de meilleurs résultats en conditions plus dégradées.

Mes prochaines interventions se feront sur les sites gpu-vision ou sur le forum Nvidia Jetson à partir de janvier 2022.
L'ouverture des sites gpu-vision est prévue mi-janvier 2022.

Modifié par ms55
Posté (modifié)

Bonsoir et bonne année ! :)

 

Le 31/12/2021 à 19:40, ms55 a dit :

la gestion des occlusions

 

Occlusions ???

ou  occultations ?

 

Par ailleurs, j'ai un peu de mal à suivre le dernier message du 31/12

J'en suis là :

1. @ms55 était parti initialement de deux images nommées *1 et *33, proposées par @kant, issues d'un traitement que je qualifierais de "classique" , à partir de vidéos brutes et incorporant entre autres une dérotation WinJupos.

2. Maintenant, il nous propose :

A gauche les images de la vidéo assistée réalisée avec "turbu version 0.1".
A droite avec l'option dérotation du logiciel "turbu version 0.1" sur 16 minutes (j'ai fait d'autres essais avec 10/12/14/16/18/20 minutes).
Cette vidéo montre aussi la gestion des occlusions lors du passage de la GTR au bord du globe :

 

Je comprends :

 

a)  que la vidéo assistée à gauche n'est plus la séquence  de 31 images interpolées entre *1 et *33 à l'aide d'un algorithme inclus dans "turbu version 0.1" et  présentées individuellement plus haut, mais ???

        - Une séquence de 57 images issues de ???   Deux images de @ms55 ?

 

b) que la vidéo assistée à droite est la séquence ci-dessus après en plus un traitement de dérotation à l'aide d'un algorithme aussi inclus dans "turbu version 0.1"          

          - assurant un important gain de qualité d'image, montré en particulier sur la meilleure image de la séquence

 

J'ai bon ?  :)

 

PS :

D'ailleurs pourquoi le terme "assistée" ?

Personnellement, je réserverais plutôt ce terme à une production en temps réel de ce que je pensais être l'objectif recherché par @ms  il y a plus de 3 ans simulée ainsi :

http://nebulium.free.fr/vids/Lune_EVA0.mp4

.

A gauche, la vision à l'oculaire

A droite, ce que l'on voit sur l'écran en sortie

On y  remarque le retard normal à la mise en route du système et la gestion correcte de la dérive lente due à un défaut de suivi.

Explications plus détaillées et crédits ici (en face)

 

 

 

Modifié par Nebulium
  • Merci / Quelle qualité! 1
  • 3 semaines plus tard...

Rejoignez la conversation !

Vous pouvez répondre maintenant et vous inscrire plus tard. Si vous avez un compte, connectez-vous pour poster avec votre compte.

Invité
Répondre à ce sujet…

×   Collé en tant que texte enrichi.   Coller en tant que texte brut à la place

  Seulement 75 émoticônes maximum sont autorisées.

×   Votre lien a été automatiquement intégré.   Afficher plutôt comme un lien

×   Votre contenu précédent a été rétabli.   Vider l’éditeur

×   Vous ne pouvez pas directement coller des images. Envoyez-les depuis votre ordinateur ou insérez-les depuis une URL.

  • En ligne récemment   0 membre est en ligne

    • Aucun utilisateur enregistré regarde cette page.
×
×
  • Créer...

Information importante

Nous avons placé des cookies sur votre appareil pour aider à améliorer ce site. Vous pouvez choisir d’ajuster vos paramètres de cookie, sinon nous supposerons que vous êtes d’accord pour continuer.