Aller au contenu

Messages recommandés

Posté

Ah ben quand même, on a failli attendre hein !!!!!

Bon je le dis ici, mais faut féliciter Cyril qui vient de passer le WE complet à corriger des bugs de dernière minute pour la version Windows...

Bravo, ça tombe pile-poil pour le long week-end prolongé de l'ascension. Va y avoir un paquet d'images de faites, entre les RAP, les RAS, les NAT etc...

 

Et je confirme, cette 0.9.11, c'est de la balle !!

 

La semaine prochaine, je ferai une grosse mise à jour de mon tuto avec nouvelles copies d'écran pour être en phase avec cette version.

  • Merci / Quelle qualité! 2
Posté
Il y a 3 heures, lock042 a dit :

Nouvel outil de filtrage des images lors de l'empilement. En effet, il est maintenant possible de filtrer et de croiser les filtres afin d'obtenir un jeu de données de qualité. Ceci est très utile dans le cas du ciel profond rapide ou le nombre d'image peut parfois frôler les 100 000.

 

Albéric @xs_man ça c'est pour toi :)

Un filtre basé sur la FWHM

+ Un autre filtre basé sur la rondeur des étoiles

 

Par exemple tu lui dis "garde-moi toutes les images dont la FWHM moyenne est inférieure à 2" d'arc" couplé avec "garde-moi toutes les images dont la rondeur est supérieure à 0.95", et SiriL t'empile le tout.

 

Et ceci peut se mettre dans un script si tu ne veux pas le faire à chaque fois manuellement.

Posté

Nouvelle version téléchargée et installée.

Merci pour le travail de titan réalisé.

Y a plus qu'à attendre le tuto de colmic mis à jour 😉

Posté

Merci pour l'annonce et les réponses. Je vais recopier ce que j'avais dit pendant le développement dans la discussion de la précédente version, au sujet de l'utilisation des ressources de l'ordinateur :

 

Nous avons fait beaucoup d'améliorations pour les systèmes à peu de mémoire :

  • l'espace disque est mesuré avant les opérations qui ont besoin de beaucoup de place, comme la registration globale ou l'agrandissement des images pour le faux drizzle
  • la mémoire libre est mesurée avant les opération qui en utilisent beaucoup : empilement, dont normalisation et agrandissement des images si activé
  • le nombre de threads actifs s'adapte à la mémoire libre pour la normalisation et l'agrandissement des images, vu que ça en consomme beaucoup et que ce n'est pas diminuable, selon la taille des images et les ordinateurs on ne peut en faire qu'une à la fois

Tout cela a été particulièrement fait pour tourner sur ARM 32 bits avec 2G de RAM. J'ai pu traiter des centaines d'images de 4096x4096 en drizzle x2 (donc 8192x8192) sur ces petites machines qui ne consomment pas beaucoup, tout en automatique avec en prime le filtrage des meilleures images de la séquences pour l'empilement. A mon avis c'est une bonne alternative si on a la fibre : on envoie ses images sur internet, on laisse tourner quelques heures et on a le résultat, pour beaucoup moins d'énergie qu'un PC à la maison, et surtout on peut toujours se servir du PC de la maison pendant ce temps. Je suppose qu'on doit pouvoir faire pareil avec un raspberry-pi ou équivalent mais le stockage est plus limité dans ce cas. J'ai fait mes tests avec le serveur scaleway C1, à 3 euros par mois, 4 cores ARM7 avec SSD c'est bien suffisant pour des images monochromes.

 

On peut aussi choisir le nom de l'image empilée depuis les scripts, et utiliser plusieurs filtrages sur le même empilement (depuis l'interface graphique aussi), par exemple rondeur des étoiles et FWHM.

  • J'aime 1
Posté

Pour rebondir sur ce qu'a dit @vinvin le traitement sur les petites machines est vraiment optimisé, j'ai fait de nombreux tests sur une tinkerboard (nafbox) et pour la même séquence test ,  j’obtiens sur la tinker qui2 a Go de Ram un temps de traitement d'environ 8 minutes alors que sur mon I5 (plus tout récent ) avec 16 GO de Ram nous sommes à  un peu moins de 2 minutes. La tinker ça ne consomme rien en énergie et ça laisse le pc disponible 😉

  • J'aime 1
  • Merci / Quelle qualité! 1
Posté
il y a 39 minutes, Argonothe a dit :

Pour rebondir sur ce qu'a dit @vinvin le traitement sur les petites machines est vraiment optimisé, j'ai fait de nombreux tests sur une tinkerboard (nafbox) et pour la même séquence test ,  j’obtiens sur la tinker qui2 a Go de Ram un temps de traitement d'environ 8 minutes alors que sur mon I5 (plus tout récent ) avec 16 GO de Ram nous sommes à  un peu moins de 2 minutes. La tinker ça ne consomme rien en énergie et ça laisse le pc disponible 😉

Ça c'est vraiment top, merci beaucoup

Posté

Hum attention, la conso c'est le produit du temps par une tension et un ampérage instantané. Faudrait faire un bilan énergétique plus précis. Mais je pense que ça doit quand même être à l'avantage des petits PC monocarte. Les circuits ARM ayant la réputation de consommer peu vs les circuits INTEL à iso charge.

 

Posté (modifié)

Il semblerait que les anti virus peuvent foutre le bazar sous Windows.

Modifié par lock042
Posté
il y a 24 minutes, lock042 a dit :

Il semblerait que les anti virus peuvent foutre le bazar sous Windows.

 

C'est en réponse au problème de photométrie au-dessus que tu dis ça, ou de manière générale ?

 

Parce que ça, on l'a depuis la 0.9.9 en fait. Et c'est uniquement dû au fait que l'installeur exe n'a pas de signature logicielle (payante auprès d'un organisme de certification type Verisign).

Comme il n'y a pas de signature, certains anti-virus refusent de l'exécuter.

La seule solution serait de payer la certification Windows, mais on s'y refuse :)

 

il y a une heure, Misterying a dit :

j'ai testé l’étalonnage par photométrie  mais j'ai une erreur a chaque coup

 

Personnellement j'ai testé longuement l'étalonnage par photométrie (avec la dernière version Windows of course) et ça marche bien chez moi.

Si erreur, il faut essayer de modifier les paramètres de focale et taille de pixels.

 

Attention également si vous avez traité auparavant en drizzle : il faut alors doubler la focale (ou la taille pixels, peu importe).

 

Exemple : M8 et M20 au foyer de la FSQ106 à 530mm de focale sur le A7S (pixels de 8.6µ).

En drizzle, je donne donc une valeur de focale de 1060mm avec des pixels de 9µ (c'est de l'à peu près !) :

 

image.thumb.png.004831595bc6b9923d10d79f83943df2.png

 

Je clique sur valider, et voici le résultat

 

image.thumb.png.81da030ac25af8f228f3d43eb6bb40b2.png

 

Au passage, il a calculé la vraie focale à partir de pixels de 9µ, à savoir une focale résultante de 1139mm.

Regardez les couleurs sur M8 et M20 par rapport à l'image non traitée, bluffant non ?

 

  • Merci / Quelle qualité! 1
Posté (modifié)
il y a 26 minutes, Colmic a dit :

C'est en réponse au problème de photométrie au-dessus que tu dis ça, ou de manière générale ?

En fait sur FB je viens d'avoir une longue discussion. L'outil photométrique peut systématiquement échoué, et mon seul diagnostique est que l'AV bloque Siril sur une écriture dans un fichier qui empeche de faire tourner cet algo !!

Sinon je vois pas, j'ai essayé une des photos incriminés et ca a marché du premier coup. ET l'indice que j'ai est qu'il a eu ce message au lancement :

 

61752459_1084933918363713_4310248536236097536_n.jpg

Modifié par lock042
Posté
Il y a 1 heure, Colmic a dit :

il faut alors doubler la focale (ou la taille pixels, peu importe).

Par contre c'est doubler la focale ou diminuer la taille des pixels par deux

Posté

fonctionne bien avec la nouvelle version de sirilic (en .exe sur win64, pas besoin de python). merci colmic

 

du coup en 2 clic : j'ai le tri auto (par FWHM et Rondeur (round)) + le prétraitement.

 

petit test rapide d'étalonnage couleur par astrometry : les métadonnée de l'image fonctionne, super pratique (image réalisé sous N.I.N.A en FITS), effectué sur image CCD couleur. Plus besoin d'ajuster le vert

 

gradient, en mode rapide : des progrès par rapport à la version 10

 

 

Posté

Bonjour à toute l équipe

juste pour vous dire que la calibration photométrique, c est vraiment TOP

bientot, Toshop sera à ranger dans les archives 😎

 

Bravo !!!

 

Posté

Bonjour,

Je pose peut-être une question à deux francs six sous, mais connaissez vous sous SIRIL un moyen d'évaluer rapidement la qualité des darks/bias/flats (autres que lights) ds une séquence avant de créer le Master associé ?

Par ex pour les darks, le but serait d'évaluer l'évolution de leurs stats ds le temps, éventuellement pour les trier avant empilement en Master, ou pour détecter un pb/dégradation de refroidissement/chauffe ds le temps ou autre.

Un peu comme l'évaluation réalisée par la fonction PSF sur une séquence de lights par ex.

A part appliquer la fonction STAT sur chaque image, ou faire un LOAD image suivi d'un STAT pour chaque image ds un script, puis tout ranger ds un tableur, je ne vois pas comment faire bcp plus rapide et pratique.

--> Dans mon cas je pense que c'est plus par curiosité que par besoin, pour voir éventuellement jusqu'à quel dark je peux empiler par ex ?

--> Ça pourrait éventuellement être intéressant en poses rapides ?

Posté
il y a 8 minutes, Stéphiou a dit :

éventuellement pour les trier avant empilement en Master,

A quoi ca servirait ?? Une moyenne n'a que faire de l'odre. Les problèmes des pixels sont justements reglé en empilant les darks avec un mode de rejet.

Tes darks sont censés être tous identiques, sinon c'est que tu as une fuite de lumière.

 

Pour l'instant les stats ne sont pas applicable a une séquence.

il y a 9 minutes, Stéphiou a dit :

--> Ça pourrait éventuellement être intéressant en poses rapides ?

Non, pourquoi ?

 

En pose rapide tu prend un film SER de qq seconde contenant une 100aines de dark et puis tu empiles sans normalisation et en moyenne avec rejet et basta.

Posté
il y a 28 minutes, lock042 a dit :

Tes darks sont censés être tous identiques, sinon c'est que tu as une fuite de lumière.

En effet justement ds ce cas, pour éventuellement détecter une dérive des conditions en température, une fuite de lumière, ou autre.

 

il y a 34 minutes, lock042 a dit :

En pose rapide tu prend un film SER de qq seconde contenant une 100aines de dark et puis tu empiles sans normalisation et en moyenne avec rejet et basta.

OK, j'avais pas pensé au SER.

Et finalement même en APN avec un temps d'expo d'1s max en shutter électronique et une 100aine de darks, la séquence de shoot prendrait 200-300s avec les temps d'enregistrement, soit un risque de dérives quasi nul sur moins de 5mins.

 

Ne reste que la curiosité de voir comment les darks évoluent ds le temps :be:

Posté

On m'avait dit que les observatoires professionnels faisaient un dark entre chaque light, pour avoir une évaluation de la réponse du capteur au plus proche du moment de l'acquisition réelle, je ne sais pas par contre comment ils traitent ça ensuite... Est-ce une moyenne pondérée entres un master dark et les deux darks autour de la light, pour chaque light ? En tout cas je ne sais pas à quel point ça évolue pour répondre à ta question, j'ai un peu l'impression que ce n'est qu'aléatoire tout ça...

Posté (modifié)

Bonjour et Bravo à toute l'équipe pour le résultat. 

J'en profite pour poser une question. 

En composition L_RVBH. par exemple, il est recommandé d'utiliser les monochromes déjà étirées. Ensuite on ajuste la balance des blancs. Quid avec la couleur par astrométrie sachant qu'il faut opérer à partir des stacked pas étirées? 

J'ai testé mais pour le coup je n'ai pas beaucoup de bleu et le Ha est inexistant. 

Une info ? 

Merci par avance. 

IMG_20190529_194016.jpg

Modifié par Nimbus
Posté

Merci le team ... j apprécie vraiment le tri c est super super :))  

et un grand merci à Manu pour l’optimisation des algos,  siril pedale vraiment vite . Même plus le temps d aller prendre  un café et c est déjà stacké ... super . Grosse amélioration . 

  • En ligne récemment   0 membre est en ligne

    • Aucun utilisateur enregistré regarde cette page.
×
×
  • Créer...

Information importante

Nous avons placé des cookies sur votre appareil pour aider à améliorer ce site. Vous pouvez choisir d’ajuster vos paramètres de cookie, sinon nous supposerons que vous êtes d’accord pour continuer.