Aller au contenu

Wan186

Membre
  • Compteur de contenus

    625
  • Inscription

  • Dernière visite

Tout ce qui a été posté par Wan186

  1. Wan186

    Svbony powerbox

    Je suis tombé dessus via Facebook... C'est un sacré bon plan. Surtout que SV Bony est assez fiable. Je l'ai acheté aussi (sur le site SVBony). Apparemment livraison entre le 5 et le 10 Juin (vu que c'est le délai si acheté via Amazon). ---- Edit: je viens de voir qu'ils vont sortir un autre modèle en Juin. Il y aura le contrôle des résistances chauffantes intégré (mais pas plus d'infos en dehors qu'elle ne sera pas compatible NINA).
  2. Wan186

    Svbony powerbox

    Je suis tombé dessus via Facebook... C'est un sacré bon plan. Surtout que SV Bony est assez fiable. Je l'ai acheté aussi (sur le site SVBony). Apparemment livraison entre le 5 et le 10 Juin (vu que c'est le délai si acheté via Amazon).
  3. Edit de la check liste, pour ajouter: -l'avant session -la question du retournement au méridien -et l'utilisation éventuelle d'aux-mount sur "demander les coordonnées".
  4. Je viens de voir que lorsqu'on est en avec comme monture "On-Camera", on peut aussi utiliser en supplément pour la monture auxilière "demander les coordonnées". On peut ainsi spécifier lors des calibrations ou au démarrage du guidage, de quel côté le télescope pointe ainsi que la déclinaison, ce qui permet ainsi à PHD2 de choisir la bonne calibration et de l'adapter en conséquence 😉
  5. Tu es mon sauveur! Nul part je trouvais cette info, merci !
  6. @rmor51: sur les forums du Github d'Indi... Mais je viens de voir que çà dépend du driver. Et en vérifiant directement sur PHD2, quand tu es en camera mount, tu n'as aucun paramétrage Indi... Donc pas possible. J'ai l'impression de bugger... Ou on ne me comprend pas? Je me doute que je fais un retournement manuel. Mais après le retournement donc, je dois refaire une calibration? Juste pour que les moteurs fonctionnent à l'envers? C'est vache 😓
  7. Non. ST-4 directement sur la caméra de guidage. J'ai un kit vraiment tout simple.
  8. Je me doute, mais comme j'ai juste un kit moteur qui n'a pas d'encodeur ou de slew... Donc je ne peux rien automatiser. Ou Ekos peut faut une résolution astrometrique à la limite, pour ajouter les coordonnées équatoriales et gérer le paramètre peer side? C'est possible? Vu ma config, la question c'est: comment PHD2 va savoir si je suis côté Est ou Ouest et utiliser la bonne calibration? Sur les vieilles versions, on pouvait le spécifier pendant l'autoguidage sur la fenêtre principale...
  9. @Tyler Bonne info pour certains. De mon côté je suis avec un kit moteur SW qui a la raquette style Lacerta rouge. Donc en ST-4, branché directement sur la caméra de guidage... Donc pas d'info contradictoire comme pour l'EQMOD, car pas d'infos tout cours 😅 sur PHD2, j'ai pearside=unknown... Et sur Linux, avec Indi Server. Donc pas possible d'utiliser GSS. --- Par contre je viens juste de lire qu'apparemment avec Indi, il était possible de forcer l'info pearside? Je n'ai pas vérifié pour l'instant si çà existe pour le driver "on camera"... Et pour ma caméra. Est-ce que cela veut dire: -arrêt du guidage -retournement manuel -changer l'info sur le driver Indi Et c'est reparti pour le guidage. Ou ça veut dire: -arrêt et retournement manuel -nouvelle calibration Puis on repart pour le guidage..? @rmor51 toi qui est branché Linux, tu as des infos sur le paramètre pearside (W et E) sur Indi ? --- Au pire je suppose que si je refais la calibration, PHD2 s'en fiche de savoir si je suis côté Est ou Ouest? Il sait dans quel sens piloter. Mais est-ce que l'algo prédictif ne travaillerait pas dans le mauvais sens et aurait besoin d'une nouvelle phase d'apprentissage? Car là ça serait 1h de calibration à chaque retournement ou début de session 🫠 ou devoir utiliser un des autres algo... (Sacrément dommage)
  10. Salut tout le monde. Suite au sujet suivant: Je viens de découvrir que PHD2 peut avoir besoin d'être paramétré pour le retournement au méridien. Pour certaines montures, tout va bien: la monture va automatiquement gérer la chose. Sauf que pour certaines montures ou dans mon cas (pas de GOTO ni de slew), et bien il faut apparemment malgré tout paramétrer PHD2 pour que tout se passe bien... En cherchant un peu, j'apprends l'existence dans la config avancée de la case "Reverse Dec output after meridian flip". Sauf que d'après la doc: "changer si c'est coché ou non, çà fait wallou-quetchi, et çà changera qu'après la prochaine calibration". Je cite la doc dans son language plus Shakespearien: En fouinant les tréfonds du Babel-Oueb, je tombe effectivement sur plus d'une personne qui s'est cassé les dents aussi fort qu'un Baumgartner qui aurait oublié son parachute. Et surtout une discussion sur les groupes Google, qui semblent être plus proche du vrai Necronomicon que les infos douteuses que je trouve à droite à gauche, et qui se résument à "mets-toi en pulse et décoche la case". La discussion ici: https://groups.google.com/g/open-phd-guiding/c/JnvV4C5ogiQ ---- Et c'est là ou arrive l'inconnue dans toutes les infos que j'ai glané: Donc 3 cas de figure: -votre monture gère tout, pas de soucis, merci au revoir, passez le bonjour à votre bonne dame. -votre monture donne l'info ouest ou est, mais ne gère pas seul. Vous lancez la calibration de retournement au méridien une fois dans votre vie, et c'est bon. -votre monture ne donne aucune info, et à ce moment il faut faire un retournement manuel de la calibration... C'est quoi çà: "un retournement manuel de calibration"??? Ca veut dire cocher la case? Refaire une calibration complète?
  11. Je suis content de tomber sur ton post... Pour comprendre que PHD2 nécessite d'être paramétré pour le retournement au méridien. Je cite la doc: J'ai lancé un sujet à ce propos du coup.
  12. Wan186

    Ocal pro2 au secours!!!

    J'adore la réaction de @Raphael_OD sur ton dernier message @Tyler😂 Pour la version Android, c'est un fichier APK. Donc pas évident de t'expliquer car çà dépend du modèle. Mais il faut transférer le fichier sur ton tel / ta tablette, puis cliquer sur le fichier, et normalement tu as une notification de sécurité qui te propose de passer outre la sécurité. Par contre il faut un câble qui ne soit pas trop long, sinon la caméra n'est pas reconnue. Dans tous les cas, chaque application OCAL doit être "calibrée". Cela se fait grâce au numéro de série (à l'arrière de l'Ocal). Il faut télécharger le fichier Excel sur la page de téléchargement. Rechercher ton numéro de série dedans, et tu auras le "code calibration" à utiliser. Pour l'application PC: il y a un fichier nommé "focus", et il faut copier ce code en première ligne (donc supprimer si il y en a déjà un). Pour l'application Android: il faut faire un click long sur "save config". Si le code est par exemple: "0 0 1654.98 1248.83" alors il faut mettre 1654.98 pour la première ligne, et 1248.83 pour celle d'en dessous. Voilà 😉
  13. Finalement j'ai dis une bêtise... Ce n'est pas un étirement linéaire que je fais. J'utilise GHS, avec tout à défaut (donc 0 sauf protection des hautes lumières à 1), je change juste le facteur d'étirement. A faire donc après la déconvolution dans ce cas.
  14. Un petit étirement linéaire avant, vraiment léger, peut aider. Ne t'attends pas à des résultats parfaits quand il sépare. L'important c'est qu'une fois recombiné, le résultat est souvent propre.
  15. Wan186

    Question sur Phd2...?

    @Tyler ahh, donc tu parlais de l'erreur RMS. Mais du coup, tu mets un mouvement mini qui correspond à ton erreur..? 🤔 Je suppose que tu veux dire par là qu'une fois que tu as réduit au mieux ton erreur RMS, tu remontes pour éviter de chasser la turbulence?
  16. Bizarre ton tensorflow.dll... Il n'a pas le bon nom. Tu as téléchargé quelle version? Normalement son nom c'est juste tensorflow.dll
  17. @pe78420 ce n'est pas évident effectivement. Déjà comprendre quand on parle de linéaire ou non linéaire, et comment fonctionne chaque traitement (pas juste le résultat) aide beaucoup à comprendre l'ordre d'application. Starnet permet de séparer l'image en 2 images: -le starmask, qui ne contient que les étoiles. -le starless, qui contient tout le reste. Ça permet de travailler indépendamment chaque partie, puis de les recombiner: -on peut donc tirer le meilleur de chaque partie. -on peut définir à quel point les étoiles doivent être présentes sur l'image finale. Il faut télécharger Starnet, et dans les options de Siril lui specifier où le trouver.
  18. Alors: -j'aime pas utiliser les scripts Je préfère le faire à la main, avec pour commencer un alignement 2 passes. Pourquoi? -> déjà car j'aime filtrer les images que j'utilise, à travers l'onglet "graphique", en fonction de la FWHM et de la rondeur des étoiles. -> ensuite car çà permet de demander à Siril de faire une méthode de cadrage "au minimum" -la suppression de bruit vert se fait en toute fin. Elle peut flinguer la déconvolution. -ta méthode pour le retrait de gradient est bien trop rigide. La plus efficace que j'ai trouvé en essayant tous les tutos: à la main. On place chaque point en dehors des étoiles ou de l'objet. Un point à chaque coin de l'image, un point au milieu de chaque bord, puis plusieurs points autour de l'objet. J'ajuste le lissage en fonction de mon goût. -La déconvolution peut se faire en aveugle sur une starless, ce qui produit de meilleurs résultats. Mais c'est difficile. -D'ailleurs je ne vois nul part que tu utilises Starnet. Alors que pour moi c'est indispensable, sinon c'est saturé d'étoiles, ce qui rend l'image "bordélique". -Je n'utilise pas de transformation asinh, car je trouve qu'elle modifie trop les couleurs. -Je n'utilise pas non plus l'égalisation d'histogramme, car elle est trop grossière comparé aux GHS, et régulièrement on perd du signal. Mais oui, çà ce fait tel que tu le cites malgré tout. -Réitérer les étapes 7 à 9? Non. Soit tu as mal fait tes étapes 7 à 9, soit c'est qu'il faut passer par les GHS. Répéter des opérations, c'est dégrader l'image. ----- Après, chacun a sa recette. Certains ne veulent pas faire de GHS ou de Starnet, d'autres ne veulent pas faire de déconvolution, d'autres utilisent des logiciels à certaines étapes... Pour moi, c'est toujours SIril + GraXpert (pour denoise et deconvolution, mais pas pour le gradient) + Starnet + Lightroom à la fin. Toujours le gradient en manuel, et toujours GHS et jamais asin ou histo.
  19. Wan186

    Question sur Phd2...?

    Bah je suis l'un des rares à comprendre de suite apparemment. Il faut que çà fasse moins de la moitié d'un pixel de la caméra principale. Sauf que la valeur du réglage est pour la caméra de guidage. D'où la règle de 3, aveac le rapport d'échantillonage... Si ta caméra principale a des pixels de Pi um, et la focale de ton télescope est de Fi Que ta caméra de guidage a des pixels de Pg, et la focale de ta lunette guide est Fg. Tu dois mettre au maximum 0.5*(Pi/Pg)*(Fg/Fi). Un exemple avec mon matos: -pixels imagerie 3.04 um. Focale télescope avec correcteur de coma: 681mm. -pixels guidage 2.9 um. Focale lunette guide 240mm. Je dois donc mettre au maximum 0.5*(3.04/2.9)*(240/681) = 0.1847. Donc 0.18. ------- Par contre, le tuto que j'ai, c'est 1/3 à 1/4 de l'échantillonnage... Pas la moitié. 😂 Donc çà fait 0.0924 (soit 0.10) -------- Ecoute Tyler. La voie de l'expérience... Par contre là, c'est moi qui ai rien compris 😂 Qu'est-ce que tu veux dire par "le guidage est à 0.12 px en AD"?
  20. Ca dépend de ce que tu utilises: déconvolution? starnet? denoise avec GraXpert ou autre? Ca dépend aussi de quoi tu nous parles: depuis les brutes? Ou une fois stacké?
  21. Si. Ca dépend de la taille des pixels de ta caméra d'imagerie et de celle d'autoguidage. Je te laisse utiliser cet outil pour voir si tu obtiens le bon ratio: https://astronomy.tools/calculators/guidescope_suitability Il existe des adaptateurs pour mettre une caméra guide dessus. Ex: https://www.firstlightoptics.com/adapters/astro-essentials-sky-watcher-9x50-finder-to-c-adapter.html Certains l'utilisent ainsi, directement sur son support d'origine. Après il faut pas s'attendre à un truc très efficace. L'autoguidage nécessite d'avoir la lunette guide coaxiale avec le télescope. Et le support de base n'est pas du tout prévu pour çà (O-ring en caoutchouc). D'autres l'adaptent donc avec des anneaux de support. Ex: https://stargazerslounge.com/topic/359940-converting-9x50-finderscope-to-guidescope/
  22. Oui, puis ce n'est de toute façon pas perdu... La lunette guide, la caméra de guidage, la power station, et le portable (ou l'ASIAIR) sont réutilisables sur un autre équipement. Et d'autant plus concernant la monture. J'ai pris du 240 quand j'aurais pu prendre du 180 pour respecter le ratio de 4, y compris si un jour j'achète une caméra d'acquisition avec des pixels plus petits qu'actuellement, ou une focale plus longue.
  23. Salut @GeoffreyJoe de mon côté: -NEQ5 + SW 150/750 PDS -kit dual axe raquette rouge -lunette chercheur 60/240 et Player-One Ceres M 462. Retour express: un seul essai, et j'étais à 1.38" RMS sans rien régler dans PHD2, et avec la 240 montée sur un support chercheur. Honnêtement, çà change la vie. Je peux enfin dépasser les 30s... Avant, à partir de 1 min j'avais 70% de déchets. J'ai fait 2 min (j'ai pas encore testé plus) avec des résultats meilleurs que 30s. L'EQ5 a beaucoup de potentiel, certains ici sont passés sous les 0.5", et je pense que prochaine fois je tombe sous les 1" facilement: -j'ai changé de support (j'ai un rail femelle Vixen entre les 2 colliers du télescope, et des anneaux avec un rail mâle plutôt long pour le chercheur). La flexion, c'est le pire ennemi... -je vais passer en algo prédictif. -je vais faire une méthode drift pour l'alignement via PHD2. -je vais pas chasser la turbulence (j'avais des expos de 0.1s... Je vais monter à 2s). -et je sais comment régler PHD2. Inconvénients: -çà me demande de ramener encore plus de cables, mon portable, une table, une power station, en plus du matos de guidage. -çà demande encore plus de temps de montage, et encore plus de temps de préparation. Je pense que çà me rajoute bien 1h - 1h30 pour démarrer... Entre le montage, le démarrage des logiciels, le réglage de la cam de guidage et son focus, la calibration, l'alignement par méthode drift, puis vérifier l'autoguidage et l'affiner...
  24. Je me fais un petit mémo de ce que je dois faire lors d'une séance... Les points en parenthèses sont normalement fait qu'une seule fois. Les points entre crochets sont une piste à vérifier ---------------------------------------------------------------------- Avant le départ ---------------------------------------------------------------------- Charger les 2 batteries de l'APN (XT-5) à fond. Charger la station d'alimentation. Charger la tablette et le portable. S'assurer qu'il y a bien une des batteries dans l'APN (XT-5). Mettre le XT-5 dans la mallette ainsi que la batterie supplémentaire. Prendre: -le tube -la monture -la mallette à accessoires -la lunette guide avec ses anneaux -les 2 câbles USB de 3 mètres. -le masque de Bahtinov -la boite à flat -la boite de distribution électrique -l'alimentation -le matériel de nettoyage optique -la tablette et le portable -la table et la chaise -la lampe frontale -les piles de rechange (lampe frontale, viseur point-rouge) ---------------------------------------------------------------------- Pré-installation. ---------------------------------------------------------------------- Sur l'APN (Fuji XT-5), avant de l'installer: -dans les options: vue en direct naturelle sur ON, IBIS sur OFF, mode USB sur tether auto, shutter en ES, shoot without LENS sur ON. -se mettre en MAP manuel, mode S, A pour ISO (géré par Indi), B pour l'exposition. -faire la MES. -faire une dernière collimation. ---------------------------------------------------------------------- Préparation de l'autoguidage ---------------------------------------------------------------------- -Lancer le serveur Indi via le raccourci (à lancer avant Indigo!). Sinon la commande: indi_server -v indi_playerone_ccd -lancer PHD2, connecter la caméra d'autoguidage et la monture [mettre en monture aux: "demander les coordonnées"]. Penser à mettre en 16 bits pour la caméra de guidage. -faire la MAP, trouver le bon couple expo/gain. Expo de 2s, au mini 0.5s. -regarder un profil d'étoile, changer l'offset si utile. -(faire la bibliothèque de dark). Faire le drift align! Lancer une calibration. (shift + click sur icone cerveau) ET/OU (?) faire la calibration du retournement au méridien Réglages phd2: -mnmo 1/4 à 1/3 de l'échantillonnage, soit 0.0924 pour 1/4. -agr: regarder le champ OSC pour viser 0.5. Au dessus: baisser agr. En dessous: augmenter agr. -(dans config>avancée, mettre l'algo ASC sur prédictif. Longueur période 574.5 (ou 635?). PredPd à 50%. Plus l'erreur périodique est stable, plus on augmente. ReactPd 60%. Si trop d'oscillation ASC, on diminue. -(algo DEC en résistif. Activer compensation du jeu. Quantité: démarrer à 1000, s'ajuster seul ensuite. Attention: change suivant la déclinaison, donc à refaire si besoin). Agr à 60% à 70%. -(Cocher période d'auto ajustement dans l'algo ASC, laisser tourner 1h) Enfin, ajustement des paramètres. Objectif: que la valeur RMS AD = RMS DEC. ---------------------------------------------------------------------- Préparation de l'acquisition ---------------------------------------------------------------------- Pointer l'objet [si aux mount: spécifier l'angle dec et le côté de la monture] Modification du port Indigo pour le port 10000. -D'abord lancer le serveur Indigo via le raccourci. Sinon la commande: indigo_server -p 10000 indigo_ccd_ptp indigo_ccd_playerone -Lancer la connexion avec la caméra Fuji XT-5: sur Indi mettre Force Bulb sur OFF, SD Card sur delete, Save sur Remotely, Upload sur Local. C'est parti pour Bahtinov... Un shoot pour vérifier l'histogramme. Vérifier la règle des 3 sigmas si possible. (rapport fond de ciel/offset = 3) ---------------------------------------------------------------------- Retournement au méridien ---------------------------------------------------------------------- Désactiver l'autoguidage. Faire le retournement manuellement du téléscope. Dans outil -> modifier calibration -> cliquer sur "Basculer la calibration maintenant" OU [si monture aux sur "demander les coordonnées", mettre les coordonnées et le côté de la monture]
  25. Wan186

    Bandes de quoi ?

    C'est le bruit de lecture de ta caméra. Le seul moyen de le supprimer est d'avoir un meilleur SNR... Vu que tu sature déjà le canal rouge, çà veut dire plus de subs. Sinon, quand tu ne satures pas déjà dans les hautes lumières, tu peux augmenter le gain. Après tu as des outils de suppression des bandes sur les logiciels.
×
×
  • Créer...

Information importante

Nous avons placé des cookies sur votre appareil pour aider à améliorer ce site. Vous pouvez choisir d’ajuster vos paramètres de cookie, sinon nous supposerons que vous êtes d’accord pour continuer.