Aller au contenu

CCD1024

Membre
  • Compteur de contenus

    1590
  • Inscription

  • Dernière visite

  • Jours gagnés

    5

Tout ce qui a été posté par CCD1024

  1. Oui, si Richard Galli met le L2 en filtre standard large bande comme l'astrodon (qui ne peut pas être mis sur le sigma), le problème s'est posé pour le NBZ-UHS qui n'est pas dispo dans un format acceptable pour mettre dans un boitier. Mais il a bien géré ! Et oui, j'ai choisi de faire défiltrer définitivement le sigma en NBZ pour pouvoir utiliser les optiques monture L dès f/1.4. C'est un choix, d'où mes 2 boitiers Sigma fp
  2. Bonjour à tous Les boitiers Sigma fp et les optiques Sigma Art sont excellents en astrophotographie. De même pour le Lumix S5II équipé du même capteur de 24Mp qui permet des poses internes jusqu'à 60s. Le bruit et l'absence de banding et de corrections internes change de l'univers Sony (A7III avec ce même capteur, ou pire le A7s) et je retrouve même une qualité supérieure à la ASI2400MC (le sigma fp descend à 0.6 e- de bruit de lecture à 1600 iso) Un panel des images prises durant la 2eme quinzaine de Mai dans l'Aveyron et les Landes (sur seulement 2 nuits astro) Matériel utilisé (3 boitiers, 3 optiques, 3 montures) : Sigma fp défiltré et refiltré avec filtre Astronomik L2 Sigma fp défiltré et refiltré avec filtre DualBand Idas NBZ-UHS pour optique f/1.4 à 4 Panasonic Lumix S5-II standard Optiques Sigma monture L : 20mm F1.4 DN Art, 50mm f1.4 DN Art, 135mm f/1.8 Art Montures motorisées SW Star adventurer GTI, ioptron SkyGuider Pro, SLIK Vous pouvez retrouver les "full" sur ma galerie Astrobin : https://www.astrobin.com/users/Philippe.BERNHARD/ Les images dualband au 135mm sont traitées suivant la palette "Foraxx" Philippe
  3. Je vais maintenant utiliser du LiFePO4 qui est moins dangereux. Maintenant j'utilise en nomade des solutions intégrées avec des ports 12V et USB 5V comme celle-ci : https://www.ctechigroup.com/us-eu-jp-au-uk-voltoage-applicative-big-power-307wh-96000mah-portable-power-station La recharge (double) est rapide (AC + USB-C) L'autonomie est largement suffisante
  4. Le starless n'est pas une obligation mais ça simplifie grandement le traitement d'une image (essentiellement de nébuleuses) lorsqu'on veut tirer le maximum du fond de ciel (ou de la nébuleuse elle-meme). On traite la starless On traite les étoiles On assemble les 2 images. Les techniques sont multiples. Je dois mettre à jour mes tutos sur mon site mais mes méthodes changent aussi au cours du temps (et des images)
  5. Pour résumer - Un peltier c'est un "delta-T " maximum entre la température ambiante et celle qui sera techniquement possible d'atteindre. - Supposons un delta-T de 30°C. S'il fait +10+C dehors, la température minimum possible sera -20°C mais au prix d'une puissance maximum dans le peltier ce qui entrainera d'autres problèmes (voir ci-après) - Si on travaille à plus de 70 à 80% du peltier, on peut rencontrer des problèmes plus ou moins graves : usure prématurée du peltier, apparition de banding ou parasites dans l'image à cause du courant trop fort qui fait "rayonner" l'alim ou fait chuter un peu les tensions de base, décrochement de la régulation... En effet, le courant montre très vite vers 2 et 3A lorsqu'on dépasse les 75% (ce n'est pas lineaire) et si on est en nomade, on perd un peu plus en autonomie. - le refroidissement et réchauffement par pallier n'est pas nécessaire. Il n'y a pas de risque de choc thermique car en aucun cas la température passe de +20 à -20°C ou inversement ! - le hublot de certaines caméras est chauffant. C'est pas mal. - Le risque de givre est très limité. Les chambres des caméras sont souvent sous azote ou air desséché par silica gel (ou autre) mais dans un environnement humide ou lorsque le point de rosé se situe trop proche, alors il faut plutot activer le chauffage du hublot. (on n'est plus à l'époque SBIG où il y avait 3 litres de flotte dans la chambre du CCD (enfin partout dans la caméra) tellement elle condensait !! - le signal thermique n'est pas un problème, il se soustrait et il ne reste que le bruit thermique (je simplifie volontairement le raisonnement). De ce fait, vaut mieux un signal thermique un peu élevé mais bien corrigé qu'un signal plus faible mais pas bien corrigé - Les pixels chauds ne sont pas linéaires avec la température si le temps de pose sur les CMOS. Corriger une image de 2 minutes par un dark de 1 minute multiplié par 2 ne fonctionnera pas. On ne calibre pas les dark avec un masterbias. voilà, il y a un tas d'autres choses, mais bon... l'essentiel est là.
  6. CCD1024

    Traitement HOO sur PIX

    j’utilise un APN (sigma fp) où le filtre a été remplacé par un IDAS NBZ-UHS https://www.astrobin.com/sma3hh/ https://www.astrobin.com/096ae9/ traitement HOO et palette Foraxx
  7. Oui sauf que tu auras toujours le problème de la MAP dans le rouge ou proche infrarouge qui est décalée par rapport au bleu de au vert (chromatisme des lunettes et objectifs photos).
  8. Le capteur est conçu par FUJIFILM et "serait" fabriqué apparemment par Samsung (et non plus Sony) C'est donc un CMOS BSI X-Trans APS-C de 40Mp X-trans c'est la façon de concevoir une matrice spécifique (différente de celle de Bayer) donnant l'avantage aux pixels verts. Je ne pense pas qu'une version monochrome verra le jour... Le dématriçage est plus compliqué (mais l'algorithme existe dans les logiciels de prétraitement dignes de ce nom)
  9. Hello Il y a 3 problèmes 1) les coatings des lentilles des objectifs photo sont souvent limités en longueur d'onde typiquement 400-700nm 2) la MAP dans le proche IR est différente du visible. Donc des halo rouges autour des étoiles vont apparaitre lorsque tu auras la MAP dans le visible. 3) s'il n'y pas plus de filtre, la MAP est décalée dans le mauvais sens et il sera impossible de la faire à l'infini. Il faut donc refiltrer avec un filtre clair de la même épaisseur que celui que tu retires. Mais il y a une solution : tu défiltres complètement et tu ajoutes des filtres clipsés (si le boitier est compatible). Un filtre UV-VIS, puis un filtre NIR si tu veux faire du paysage infrarouge par exemple, un autre filtre narrowband.
  10. Bah je ne suis pas vraiment d'accord... Pourquoi fait-on du narrowband (et dualband) ? - Pour sortir les nébuleuses du continuum et donc avoir un meilleur rapport S/B - Pour pouvoir imager en ciel pollué Si tu ajoutes une luminance, tu choppes tout le signal du fond de ciel, et vraiment TOUT car tu es en luminance, donc adieu le rapport S/B pour le Ha et le OIII. Le OIII étant souvent assez faible en, il sera noyé dans la luminance... Bref, tu ne peux pas avoir le S/B du narrowband avec une luminance (qui aura un bon rapport S/B mais avec tout le spectre et toute la pollution). Va extraire du OIII la-dedans... J'ai la chance d'avoir pas mal d'images LSHORGB du fait de nos setup au Chili et il est donc possible de faire pas mal de tests puisque parfois on shoote un objet avec les 7 filtres... Meme sous un beau ciel, le LRGB ne rivalise pas avec le narrowband. Mais tu peux essayer...
  11. Alors un filtre LPS (style L-Pro, IDAS LPS,...) sera surement plus approprié. L'IR c'est pas mal pour les galaxies. Je ne suis pas sur qu'il soit "à tout faire". Il bouffe quand-meme pas mal de zones importantes pour le respect des couleurs et la sensibilité. Peut-être qu'en ciel pollué, il est plus ou moins efficace qu'un filtre LPS optimisé mais dans ces cas là (ciel très pollué), pas de miracle, il n'y a que les DualBand (étroits) qui vont bien fonctionner. Le IDAS me semble bien plus intéressant mais aura aussi ses limites comme j'ai expliqué plus haut. A voir les 1ers retours de ces 2 filtres. C'est toujours intéressant de voir qu'il y ait souvent des nouveautés en filtres spécifiques.
  12. Je pense que ce n'est pas fait pour être vraiment comparables Le IDAS semble plus bien intéressant : 1) faire une luminance dans l'IR proche est vraiment une bonne idée car la turbulence se fait moins sentir et c'est là où certains filtres (matrice de bayer) des capteurs couleurs commencent à être transparents donc N&B, et le ciel a moins de pollution lumineuse dans le NIR. 2) le problème de cette luminance dans le proche infrarouge nécessite que le capteur couleur soit défiltré (eh oui !!! ) ce qui posera un problème pour des grands capteurs style IMX571, 410, 455... car ils ont des filtres qui coupent après 700nm de mémoire 3) la couleur en Ha et OIII va éclairer respectivement les pixels rouges (Ha) puis les verts et bleus (OIII), MAIS aussi chacun des pixels sera mixés avec la luminance NIR. C'est plutot pas mal. Le Antlia a un peu moins d'intérêt... Un RGB plus étroit, rien de bien exceptionnel A la limite je préfèrerais un bon filtre anti pollution comme certains IDAS (LPS-D1 D2, D3 D4 je ne sais plus où ils en sont)
  13. Il faut avoir à l'esprit qu'une caméra couleur ou un APN restent des compromis en astrophoto. Tout sera meilleur en caméra mono et c'est assez simple à démontrer. Mais l'arrivée des capteurs CMOS couleurs de dernière génération vont quand-même améliorer les choses. Aussi, en nomade "couleur", il ne faut pas être gourmand en pixels : J'ai eu une ASI6200MC puis une ASI2400MC : theorie et pratique m'ont permis de voir que sur le même instruments, la 2400MC est 2.5x plus sensible que la 6200MC et ceci uniquement grâce à la surface de chaque pixel (5.94µm vs 3.76µm). Déjà c'est un point à ne pas négliger. Une remise à l'échelle en post-traitement (passer de 61Mp à 24Mp) ne redonnera pas le même S/B. Pour ton idée de dualband sur un capteur mon et un Ha derrière, non, ça ne peut pas être meilleur (ni pareil) que lu Ha et du OIII indépendants. "Dualband - Ha" ne donne pas OIII car les temps de pose sont différents (9h dual + 1h Ha ) donc tu ne supprimeras jamais le Ha du dualband (L) même en y appliquant un coefficient 8 ou 9. Et d'ailleurs, quel intérêt ? Puisque tu fais obligatoirement mieux en 5h Ha + 5h OIII. Après, tu peux bidouiller du synthétique mais ce n'est pas ouf. En narrowband, le OIII est bien plus sensible à la pollution lumineuse que le Ha (au Chili, ciel d'excellente qualité) on ne fait que du Ha les jours autour de la pleine lune. Le reste (OIII, SII, L, R, G, B ) c'est 1 semaine avant et après. En France, c'est encore pire car la lumière de la lune diffuse encore plus dans le ciel et encore plus dans le bleu et vert que le rouge. Pour le traitement, il y a des techniques simples pour booster le signal OIII en fonction du Ha (sous pix, ça se fait en 1 équation "pixelmath")
  14. Je rejoins une partie de ce qui a été dit plus haut. Si une caméra monochrome va de toute façon être plus sensible, il y a maintenant des avantages aux caméras couleurs, surtout lorsqu'on est en nomade. A moins d'habiter dans une région où il fait beau tout le temps ou d'avoir son matériel en fixe sous abris, il faut avoir à l'esprit du temps consacré à faire une image. Si la couleur RGB ou le monochrome R+G+B + éventuellement L va rester facile sur les 2 capteurs, la différence commence à se creuser pour le narrowband. En mono, il est facile de faire du SHO mais cela prendra pas mal de temps pour avoir un bon S/B surtout en OIII et SII. En caméra couleur, il existe des filtres dualband (tri et quad) et de toute façon on ne peut séparer que 2 composantes (le rouge (Ha, SII) et le bleu vert (OIII, Hbeta) ) avec effectivement le risque du problème de chromatisme qui peut vraiment se voir en dualband. La cam mono c'est aussi une roue à filtres, un focuseur où la MAP devrait être refaite à chaque filtre (meme parafocaux) pour corriger le chromatisme. Tout peut être automatisé par des logiciels come NINA ou bien entendu un boitier ASIAIR qui va tout gérer. Moi j'ai fait la démarche inverse pour le nomade (puisque j'ai aussi un setup en remote à l'autre bout du monde), c'est le retour à l'APN et objectifs très ouverts (donc courte focale max 135mm) qui va limiter mes possibilités mais dont je sais que mon capteur APN du Sigma fp est 2x plus sensible que celui que l'avais dans l'ASI2400MC (pourtant le meme capteur, et refroidi de surcroit). Le choix technique n'est absolument pas fait au hasard, bien au contraire. Et le plaisir est aussi là. Je réfléchis même à un autre setup nomade encore plus optimisé "narrowband" mais l'étude de la faisabilité est en cours.
  15. Helas, le 600D a un peu plus de bruit de lecture que le K-S2 https://www.photonstophotos.net/Charts/RN_e.htm#Canon EOS 600D_14,Pentax K-S2_12 Donc, 18Mp (600D) contre 20Mp (K-S2), le canon rattrapera un peu de sensibilité mais tu n'auras pas vraiment mieux. Après, tu peux faire défiltrer le 600D et il y aura un plus. Mais, par exemple, on peut trouver en occase des Canon 6D défiltrés pour 700€ (environ) et là, il y aura une belle différence en qualité.
  16. Je suppose que la nouvelle version de Siril a pas mal de fonctionnalités pour le traitement des images (notamment l'algorithme GHS pour "développer" l'image). Donc tu peux faire pas mal d'étapes avant de passer sur PS pour d'éventuelles finitions. Alors, hélas, Siril ne peut pas incorporer les nouveaux incontournables algorithmes "Xterminator" (StarX, NoiseX, BlurX et probablement bientot un nouveau "X" très attendu) qui sont actuellement les meilleurs outils mais uniquement dispo sous Pixinsight (et PS pour NoiseX et StarX) mais Siril a des alternatives (comme la réduction de bruit, la déconvolution, et Starnet++ d'intégré.
  17. Du coup on retraite les images qui nous plaisaient un peu moins 😅 Et nos méthodes de traitement ont aussi pas mal changé dernièrement donc on met tout cela à profit…
  18. J’essaye aussi ce process depuis quelques jours sur les images de notre CDK600 au Chili et aussi sur mes photos APN nomades. ici un crop 100% à 4m de focale. Et en haut, c’est juste l’assemblage SHO sans traitement supplémentaire (chaque couche S, H, O est passée sous blurx En APN avec objectif, c’est bien plus hard et il faut laisser les curseurs proches de zéro sous peine d’avoir des étoiles de 1 pixel !!! Bref, vive pixinsight 😅🙈
  19. Salut Yann tu te mets (enfin) au numérique 😁😁😁 Nicolas BIVER fait de bonnes photos avec un Sony A7s sur ton Dobson 400mm f/4 en poses assez courtes. C'est peut-être une solution à envisager mais ça peut dépasser ton budget (même en occase). Mais ça fait le job grâce à ses gros pixels. Ne t'aventure pas dans des caméras avec des pixels de 3-4µm, t'auras jamais rien de net sans tracking, sans compter l'ordinateur sur le terrain Après, avec ta monture et le 150, pourquoi pas... Mais je resterais aussi sur de l'APN. a+ philippe
  20. Merci pour ton retour J'ai testé avec une belle nébuleuse SHORGB à 4m de focale depuis le Chili (900 à 1000 images) avec WBPP et APP. Je vais refaire avec WBPP en mode full et comparer.
  21. Je ne peux qu'approuver ! Ce boitier est tellement parfait... Les dark sont parfaits, les flats aussi Les images (empilées) ont une telle latitude de traitement... J'adore ce boitier ! il est défiltré L2 par Riton J'ai aussi le fp-L (aussi parfait)
  22. Utilisant aussi bien APP que Pixinsight depuis de nombreuses années je suis surpris de tant d'écarts - Depuis plus de 2 ans, nous prétraitons en double nos images du Chili (CCD mono 4k * 4k puis maintenant CMOS mono 4k x 4k) avec nos méthodes optimisées et souvent on trouve un certain avantage pour APP (mais c'est pas le jour et la nuit) - J'ai aussi fait pas mal de tests en APN et caméras couleurs (en mode bayer-drizzle) et là aussi une petite préférence pour APP (et pourtant je suis un fana de Pixinsight depuis la version 1.0 LE Comme le dit Nico, il faut faire attention avec WBPP est ses nouvelles options (que je désactive) de tri d'images sur la qualité car au final il pourrait te jeter pas mal d'images et ne garder que les meilleures (d'ou tes étoiles plus faibles en FWHM mais aussi ta perte en S/B). Tu peux d'ailleurs indiquer à APP d'empiler en sélectionnant les meilleures FWHM mais là aussi, au risque d'une perte de S/B. Donc attention aux conclusions hâtives... Chaque logiciel a ses propres paramètres et il est facile de faire tout et n'importe quoi lorsqu'on ne fait pas gaffe à certains d'entre eux. Pixinsight est devenu une usine à gaz et si on coche toutes les étapes de WBPP, alors on triple le temps de calcul et au final c'est pas forcément le meilleur résultat qui est affiché.
  23. Oui tu as tout à fait raison, Dans ma tete j'étais entre IMX410 et IMX455 (ou dérivés APSC) car j'ai eu les 2 sur le meme setup et j'avais mesuré.
  24. Non, surtout pas (encore moins pour le remplacer par un APS-C) Le capteur du A7III est excellent (IMX410) avec ses 24 Mpixels de 5.94µm Si tu remplaces par un APS-C de 20-26Mp tu seras moins sensible, déjà parce que les pixels seront plus petits (donc moins de lumière avec la même optique) et accessoirement parce que Canon emploie très peu la techno BSI pour ses CMOS. Si tu cherches le minimum de problème, la sensibilité, et que tu acceptes de sacrifier un peu les étoiles en bord de champs selon les optiques. Mais les gros pixels te permettent aussi de gommer un peu les défauts de certaines optiques. Un pixel de 6µm sera 2.5x plus sensible qu'un pixel de 3.76µm sur la même optique (bien entendu). En nomade, c'est loin d'être négligeable. Perso, je suis en 24x36 depuis de nombreuses années, aussi bien en photo astro qu'en photo traditionnelle. Et j'aime bien le IMX410. Le A7III est sympa en astro, je l'ai eu et fait défiltrer "astrodon".
  25. Oui je n'utilise plus que cet algo depuis quelques mois. C'est vraiment top (mais attention il y a quand-même pas mal de réglages à connaitre)
×
×
  • Créer...

Information importante

Nous avons placé des cookies sur votre appareil pour aider à améliorer ce site. Vous pouvez choisir d’ajuster vos paramètres de cookie, sinon nous supposerons que vous êtes d’accord pour continuer.