Aller au contenu

Messages recommandés

Posté

Bonjour,

 

J'ai une petite question métaphysique concernant les capteurs ccd en version monochrome ou en version couleur.

 

Si je prend la ATIK 383L+ avec son capteur KAF8300 http://www.optique-unterlinden.net/catalogue/produit/m/19/p/AK008.

 

  1. Soit la version monochrome est 4 fois plus sensible que la version couleur (binning sur les 4 photocytes du même capteur utilisé pour la couleur) avec en plus une sensibilité accrue du fait de la suppression des filtres verts bleus et rouges ?
     
  2. Soit la version monochrome à une résolution en pixel 4 fois plus élevé avec une sensibilité légèrement accrue du fait de la suppression des filtres verts bleus et rouges?

 

le capteur est donné pour 3326 x 2504 pixels aussi bien pour la version couleur que pour la version monochrome. En couleur normalement si je ne me trompe pas, un pixel c'est 4 photocytes donc en noir et blanc on devrait avoir l'information lumineuse sur 6652 par 5008 points.

 

Quand on parle de la taille d'un pixel de 5.4micron, cette information concerne un photocyte ou englobe les 4 photocytes de la couleur 2 verts 1 rouge un blanc? L’échantillonnage sur un capteur couleur ne devrait-il pas être différent de celui du même capteur utilisé en noir et bleu ?

 

Je n'ai pas vraiment de réponse sur ces interrogation.

 

Merci si vous avez des informations pour l'éclairer:?:

Posté

En fait c'est exactement le même capteur. 1pixel = 1photosite dans les 2 cas.

 

On a juste ajouté des filtres Bleu Vert et rouge sur les pixels du capteur couleur. ça s'appelle la matrice de Bayer. C'est un motif à 4 pixels/photosites : 2 verts, 1rouge 1bleu, qui est répété sur tout le capteur.

 

Après la prise de vue, il y a donc une opération à faire pour récupérer l'information couleur de tous les pixels, par interpolation. ça s'appelle la "débayérisation".

 

Par exemple pour récupérer l'information bleue d'un pixel rouge, qui n'a évidement pas capté de bleu, on va se servir des pixels bleu qui sont autour et faire une moyenne en gros.

 

La sensibilité du capteur couleur est donc moindre puisque ce sont les mêmes photosites, mais avec des filtres en plus.

 

La définition du capteur couleur est moindre aussi : 2 fois moins en bleu et rouge et 1.4 fois moins en vert. Mais en pratique on a rarement des objets uniquement bleu ou vert. Pour le rouge un peu plus quand on fait du Halpha par exemple, seuls les pixels rouges sont utilisés : donc 1 sur 4 avec le capteur couleur, soit 4 fois moins sensible et 2 fois moins de définition que le capteur mono.

 

Maintenant le capteur couleur est quand même bien pratique sur des objets à spectre assez large ou continu (un peu toutes les couleurs). ça permet de faire des photos relativement facilement (pas de roue à filtre, un seul type de dark, flat, offset) quitte à poser un peu plus longtemps.

Posté (modifié)

Merci pour ce retour précis.

 

Dans l'exemple d'une prise de vue en halpha, si je comprend bien, si on prend une photo avec un capteur couleur 1024*768 un seul pixel sur 4 (le rouge) sera touché. Les 3 pixels autour (2 verts et un bleu) seront vides. Avec une photo N/B derrière le filtre halpha, Les 4 pixels en question seront affectés par de la lumière rouge.

 

Ainsi la photo couleur présentera une résolution 4 fois inférieure à la photo prise avec le capteur N/B mais avec à peu près le même niveau en ADU sur les pixels.

 

Si on arrive a faire du binning *4 sur la photo N/B (il y a peut être des logiciels pour cela),

c'est comme si on avait 4 fois plus de sensibilité avec le capteur N/B pour la même résolution sur le capteur couleur.

 

Dans un capteur couleur on fabrique donc artificiellement de l'information :

un capteur N/B de 12bits sur une matrice de 640pixel*480 pixel on récupère 307200 informations de 12 bits.

sur le même capteur mais en couleur on récupère 3072000 * 3 informations de 12 bits (rouge verte et bleue). C'est à dire que dans le capteur couleur on aurait fabriqué de l'information. Je pense donc qu'artificiellement, à tous les pixels on attribue une valeur rouge. La valeur rouge en ADU d'un pixel utilisé pour le vert sera la moyenne ou quelque chose comme cela des pixels rouge autour.

Modifié par antoinebba
Posté
Merci pour ce retour précis.

 

Dans l'exemple d'une prise de vue en halpha, si je comprend bien, si on prend une photo avec un capteur couleur 1024*768 un seul pixel sur 4 (le rouge) sera touché. Les 3 pixels autour (2 verts et un bleu) seront vides. Avec une photo N/B derrière le filtre halpha, Les 4 pixels en question seront affectés par de la lumière rouge.

 

Ainsi la photo couleur présentera une résolution 4 fois inférieur à la photo prise avec le capteur N/B mais avec a peu près le même niveau en ADU.

 

Si on arrive a faire du binning *4 sur la photo N/B (il y a peut être des logiciels pour cela)

c'est comme si on avait 4 fois plus de sensibilité avec le capteur N/B pour la même résolution sur le capteur couleur.

 

Les rapports sont bons mais l'analyse imparfaite.

La sensibilité d'un photosite couleur donné sera forcément inférieure car l'information lumineuse sera filtrée juste à son niveau. Maintenant elle pourrait être identique à celle reçue par un capteur monochrome avec un filtre devant. On considère toutefois que les filtres qu'on utilise en imagerie sont souvent interférentiels (cas des Astronomik et des Baader), et que leur transmission est meilleure. Cela se joue à quelques pourcents.

Par contre pour la résolution c'est plus compliqué car dépendra de la couleur.

En rouge, la résolution est de moitié dans chaque dimension, donc on retrouve bien une densité de photosite actifs divisée par 4. Idem en bleu.

Par contre en vert, on a la moitié de la résolution en X et la résolution est sensiblement la même en Y.

 

On considère dans l'absolu que la perte de résolution est de l'ordre de 1,414 (distance la plus courte au prochain photosite actif) par rapport au même capteur monochrome. Pour nous, il faut donc augmenter le rapport F/D dans un rapport de 1,4 (arrondi à 1,5) pour qu'un capteur couleur fasse comme en monochrome.

 

Ensuite tu peux faire du binning 2:2 et diviser la résolution de toute ton image par 4 (2 dans chaque dimension), y compris pour le vert qui n'en demandait pas tant. Là tu aurait une information de chaque couleur pour chaque pixel actif.

La sensibilité ne sera pas meilleure pour autant par contre car chaque photosite continuera de recevoir uniquement son flux. La reconstruction couleur se fera simplement sans moyenner les couleurs manquantes.

Posté

Dans un capteur couleur on fabrique donc artificiellement de l'information :

un capteur N/B de 12bits sur une matrice de 640pixel*480 pixel on récupère 307200 informations de 12 bits.

sur le même capteur mais en couleur on récupère 3072000 * 3 informations de 12 bits (rouge verte et bleue). C'est à dire que dans le capteur couleur on aurait fabriqué de l'information. Je pense donc qu'artificiellement, à tous les pixels on attribue une valeur rouge. La valeur rouge en ADU d'un pixel utilisé pour le vert sera la moyenne ou quelque chose comme cela des pixels rouge autour.

 

Tu confond photosites et pixels. Le photosite (sur le capteur) est soit rouge, soit vert, soit bleu, soit gris (en monochrome). Le pixel est une composition de plusieurs couleurs.

Pour construire le pixel à partir d'un capteur monochrome c'est une simple recopie un pour un.

Pour la couleur, c'est plus tordu et chaque pixel(x,y) va être traité différemment.

 

Si le photosite est vert (i.e. la position x,y du pixel tombe sur un photosite filtré en vert), alors le rouge (resp. bleu) sont construit avec la moyenne des valeurs des photosites rouges (resp. bleus) adjacents.

Si le photosite est rouge, c'est le vert et le bleu qui sont reconstruits, et s'il est bleu, c'est le rouge et le vert qui sont reconstruits.

Elle est là la perte de résolution !

 

En outre, c'est une opération qu'il faut réalisé à la capture, tout cela pour pouvoir disposer (comme tu l'a fait remarquer) d'un flux de données 3 fois plus gros (puisque dématricé). Génial mais pour ma part, en couleur, je préfère stocker et manipuler un fichier 3 fois plus petit !

Posté
Je pense donc qu'artificiellement, à tous les pixels on attribue une valeur rouge. La valeur rouge en ADU d'un pixel utilisé pour le vert sera la moyenne ou quelque chose comme cela des pixels rouge autour.

 

oui c'est bien ça.

 

Dans le cas particulier du Halpha, on n'a pas intérêt à faire cette opération (=à débayériser), car les pixels bleu et verts ne contiennent pas d'information, juste du bruit. Il vaut mieux les jeter et ne garder que les pixels rouges.

 

Les softs de prétraitement astro permettent de le faire. Voir DSS, c'est expliqué dans l'aide par ex.

Rejoignez la conversation !

Vous pouvez répondre maintenant et vous inscrire plus tard. Si vous avez un compte, connectez-vous pour poster avec votre compte.

Invité
Répondre à ce sujet…

×   Collé en tant que texte enrichi.   Coller en tant que texte brut à la place

  Seulement 75 émoticônes maximum sont autorisées.

×   Votre lien a été automatiquement intégré.   Afficher plutôt comme un lien

×   Votre contenu précédent a été rétabli.   Vider l’éditeur

×   Vous ne pouvez pas directement coller des images. Envoyez-les depuis votre ordinateur ou insérez-les depuis une URL.

  • En ligne récemment   0 membre est en ligne

    • Aucun utilisateur enregistré regarde cette page.
×
×
  • Créer...

Information importante

Nous avons placé des cookies sur votre appareil pour aider à améliorer ce site. Vous pouvez choisir d’ajuster vos paramètres de cookie, sinon nous supposerons que vous êtes d’accord pour continuer.