Aller au contenu

Messages recommandés

Posté

Bonjour,

Je me pose la question concernant le calcul d’échantillonnage avec un capteur d'APN.

 

Avec la matrice de Bayer il faut 4 photosites pour un pixel en couleur, alors quelle est la taille du pixel à utiliser dans la formule 206*P/F ?

 

5.7μ ou n x 5.7μ ?

 

merci d'avance.

Posté
Bonjour,

Je me pose la question concernant le calcul d’échantillonnage avec un capteur d'APN.

 

Avec la matrice de Bayer il faut 4 photosites pour un pixel en couleur, alors quelle est la taille du pixel à utiliser dans la formule 206*P/F ?

 

5.7μ ou n x 5.7μ ?

 

merci d'avance.

 

Salut

 

Tu te donnes la réponse il faut 4 photosite pour un pixel

les infos capteur te donne la taille d'un pixel 5.7. Donc la formule est avec pixel.

 

Jepe

Posté (modifié)

Ola

"il faut 4 photosites pour un pixel en couleur" : ça dépend de la dérawtisation utilisée :

 

- classiquement non, les couleurs autres que celles derrière le filtre couleur sont déduites de celles des photosites voisins : c'est l'interpolation des couleurs, on utilise donc la taille d'un seul photosite dans le calcul d'échantillonnage, l'image finale ayant bien 1 pixel = 1 photosite (sinon un APN 10MPixels (produisant des images de cette définition) serait en fait un capteur 40MPixels ?!).

edit : En considérant que l’échantillonnage est l'angle de vue pour chaque photosite, celui-ci ne devrait pas dépendre du traitement logiciel dont fait partie cette interpolation, on devrait rester au niveau purement physique. Cependant si on se place par rapport au pixel de l'image résultante ce n'est effectivement pas si réaliste à cause de cette interpolation, d'où le coefficient proposé par Tiflo ci-dessous. Savoir si quand on parle d'échantillonnage on pense par pixel ou par photosite, le débat est à lancer !

 

- Si on regroupe 4 photosites pour obtenir un seul pixel, effectivement il faut en tenir compte dans le calcul de l’échantillonnage, l'image finale ayant 1 pixel = 4 photosites; dans ce cas on aurait bien échantillonnage pour 4 photosites = échantillonnage pour 1 pixel, puisqu'il n'y a pas d'interpolation

 

Jette un oeil sur cette doc de DSS pour plus d'explications sur ces différentes méthodes de dérawtisation

Modifié par Sendell
échantillonage : pixel ou photosite ?
Posté
Oui, effectivement, ça correspond plus ou moins au facteur conseillé par Pierro-Astro dans son tableau de calibration d'autoguidage http://www.pierro-astro.com/Fichiers/Calibration.xls

 

 

= racine carrée de 2. C'est la distance mini séparant 2 pixels verts (en diagonale) par rapport à 2 pixels N&B cote à cote. La définition dans le bleu et le rouge est moindre, les pixels étant plus espacés, il faut multiplier par 2.

Dans la pratique c'est rare de ne pas avoir de vert du tout (le OIII est à cheval sur vert et bleu), donc pour simplifier on peut prendre x1.4, voir x1 sur un objet à spectre continu ou tous les pixels RVB seront illuminés et permettrons de récupérer la même définition qu'un capteur monochrome.

Bref en pratique peu de différence en ciel profond sur les galaxies, sur les neb, un peu plus et encore...

 

-> donc tu a intérêt à prendre la même formule que pour un capteur mono sauf cas particulier

 

En planétaire, là ça compte plus.

 

En Halpha il n'y a que les pixels rouges illuminés (si le filtre est parfait). Et donc là le superpixel de 4pixels sans debayerisation a du sens.

Posté

Bonjour

 

concernant l'échantillonnage , Je persiste et signe :

 

1 px couleur = 4 photosites

 

<< Nom des cellules photoélectriques qui composent le capteur. Le photosite est sensible à l'intensité lumineuse qu'il traduit en produisant un petit courant électrique. Quatre photosites produisent un pixel. Un capteur de 3 mégapixels est donc composé de 12 millions de photosites. >>

 

au revoir

 

Jp

Posté

basile> S'il faut 4 photosites (en fait un peu plus) pour faire un pixel, c'est la taille globale qu'il faut envisager.

 

En gros ta résolution réelle dépends du spectre.

Quand tu est "sur un vert" les pixels rouges et bleus sont même à 1 photosite de là, mais il faut en faire la moyenne avec ceux qui sont opposés ... du coup les informations utiles sont réparties sur une dimension de 2x la taille du photosite. Dans le cas d'un R c'est pire car on considère alors les 4 pixels V adjacents (dans une matrice de 3x3), et les 4 pixels bleus diagonaux (toujours dans une matrice de 3x3) ce qui donne une distance de 2x1.414 !

 

Du coup c'est ce qui donne des moirés sur les images couleurs des APN.

C'est sur que de dire qu'un APN dispose de 12 Mpixels, c'est mieux que de dire que cette image est composée de 6 Mp vert, de 3 Mp bleus et 3 Mp rouges !

 

Sinon tu peux utiliser un capteur Foveon qui "grossièrement" empile les photosites sur la profondeur plutôt que sur la largeur. Il faut par contre vraiment 3 photosites pour un pixel (c'est ce qu'il faut dans la réalité) et exempte de moiré ! Dans certains domaines, c'est redoutable !

 

 

Marc

Posté

Je viens de découvrir le tableau de Pierro-Astro (merci Bob). http://www.pierro-astro.com/Fichiers/Calibration.xls

 

Pour imager à l'APN sur mon 150/750 il me dit que je devrais guider (SPC900) à une focale de ±450mm pour avoir Ra <= Ri.

Pour le moment j'utilise un téléobjectif de 300mm, je serais donc 'trop court'.

 

Pourtant, on recommande souvent d'autoguider avec un chercheur sur les newton courts. Or un chercheur a une focale d'environ 250mm. :confused:

Quelqu'un peut m'expliquer?

:?:

Posté (modifié)

Pour imager à l'APN sur mon 150/750 il me dit que je devrais guider (SPC900) à une focale de ±450mm pour avoir Ra <= Ri.

Pour le moment j'utilise un téléobjectif de 300mm, je serais donc 'trop court'.

 

Euh, guider 750mm avec 300mm c'est largement suffisant !

Je guide à 1400mm avec une lunette de 400mm de focale et une webcam, je n'ai aucun problème.

Il faut savoir que les logiciels d'autoguidage utilise des "fractions" de pixels, la résolution est donc bien meilleur que l'échantillonnage seul.

 

De plus dans le fichier que tu donnes :

Ri : résolution imageur

Ra : résolution autoguideur

 

Je vois pas pourquoi Ri => Ra, c'est plutôt le contraire qu'il faudrait.

 

 

Tiflo

Modifié par Tiflo
Posté
basile> S'il faut 4 photosites (en fait un peu plus) pour faire un pixel, c'est la taille globale qu'il faut envisager.

 

En gros ta résolution réelle dépends du spectre.

Quand tu est "sur un vert" les pixels rouges et bleus sont même à 1 photosite de là, mais il faut en faire la moyenne avec ceux qui sont opposés ... du coup les informations utiles sont réparties sur une dimension de 2x la taille du photosite. Dans le cas d'un R c'est pire car on considère alors les 4 pixels V adjacents (dans une matrice de 3x3), et les 4 pixels bleus diagonaux (toujours dans une matrice de 3x3) ce qui donne une distance de 2x1.414 !

 

Du coup c'est ce qui donne des moirés sur les images couleurs des APN.

C'est sur que de dire qu'un APN dispose de 12 Mpixels, c'est mieux que de dire que cette image est composée de 6 Mp vert, de 3 Mp bleus et 3 Mp rouges !

 

Sinon tu peux utiliser un capteur Foveon qui "grossièrement" empile les photosites sur la profondeur plutôt que sur la largeur. Il faut par contre vraiment 3 photosites pour un pixel (c'est ce qu'il faut dans la réalité) et exempte de moiré ! Dans certains domaines, c'est redoutable !

 

 

Marc

 

eh Marc , en aucun cas je ne parle de 12 millions de Px mais de photosites

sachant qu'il faut 4 photosites pour un Px.

Quand tu fais ton échantillonnage tu utilises la taille des photosites et leurs nombres par couleurs ? tu me surprends !

Peut-être as-tu raison ! Mais alors on est toujours en sous- échantillonnage ?.

Par ailleurs il s'agit d'un capteur couleur, on sait que les capteurs couleurs ont un mauvais rendement dans le vert et le bleu d’où des poses bien plus longues .

l'échantillonnage ne peut se calculer, à mon avis , qu'à partir de la dimension d'un pixel.

la transmission de l'info se fait à partir du pixel pas du photosite !

JP

Posté
eh Marc , en aucun cas je ne parle de 12 millions de Px mais de photosites sachant qu'il faut 4 photosites pour un Px.

 

Oui et Non ; tu a une matrice organisée en 2x2 PHOTOSITES. Mais un PIXEL d'image est le résultat d'un calcul de moyenne prenant en compte un ou plusieurs PHOTOSITES dans une matrice 3x3.

 

bayer_raw.png

 

bayer_dematricage_fini.pngbayer_dematricage.png

(images issue du site lesnumériques.com)

Il y a bien 4 types d'opérations distinctes. La moyenne verticale, horizontale, en croix et diagonale. Je ne compte pas l'opération directe quand la couleur est celle du photosite. Et cela s'applique en fonction de la position du pixel et de la couleur souhaitée.

 

Ce que tu peux faire par contre, mais au prix d'une brutale réduction de la résolution c'est de considérer ta matrice de bayer (2x2 photosites) comme un unique PIXEL dont le vert doit être moyenné. Là je suis d'accord avec toi.

Mais si ton capteur fait N photosites tu t'attends certainement à obtenir une image de N pixels, et pas N/4 ! APN ou caméra astro couleur, ce sera pareil.

 

 

Quand tu fais ton échantillonnage tu utilises la taille des photosites et leurs nombres par couleurs ? tu me surprends !

Peut-être as-tu raison ! Mais alors on est toujours en sous- échantillonnage ?.

Par ailleurs il s'agit d'un capteur couleur, on sait que les capteurs couleurs ont un mauvais rendement dans le vert et le bleu d’où des poses bien plus longues .

l'échantillonnage ne peut se calculer, à mon avis , qu'à partir de la dimension d'un pixel.

 

Toujours à partir des photosites mais je suis dans le cas d'une caméra noir et blanc (en planétaire).

En couleur, le calcul ne peut pas être inférieur à la distance qui sépare 2 photosites identiques ; 2 verts donc 1,414 ! Mais en rouge et en bleu, c'est soit 2, soit 2,8 selon le cas !

Du coup j'aurais tendance à appliquer plutôt un coefficient x2 en couleur par rapport à une matrice purement noir et blanc !

 

la transmission de l'info se fait à partir du pixel pas du photosite !

JP

 

Non, du photosite car c'est lui qui enregistre l'information. Le pixel est "construit" à partir de un (noir et blanc) ou plusieurs (couleur/bayer) photosites organisés en matrice.

Donc quand tu vois une image couleur (donc des pixels) c'est déjà une manipulation et un lissage qui a été appliqué. D'où l'impérieuse nécessité de travailler au niveau des photosites (cad quand 1 photosite -> 1 pixel donc en raw) plutôt que de l'image débayerisée.

Et c'est ce qui fait l’intérêt de travailler en RAW ... ou en noir et blanc filtré !

 

Marc

 

Nota ; finalement la page de lesnumériques est très bien faite avec l'explication du moiré ; http://www.lesnumeriques.com/appareil-photo-numerique/photo-capture-couleurs-dematricage-a1051.html

 

re-Marc

Posté
guider 750mm avec 300mm c'est largement suffisant !

Je guide à 1400mm avec une lunette de 400mm de focale et une webcam' date=' je n'ai aucun problème.[/quote']

 

Merci Tiflo, c'est ce que je pensais aussi.

 

Je vois pas pourquoi Ri => Ra' date=' c'est plutôt le contraire qu'il faudrait.[/quote']

 

C'est juste ce qui est indiqué en rouge dans le document de Pierro. :confused:

 

Je suppose que l'idée c'est que si Ra < Ri, un déplacement de 1 pixel sur l'autoguidage cause moins de 1 pixel de flou sur la photo. Mais c'est un mauvais raisonnement.

 

J'utilise un logiciel d'autoguidage que j'ai écrit moi-même et j'obtiens souvent des courbes d'EP avec des erreurs de 3px en AD et en DEC.

Théoriquement ça devrait me faire des pâtés de 6 pixels sur l'image vu que chez moi Ri = 2 x Ra. Dans la pratique les étoiles sont bien rondes et ponctuelles car c'est la moyenne qui compte.

C'est probablement le même phénomène qui permet l'autoguidage au chercheur.

Posté
Il faut savoir que les logiciels d'autoguidage utilise des "fractions" de pixels' date=' la résolution est donc bien meilleur que l'échantillonnage seul.[/quote']

 

Je n'ai jamais compris comment le logiciel pouvait détecter un déplacement de moins de 1 pixel? :confused:

 

Si quelqu'un pouvait m'expliquer ça, je lui serais infiniment reconnaissant! :)

Posté

Ben voilà !

 

je suis allé sur le site et j'ai presque tout compris ! ! !

C'est vrai que j'ai une cam couleur et pour moi c'est une daube! la sensibilité d'une huitre pas fraîche comme dit un astram !

Du moins pour le CP sauf si bien lumineux, type NGC7023 ou M33

Je suis plutôt ST8300 et Ha . Nostalgie du bon vieux temps de l'argentique N&B !

 

Merci pour les infos

 

JP

Posté
Je n'ai jamais compris comment le logiciel pouvait détecter un déplacement de moins de 1 pixel? :confused:

 

Si quelqu'un pouvait m'expliquer ça, je lui serais infiniment reconnaissant! :)

 

Surement car l'étoile ne fera jamais un seul et unique pixel, on guide sur son barycentre : je n'arrive pas à trouver les mots pour aller plus loin dans l'explication, mais c'est cette utilisation du barycentre qui permet de descendre sous le pixel

Posté (modifié)

Pour en revenir à ce que dit Patry, les algos de dématriçage sont bien plus complexes que ça et font intervenir bien plus de photosites que les 9 voisins pour reconstituer le pixel central (généralement 5x5, mais parfois jusquà 11x11). Il suffit de voir les thèses écrites sur ce sujet. Par exemple :

http://harold.phelippeau.free.fr/these/Phelippeau.pdf

(voir à partir de la page 59).

Modifié par Fred_76

Rejoignez la conversation !

Vous pouvez répondre maintenant et vous inscrire plus tard. Si vous avez un compte, connectez-vous pour poster avec votre compte.

Invité
Répondre à ce sujet…

×   Collé en tant que texte enrichi.   Coller en tant que texte brut à la place

  Seulement 75 émoticônes maximum sont autorisées.

×   Votre lien a été automatiquement intégré.   Afficher plutôt comme un lien

×   Votre contenu précédent a été rétabli.   Vider l’éditeur

×   Vous ne pouvez pas directement coller des images. Envoyez-les depuis votre ordinateur ou insérez-les depuis une URL.

  • En ligne récemment   0 membre est en ligne

    • Aucun utilisateur enregistré regarde cette page.
×
×
  • Créer...

Information importante

Nous avons placé des cookies sur votre appareil pour aider à améliorer ce site. Vous pouvez choisir d’ajuster vos paramètres de cookie, sinon nous supposerons que vous êtes d’accord pour continuer.