Aller au contenu

Messages recommandés

Posté
il y a 21 minutes, Fred_76 a dit :

Sur les capteurs couleur à matrice de Bayer, un photosite est surmonté d’un filtre soit vert, bleu ou rouge. Il ne retourne qu’une valeur proportionnelle à l’intensité lumineuse reçue.

 

Mais n'est-ce pas un ensemble de 4 photosites (2V, 1R, 1B) qui sert pour afficher un pixel sur l'image ? (Effectivement, au format "raw" je suppose qu'on garde l'information de chaque photosite.)

 

Si le constructeur indique que les pixels de sa caméra couleur font 5 µm,  ça veut dire que les photosites font 5 µm ou bien 2,5 µm ?

Posté
Il y a 20 heures, Larbucen a dit :

Donc pour moi (à pixels identiques) un capteur couleur donnera 2 fois moins de détails qu'un capteur n&b.


Pas tout à fait, mais il est clair que la résolution d’une image faite avec un capteur couleur et le même capteur monochrome sera meilleure avec le capteur monochrome qu’avec le capteur couleur.

 

Il est cependant difficile de donner un chiffre, car ça dépend de l’algorithme de débayerisation utilisé pour extrapoler la couleur à partir des valeurs retournées par les photosites.

 

Quand on debayerise un capteur couleur pour le transformer en N&B, on constate bien le gain.

 

il y a 13 minutes, 'Bruno a dit :

 

Mais n'est-ce pas un ensemble de 4 photosites (2V, 1R, 1B) qui sert pour afficher un pixel sur l'image ? (Effectivement, au format "raw" je suppose qu'on garde l'information de chaque photosite.)

 

Si le constructeur indique que les pixels de sa caméra couleur font 5 µm,  ça veut dire que les photosites font 5 µm ou bien 2,5 µm ?


Non. 
 

1 pixel exploite les informations de 9 photosites, pas 4. Et encore ça dépend de l’algorithme utilisé et ceux ci sont secrets ! Les algorithmes qui n’exploitent que 4 pixels donnent des images inexploitables, pleines de moiré et d’autres artefacts indésirables.

 

Quand on parle de µm, il s’agit de la taille d’un photosite sur le capteur. Et encore, même la taille n’a pas tellement de sens car la zone sensible d’un photosite n’est qu’une fraction de cette surface. Pour maximiser la surface collectrice, les fabricants mettent des microlentilles mais même avec ça, le ratio lumière reçue par µm^2 avec la lumière reçue sur le photosite n’est pas de 1, il y a de la perte et ça dépend de la technologie utilisée. On peut très bien avoir des « photosites de 5 µm » qui captent moins de lumière que des « photosites de 4 µm ».

 

C'est pour ça qu’il est plus juste de parler d’écartement entre deux photosites (pixel pitch chez les mangeurs de poulet en gelée).

 

Ça n’a aucun sens de donner une taille pour 1 pixel. Le pixel est juste une information dans un fichier couleur, il n’y a pas de dimension mesurable en µm… 

Posté

C'est vraiment une belle histoire que vous contez là 🥰 et la discussion est vraiment très intéressante

Mais tout ce que vous dites c'est ce que j'ai déjà dit de façon moins scientifique dans ma première intervention

Mais c'est appréciable de vous lire

La bise 😝

Posté
il y a 49 minutes, 'Bruno a dit :

Si le constructeur indique que les pixels de sa caméra couleur font 5 µm,  ça veut dire que les photosites font 5 µm ou bien 2,5 µm ?

Bonjour,

Il y a fort à parier qu'un constructeur d'appareils photo ou de capteurs, tout en entretenant bien la confusion, a intérêt à parler de photosites sous le vocable pixel. En effet si pour parler d'un pixel (picture element) de l'image finale couleur, il devait "embarquer" le fait qu'il faille quatre photosites, il ne pourrait alors plus affirmer que son capteur fait 16 millions de pixels mais seulement 4 millions.

C'est bien pour cela que la confusion marketing a été introduite puis entretenue. Il est hors de question d'afficher moins que la concurrence à capteur équivalent.

 

Les fabricants de caméra astro ont surfé sur la même vague.

 

Cette nuit j'y réfléchissais encore. Finalement en observant les faits, ne peut-on pas dire qu'une caméra couleur n'est rien d'autre que trois caméras monochromes réparties sur un même substrat ? Chaque photosite est spécialisé par construction pour une bande de couleur. Que peut-on alors en déduire ?

 

Pas facile de répondre. Afin de rendre les choses comparables, il nous faut déjà nous mettre d'accord sur la définition du temps de pose. Avec une caméra couleur ce temps est le même pour les trois couleurs et se confond avec le temps de pose opérateur. Avec une caméra monochrome, les temps de poses chromatiques ne devraient en principe pas s'additionner sauf sur les longueurs d'ondes de recouvrement entre filtres couleurs. Comment alors calculer le vrai temps de poses en prise monochrome ? 1 H de rouge + 1H de vert + 1H de bleu = 1H de pose couleur et non 3H. Par contre pendant ce temps de pose filtré couleur, ce sont tous les photosites du capteur qui produisent du signal en monochrome alors que seuls 1/4 produisent du signal en bleu ou en rouge et la moitié en vert, s'agissant d'une caméra couleur. C'est sans doute de là que vient la conclusion de moins bonne sensibilité d'une caméra couleur par rapport à une caméra N&B.

 

Ensuite concernant la résolution du capteur, si on considère que la capacité de résolution est la distance qui sépare le centre de chaque photosite et non sa dimension, si en N&B, la question est résolue, qu'avons-nous le droit d'affirmer pour la couleur ? Toujours en bleu et rouge, selon sa définition la résolution n'est plus au mieux que de la moitié (ou le quart ? cela aussi se discute) selon la disposition des photosites sur le capteur.

 

Là où les choses peuvent s'éclaircir, c'est que le plus petit détail que l'instrument peut résoudre, doit en dimension d'image au foyer couvrir quatre photosites en couleur. Dans ce cas nous sommes certains que le pouvoir de résolution de l'instrument est "vu" par le capteur. Sauf que nous allons nous retrouver devant le mur de l'échantillonnage. En effet plus l'instrument a du diamètre, plus il peut résoudre l'objet visé, mais alors compte tenu de sa focale, les photosites doivent être plus grands pour respecter la règle d'échantillonnage et dans ce cas, les détails de l'objet ne sont plus "vus" par le capteur, plusieurs détails fournis par l'instrument arrivant sur le même photosite.

 

Il y a alors un compromis à trouver dont l'argumentaire va se construire autour de chaque choix de l'opérateur, depuis l'objet observé jusqu'au capteur.

 

J'en suis là de mon apprentissage sans être sûr d'avoir bien compris. N'hésitez pas à corriger.

 

Ney

Posté
Il y a 1 heure, Fred_76 a dit :

Ça n’a aucun sens de donner une taille pour 1 pixel. Le pixel est juste une information dans un fichier couleur, il n’y a pas de dimension mesurable en µm… 

 

Mais il y a une question qui a un sens : connaître la taille sur le ciel représentée par un pixel sur l'image. Comment la calcule-t-on ? Jusqu'à présent je pensais qu'il fallait diviser la taille du pixel du capteur (donnée indiquée par le fabricant) par la focale (puis faire l'arc tangente). Dans ce calcul, je dois utiliser quelle donnée ? La taille du pixel donnée par le constructeur (pixel qui n'en est donc pas un) ? Du photosite ? Le pixel pitch ? (Que le constructeur appelle pixel, non ?)

Posté
Il y a 1 heure, 22Ney44 a dit :

tout en entretenant bien la confusion, a intérêt à parler de photosites sous le vocable pixel. En effet si pour parler d'un pixel (picture element) de l'image finale couleur, il devait "embarquer" le fait qu'il faille quatre photosites, il ne pourrait alors plus affirmer que son capteur fait 16 millions de pixels mais seulement 4 millions.

C'est bien pour cela que la confusion marketing a été introduite puis entretenue. Il est hors de question d'afficher moins que la concurrence à capteur équivalent.

 

p*** mais vous n'avez pas compris !!!!

 

Un photosite et un pixel, c'est pareil et c'est pas pareil, MAIS IL Y EN A AUTANT !!!!

 

Pour faire 1 pixel,  il faut exploiter au minimum 9 photosites, mais ça ne veut pas dire qu'il faille diviser par 9 (ou 4) le nombre de photosites ou de pixels ou de je ne sais quoi ! Le seul qui fasse du marketing (et encore il n'a pas le choix), c'est Sigma dont le nombre de pixels est le nombre de photosites multiplié par 2 car ils multiplient par 2 la résolution. Par exemple on lit sur le site Sigma :

 

"Le capteur de taille APS-C offre une résolution équivalente à 39 millions de pixels (...)" alors que le capteur n'a que 5,440×3,616 donc 19,7 millions de photosites.

 

Il n'y a aucune confusion dans le sens où tu trouveras AUTANT de pixels dans ton image que de photosites sur ton capteur, un point c'est tout.

 

il y a 38 minutes, 'Bruno a dit :

Mais il y a une question qui a un sens : connaître la taille sur le ciel représentée par un pixel sur l'image. Comment la calcule-t-on ? Jusqu'à présent je pensais qu'il fallait diviser la taille du pixel du capteur (donnée indiquée par le fabricant) par la focale (puis faire l'arc tangente). Dans ce calcul, je dois utiliser quelle donnée ? La taille du pixel donnée par le constructeur (pixel qui n'en est donc pas un) ? Du photosite ? Le pixel pitch ? (Que le constructeur appelle pixel, non ?)

 

Oui, la bonne formule à prendre est :

 

e (en seconde d'arc) = 206 x p (en µm) / f (en mm)

 

ou si tu préfères les maths :

 

e (en radian) = 2 * atan [ p /  (2*f ) ], avec p et f dans la même unité de longueur
mais comme p / f << 1, on a atan(p/f) ~= p/f

d'où e ~= p/f en radian,
d'où, avec p en µm, f en mm et e en ",
e = (p/f)*(180*3600)/(1000*pi)=206,2648 * p/f
qu'on arrondi à 206*p/f
CQFD

 

:

- e est l'échantillonnage

- p la taille d'un photosite (ou d'un pixel, ou le pixel pitch, choisi le mot que tu veux)

- f est la focale

Posté
il y a 21 minutes, Fred_76 a dit :

p*** mais vous n'avez pas compris !!!!

 

Un photosite et un pixel, c'est pareil et c'est pas pareil, MAIS IL Y EN A AUTANT !!!!

 

Pour faire 1 pixel,  il faut exploiter au minimum 9 photosites, mais ça ne veut pas dire qu'il faille diviser par 9 (ou 4) le nombre de photosites ou de pixels ou de je ne sais quoi ! Le seul qui fasse du marketing (et encore il n'a pas le choix), c'est Sigma dont le nombre de pixels est le nombre de photosites multiplié par 2 car ils multiplient par 2 la résolution. Par exemple on lit sur le site Sigma :

 

"Le capteur de taille APS-C offre une résolution équivalente à 39 millions de pixels (...)" alors que le capteur n'a que 5,440×3,616 donc 19,7 millions de photosites.

 

Il n'y a aucune confusion dans le sens où tu trouveras AUTANT de pixels dans ton image que de photosites sur ton capteur, un point c'est tout.

 

Bien chef, cette fois j'ai compris ! Sans doute pas les pixels, les photosites et tout le reste. Non j'ai bien compris à votre degré d'empathie qu'il me vaut bien mieux chercher un autre hobby.

 

Bonne continuation à vous, mais sans moi.

 

Ney

Posté
il y a 15 minutes, 22Ney44 a dit :

Bien chef, cette fois j'ai compris ! Sans doute pas les pixels, les photosites et tout le reste.


pourtant c’est pas si compliqué…

 

un photosite c’est sur le capteur, c’est physique, c’est ce qui capte la lumiere

 

un pixel, c’est dans un fichier, c’est numérique, ça se calcule, c’est immateriel

 

pour calculer un pixel il faut non pas 4 mais 9 photosites (au moins) selon l’algorithme (secret) utilisé. Mais pour 1 photosite sur le capteur tu as 1 pixel dans ton fichier.

 

donc il y a autant de photosites sur ton capteur que de pixels dans ton fichier.

 

en aucun cas le fait que le calcul d’un pixel nécessite 4 ou 9 photosites justifie la division par 4 ou 9 de la résolution ou du nombre de pixels.

Posté

Inutile de s'énerver.  😅 

 

Donc si j'ai bien compris:

 

- Il y a autant de pixels que de photosites

- On utilise les données d'au moins 9 photosites pour composer un seul pixel

- Donc un seul photosite est utilisé pour composer les différents pixels de sa zone

 

J'ai bon? 🤓

Posté
il y a 11 minutes, Apollo Brown a dit :

Inutile de s'énerver.  😅 

 

Sorry, @22Ney44 je ne voulais pas te choquer... 

 

il y a 11 minutes, Apollo Brown a dit :

 

Donc si j'ai bien compris:

 

- Il y a autant de pixels que de photosites

 

Oui (sauf dans la doc de chez Sigma parce que la technologie est différente avec les capteurs Foveon).

 

il y a 11 minutes, Apollo Brown a dit :

- On utilise les données d'au moins 9 photosites pour composer un seul pixel

 

Oui, même si on ne sait pas vraiment comment sont extrapolées les valeurs des photosites pour dématricer les RAWs et en faire une image couleur. C'est secret défense ! Si tu veux te faire des nœuds au cerveau, voici un peu de lecture ou là, ou encore ici.

 

il y a 11 minutes, Apollo Brown a dit :

- Donc un seul photosite est utilisé pour composer les différents pixels de sa zone

 

Non, c'est l'inverse. Un pixel est le résultat d'un calcul savant à partir des photosites de sa zone. Il n'y a que chez Foveon où un pixel correspond exactement à un photosite, puisqu'un photosite capte directement les 3 plans de couleur R, V et B.

 

il y a 11 minutes, Apollo Brown a dit :

 

J'ai bon? 🤓

 

Presque 😉 

Posté
il y a 6 minutes, Fred_76 a dit :

Non, c'est l'inverse. Un pixel est le résultat d'un calcul savant à partir des photosites de sa zone. Il n'y a que chez Foveon où un pixel correspond exactement à un photosite, puisqu'un photosite capte directement les 3 plans de couleur R, V et B.

Me suis mal exprimer. Je voulais dire qu'un même photosite est utilisé pour plusieurs pixels. 

Posté
Il y a 4 heures, Fred_76 a dit :

- p la taille d'un photosite (ou d'un pixel, ou le pixel pitch, choisi le mot que tu veux)

 

Disons que ce qui m'importe est de pouvoir calculer l'échantillonnage. Donc ce 'p', c'est bien celui que le fabricant indique ? (Après, ça a l'air sacrément compliqué et je ne sais pas ce que ça donne pour la résolution...)

Posté
Il y a 1 heure, 'Bruno a dit :

Donc ce 'p', c'est bien celui que le fabricant indique ?

 

 

Oui, souvent appelé "pixel pitch" et exprimé en µm

 

Il y a 1 heure, 'Bruno a dit :

 

(Après, ça a l'air sacrément compliqué et je ne sais pas ce que ça donne pour la résolution...)

 

La résolution ne sert à rien. Ce qui compte c'est l'échantillonnage.

 

e  = 206 * p / f

 

Une multiplication et une division, est-ce si compliqué ? Tu n'as pas du tout besoin de la formule avec l'arc-tangente...

  • p est en µm, on le trouve dans la doc de l'appareil photo ou sur Google en faisant une recherche avec le nom de ton APN suivi de "µm"
  • f est la focale du télescope, en mm, c'est vrai là par contre, personne ne la connait 😉
  • e est l'échantillonnage en seconde d'arc, donc l'angle du ciel que voit un pixel de ton image avec ton télescope.

Par exemple, tu as un Newton 150/750. La focale est de 750 mm. Tu l'utilises avec un Canon 1000D dont les pixels (ou photosites ou pixel pitch, on s'en tape) font 5.7 µm de côté.

L'échantillonnage est donc :

e=206*5.7/750=1.57" par pixel

 

La Lune fait environ 0,5° de diamètre donc 0,5*3600=1800", elle fera donc 30x60/1.57=1146 pixels de diamètre sur tes images. Voilà.

Posté
Il y a 12 heures, Fred_76 a dit :

La résolution ne sert à rien. Ce qui compte c'est l'échantillonnage.

 

C'était pour revenir sur un des points abordés plus haut : on parlait de résolution théorique e(n imaginant que le pouvoir séparateur et le seeing sont parfaits). Il me semblait qu'un capteur couleur et un capteur noir et blanc avec la même taille de pixel (ou pixel pitch ou etc.) aurait la même résolution théorique, mais Larbucen n'en était pas convaincu je crois. Vu que ça ne change pas l'échantillonnage, il me le semble toujours.

 

(Ce qui m'avait l'air compliqué n'était pas le calcul de l'échantillonnage mais la façon dont la couleur est restituée. Cette histoire de photosites qui servent pour plusieurs pixels...)

Posté
il y a 58 minutes, 'Bruno a dit :

 Cette histoire de photosites qui servent pour plusieurs pixels...

 

C'est largement documenté sur internet.

 

Sinon pour la résolution, voici deux images faites avec mon 500D avant, et après qu'il ait été "gratté" pour retirer sa matrice de Bayer :

 

10293-1418802522.jpg

 

On voit bien que l'image la plus résolue est celle après. Il n'y a quasiment plus d'effet de moiré et on distingue nettement mieux les traits noirs et blancs.

 

On voit aussi cette comparaison faite par François Bernier sur un 50D avant (à gauche) et après (à droite) avoir retiré la matrice de Bayer :

image.thumb.png.309fd34e6517b38e553d8b43ab0d3970.png

 

 

 

  • Merci / Quelle qualité! 1
Posté (modifié)

La débayérisation ou le dématriçage est une opération logicielle utilisé par les APN couleur pour reconstituer les pixels de l'images à partir des photosites individuels du capteur. Il existe beaucoup d'algorithmes pour produire ces pixels et en général les constructeurs utilisent ceux qui sont les plus performants en temps de calculs. Selon ces algo on perd environ 30% en résolution.

Modifié par LH44
Posté (modifié)
Le 04/02/2022 à 14:24, Fred_76 a dit :

Par abus de langage, on peut considérer que photosite et pixel, c’est du pareil au même sans que ce soit vraiment choquant.

 

Ça l'est quand ça vient de DxO.

 

Le 04/02/2022 à 17:25, Fred_76 a dit :

pourtant c’est pas si compliqué…

un photosite c’est sur le capteur, c’est physique, c’est ce qui capte la lumiere

un pixel, c’est dans un fichier, c’est numérique, ça se calcule, c’est immateriel

 

Pas si simple, si on parcourt toute la chaîne graphique.

Sur un écran, le terme à utiliser est pixel, et pourtant, c'est matériel.

Et quand on parle de pixel pitch pour un écran, c'est le bon terme, alors que pour un capteur...

 

Je ne conteste pas tes propos. je suis d'accord avec tout ce que tu as dit.

J'apportais des précisions.

Modifié par Alhajoth
Posté
Il y a 10 heures, Alhajoth a dit :

 

Ça l'est quand ça vient de DxO.

 

 

Pas si simple, si on parcourt toute la chaîne graphique.

Sur un écran, le terme à utiliser est pixel, et pourtant, c'est matériel.

Et quand on parle de pixel pitch pour un écran, c'est le bon terme, alors que pour un capteur...

 

Je ne conteste pas tes propos. je suis d'accord avec tout ce que tu as dit.

J'apportais des précisions.

 

C'est ce qu'on appelle le, en même temps lol

Je pense que tu confonds résolution matériel qui est exprimé en pixel numérique

Au sinon même si cela te dérange tu dois intégré que la distance entre deux pixels lol sur un capteur s'appelle aussi pixel pitch en terme technique autant que sur un écran numérique

 

https://letmaik.github.io/pixelpitch/

 

tu vois ici aussi on défini la distance en pixel pitch, il n'y a pas que DXO

Posté

Voici 3 images extraites d'un dark pris avec mon 6D.

 

On voit les points chauds :

- depuis l'image RAW dématricée par Siril

- depuis l'image RAW dématricée par Photoshop (Adobe Camera RAW)

- depuis l'image JPEG issue de l'appareil photo

IMG_8846.gif.4f9d5bac1a91629d41b65b186b8ae2de.gif

 

On se rend compte que, comparativement à l'algorithme par défaut de Siril :

- le traitement Jpeg efface pas mal de points chauds

- que Adobe Camera RAW conserve pas mal de points chaud mais en efface quelques uns, surtout les plus visibles

 

Ceci montre bien à quel point l'algorithme utilisé pour le dématriçage a un effet sur les images.

 

 

 

 

 

  • Merci / Quelle qualité! 1
Posté

Bonjour à tous,

pour répondre à la question de départ...

Je possède une ASI6200MC (donc couleur) et j'utilise une ASI6200MM (donc mono) sur notre setup partagé en Espagne.

Les 2 caméras possèdent strictement le même nombre de pixels (pixels ou photosites, on s'en tape au final), à savoir 9576 x 6388, soient 61171488 pixels, ou encore 62Mpixels pour faire plus simple.

Quand on affiche 2 images sous SiriL issues de ces 2 caméras, chacune affiche bien ces 9576 x 6388 pxiels, qu'elle soit dématricée ou pas pour celle en couleur.

Pour la petite histoire, chaque fichier FIT issu de ces 2 caméras fait strictement la même taille, soit 9576x6388x2 (2 car la caméra enregistre en 16 bits et donc sur 2 octets) = 120Mo environ.

Les informations de couleur pour chaque pixel sont déterminées lors du dématriçage dans le logiciel de traitement.

 

Ma caméra couleur dispose de filtres RVB déposés sur chacun des pixels, et cela dans cet ordre-là :

RVBVRVBV

VBVRVBVR

BVRVBVRV

VRVBVRVB

Etc...

 

Et c'est cette information de couleur qui est interpolée sur l'image couleur (chaque pixel regarde ses pixels voisins pour déterminer la couleur exacte qu'elle devrait avoir).

L'image issue de la caméra couleur possède toujours ses 62Mpixels, il n'y a pas eu de binning ou autre. Donc en terme de résolution pure, on peut dire qu'elles sont identiques.

 

Enfin maintenant raisonnons en terme de rapport plaisir/emmerdement...

Avec mon ASI6200 couleur, je shoote en une seule passe, par exemple M31, sur une nuit de 5 heures. Résultat direct en couleur avec une image de 5 heures de pose.

Avec mon ASI6200 mono, je shoote en 4 passes, L puis R puis V puis B, sur la même nuit de 5 heures, j'aurai à peu près 1 heure de pose sur chaque filtre (si tant est que je n'ai pas eu de soucis dans la nuit sur aucune des 4 séries, ce qui arrive régulièrement).

Et pré-traitement pour chaque couleur puis recomposition de l'image LRVB finale, ce qui prend un peu plus de temps que pour la caméra couleur.

 

Si on compare uniquement des RVB avec la caméra couleur, je ne constate pas forcément un gap de résolution énorme.

Mais si maintenant j'ajoute la L dans la balance, alors oui l'image LRVB paraîtra mieux résolue que l'image RVB issue de la caméra couleur.

  • J'aime 1
  • Merci / Quelle qualité! 2
Posté (modifié)

Deux réflexions.. La première concerne la matrice de Bayer vs mono + LRGB : je ne sais pas quelle est la bande passante de la matrice de Bayer mais je la présume instinctivement moins bonne que ce que montre le graphique de ces filtres. Quel que soit le temps de pose cumulé, ce que les filtres ont coupé (les zones en gris) ne sera jamais acquis par le capteur. Donc comme le signale @Colmic, une image L/RVB avec caméra mono sera toujours plus pêchue qu'une image "L synthétique"/RVB d'une caméra couleur.

lrgb.jpg.c62582f9de4eb2c119618d7218e18abb.jpg

 

La deuxième, et ça doit certainement avoir une influence sur la résolution, avec des filtres LRVB  même parafocaux il faut refaire le focus au changement de filtre. C'est le cas avec la majorité des lunettes puisque c'est une conséquence de l'optique optimisée dans le vert (les Taka TOA ne sont peut être pas concernées ?). C'est probablement moins vrai avec un télescope quoique, il y a bien souvent un réducteur ou un aplanisseur (lentilles) dans le chemin optique. Donc la "L synthétique" doit être moins fine (moins résolue) que la L de la caméra mono.

Modifié par krotdebouk
Posté

Christian Buil a donné le rendement de chaque filtre Bayer sur des boîtiers 40D et 50D.

Posté
Le 04/02/2022 à 15:33, 22Ney44 a dit :

Il y a fort à parier qu'un constructeur d'appareils photo ou de capteurs, tout en entretenant bien la confusion, a intérêt à parler de photosites sous le vocable pixel. En effet si pour parler d'un pixel (picture element) de l'image finale couleur, il devait "embarquer" le fait qu'il faille quatre photosites, il ne pourrait alors plus affirmer que son capteur fait 16 millions de pixels mais seulement 4 millions.

 

J'avais pas lu ceci.

Non ça c'est totalement erroné, un capteur couleur de 62 millions de pixels fait bien 62 millions de pixels à l'arrivée, il n'y a pas de binning des 4 pixels RVVB pour reformer un superpixel.

C'est l'informatique (embarquée dans l'APN ou via un logiciel comme SiriL ou autre) qui réalise l'opération de dématriçage.

Le logiciel regarde pour chaque pixel la valeur de ses pixels voisins pour déterminer la couleur exacte que ce pixel devra avoir.

En revanche en terme de résolution, on a bien toujours la globalité des pixels.

 

Et je reviens une dernière fois sur la notion de résolution.

Avec une caméra comme l'ASI6200, nous avons plus de 9500 x 6300 pixels à afficher.

Or dans le meilleur des cas, nos écrans actuels font 4k en 16/9, soit 3840 x 2160.

On a alors 2 choix au final :

- soit on laisse l'image en full, que peu de gens vont aller voir (soit par flemme de scroller dans tous les sens pour l'admirer, soit par manque de débit réseau pour l'afficher !)

- soit on réduit l'image à 4k avec au passage une très jolie amélioration du rapport signal/bruit

Moi j'ai fait un choix intermédiaire : je réduis mes images au format 8k (7680 x 4320), ce qui laisse une belle impression de résolution tout en gagnant un peu sur le RSB.

Attention également à la compression jpg qui peut être très destructrice, privilégier le png ou alors le jpg à 95% de qualité.

  • J'aime 1
Posté
il y a une heure, Colmic a dit :

J'avais pas lu ceci.

Non ça c'est totalement erroné, un capteur couleur de 62 millions de pixels fait bien 62 millions de pixels à l'arrivée, il n'y a pas de binning des 4 pixels RVVB pour reformer un superpixel.

C'est l'informatique (embarquée dans l'APN ou via un logiciel comme SiriL ou autre) qui réalise l'opération de dématriçage.

Le logiciel regarde pour chaque pixel la valeur de ses pixels voisins pour déterminer la couleur exacte que ce pixel devra avoir.

En revanche en terme de résolution, on a bien toujours la globalité des pixels.

Merci @Colmic d'avoir corrigé ceci. Je progresse dans la compréhension des mécanismes de prise de vue.

 

Peut-on alors considérer que concernant une caméra couleur :

 

1) L'ensemble des photosites contribuent, incomplètement il est vrai, à constituer une forme de brute de luminance, la couche L

 

2) Chaque photosite spécialisé couleur contribue à créer partiellement aussi la couche de sa couleur R, V ou B

 

3) En fin l'électronique embarquée, quand elle existe, ou les logiciels externes se "débrouillent" par dématriçage pour reconstituer par calculs et estimations la luminance ET chacune des trois composantes RVB cela photosite par photosite pour produire in fine une image contenant autant de pixels colorisés que de photosites initiaux dans le capteur.

 

Si je n'ai pas compris, dites le moi.

 

Belles observations

 

Ney

Posté
Il y a 3 heures, Colmic a dit :

Le logiciel regarde pour chaque pixel la valeur de ses pixels voisins pour déterminer la couleur exacte que ce pixel devra avoir.

En revanche en terme de résolution, on a bien toujours la globalité des pixels.

 

La valeur n'est pas exacte, puisqu'elle est interpolée.

Et la résolution obtenue est factice, puisqu'il y a des valeurs reconstruites.

Posté
Il y a 5 heures, 22Ney44 a dit :

Si je n'ai pas compris, dites le moi.

 

Nan je pense que t'as bien résumé.

Comme le dit @Alhajoth au-dessus, certes la résolution est un peu biaisée puisque la valeur des pixels est reconstruite par rapport aux pixels voisins, mais il n'y a pas binning pur dans le sens où l'on utiliserait les 4 pixels RVVB pour reconstituer un seul superpixel 4 fois moins résolu. 

Si on raisonne en terme de chiffres on peut dire qu'il y a perte de :

50% dans le rouge (100% - racine de 1/4)

50% dans le bleu (100% - racine de 1/4)

30% dans le vert (100% - racine de 2/4)

Mais dans l'absolu ce n'est pas exact puisque les algorithmes de dématriçage sont devenus très performants.

  • J'aime 3
Posté

Et la question qui reste en suspens est : les développeurs d'algos ont-ils pris en compte les photos typées astro ? :)

 

La question, avant de s'interroger sur la qualité des algos, il faudrait savoir si on est capable de voir la différence !

Si on recadre bien une image, sans doute.

 

Posté
il y a 27 minutes, Alhajoth a dit :

les développeurs d'algos ont-ils pris en compte les photos typées astro


Il y a plein d’algorithmes sur le marché. Ceux que les constructeurs utilisent ne servent qu’à faire les Jpeg qui sortent des boîtiers ou qui sortent de leurs logiciels (DPP chez Canon par exemple). Les développeurs de logiciels photo (Adobe, Phase 1, DxO…) ont aussi leurs propres algorithmes.

 

Siril en propose quelques uns. A vous de voir celui qui vous convient le mieux.

 

Dans tous les cas, vous n’aurez jamais en luminance la résolution d’un capteur N&B avec un capteur couleur possédant les mêmes nombre et dimensions de photosites.

Posté
Il y a 16 heures, Fred_76 a dit :

Dans tous les cas, vous n’aurez jamais en luminance la résolution d’un capteur N&B avec un capteur couleur possédant les mêmes nombre et dimensions de photosites.

 

Oui et la différence est uniquement là en fait.

D'où le fait que RVB (mono) = RVB (couleur) mais LRVB (mono) >> RVB (couleur)

Maintenant si je prends une image issue de la ma caméra couleur, que je la passe en noir et blanc dans Photoshop par exemple, la question qui se pose est : qu'est-ce que j'ai perdu par rapport à la même caméra mono ?

- la sensibilité pour sûr, puisque par rapport à une luminance (avec filtre L) j'ai sur la caméra couleur mes filtres de Bayer qui vont atténuer

- quoi d'autre ?

 

Pour illustrer la question, un exemple avec une image issue de mon ASI6200MC (faite depuis Paris !) et repassée en N&B sous Photoshop :

image.thumb.png.48b43d2c440f0403bad35df197468479.png

 

Il y a 17 heures, Alhajoth a dit :

Et la question qui reste en suspens est : les développeurs d'algos ont-ils pris en compte les photos typées astro ? :)

 

@lock042 devrait pouvoir répondre au moins pour SiriL.

  • J'aime 1
Posté

L'algorithme RCD que nous utilisons par défaut dans Siril est très bon sur les objets ronds, tels les étoiles. Contrairement a l'algo VNG qui créé des artefacts un peu partout sur les endroit à fort gradient.

Donc oui, on peut dire que RCD s'en sort très bien pour les images astro.

  • J'aime 2

Rejoignez la conversation !

Vous pouvez répondre maintenant et vous inscrire plus tard. Si vous avez un compte, connectez-vous pour poster avec votre compte.

Invité
Répondre à ce sujet…

×   Collé en tant que texte enrichi.   Coller en tant que texte brut à la place

  Seulement 75 émoticônes maximum sont autorisées.

×   Votre lien a été automatiquement intégré.   Afficher plutôt comme un lien

×   Votre contenu précédent a été rétabli.   Vider l’éditeur

×   Vous ne pouvez pas directement coller des images. Envoyez-les depuis votre ordinateur ou insérez-les depuis une URL.

  • En ligne récemment   0 membre est en ligne

    • Aucun utilisateur enregistré regarde cette page.
×
×
  • Créer...

Information importante

Nous avons placé des cookies sur votre appareil pour aider à améliorer ce site. Vous pouvez choisir d’ajuster vos paramètres de cookie, sinon nous supposerons que vous êtes d’accord pour continuer.