Aller au contenu

Messages recommandés

Posté

Bonjour à tous,

 

Je comprends vite, mais il faut m'expliquer longtemps. Une petite question me turlupine.

 

Je n'ai pas de doute sur la conception des caméras monochromes et des caméras couleurs utilisant une matrice de Bayer. Ça j'ai compris. L'avantage d'une caméra monochrome Vs une caméra couleur est donc évident.

 

La taille du capteur est aussi un concept clair pour moi. Ainsi, que la taille des pixels. Tout ça, c'est ok.

 

Ok, ok, ça vient... Faisons abstraction de la problématique "échantillonnage".

 

Ainsi, si on compare une caméra couleur possédant de petits pixels, exemple: la ZWO ASI 183 MC et ses pixels de 2,4 µm et une caméra monochrome comme la ZWO ASI174 MM et ses pixels de 5,86 µm. A tube identique, ne peut-on pas dire que malgré sa matrice de Bayer la 183 MC va nous permettre d'obtenir plus de détails que la 174 MM ?

 

Merci de m'éclairer.

 

Bon ciel.

Posté

Un pixel capteur est composé de photosites et ta question est sur la qualité du résultat en déterminant le pixel pitch. Donc si ton pixel pitch et plus grand la quantité de grains (photons) sera plus grande et ton résultat meilleur en dynamique mais dans la réalité c'est bien différent malheureusement car si tu utilises un tube ou objectif médiocre et que ton capteur a des problèmes récurrent a certains fabriquant certains capteurs avec un pixel pitch inférieur donneront de meilleurs résultats en plus comparé un capteur couleur avec un capteur noir et blanc et encore plus difficile. Ce n'est que mon humble avis, je me trompe peut être, voir surement, je n'ai pas les connaissances poussés pour répondre de façon claire a ta question, tu devrais posé ta question dans la section "materiel astrophoto". La meilleure solution pour savoir, tu commandes les deux, tu testes et tu renvois celui qui ne donne pas de bons resultats

  • Merci / Quelle qualité! 1
Posté

Merci pour cette réponse.

 

Cependant, la notion de "pixel pitch" ne s'applique t-elle pas plutôt que pour les moniteurs et/ou écrans plats ?

 

La hauteur de point, ou "pixel pitch", est une mesure qui définit la netteté d'un affichage. Il mesure la distance entre les points utilisés pour afficher l'image sur l'écran. Cette distance est très petite et se mesure généralement en fractions de millimètres. Plus le nombre de points est petit, plus l'image est nette.

 

Dans mon cas, c'est plutôt un questionnement à propos d'un capteur. Petits pixels => meilleure résolution.

 

De plus, comme indiqué, je résonne à tube identique et je ne change que le capteur. Ainsi sur le même tube est-ce que la caméra couleur 2,4 µm aura t-elle une meilleure résolution qu'une caméra monochrome avec 5,86 µm ?

Posté

Bonjour

 

Tout dépend de la façon dont on défini la résolution.

Si on l'évalue par le critère de Rayleigh, avec des points noirs sur fond blanc, ou des étoiles sur le fond du ciel, alors la résolution est toujours plus importante avec des petits pixels.

Posté

Quand tu parles de détails, c'est de détails dans les nébuleuses, les galaxies, etc. ? Il s'agit donc de la résolution sur le ciel, pas de l'échantillonnage, n'est-ce pas ?

 

Si oui, elle dépend d'abord du pouvoir séparateur de l'instrument, de la qualité du suivi et de la turbulence durant la pose.

 

Normalement, on choisit un échantillonnage nettement plus petit que la résolution attendue (par exemple on échantillonne à 1" alors qu'on sait pertinemment qu'on ne descendra jamais sous les 2"). Entre une caméra qui a des pixels de 5 µm et une caméra qui a des pixels de 2,5 µm, toutes choses étant égales par ailleurs, la résolution sur le ciel (celle des objets présents sur l'image) sera identique tant qu'elle sera moins fine que l'échantillonnage. Par exemple on aura un échantillonnage de 1" et de 0,5" respectivement, mais la résolution sur le ciel sera de 2" dans les deux cas. C'est seulement si on utilise ces caméras avec un instrument de très courte focale (et qu'on sous-échantillonne) qu'on peut avoir une différence : par exemple un échantillonnage de 3" et 1,5" qui donnerait une résolution sur le ciel de 3" et 2" (2", pas 1,5", à cause de la turbulence, du pouvoir séparateur, etc.).

 

En ciel profond, je ne vois vraiment pas l'intérêt d'avoir des pixels aussi microscopiques ! Et en planétaire on n'a pas besoin d'autant de pixels. Ou alors pour la Lune ? J'ai démarré l'imagerie avec des pixels 10 fois plus larges. Ça sert surtout à annoncer une  flopée de mégapixels dans un capteur qui n'est pas plus grand qu'un autre. Il faudra de trèèèèès longs temps de pose pour mettre suffisamment de lumière dans des pixels aussi petits (4 fois plus long si l'échantillonnage est 2 fois plus petit).

 

Posté
il y a 7 minutes, 'Bruno a dit :

À part ça, je ne vois vraiment pas l'intérêt d'avoir des pixels aussi microscopiques ! 2,4 µm, je trouve ça grotesque. J'ai démarré l'imagerie avec des pixels 10 fois plus larges. Ça sert surtout à annoncer une  flopée de mégapixels dans un capteur qui n'est pas plus grand qu'un autre. Il faudra de trèèèèès longs temps de pose pour mettre suffisamment de lumière dans des pixels aussi petits.

 

C'est utile sur des courtes focales, typiquement des objectifs photo.

Posté (modifié)

C'est quoi le choix aujourd'hui en caméras CMOS neuves pures CP ? Des pixels de 2.4µ ou de 3.8µ ou 4.8µ qui sont en fait des 2.4µ binnés (voir le mode débrayable de la 294 mono pour passer du 4.8µ natif à 2.4µ). Ca limite la prise de tête sur les calculs d'échantillonnage..

Hors considération couleur/mono, je pense qu'il vaut mieux se poser la question des cibles qu'on veut imager, avec quel champ et quel format (rectangulaire ou carré). Puis quelles concessions on accepte sur l'ampglow ou le bruit mais aussi sur ce qu'on accepte de payer pour une plus grande dynamique (12, 14 ou 16 bits) et un full-well plus élevé (moins de saturation des étoiles). Ne pas oublier au passage de prendre en compte ce que sa monture est capable de ternir en précision de suivi/guidage.

 

Il est souvent question d'échantillonnage à 2 chiffres derrière la virgule mais beaucoup moins sur la manière de traiter les images. J'ai maintenant une caméra aux pixels de 3.76µm que j'utilise sur une lunette de 80/400 et sur un RC8 à 1088 mm de focale avec son réducteur (pas encore essayé à 1600 mm). Je trouve qu'elle s'en sort plutôt pas mal sur les deux échantillonnages respectivement de 1.94"/p et 0.71"/p. Mais avec la lunette, je traite en drizzle 2 alors qu'avec le RC8, je traite sans drizzle. Le drizzle 2 des images du RC n'apporte rien voire même c'est moins bien. Le binning, je cherche encore son utilité.

 

De toutes manières, je fais les images que le ciel veut bien me laisser faire..

Modifié par krotdebouk
  • J'aime 1
Posté (modifié)
Il y a 2 heures, Larbucen a dit :

Merci pour cette réponse.

 

Cependant, la notion de "pixel pitch" ne s'applique t-elle pas plutôt que pour les moniteurs et/ou écrans plats ?

 

La hauteur de point, ou "pixel pitch", est une mesure qui définit la netteté d'un affichage. Il mesure la distance entre les points utilisés pour afficher l'image sur l'écran. Cette distance est très petite et se mesure généralement en fractions de millimètres. Plus le nombre de points est petit, plus l'image est nette.

 

Dans mon cas, c'est plutôt un questionnement à propos d'un capteur. Petits pixels => meilleure résolution.

 

De plus, comme indiqué, je résonne à tube identique et je ne change que le capteur. Ainsi sur le même tube est-ce que la caméra couleur 2,4 µm aura t-elle une meilleure résolution qu'une caméra monochrome avec 5,86 µm ?

https://www.dxomark.com/glossary/pixel-pitch/

Edit:

J'ai repondu dans mon premier message a ta question primaire:

Il y a 6 heures, astronome04 a dit :

Donc si ton pixel pitch et plus grand la quantité de grains (photons) sera plus grande et ton résultat meilleur en dynamique mais dans la réalité c'est bien différent malheureusement car si tu utilises un tube ou objectif médiocre et que ton capteur a des problèmes récurrent a certains fabriquant certains capteurs avec un pixel pitch inférieur donneront de meilleurs résultats en plus comparé un capteur couleur avec un capteur noir et blanc et encore plus difficile.

Modifié par astronome04
Rajout d'infos
Posté
il y a 2 minutes, 'Bruno a dit :

Justement, cette définition ne s'applique-t-elle pas plutôt pour les moniteurs et écrans ? (On n'a pas avancé.)

https://www.dxomark.com/glossary/pixel-pitch/ :

 

traduction google du site dxomark:

Largeur d'un pixel sur un capteur, généralement exprimée en µm. En termes simples, le pas de pixel est la distance entre le centre d'un pixel et le centre du pixel suivant mesurée en millimètres micromètres. Plus le nombre de pas de pixel est petit, plus il y a de pixels sur le capteur, et donc plus la résolution est élevée .

 
ça s'appelle le pixel pitch aussi pour un capteur photo
Posté

Bonjour @Larbucen,

 

Ce site en montrant toute la procédure des calculs, m' aidé à mieux comprendre les phénomènes qui entrent dans la composition du résultat final en astrophoto.

 

Vous y verrez par exemple que la limitation fixée par la caméra un soir aura changer le lendemain car le ciel est devenu plus turbulent, ce sera alors ce ciel qui fixe la limite. Le lien ci-dessous va vous permettre de calculer la limite imposée par chaque phénomène, vous verrez alors les limites résultant de différentes combinaisons.

 

https://ciel-astro-ccd.com/wp/calculs_astronomiques/

 

Ensuite c'est l'expérience qui aidera.

 

 

Ney

 

 

  • Merci / Quelle qualité! 1
Posté
il y a 32 minutes, astronome04 a dit :

ça s'appelle le pixel pitch aussi pour un capteur photo

 

Ah oui, sensor = capteur. Ben c'est la première fois que je vois la notion de picth pour un capteur (il me semblait qu'on l'utilisait pour distinguer résolution et définition sur un écran).

 

Ensuite, oui, ça va jouer sur la résolution (je parle de résolution sur l'image astro). Mais en théorie. Dans le cas de l'utilisation avec un télescope, le pouvoir séparateur du télescope, la turbulence du ciel, etc. mettront une limite à la résolution effective.

Posté (modifié)

Merci pour toutes vos réponses. Merci @22Ney44, je vais aller voir ce site.

 

Cependant, comme je l'indiquais dans mon premier message ma question ne tiens pas compte de l'échantillonnage et donc peu importe le tube (un bon). Peu importe le seeing (allez admettons que le seeing ce soir là soit plus que parfait, nous sommes sur la Lune côté nuit). Peu importe la monture (allez là aussi imaginons un suivi parfait et on ajoutera un petit dithering pour éviter d'avoir de la tram). Peu importe également la cible. Pas touche non plus au binning et au drizzle. Imaginons enfin un ampglow et un bruit de lecture identiques.

 

Bref, c'est la théorie qui m'intéresse ici. Pas la pratique, qui elle bien sûr est soumise à de nombreuses contraintes.

 

Bien évidemment que pour deux caméras monochromes celle qui a les plus petits pixels va nous présenter le plus de détails (critère de Rayleigh). Mais ce qui m'intéresse ici, c'est la différence caméra monochrome Vs caméra couleur.

 

Ma question est : une caméra couleur (matrice de Bayer) possédant de pixels de 2,4 µm offrira t-elle plus de détails qu'un caméra monochrome possédant des pixels de 5,86 µm ?

 

Modifié par Larbucen
Posté
il y a 21 minutes, Larbucen a dit :

 comme je l'indiquais dans mon premier message ma question ne tiens pas compte de l'échantillonnage et donc peu importe le tube (un bon). Peu importe le seeing (allez admettons que le seeing ce soir là soit plus que parfait). Peu importe la monture (allez là aussi imaginons un suivi parfait). Peu importe également la cible.

Bonjour,

 

Le problème de compréhension, à la fois pour vous et pour la communauté vient peut-être de là. Il m'apparait comme difficile et plus encore inutile de s'aventurer dans des situations hypothétiques d'astrophoto. Le pivot de votre réflexion et par la suite de votre démarche va être de définir votre catégorie de cibles. Sans ce choix très structurant, il ne sert à rien de poursuivre tant les techniques, le matériel, l'engagement personnel vont être très différents selon justement les cibles.

 

Réaliser une photo astro, c'est également mettre en œuvre toute une chaine optique et mécanique où bien souvent un choix sur un composant va interférer sur un ou plusieurs des autres composants. Prenons l'exemple de la lentille de barlow en planétaire, selon que vous la prendrez X2 ou X3, vous ne pourrez pas choisir la même caméra à cause de la dimension des photosites, et encore faudra-t-il affiner la réflexion si vous choisissez une barlow Télévue dont le comportement du tirage ne suit pas les lois habituelles. Le raisonnement que vous allez construire dépendra très intimement de l'instrument que vous aurez, non pas en qualité mais en structure, la focale en particulier, l'ouverture aussi. C'était juste un exemple très simple pour illustrer.

 

Sincèrement vous ne pouvez pas ainsi cloisonner les éléments pour bâtir un raisonnement, une compréhension ou une construction. Une fois encore vous ne prendrez alors pas en compte les interactions entre composants, et les résultats que vous tireriez de votre réflexion ne vaudrait bien souvent que peu voire rien. Il vous sera nécessaire d'avoir une vision globale et transversale qui part de l'objet observé jusqu'au capteur final.

 

Sans cette approche, la question que vous posez n'a que peu de sens et ne trouvera pas de réponse unique.

 

Le livre de Thierry LEGAULT devrait vous aider à progresser dans la compréhension : https://www.eyrolles.com/Audiovisuel/Livre/astrophotographie-9782212675726/

 

 

Ney

Posté

Je pense que le but de la question théorique de Larbucen est d'être sûr d'avoir bien compris la théorie  (but que je n'avais pas compris au début). Puisqu'il veut comprendre la différence entre noir et blanc et couleur, il est normal qu'il fixe des conditions idéales par ailleurs, pour qu'elles n'interviennent pas.

 

De ce que je crois avoir compris, un capteur noir et blanc avec des pixels de 5 µm donnera la même résolution (théorique) qu'un capteur couleur avec des pixels de 5 µm. Donc oui, le capteur couleur avec des pixels de 2,5 µm donnera plus de détails (en théorie) que le capteur noir et blanc de 5 µm. À moins que je me trompe ?...

Posté (modifié)

Désolé @22Ney44 si vous trouvez que ma question a peu de sens. J'ai bien compris que vous étiez dans l'utilisation pratique. Merci pour le lien vers de livre de Thierry Legault.

 

Merci @'Bruno, c'est bien ça. En revanche, je ne pense pas qu'un capteur monochrome de 5 µm donne la même résolution qu'un capteur couleur de 5 µm. Sinon, il y aurait peu d'intérêt d'avoir des capteurs monochromes. La matrice de bayer va diviser notre capteur en 4. Donc pour moi (à pixels identiques) un capteur couleur donnera 2 fois moins de détails qu'un capteur n&b. C'est pourquoi ma comparaison se fait entre des caméras couleur Vs monochrome possédant des tailles de pixels différents.

 

En fait, il me semble qu'une caméra couleur possédant des pixels de 2,4 µm donnera plus de détails qu'une caméra monochrome possédant des pixels de 5,86 µm. En plaçant mes pixels de 2,4 µm deux par deux, j'obtiens un carré de 4,8 µm. Ainsi 4,8 étant inférieur à 5,86, c'est donc la caméra couleur qui gagne.

 

En revanche, si je prends une ZWO ASI 224 MC qui possède des pixels de 3,75 µm et en refaisant la même calcul, j'obtiens un carré de 7,5 µm. Cette fois-ci, c'est donc la caméra monochrome qui gagne.

 

Encore une fois, c'est de la théorie. Avez-vous compris mon raisonnement ? Est-il faux ?

 

 

Modifié par Larbucen
Posté (modifié)
il y a 15 minutes, Larbucen a dit :

Donc pour moi (à pixels identiques) un capteur couleur donnera 2 fois moins de détails qu'un capteur n&b.

Tout le monde n'est pas de cet avis, sur le 2 fois moins :

http://www.astrosurf.com/topic/131476-est-ce-que-lon-perd-en-résolution-avec-une-matrice-de-bayer/#:~:text=la matrice de Bayer ce,sur 2 de couleur verte.

http://www.astrosurf.com/topic/126097-différence-entre-les-versions-couleur-et-monochrome-dun-même-capteur/

Modifié par krotdebouk
  • Merci / Quelle qualité! 1
Posté
il y a 10 minutes, Larbucen a dit :

Encore une fois, c'est de la théorie. Avez-vous compris mon raisonnement ? Est-il faux ?

Bien sûr que c'est de la théorie, mais alors à quoi va -t-elle servir dans le choix d'une caméra ? Sur quels critères peut-on dire vrai ou faux  votre raisonnement ? Du fait de l'interaction des phénomènes, sur quels faits allons nous déterminer la valeur du raisonnement et sur quelle base allons-nous les déconvoluer pour n'examiner qu'un seul point pourtant indissociable des autres? Je ne sais pas. Ce que vous dites va être "juste" concernant le contenu en électrons de chaque photosite durant le temps de pose, mais on est loin du compte pour avoir la résolution finale. Ensuite selon que la caméra est mono ou couleur, quelle est la dimension d'un photosite à prendre en compte ? La dimension physique du photosite couleur est-ce la combinaison des quatre photosites individuels ou celle d'un seul ? La réponse à cette question va être dans les algorithmes de recombinaison selon que par exemple pour le vert on considère que nous avons à faire avec des rectangles alors que pour les deux autres couleurs ce sont des carrés. Qu'est-ce qui va compter dans le calcul de la résolution, la longueur ou la largeur pour le vert ? Si l'image est moins résolue dans le vert, et si ce vert est prépondérant, qui peut se prononcer sur la résolution théorique de la caméra ? Je ne sais pas.

 

@krotdebouk a bien raison de soulever le manque de consensus sur le sujet. Et puis la résolution de votre caméra va dépendre de votre cible. Imaginons une cible dont la couleur soit très chargée en vert (rare il est vrai) le signal vert va être prépondérant et structurera le résultat final, donc de plus grands photosites que la taille physique ? Si nous sommes davantage dans le rouge ou le bleu, ce sera alors plutôt la taille physique du photosite qui va prévaloir, et là couleur ou Noir et blanc se valent encore que il y a un intrus qui n'a pas dit son dernier mot : le BRUIT. Cet autre point à discuter concernant le N&B vs Couleur, c'est le rapport signal/bruit. Plus vous posez longtemps, plus le bruit thermique va compter, le bruit des photons loin d'être neutre va aussi perturber la mesure or pour être comparables en résultat, les temps de pose couleur sont plus longs pour avoir le même niveau de signal, mais vous aurez un rapport Signal/Bruit plus défavorable engageant directement la qualité, donc la résolution de votre photo. On pourra alors vous rétorquer qu'en prise de vue N&B il faut faire quatre poses : R, V, B et L et que dans ce cas les quatre sources de bruit s'ajoutent, sauf que les quatre signaux aussi.

 

Pris individuellement, le débat sur chaque phénomène est sans fin parce que ces phénomènes interagissent entre eux, faisant varier le comportement global  selon le privilège accordé à l'un ou à l'autre.

 

Bon je suis très novice avec peu d'expérience, peut-être que je me plante !

 

Ney

 

Posté

Merci beaucoup pour ces liens. Je n'avais pas trouvé ces sujets (j'ai du mal chercher) et je m'aperçois que je ne suis pas le seul à me poser la question. Je crois que je vais trouver mes réponses là-bas.

 

Merci pour votre participation à tous.

Posté
Il y a 4 heures, astronome04 a dit :

https://www.dxomark.com/glossary/pixel-pitch/ :

traduction google du site dxomark:

Largeur d'un pixel sur un capteur, généralement exprimée en µm. En termes simples, le pas de pixel est la distance entre le centre d'un pixel et le centre du pixel suivant mesurée en millimètres micromètres. Plus le nombre de pas de pixel est petit, plus il y a de pixels sur le capteur, et donc plus la résolution est élevée.

 

Ça ne fait pas très sérieux de la part de DxO. Un capteur n'a pas de pixels, mais des photosites.

 

Il y a 4 heures, 'Bruno a dit :

Ah oui, sensor = capteur. Ben c'est la première fois que je vois la notion de picth pour un capteur (il me semblait qu'on l'utilisait pour distinguer résolution et définition sur un écran).

 

La définition, c'est un nombre de pixels.

La résolution, c'est un nombre de pixels par unité de longueur.

Posté (modifié)
Il y a 3 heures, Larbucen a dit :

En revanche, je ne pense pas qu'un capteur monochrome de 5 µm donne la même résolution qu'un capteur couleur de 5 µm.

Pour moi si, ils font la même taille, si on ne s'en tient qu'au calcul théorique, mais

 

Il y a 3 heures, Larbucen a dit :

Sinon, il y aurait peu d'intérêt d'avoir des capteurs monochromes

Si ils sont plus sensibles. Même si la "résolution" théorique est identique, les photosites d'un capteur monochrome recevront quand même beaucoup plus de photons qu'un capteur avec une matrice de bayer, après les chiffres exacts... jamais fait de mesures moi-même. Finalement pour moi c'est un peu comme comparer diamètre et rapport FD. C'est le diamètre qui amène le pouvoir de résolution, le rapport FD qui amène plus de lumière. Pour autnat la résolution à 2000mm de focale à F4 est la même qu'à 2000mm à F10, mais c'est peut être une erreur, c'est ce que j'avais retenu des lectures. Même si la séparation des détails est la même, l'information qui percute le photosite non 

 

Il y a 2 heures, Larbucen a dit :

Merci beaucoup pour ces liens. Je n'avais pas trouvé ces sujets (j'ai du mal chercher) et je m'aperçois que je ne suis pas le seul à me poser la question

Pourtant tu avais réagis au message de Lyl en 2019 sur le premier lien 

Modifié par Drase
Posté (modifié)

@Drase Un capteur avec une matrice de Bayer classique (matrice 2x2 2 verts, 1 rouge, 1 bleu), aura 2 fois plus de résolution en vert, et 4 fois moins en rouge et bleu.

C'est tout l'intérêt des capteurs monochromes.

Modifié par Alhajoth
J'avais oublié un mot...
  • J'aime 1
Posté (modifié)
il y a 4 minutes, Alhajoth a dit :

C'est tout l'intérêt des capteurs monochromes.

Tout à fait 

 

Me suis peut être mal exprimé je ne sais pas, mais là tout de suite je ne sais pas trop comment le dire autrement qu'avec la séparation des détails

Modifié par Drase
Posté
Il y a 8 heures, Larbucen a dit :

Aïe, Alzheimer se rapproche.

Bof, tu sais ses messages je les oublie juste après les avoir lu aussi 😅 pour des non sachant en optique, certains de ses messages sont clairement incompréhensibles, ou en tous cas pour moi.

  • J'aime 1
Posté
Il y a 12 heures, Alhajoth a dit :

 

Ça ne fait pas très sérieux de la part de DxO. Un capteur n'a pas de pixels, mais des photosites.

 

Tu t'es lu quand t'as bu 🤣🤣🤣

Dxomark donne une définition concernant un pixel pitch pas de la définition (au sens propre) d'un pixel capteur composé de plusieurs photosites

Ceci dit un capteur a bien des photosites 👏

Posté

@astronome04 Désolé, je n'avais pas bu : DxO associe bien "pixel" à "capteur" :

 

Width of a pixel on a sensor, usually expressed in µm. Simply put, pixel pitch is the distance from the center of a pixel to the center of the next pixel measured in millimetersmicrometers. The smaller the pixel pitch number, the more pixels on the sensor, and thus the greater the resolution.

Posté

Vous dites qu'un capteur n'a pas de pixel. Pourtant tous les fabricants d'appareils photos communiquent sur le nombre de mégapixels. Ou alors c'est un abus de langage ?

 

Il me semblait que la différence entre pixel et photosite, c'est que sur une caméra couleur, un pixel est fait de quatre photosites. Si c'est un abus de langage, il faut remplacer pixel par quel mot ?

Posté

Non, un pixel n’est pas constitué de 4 photosites !

 

Sur les capteurs couleur à matrice de Bayer, un photosite est surmonté d’un filtre soit vert, bleu ou rouge. Il ne retourne qu’une valeur proportionnelle à l’intensité lumineuse reçue.

 

Un pixel ne se trouve pas sur le capteur mais est calculé à partir des valeurs retournées par le photosite qui occupe la même position sur le capteur, et les valeurs des photosites qui l’entourent (donc a minima 9 photosites sont utilisés pour retourner un pixel). Les algorithmes utilisés pour la « débayerisation » sont globalement secrets et dépendent du savoir faire chaque fabricant d’APN. Il existe cependant des algorithmes publics qu’on retrouve dans nos logiciels astro.

 

Les capteurs Foveon ont des photosites qui captent directement les 3 couleurs donc 1 pixel contient les informations captées par 1 photosite.
 

Les capteurs XTrans ont une matrice plus complexe que la matrice de Bayer ce qui rend l’exercice de débayerisation plus complexe car 36 photosites sont utilisés au minimum pour faire un pixel.

 

Il y a des capteurs encore plus complexes, mais marginaux, avec des photosites spécialisés pour la luminance, toute longueur d’ondes possibles, intercalés entre des photosites spécialisés R, G ou B.

 

Un fichier jpeg est donc constitué de pixels. Un fichier RAW contient lui les informations de chaque photosite.

 

On voit qu’il y a - sauf exception - autant de photosites que de pixels (à quelques trucs prêts car les capteurs contiennent des photosites qui servent à autre chose qu’à l’image rendue).
 

Par abus de langage, on peut considérer que photosite et pixel, c’est du pareil au même sans que ce soit vraiment choquant.

Rejoignez la conversation !

Vous pouvez répondre maintenant et vous inscrire plus tard. Si vous avez un compte, connectez-vous pour poster avec votre compte.

Invité
Répondre à ce sujet…

×   Collé en tant que texte enrichi.   Coller en tant que texte brut à la place

  Seulement 75 émoticônes maximum sont autorisées.

×   Votre lien a été automatiquement intégré.   Afficher plutôt comme un lien

×   Votre contenu précédent a été rétabli.   Vider l’éditeur

×   Vous ne pouvez pas directement coller des images. Envoyez-les depuis votre ordinateur ou insérez-les depuis une URL.

  • En ligne récemment   0 membre est en ligne

    • Aucun utilisateur enregistré regarde cette page.
×
×
  • Créer...

Information importante

Nous avons placé des cookies sur votre appareil pour aider à améliorer ce site. Vous pouvez choisir d’ajuster vos paramètres de cookie, sinon nous supposerons que vous êtes d’accord pour continuer.