Pixels et sous-pixels

Un jour, je me suis demandé : "Pourquoi les fichiers RAW de mon appareil photo sont-ils Nikon D700 peser si peu?'. En cherchant une réponse, j'ai trouvé des informations très intéressantes.

À propos du pixel art

À propos du pixel art

Ainsi, lors de la prise de vue, j'utilise parfois le format de fichier RAW (Nikon l'appelle NEF - Nikon Electronic Format - le format de fichier électronique de Nikon). Fichiers RAW de Nikon avoir certains paramètres, j'utilise généralement une profondeur de couleur de 14 bits avec une compression sans perte ou sans compression. En général, les fichiers NEF 14 bits non compressés pèsent environ 24.4 Mo. Dans l'image ci-dessous, j'ai montré la taille de mes fichiers en octets.

Tailles des fichiers NEF sur mon appareil photo Nikon D700

Tailles des fichiers NEF sur mon appareil photo Nikon D700

Comme vous pouvez le voir, les fichiers ont presque la même taille. Prenons par exemple le fichier ARK-4820.NEF, son poids est de 25 621 760 octets, soit 24,4 Mo. Les octets en mégaoctets sont traduits très simplement :

25 624 760 / 1 048 576 = 24,4

Je souhaite attirer votre attention sur le fait que le poids différent des fichiers RAW (NEF) est dû au fait qu'ils contiennent non seulement des informations "brutes" utiles, mais également une petite image d'aperçu, ainsi que EXIF module de données. L'image d'aperçu est utilisée pour visualiser rapidement l'image sur le moniteur de la caméra. L'appareil photo ne nécessite pas de télécharger un fichier lourd de 25 Mo lors d'une visualisation rapide, mais prend simplement une image miniature et l'affiche sur son écran. Ces images sont très probablement encodées à l'aide de JPEG, et l'algorithme JPEG est très flexible et nécessite une quantité différente d'informations pour le stockage pour chaque vignette individuelle.

Une profondeur de couleur de 14 bits signifie que chacun des trois principaux nuances codé avec 14 bits de mémoire. Par exemple, lorsque vous cliquez sur le bouton "point d'interrogation" sur l'élément de menu correspondant de l'appareil photo Nikon D700 Vous pouvez lire ce qui suit:

'Les images NEF (RAW) sont enregistrées avec une profondeur de couleur de 14 bits (16384 niveaux). Dans le même temps, les fichiers sont plus volumineux et la reproduction plus précise des nuances'

La couleur est formée en mélangeant trois nuances de base - rouge R (rouge), bleu B (bleu), vert G (vert). Ainsi, si nous utilisons une profondeur de couleur de 14 bits, nous pouvons obtenir l'une des 4 398 046 511 104 couleurs. (l'une des quatre milliards trois cent quatre-vingt-dix-huit milliards quarante-six millions cinq cent onze mille cent quatre couleurs).

C'est facile à calculer : 16384 (R) * 16384 (G) * 16384 (B)

En fait, 4 milliards sont bien plus que nécessaires pour une reproduction normale des couleurs, une telle quantité de couleurs est utilisée pour une retouche d'image facile. Et pour encoder un 'pixel' de l'image de cette façon, il faudrait 42 bits de mémoire :

14 bits R + 14 bits G + 14 bits B = 42 bits

Mon Nikon D700 crée des images de qualité maximale 4256 par 2832 pixels, ce qui donne exactement 12 052 992 pixels (environ 12 millions de pixels, ou simplement 12 MP). Si encoder des images de mon Nikon D700, sans utiliser d'algorithmes de compression et de compression de données, et avec une profondeur de couleur de 14 bits, il s'avère que vous devez utiliser 506 225 664 bits d'informations (42 bits / pixel sont multipliés par 12 052 992 pixels). Cela équivaut à 63 278 208 octets ou 60,3 Mo de mémoire.

question: pourquoi calcule-t-on qu'environ 60 Mo de mémoire sont nécessaires pour une image, alors qu'en réalité j'obtiens des fichiers de seulement 24.4 Mo ? Le secret réside dans le fait que le fichier RAW d'origine ne stocke pas de "vrais" pixels, mais des informations sur les sous-pixels de la matrice CMOS Nikon D700.

Dans la description de la caméra, vous pouvez trouver les éléments suivants :

Extrait de la notice du Nikon D700

extrait à partir des instructions pour le Nikon D700

C'est-à-dire que les instructions parlent de « pixels effectifs » et du « nombre total » de pixels. Le nombre de pixels effectifs est très facile à calculer, il suffit de photographier en mode JPEG L Fine et d'obtenir une image de 4256 par 2832 pixels, ce qui équivaut aux 12 052 992 pixels décrits précédemment. Si nous arrondissons, nous obtenons les 12.1 MP déclarés dans l'instruction. Mais qu'est-ce que ce "nombre total de pixels", dont il y a près d'un million (1MP) de plus (12,87 MP) ?

Pour comprendre cela, il suffit de montrer à quoi ressemble le capteur de caméra sensible à la lumière. Nikon D700.

Filtre Bayer

Filtre Bayer

Si vous regardez attentivement, la matrice Bayer ne crée aucune image "multicolore". La matrice enregistre simplement des points verts, rouges et bleus, avec deux fois plus de points verts que de points rouges ou bleus.

pas de vrais pixels

Pixel "pas réel"

En fait, cette matrice n'est pas constituée de pixels (« au sens usuel »), mais de sous-pixels ou cellules d'enregistrement. Habituellement impliquerqu'un pixel est un point dans une image qui représente n'importe quelle couleur. Sur un capteur CMOS Nikon D700 il n'y a que des sous-pixels, qui ne sont responsables que des trois nuances principales, sur la base desquelles des pixels «réels», «multicolores» sont formés. Le Nikon D700 possède environ 12 870 000 de ces sous-pixels, appelés pixels « effectifs » dans le manuel.

Il n'y a pas de "vrai" 12 MP sur le capteur Nikon D700. Et les 12 MP que nous voyons dans l'image finale sont le résultat d'une interpolation mathématique dure de 12.87 méga sous-pixels !

Lorsqu'il est moyenné, chaque sous-pixel est converti en un véritable "pixel" par des algorithmes. Cela se produit en raison des pixels voisins. Voici juste caché 'magie de la rue des pixels'. De même, 4 milliards de couleurs est aussi l'œuvre de l'algorithme de débayérisation.

Sous-pixels et pixels

L'idée principale de l'article : les sous-pixels et les pixels. 12 millions de sous-pixels nous sont vendus pour le prix de 12 millions de « vrais pixels ».

Pour parler très grossièrement, les spécialistes du marketing ont appelé les sous-pixels du filtre Bayer « pixels » et ont ainsi substitué le sens des mots. Tout est lié à ce que vous devez comprendre exactement par le mot "pixel".

Revenons aux calculs du volume de fichiers. En fait, le fichier NEF ne stocke que 14 bits d'informations pour chaque sous-pixel du filtre Bayer, ce qui correspond en fait à la même profondeur de teinte. Considérant qu'il existe 12 870 000 de ces sous-pixels sur la matrice (le nombre est approximatif, indiqué dans les instructions), le stockage des informations obtenues à partir d'eux nécessitera:

12 870 000 * 14 bits = 180 180 000 bits ou 21,48 Mo

Et pourtant je n'ai en aucun cas récupéré les 24,4 Mo que j'observe sur mon ordinateur. Mais si nous ajoutons des données de EXIF et JPEG PreviewImage, vous pouvez obtenir les 24,4 Mo initiaux. Il s'avère que le fichier RAW stocke également :

24,4-21,48=2,92MB données supplémentaires

Important: des calculs similaires peuvent être effectués pour les appareils photo utilisant des capteurs CCD et des fichiers RAW sans compression - Nikon D1, J1h, D1x, D100, D200, ainsi que des matrices JFET (LBCAST) - Nikon D2h, D2hs. En fait, il n'y a pas de différence C'est CCD ou CMOS ? - ils utilisent toujours le filtre Bayer et les sous-pexiles pour former l'image.

Mais les caméras Sigma avec des matrices Foveon ont une taille de fichier RAW beaucoup plus grande pour le même 12 MP par rapport à une matrice CMOS qui encode un vrai pixel en utilisant trois pixels de couleurs primaires (comme prévu), cela ne fait que confirmer mon raisonnement. Au fait, un autre est apparu sur Radozhiv article intéressant и un de plus.

résultats

En fait, les caméras utilisant des matrices de filtres Bayer (CCD, CMOS - peu importe) n'ont pas le nombre réel déclaré de "vrais" pixels. Sur la matrice il n'y a qu'un ensemble de sous-pixels (éléments photo) du motif Bayer, à partir duquel, à l'aide d'algorithmes complexes spéciaux, des pixels d'image «réels» sont créés. En général, l'appareil photo ne voit pas du tout d'image en couleur, le processeur de l'appareil photo ne traite que des nombres abstraits responsables d'une nuance particulière de rouge, de bleu ou de vert, et la création d'une image en couleur est c'est juste des trucs de maths. En fait, c'est pourquoi il est si difficile d'obtenir une reproduction des couleurs "correcte" sur de nombreux CZK.

Matériaux connexes

  1. Systèmes hybrides plein format. Discussion, choix, recommandations.
  2. Systèmes sans miroir recadrés. Discussion, choix, recommandations.
  3. Systèmes sans miroir recadrés qui ont arrêté ou terminent leur développement
  4. Systèmes de miroirs numériques qui ont arrêté ou terminent leur développement
  5. JVI ou EVI (un article important qui répond à la question 'miroir ou sans miroir')
  6. À propos des batteries sans miroir
  7. Format moyen simple et clair
  8. Des solutions particulièrement rapides de marques chinoises
  9. Tous les zooms autofocus les plus rapides
  10. Tous les objectifs à focale fixe les plus rapides
  11. Plein format miroir sur moyen format sans miroir
  12. Boosters de vitesse de mise au point automatique
  13. Un objectif pour gouverner le monde
  14. L'impact des smartphones sur le marché de la photographie
  15. Quelle est la prochaine étape (suprématie du smartphone) ?
  16. Toutes les annonces et nouveautés d'objectifs et d'appareils photo

Les commentaires sur cet article ne nécessitent pas d'inscription. Tout le monde peut laisser un commentaire. De nombreux équipements photographiques différents peuvent être trouvés sur AliExpress.

Matériel préparé Arkady Shapoval. Formation/Consultation | Youtube | Facebook | Instagram | Twitter | Telegram

 

Ajouter un commentaire:

 

 

Commentaires : 153, sur le thème : Pixels et sous-pixels

  • anonyme

    Je vais le réparer quand même :)
    millions = 10^6
    milliard = 10 ^ 9, milliard aussi = 10 ^ 9, seul le premier nom est traditionnel et accepté en russe, et le second est scientifique et international.
    trillion = 10^12
    mais le nombre 4 398 046 511 104 est quatre billions trois cent quatre-vingt-dix-huit milliards (milliards) quarante-six millions cinq cent onze mille cent quatre.

  • Anonyme-1

    Eh bien, c'est sûr : un spectacle de schizophrénie mathématique ! De FMTI aux passionnés de photo ! Les mathématiciens vont bientôt construire un modèle de nez qui coule et calculer le nombre probable d'éternuements en fonction de la masse inerte de morve... Et à partir de ce modèle, ils dériveront le nombre optimal utile de pixels dans la matrice formée par un mouchoir... Vivons richement et heureux !

    • roman

      Sans les mathématiciens et leurs œuvres, je soupçonne fortement que nous aurions encore à faire de la peinture rupestre. Eh bien, ou peindre avec des peintures à l'huile.

      Les filtres Bayer et l'interpolation sont l'un des rares moyens d'obtenir des images à partir d'une matrice. Si nous comptons quatre sous-pixels comme un pixel, nous obtenons une image deux fois plus petite en hauteur et en largeur. Mais en même temps, nous perdrons cette partie insignifiante des informations obtenues avec l'utilisation mixte de différents canaux, y compris les informations de luminosité doublées de deux sous-pixels verts.

      • Nicholas

        Quatre sous-pixels ne peuvent pas être considérés comme un pixel, puisque chacun contient des informations différentes, même malgré la présence d'un filtre.

        • Alexander

          Pourquoi comptez-vous 3 sous-pixels RVB comme un seul sur un moniteur ? Là aussi, chacun a des informations différentes. Chez Bayer, la différence est de plus un sous-pixel vert, ce qui devrait en théorie augmenter la clarté au détriment de la couleur.

          • unDernierHomme

            Outre Alexandre
            Vert, un pixel supplémentaire est fait pour augmenter la sensibilité au vert.
            Il se trouve qu'une personne est presque indifférente au bleu et qu'elle a davantage besoin de vert.
            Il y a une telle chose, la sensibilité spectrale : EY = 0,30ER + 0,59 EG + 0,11EB
            En fait, sur les ordinateurs, 16 bits de couleur sont codés en 565 (RVB) bits par pixel, un bit donne une plage de mesure deux fois plus grande. Ce qui tombe presque dans la formule ci-dessus.
            Afin de ne pas trop nous soucier des mathématiques, nous avons créé un pixel supplémentaire, ce qui est également plus facile sur le plan technologique - pour que tous les pixels soient identiques.

            Par conséquent, 4 pixels (RGBRG) se transforment facilement en 0,30ER + 0,59 EG + 0,11EB, puis en RVB.

  • Anonyme-1

    C'est vrai, pas des photographes, mais des destinataires d'images, des enregistreurs de photos, des consommateurs d'informations sur les couleurs, des compteurs de pixels... Avez-vous essayé de compter le nombre de coups de pinceau dans les peintures de Léonard ? Bonjour!! Le travail est une mer, et le cerveau est en activité, il ne se dessèche pas...

    • Alexander

      Jeune homme, il vaut mieux envier le cerveau en silence, et en même temps il vaut mieux étudier pour réduire l'écart, et l'envie diminue

  • Vadim

    Donc je veux insérer mes "5 cents" :)
    -
    1) Tout d'abord, j'espère qu'une fois que chacun aura pris connaissance des mécanismes de la débayérisation, rien ne changera dans sa vie : il ne commencera pas à se débarrasser massivement des appareils photo numériques, à effacer ses photos préférées, à se souvenir du suicide ("Oh, comment pourrais-je endurer une telle tromperie tout ce temps ? »), etc.
    -
    2) Deuxièmement, quelqu'un a demandé aux fabricants d'appareils photo ce qu'ils entendaient par "PIXEL" ? Pourquoi tous ceux qui sont réunis ici sont-ils sûrs d'avoir été trompés, trompés, jetés ? Nikon ou Canon nous ont-ils convaincus que nous parlons de RVB, RGGB ou d'autres pixels multicanaux ? On nous parle du nombre de cellules dans la matrice dans son ensemble (pixels totaux) et du nombre de combinaisons UNIQUES (c'est-à-dire, ce qui deviendra ensuite des pixels à l'écran) que les caméras et les logiciels collectent à partir de ces cellules (pixels effectifs).
    -
    3) Troisièmement, nous ne parlons pas de combler certains vides avec des données moyennes (interpolation) ou prédites (extrapolation) inexistantes. Nous parlons du fait que les sous-pixels lors de la débayérisation peuvent être combinés de différentes manières. Et chaque combinaison est unique, ce qui signifie qu'elle peut prétendre devenir un pixel d'écran.
    -
    4) Quatrièmement, c'est toujours très bien qu'ils n'aient pas encore soulevé le sujet de la façon dont ces pixels qui apparaissent de manière incompréhensible sont affichés différemment sur différents écrans, et plus encore - comment un raster imprimé est formé à partir d'eux ! :)
    -
    Tout, « 5 kopecks » insérés, je vais courir prendre des photos, sinon j'ai l'impression de perdre un temps précieux.

    • Denis

      Je m'abonne à chaque centime :)

    • Lynx

      tes 5 kopecks font exactement 4.
      Fabriquez-vous également des caméras ? ))

      • Vadim

        J'y pense :).
        Et les guillemets sont nécessaires pour cela, afin qu'une chose puisse être appelée par une autre.

    • Vitali

      Eh bien, au moins une personne instruite.
      Ce qui est décrit dans l'article n'est pas du tout nouveau, mais pour ceux que ça intéresse, et notamment les physiciens, c'est une vérité connue depuis longtemps. La façon dont c'est fait est la seule bonne décision. Que désirez-vous? Pour que chaque pixel provienne d'une triade RVB ? Et ce peuple après ça déclare que 36 mégapukèles sur une récolte c'est beaucoup ? Quelle serait alors la taille des microlentilles si chaque pixel était formé de trois éléments sensibles ? Apprenez le matériel et vous ne serez pas surpris de l'état réel des choses. Le fabricant prend juste soin de nous, rendant le pixel "gras" et il n'y a pas de tromperie ici.

      • Oleg

        >> La façon dont c'est fait est la seule bonne décision
        Pourquoi est-ce correct ? Le fait que vos photos commencent à peser plus, et le nombre de mégapixels exagéré est plus cool.
        >> Le fabricant prend juste soin de nous, rendant le pixel "gras" et il n'y a pas de tromperie ici.
        Sainte innocence. Le fabricant est un bourgeois qui ne se soucie que de son profit et de rien d'autre. Par exemple, les spécialistes du marketing abattent artificiellement certaines puces par programmation, les forçant ainsi à acheter des modèles plus chers. Ils remplacent les termes pour que les nombres soient plus grands, silencieux que ce terme a été remplacé.

        • Vitali

          Les pixels ne sont pas du tout exagérés, mais réels !!! Afin de réclamer des pixels gonflés, apprenez d'abord à faire correspondre !!! Je voulais vraiment dire des mots méchants avec ces mots, mais je vais m'abstenir. Oui, vous seriez le premier à hurler sur le seuil de diffraction, le manque de netteté et le bruit énorme, dû à la surface minimale des éléments photosensibles, si chaque pixel était formé de trois capteurs. Rappel : un élément photosensible plus gros collecte plus de photons, d'où un bruit réduit, un seuil de diffraction plus bas, une meilleure netteté.

          • Oleg

            Vous avez raison sur la taille de l'élément, mais cela ne rend pas le deb différent du flou. La dette est essentiellement un flou banal. D'un capteur 10*10, j'obtiendrai 100 octets d'informations sur l'objet. Si vous faites une photo 10 * 10, alors c'est 300 octets (3 octets par pixel). Où avez-vous obtenu 200 octets de nouvelles informations sur l'objet ? Et vous l'avez moyenné à partir des pixels voisins, c'est un flou banal.
            Expérience de pensée. Nous prenons une photo, disons 100x100 (de préférence plus nette). Et sur la grille Bayer dans chaque pixel, nous ne laissons qu'un seul sous-pixel et éteignons les 1 sous-pixels restants. Pouvez-vous utiliser la débayérisation de cette photo pour obtenir l'image originale ? Pouvez-vous me dire quelle était la luminosité des sous-pixels éteints dans chaque pixel ? Tu ne diras pas à coup sûr, tu vas barbouiller le maximum des voisins.
            À propos du matériel, vous vous explosez les joues. Si vous n'êtes pas d'accord, donnez des arguments, et secouer l'air vide est inutile.

          • Vadim

            La même quantité d'informations d'un fichier RAW peut être analysée et interprétée de différentes manières. Avec une qualité, une vitesse, une précision différentes, selon les tâches. Et beaucoup dépendra de cela.
            -
            Prenez des photos RAW difficiles à travers différents convertisseurs : modernes et vieux de dix ans. Sentez la différence dans le bruit, les détails, la couleur. Avons-nous augmenté la quantité d'informations initiales ? Non, nous avons juste appris à mieux travailler avec et avons ainsi obtenu une version beaucoup plus intéressante.

        • Vadim

          Le fabricant est un bourgeois qui a de bons relecteurs, juristes, juristes, marketeurs et autres personnes intelligentes dans son équipe. Par conséquent, le fabricant SAIT EXACTEMENT ce qu'IL APPELLE avec le mot "pixel". Et si cela ne coïncide pas avec mes opinions, les vôtres ou d'autres, ce sont déjà nos problèmes.
          -
          Il n'y a pas de tromperie, il y a un mot dans lequel différentes personnes mettent des significations différentes.
          Pour vous, par exemple, un pixel est un point visible à l'écran dont les caractéristiques sont décrites par les composantes de luminosité des canaux RVB.
          Pour, disons, une imprimante, il s'agit d'un point conditionnel qui essaie mal d'être affiché à l'écran après conversion en tant que pixel RVB, mais qui a en fait 4 canaux (CMJN).
          Les fabricants de caméras spécifiques en relation avec des matrices spécifiques ont leur propre compréhension du pixel.
          -
          Il n'existe pas de solution unique et correcte pour ce qu'il convient d'appeler un « pixel » ou un « sous-pixel ». Chacun a son opinion sur ce sujet. Il est important que nous tous, discutant vivement de ce sujet, comprenions maintenant l'ordre des choses et puissions appeler un chat un chat.

          • Oleg

            Tant à l'écran qu'à l'impression, un pixel est une partie élémentaire d'une image qui peut être de n'importe quelle couleur, pas seulement rouge, bleu ou vert. Les fabricants d'appareils photo n'interprètent pas le terme pixel comme tout le monde, mais parce que c'est plus rentable pour eux. Et les fabricants de disques durs gigaoctets sont 10E9 octets, pas 1024 * 1024 * 1024. Parce que c'est plus avantageux pour eux.

          • Vitali

            C'est vrai - dans le mille

          • Vadim

            Le préfixe "giga-" dans ISO signifie 10 puissance XNUMX et rien d'autre.
            Vous confondez "gibi-" avec "giga-".
            En savoir plus sur les préfixes binaires :
            http://ru.wikipedia.org/wiki/%D0%94%D0%B2%D0%BE%D0%B8%D1%87%D0%BD%D1%8B%D0%B5_%D0%BF%D1%80%D0%B8%D1%81%D1%82%D0%B0%D0%B2%D0%BA%D0%B8

          • Vadim

            Je veux dire, selon SI et JEDEC :)

          • Vitali

            Vadim, la vérité est complètement de ton côté. À mon tour, je n'ai même pas deviné que tant de personnes ne représentaient même pas le processus de collecte d'informations à partir de la matrice. Je pensais que tous les photographes numériques comprenaient déjà ce processus. Et il s'avère...

          • Vadim

            Eh bien, bien sûr, un pixel peut être de n'importe quelle couleur. Seule cette couleur doit être désignée d'une manière ou d'une autre. Les pixels monochromes (pas nécessairement blanc-gris-noir) peuvent être décrits par un canal, les pixels de couleur par trois ou plus, et ils peuvent être représentés de différentes manières (HSL, LAB, RVB, CMJN, etc.).
            Les fabricants d'appareils photo répertorient le nombre total de pixels monochromes (qui transportent des informations dans un canal, quel que soit le canal).
            Les pixels à l'écran sont multicanaux (c'est-à-dire que nous les percevons comme tels). Le nombre de canaux, s'il y a des sous-pixels, dépend de la technologie d'imagerie.
            Et dans l'impression couleur, les pixels sont également multicanaux. Et les canaux, généralement, au moins un de plus que lorsqu'ils sont affichés à l'écran. Et cela dépend aussi de la technologie d'impression.
            -
            Celles. les pixels sont différents. Comprendre cette thèse simple vous facilitera la vie.

        • Vitali

          Lisez ici http://www.cambridgeincolour.com/ru/tutorials/camera-sensors.htm , seulement pensivement, très intelligiblement peint.

          • Oleg

            http://arttower.ru/wiki/index.php?title=%D0%A4%D0%B8%D0%BB%D1%8C%D1%82%D1%80_%D0%91%D0%B0%D0%B9%D0%B5%D1%80%D0%B0
            Voici à la fin un exemple avec une oie. Et à la fin ils écrivent :
            Comme vous pouvez le voir sur la photo, cette image s'est avérée plus floue que l'originale. Cet effet est associé à la perte de certaines informations suite au fonctionnement du filtre Bayer.

            Celles. Le filtre Bayer ne restaure pas les informations d'origine à 100% ! il l'interpole (le barbouille) des pixels voisins.

          • Vadim

            Exemple farfelu :)))
            Qu'en est-il de l'image d'origine sans débayérisation ? Ou filmé puis scanné ?
            Personne ne dit : tournons sur des matrices trois-quatre-... en même temps, obtenons de vrais pixels multicanaux, comparons-les avec les misérables "réseaux Bayer" - et, comme, sentons la différence.
            Dans cette discussion épique, les gens tentent de transmettre quelques thèses :
            1) TOUTE information sur TOUT objet restauré à partir de TOUTE source n'est pas originale et a une qualité discrète. Conclusion : allez à des concerts en direct, voyagez, regardez des couchers de soleil en direct, sentez des fleurs, savourez chaque cuillerée de bortsch, aimez vos proches, etc.
            2) si vous n'êtes pas ingénieur (par nature), mais photographe (par vocation, ou si vous avez un tel passe-temps), vous souciez moins des détails techniques profonds du processus de prise de vue (comment les cellules du capteur sont chargées, etc. .). Laissons les ingénieurs y réfléchir. Conclusion : entraînez-vous, améliorez vos compétences. Le fer s'améliorera avec le temps. Et c'est à vous de décider si vous devenez meilleur.
            3) pour ne pas se sentir trompé, précisez les choses qui vous intéressent. Les gens appellent souvent la même chose différemment, ou vice versa, mettent des significations différentes dans les mêmes mots. Conclusion : la capacité à trouver un langage commun aide dans le magasin, au travail et dans la vie de famille.
            4) la vérité naît dans les disputes. Nous ne sommes pas là pour inonder la page d'Arkady ou découvrir qui est le plus intelligent. J'ai jeté un regard neuf sur certains aspects de l'obtention et de l'analyse d'une image. C'est intéressant pour moi, parce que. Je suis ophtalmologiste. Quelqu'un à partir de ce jour commencera à utiliser correctement les préfixes "kilo-", "giga-", "kibi-", "gibi-". Conclusion : des discussions constructives rendent le monde meilleur :)

          • Oleg

            Je ne connaissais pas Gibi. Il s'avère que Windows ne s'affiche pas selon la norme, qui aurait pensé.

          • Vadim

            Au fait, oui, à cause de Microsoft, beaucoup ont craché sur le respect des normes. J'ai également découvert cela récemment.

  • Andrew

    Pour être honnête, je ne me soucie absolument pas de la façon dont ils s'appellent et fonctionnent. Je ne peux pas l'influencer. Et nous parlons du spectre visible ... avec nos yeux flexibles et en même temps très imparfaits. Nous voyons et évaluons tous différemment. Figley se remplit alors la tête d'absurdités. Et ça va commencer maintenant : vous avez la mauvaise matrice, vous avez des "grenades du mauvais système"...
    Je ne pense pas que quelqu'un m'ait trompé ou induit en erreur ... Je suis plus préoccupé par l'achat d'une autre carcasse ou d'un verre :), des voyages dans différents endroits intéressants ... et pour que mes misérables yeux aient le temps de voir assez de la beauté .

  • Oleg

    Je pense avoir compris la raison de la dette :
    1. Pour le fabricant, un nombre de mégapixels plus attractif, eh bien, c'est compréhensible.
    2. Maintenant, l'exigence pour l'appareil photo est de fournir une image jpg de la plus haute qualité prête à la sortie. Et pour que l'utilisateur n'ait pas à se soucier des filtres. Celles. si vous devez appliquer une sorte de filtre pour améliorer la qualité apparente de la photo, l'appareil photo doit le faire lui-même et ne pas le laisser à l'utilisateur. Ici, il a reçu une matrice de valeurs ​​​​10 * 10. Bien sûr, il n'y a que 100 octets d'informations initiales, et qui en a besoin est brut. Et qui a besoin d'une photo finie, alors l'appareil photo augmentera la résolution réelle de 2 * 2 \u4d 10 fois en interpolant les pixels manquants (deb-tion), puis il ajoutera de la netteté, des couleurs correctes et autre chose. Le résultat final est une photo de la meilleure qualité visible. Oui, si vous faites correctement une photo 10x5 à partir d'une matrice 5 * 1, il n'y aura pas d'informations exagérées, mais cela aura l'air vraiment pire. Celles. pour moi, j'ai conclu cela, à partir des pixels écrits sur l'appareil photo, 4/XNUMX sont réels et le reste est interpolé. Peut-être que ce n'est pas mal, mais la qualité visible est importante pour les gens, mais la façon dont elle est reçue est réellement filmée ou interpolée, cela n'a pas d'importance pour eux.

    • roman

      Pas compris. Prenez une image RAW, réduisez-la de moitié, puis redimensionnez-la à sa taille d'origine. Et puis comparez les pixels gonflés débayérisés avec vos pixels honnêtes. L'exemple n'est pas tout à fait correct, mais certaines conclusions peuvent encore être tirées.

      Le filtre Bayer est une solution d'ingénierie intelligente qui vous permet d'utiliser de manière optimale la surface de la matrice. Une "décision juste" consiste à prendre un carré, à y placer trois capteurs R, G, B (laisser un coin vide), à ​​faire la moyenne de tout à un pixel et à obtenir une image avec des côtés de 4000x3000 à partir d'une matrice de 2000x1500 pixels. Il suffit d'ajouter un autre capteur vert au coin «vide» et nous obtiendrons «supplémentaire» 60% des informations de luminosité (la contribution du canal vert est de 60%, 30% - rouge, 10% - bleu). Vous pouvez simplement le jeter, ou vous pouvez le "mélanger" à l'aide d'un tapis. transformations (plus complexes qu'une simple interpolation linéaire ou même cubique) à l'image, obtenant une résolution de luminosité beaucoup plus élevée.

      • Oleg

        >> Prenez l'image obtenue à partir de RAW
        Où se le procurer ? Tout convertisseur donne déjà traité.

        http://arttower.ru/wiki/index.php?title=%D0%A4%D0%B8%D0%BB%D1%8C%D1%82%D1%80_%D0%91%D0%B0%D0%B9%D0%B5%D1%80%D0%B0
        Voici une photo d'une oie. C'est comme l'objet d'origine. Ils en ont fait une matrice de Bayer, c'est-à-dire quelle serait la matrice d'un appareil photo idéal avec un objectif idéal. Ensuite, la dette a été appliquée à cette matrice, c'est-à-dire comme le ferait un appareil photo. La photo obtenue n'est pas égale à l'originale ! Inégal! Maintenant, si le fotik avait des pixels RVB honnêtes, l'image d'origine se serait avérée sans aucun problème. Et donc c'est un simple flou, qui est visible lorsqu'on compare les photos originales et finales de l'oie.
        Oui, d-tion est probablement une transformation légèrement plus complexe qu'une simple interpolation linéaire ou cubique, mais cela ne signifie pas qu'il ne s'agit pas d'une interpolation. D-tion est une véritable interpolation. Depuis le wiki :
        Interpolation, interpolation - en mathématiques computationnelles, un moyen de trouver des valeurs intermédiaires d'une quantité à partir d'un ensemble discret existant de valeurs connues.
        Il est.

        • roman

          > La photo résultante n'est pas égale à l'originale !
          Quelqu'un prétend-il le contraire ?

          Si vous agissez "honnêtement", comme vous le demandez, vous devrez alors en aveugler un de chaque ensemble de quatre pixels, et non quatre, comme le fait l'algorithme de débayérisation. En conséquence, votre image sera deux fois plus petite en largeur et en hauteur. Et si vous l'agrandissez pour qu'il corresponde à la taille de l'image d'origine, le résultat après la débayérisation sera BEAUCOUP meilleur, car il a été obtenu à l'aide des informations que vous proposez de jeter.

          Le filtre Bayer permet de disposer les éléments photosensibles sous forme de grille, l'utilisation de deux pixels verts au lieu d'un augmente la résolution et apporte une information supplémentaire pour une meilleure transmission des nuances vertes (et indirectement de la luminosité).

          Vous pouvez disposer les éléments les uns sur les autres, il existe de telles matrices. Des ondes de différentes longueurs pénètrent à différentes profondeurs, de sorte que vous pouvez obtenir trois fois plus d'informations à partir d'un "pixel géométrique", mais tout n'est pas fluide non plus. Il est possible de diviser le flux lumineux en trois et de diriger la lumière vers trois matrices différentes, mais cela est coûteux et encombrant.

          • Oleg

            Si vous prenez presque n'importe quelle image (en particulier en basse résolution) et augmentez sa résolution 2*2 fois par interpolation bilinéaire, elle sera également BEAUCOUP meilleure sans le 4ème canal. Mais ce n'est pas une raison pour faire ça avec tous les fichiers en augmentant leur taille par 4 ! fois.
            Oui, comme je l'ai écrit ci-dessus, l'exigence actuelle pour les appareils photo semble être la suivante : l'appareil photo doit produire une photo jpg finie de la plus haute qualité possible, après avoir effectué tous les filtres possibles par lui-même. La taille de la photo n'a pas d'importance. La façon dont il est obtenu à partir de pixels réels ou exagérés n'est pas si importante.

          • Vadim

            Voici quelque chose qu'Oleg ne peut en aucun cas comprendre, en quoi les pixels monocanaux (monochromes) diffèrent des pixels multicanaux (couleur). Et tu n'y peux rien...
            -
            Par conséquent, l'interpolation en tant que moyenne n'a rien à voir avec cela. La débairisation n'est pas une moyenne, mais l'obtention d'un pixel multicanal à partir d'un groupe de pixels monochromes.
            -
            Dans ce cas, bien sûr, il faut utiliser toutes les combinaisons possibles de groupes, puisque cela donnera plus d'informations RÉELLES que d'utiliser chaque pixel monochrome une seule fois, puis de procéder à une mise à l'échelle.
            -
            Et cette oie est stupide... Les gens ont pris une image à partir d'un ensemble de pixels RVB, les ont coupés en monochrome, c'est-à-dire. ils ont jeté 2 chaînes (2/3 de l'information), puis ils disent : "Vous voyez, l'image se dégrade." BIEN SUR, c'est dégradant, il ne reste qu'un tiers d'informations ! Et seulement grâce à la débairisation, cette image peut encore être vue du tout.

          • Oleg

            Oui, les gens ont jeté les 2/3 de l'information. Eh bien, la caméra ne prend pas non plus les 2/3 des informations, disons que la composante verte de la lumière qui frappe la cellule rouge ou bleue disparaît tout simplement. Tout est correct avec l'oie.
            Et selon vous, quelle est la bonne façon de faire un exemple d'oie ? Pensez par vous-même qu'il y a une photo d'oie, disons 100 * 100 * 3 = 300 octets, la matrice Bayer ne prendra que 100 octets. Comment ne pas tordre sur 100 octets, vous ne récupérerez pas les mêmes 300. Ne pas être d'accord? pas de problème, faisons l'oie comme vous le souhaitez. Expliquer comment.

          • Vadim

            Le jeter et ne pas le retirer sont deux choses différentes. Ces pixels monocanal transportent des informations sur un seul canal. Mais ils ne cessent pas d'être des pixels. Et on ne nous a pas promis de pixels spécifiques. Ils ont promis des pixels - ils ont donné des pixels. Mais quels sont ces pixels et en quoi ils diffèrent de ceux de l'écran, grâce à vous, nous l'avons découvert et "mâché" dans les moindres détails.

          • Oleg

            En général, oui. Nulle part il n'est écrit qu'il s'agit de pixels à trois canaux. Si la réticence des informations exagérées dans le fichier, vous pouvez mettre une résolution inférieure dans le fotik et ainsi obtenir une traduction honnête des pixels Bayer en RVB, les fabricants laissent le choix à l'utilisateur. Probablement en vain je les calomnie.
            Eh bien, la résolution des moniteurs peut également être écrite verticalement 3 fois plus, là aussi, personne n'a promis un pixel RVB :).

        • Vadim

          Les pixels de l'appareil photo et les pixels de l'écran sont comme des tuiles. Il y a moins cher, il y a plus cher, il y a plus, il y a moins. Mais ceci et cela sont des tuiles, et ceci et cela sont des pixels.
          Les pixels de la matrice de la caméra étant monocanal (monochrome), ils contiennent trois fois moins d'informations que les pixels de l'écran. Ils ne sont pas égaux. Mais ce sont des pixels. Honnête. Réel.
          -
          Quelle est la manière la plus simple d'expliquer ?

          • roman

            Je ne sais pas. Une personne croit obstinément que les fabricants le trompent. Comme, un complot maçonnique juif, tout le monde double bêtement l'image, l'aiguise et la vend comme une vraie. Je vais donc le contrarier, en JPEG, RVB est converti en YUV - un canal de luminance et 2 différences de couleur. L'ensemble du code de luminance est encodé, et ceux de différence de couleur sont laissés avec deux pixels sur quatre. Et c'est après la débayérisation ! Des imbéciles, des imbéciles...

          • Oleg

            Je sais avec certitude qu'à partir de la matrice Bayer 10 * 10, il est impossible de restaurer avec précision l'image originale 10 * 10 * 3 de quelque manière que ce soit, y compris d-tion. L'image finale sera plus floue que l'originale et les francs-maçons n'y sont pour rien, des mathématiques pures. Je ne sais pas comment JPEG encode, je ne discuterai pas (mais j'ai toujours pensé qu'il y avait quelque chose dans une série de Fourier). Mais votre logique est la suivante, ajoutons 200% de pixels gonflés à l'image, de toute façon, certains d'entre eux seront perdus après la compression JPEG. Je note que JPEG est toujours une détérioration de la qualité de l'image (vu dans les images contrastées), et après JPEG, non seulement les exagérés, mais aussi les vrais seront perdus !
            L'exemple ci-dessus avec une oie est très révélateur. Ou êtes-vous Roman aussi en désaccord avec lui? Faisons l'exemple de l'oie comme vous le souhaitez et assurons-nous de ne pas nous retrouver avec la qualité d'image d'origine.

          • Vadim

            :)))
            Il n'y a pas de "photo originale" d'une oie. Il y a une oie :). C'est le SUJET ORIGINAL. Nous ne pouvons jamais obtenir l'image parfaite. Nous avons vu le contour - nous voulons voir des parties du corps ; on a vu des parties du corps, on veut voir des plumes ; on a vu des plumes, on veut examiner chaque « villosités » ; nous avons vu chaque "peluche", nous voulons voir chaque tique posée dessus, etc. Il n'y a pas de limite à la perfection.
            -
            Ainsi, le GUS (et non sa photographie) est photographié avec un appareil photo sur une matrice avec un réseau Baerian. Ceci est l'IMAGE ORIGINALE.
            -
            Les informations lors de la prise de vue ne deviennent pas moins. Il y en a exactement autant que ce type de matrice peut physiquement obtenir initialement dans cet appareil photo avec ces réglages et ces conditions de prise de vue. Celles. quelques pixels monochromes.
            Encore une fois, monochrome ne signifie pas niveaux de gris. C'est juste que chaque pixel contient des informations sur un canal (dans ce cas, rouge, bleu, vert, vert n° 2).
            -
            Si nous avions initialement une matrice multicanal (par exemple, multicouche) et que, pour une raison quelconque, nous accrochions un réseau de Baer au-dessus, nous perdrions bien sûr environ 2/3 des informations. Mais on n'a rien perdu, on a au départ un capteur moins parfait. Quoi que vous fassiez avec lui, il ne "déterrera" pas plus d'informations pour nous.
            -
            Ensuite, les informations d'origine ne vont nulle part : elles sont analysées, interprétées et converties en pixels multicanaux compréhensibles pour l'écran du moniteur. Vous pouvez le faire en une seule passe (chaque pixel monochrome est utilisé une fois), vous pouvez le faire en plusieurs passes (toutes les combinaisons possibles de groupes de 4 pixels adjacents sont considérées + éventuellement des groupes plus grands et de forme irrégulière). Plus il y a de passes - plus il y a de chances d'extraire le maximum des informations disponibles, plus l'image résultante est susceptible de répondre aux attentes. Mais la quantité d'informations initiales, encore une fois, ne change pas.

          • Oleg

            >> Il n'y a pas de "photo originale" d'une oie. Il y a une oie...
            Pas vrai. Nous ne pouvons pas décrire une oie vivante avec des détails infinis, c'est vrai. Mais nous avons imaginé une oie abstraite composée de carrés. Eh bien, c'est comme si nous ne prenions pas une photo de l'oie elle-même, mais que nous prenions une photo d'une oie. Disons que nous avons une photo d'une oie 100*100*3. Un appareil photo idéal avec un objectif idéal avec une matrice honnête de 100 * 100 * 3 prenant une telle photo d'oie donnera évidemment l'image originale d'une oie en sortie. Un appareil photo idéal avec une matrice Bayer de 100 * 100 * 1 donnera une matrice Bayer, à partir de laquelle, au moyen de transformations de dé-tion, la photo originale de l'oie n'est pas obtenue, mais une photo plus floue est obtenue. Comme indiqué dans ce lien.
            >> Les informations ne deviennent pas plus petites lors de la prise de vue. Il y en a exactement autant qu'en général physiquement ce type de matrice peut initialement obtenir
            Oui. Cette matrice est capable de recevoir de l'objet, disons, 10*10=100 octets d'informations, elle ne diminue pas, car nous ne jetons rien. Ça grossit, on rajoute 200 octets gonflés. Comme si nous recevions vraiment 300 octets de l'objet, mais en fait seulement 100.
            Regardez, nous devons convertir 1 pixel d'une matrice Bayer à un canal en une matrice à 3 canaux. Que ce soit un pixel vert. Mais nous ne connaissons pas physiquement la valeur de la couleur rouge ou bleue de l'objet à l'emplacement de ce pixel vert. La matrice n'a pas supprimé, coupé cette information. Où l'obtenir, nous le prenons d'un pixel voisin, croyant naïvement que les valeurs de couleur des pixels voisins sont à peu près similaires. Mais ce n'est pas du tout le cas. Par exemple, l'objet source est un point jaune vif (rouge + vert) de 1 pixel sur un fond vert. Et ce point est complètement tombé dans ce 1 pixel vert monocanal. Dans les pixels voisins, il n'y aura aucune information sur sa composante rouge, il n'y a que des informations sur le fond vert. De-tion nous donnera ce point vert. Alors qu'une matrice à trois canaux honnête verra que le point a un canal rouge, et par conséquent, nous obtiendrons la couleur jaune du point.

          • Denis

            « Par exemple, l'objet source est un point jaune vif (rouge + vert) d'une taille de 1 pixel sur un fond vert. Et ce point est complètement tombé dans ce 1 pixel vert monocanal. Il n'y aura aucune information sur sa composante rouge dans les pixels voisins" - vos pensées ne font que confirmer une fois de plus l'ignorance du matériel :)
            Cette situation est impossible car il y a aussi un filtre spécial devant la matrice.

          • Oleg

            Ils disent que sur certains modèles, le filtre anti-aliasing n'est pas devant la matrice. Et d'où vous vient l'idée que le rayon de flou de ce filtre est plus grand que la taille des pixels ? Peut-être qu'il est flou de 0.1 pixel, puis un point lumineux de la taille d'un pixel peut bien l'être.

          • Denis

            Caméras sans filtre - modèles un et demi. De plus, l'absence de ce filtre est présentée comme un outil pour les professionnels, des gens qui savent pourquoi ils en ont besoin.
            Et en ce qui concerne le degré de flou, cela vaut la peine de le brouiller pour qu'il touche les pixels voisins. Même si de 0.1 pixel, cela signifiera qu'une partie de l'information tombera déjà sur les voisins. En pratique, il y en a plus. Je le répète encore une fois, étudiez le matériel avant de tirer des conclusions sur les poches et l'interpolation.

            PS Arkady, veuillez supprimer mon commentaire similaire ci-dessus, il a été cité au mauvais endroit, tout a déménagé.

    • roman

      Une autre "option équitable" consiste à augmenter le nombre de pixels sur la matrice, en réduisant leurs dimensions linéaires. Mais ici, nous rencontrons un certain nombre de problèmes. Les bruits augmentent (en raison de la disposition dense des éléments sur la matrice, leur échauffement est plus important, plus de distorsions sont introduites dans les mesures). Les problèmes de diffraction commencent (nous en avons parlé un peu plus haut). La sensibilité diminue, tk. le nombre de photons provenant de la source lumineuse est toujours fini, et à mesure que la taille de l'élément photosensible diminue, le nombre de photons tombant dessus depuis la même scène diminuera. C'est la route de nulle part.

      • Oleg

        >> Une autre "option honnête"
        Pas encore une autre, mais la seule option honnête pour augmenter la résolution est d'augmenter le nombre de pixels.
        >> C'est la route vers nulle part.
        Et les fabricants de matrices ne le savent même pas. Le nombre de pixels sur la matrice devient de plus en plus grand.

        • roman

          > Et les fabricants de matrices ne savent même pas. Le nombre de pixels sur la matrice devient de plus en plus grand.

          Si en même temps l'aire de la matrice s'agrandit, c'est tout à fait justifié. Et dans le reste, juste, le marketing fonctionne principalement. D'accord, à mesure que la technologie s'améliore, le problème du bruit est en quelque sorte résolu. Mais personne n'a encore annulé la diffraction, et la résolution de l'optique doit correspondre à la résolution de la matrice, sinon l'augmentation n'aura aucun sens.

  • roman

    >> Je sais avec certitude qu'à partir de la matrice Bayer 10 * 10, il est impossible de restaurer avec précision l'image originale 10 * 10 * 3 de quelque manière que ce soit, y compris d-tion.

    C'est absolument incontestable. S'il y avait une matrice idéale, dont chaque pixel physique produirait une image à trois composants (et de telles existent, j'ai déjà écrit, mais elles sont loin d'être idéales), alors en supprimant des informations de cette matrice, nous obtiendrions une image de meilleure qualité. Mais à ce stade, nous ne pouvons que déterminer le niveau d'éclairage du capteur et former une sorte de tension en réponse à cela, que nous numérisons ensuite. Si vous prenez une matrice 4000x3000 et que vous ne la recouvrez pas de filtres de couleur, vous obtiendrez votre image monochrome 12MP honnête. Si nous plaçons également une grille Bayer de filtres de couleur au-dessus de la matrice, vous obtiendrez également des informations sur la couleur. Nous perdrons certaines des informations de luminosité à cause des filtres. Mais, encore une fois, ce tableau contiendra plus d'informations qu'un tableau de 2000x1500 pixels en moyenne.

    • Oleg

      >> ce tableau contiendra plus d'informations qu'un tableau de 2000x1500 pixels moyens
      La matrice Bayer 4000x3000 transporte 12 Mo d'informations. Pour être honnête, pour le compresser en photos RVB 2000x1500, ce sera 9 Mo d'informations, c'est-à-dire perte de 25% (c'est-à-dire au lieu de 2 canaux verts, 1 seul). Et si vous faites une dé-tion et que vous l'étendez à des photos RVB 4000x3000, nous obtenons alors 36 Mo d'informations. Celles. ou perdre 25% ou gonfler de 200%. En principe, on peut gonfler ces 200% à tout moment, même en temps réel juste au moment de visionner une photo.
      Mais 12 mégapixels sont beaucoup plus attrayants pour un spécialiste du marketing que 3 mégapixels. Ils veulent écrire 12. Mais les spécialistes du marketing ne peuvent pas non plus traduire la photo honnêtement, car. si l'appareil photo indique 12 mégapixels, il ne peut pas produire une photo de 3 mégapixels à la sortie. Par conséquent, de vrais 12Mpix à canal unique sont écrits sur le fotik, et la sortie est la même que celle à trois canaux 12 mais partiellement gonflée. 12 = 12 et tout correspond et les clients n'ont pas de questions.

      • roman

        > La matrice Bayer 4000x3000 transporte 12 Mo d'informations

        4000x3000x14 bits = 21 Mo (et non plus 12)

        > En principe, on peut les gonfler à 200% à tout moment, même en temps réel juste au moment de visionner une photo

        Avez-vous déjà traité RAW ? Combien un convertisseur décent l'ouvre et "enroule" il a prêté attention?

        À tous autres égards, vous ne voulez rien comprendre, donc je ne vois même pas l'intérêt de me convaincre du contraire.

        • Oleg

          Le convertisseur fonctionne exactement aussi longtemps que le matériel le permet. Fotik le rend beaucoup plus facile et plus rapide. Dans les ordinateurs, les pourcentages sont plus puissants, voici un algorithme plus cool. Demain, ils rendront l'ordinateur 100 fois plus rapide, les programmeurs écriront un filtre encore plus dur, et l'ordinateur pensera la même chose pendant quelques secondes et rendra la photo 1% plus attrayante. Ce n'est pas un indicateur.
          >> A tous autres égards, vous ne voulez rien comprendre, donc je ne vois même pas l'intérêt de me convaincre du contraire
          Qu'est-ce que tu veux me convaincre ? Le fait que dé-tion n'est pas interpolation ? Est-ce que la Bayer Matrix 10*10 est capable de recevoir des informations d'un objet de plus de 100 octets ? Ou est-ce qu'à partir de 100 octets d'informations réelles, vous pouvez créer 300 octets d'informations réelles ? En quoi?

        • Denis

          Roman, oui ça ne sert à rien de prouver :)
          Laissez une personne continuer à redimensionner les photos 4 fois et dormir paisiblement, en pensant qu'elle ne perd rien et cela ne fait que gagner de l'espace sur le disque dur :) Et nous sommes stupides, nous continuerons à prendre des photos en taille réelle, dans lesquelles un tiers de l'information est inventée :)

  • roman

    > Je ne sais pas comment le JPEG encode

    Mais intéressez-vous. Commençons par la conversion RVB en YUV. Nous sauvegardons complètement le canal de luminosité, nous éclaircissons deux canaux de différence de couleur. Vous pouvez supprimer la moitié des pixels de chaque canal U et V et la différence ne sera pas visible à l'œil nu. En conséquence, 33% des informations ont été rejetées relativement sans douleur. Dans la vidéo, en passant, ils en rejettent encore plus - environ 50%.

    Eh bien, c'est encore plus amusant.
    Les informations reçues sont divisées en blocs, chacun étant codé séparément. Chaque bloc est soumis à une FFT. Au lieu d'un ensemble de valeurs pour chaque pixel, nous obtenons un ensemble de fréquences. Là, nous coupons les hautes fréquences en fonction du taux de compression, grossissant de plus en plus l'image. Et alors seulement, nous appliquons la compression réelle selon la méthode de Huffman.

    • Vadim

      Alors moi, Roman, j'ai relu ton post et j'ai pensé que les questions d'interprétation et de transformation de l'information frôlent la philosophie :).

      Par exemple:
      - je prends mon fichier .nef avec un volume de 14 623 438 octets ;
      - J'essaie de le compresser dans WinRAR, meilleure compression - j'obtiens 14 582 483 ;
      - bon, le résultat n'est pas génial, j'ouvre .nef dans Photoshop en sRGB, 8 bits/canal (on en avait combien là ?) et l'enregistre en .tif sans compression, entrelacé, sans profil colorimétrique, j'obtiens 36 671 508 octets ;
      - similaire, mais j'utilise la compression LZW (sans perte) - 18 310 864 octets ;
      - similaire, mais au lieu de LZW, j'appuie sur .tif avec WinRAR - 13 580 860 octets (c'est là que la magie de la rue commence !).

      Maintenant, j'essaie de préparer l'image pour l'impression. Pour que tout soit transparent, je convertis manuellement le fichier RAW ouvert dans Photoshop en sRGB, 8 bits/canal en CMJN, l'enregistre au format .tif sans compression - 48 879 468 octets.
      De même, mais avec LZW - 30 024 372 octets.
      De même, mais .tif non compressé, j'appuie sur WinRar - 24 462 690 octets.

      Ce qui est intéressant : en fait, nous n'avons rien fait de spécial avec les informations d'origine. Dans le premier cas, il a été converti pour un affichage adéquat sur l'écran. Le second est destiné à l'impression. Je n'ose même pas juger où c'est réel, où c'est gonflé. Je dirais qu'il s'agit d'avatars différents de la même information (à l'exception de la perte lors de la conversion vers d'autres profils de couleurs).

      La question demeure : comment un .tif gonflé à 3 canaux peut-il occuper MOINS d'espace qu'un .nef compressé de la même manière ? Il y a moins d'informations RÉELLES ?

      • Denis

        En RAW, vous avez des données non compressées de la matrice, sans débayérisation, quand vous convertissez en TIFF, vous obtenez une image déjà débayérisée, il y a déjà trois fois plus de sous-pixels, c'est pourquoi elle pèse trois fois plus.

        • Vadim

          C'est clair, pas de questions

      • Denis

        Mais déjà l'emballage et la compression sont une autre question, tout dépend des algorithmes et des pertes acceptables. RAR ne compresse presque pas les images simples, vous l'avez vu. Il manque très probablement quelque chose.

        • Vadim

          Le bitness a été perdu, des canaux ont été ajoutés. Et puis il s'est soudainement avéré que, sous condition d'un conditionnement compétent des informations, un raster à trois bandes à part entière peut prendre moins de volume qu'une source médiocre et non décalée.

          Et la philosophie est qu'est-ce qui est considéré comme la VRAIE quantité d'informations visuelles stockées ? Taille source RAW ? Raster pleine taille ? Laquelle des choses que j'ai décrites est la VRAIE quantité d'informations, laquelle est COMPRIMÉE et laquelle est CHARGÉE ?
          Après tout, il s'avère qu'une même information peut occuper un volume différent selon le mode de présentation et l'environnement d'utilisation.

      • roman

        Eh bien, considérez que vous avez, en fait, une image à la sortie de la matrice, encodée à peu près de la même manière que celle utilisée dans les formats de compression d'image. Après tout, lorsqu'une partie des informations de couleur est coupée en JPEG, personne ne crie qu'il le trompe ? Et là, après tout, le moyen le plus simple de compresser est de compresser deux fois de chaque côté, puis de s'étirer. Cependant, ils bricolent des transformations plus complexes.

    • Vadim

      Bref, je me suis efforcé d'exprimer l'idée que la quantité d'informations utiles et le volume qu'elles occupent sont deux choses différentes.
      -
      Et dernièrement, il est devenu de plus en plus difficile de comprendre s'il est dans un état natif, compressé ou gonflé.

      • Denis

        Les fichiers RAW et JPEG compressés de mon Nikon D1X occupent presque la même quantité, c'est pourquoi je ne filme qu'en RAW :) Les deux sont compressés, même s'il est clair qu'il y a plus de pertes en JPEG.

        • Vadim

          En général, merci pour une discussion agréable et instructive.

          Et le plus important, laissant ici les réflexions sur les mégapixels, j'ai pris beaucoup de belles photos ces jours-ci, en pensant à des choses complètement différentes :)

      • roman

        Eh bien, sur la base de la définition de la quantité d'informations extraites des capteurs - il y a une certaine valeur. Mais la façon dont il est présenté peut être différente. L'entropie est plus faible - la taille du message est plus petite, c'est toute l'information. Plus d'entropie, plus de message.

        Nous pouvons perdre une partie de l'information en nous adaptant aux propriétés du système de sortie (moniteur) et du système de perception (œil). Par exemple, un moniteur ne peut pas sortir plus de 8 bits par pixel (la plupart du temps). Et l'œil ne distingue pas les nuances de couleur dans les ombres. Etc. Ici, la quantité d'informations diminue et, par conséquent, la taille du message. Mais en raison de la compression, nous réduisons l'entropie, laissant le message le même en volume. Converti en un format de 16 ou 32 bits - augmentation de l'entropie (les fameux "pixels gonflés").

  • Dmitry

    Sur le D7100 RAW à 15,6 MP, il faut compter de 20 à 26 Mo. Enregistré en RAW sans compression. Mais à en juger par la façon dont le volume final diffère, la compression est toujours clairement utilisée, mais sans perte de qualité et sans coupure d'informations. Hélas, cela prouve une fois de plus que la structure du fichier RAW pour le photographe n'est rien de plus qu'une "boîte noire" avec laquelle seuls quelques privilégiés peuvent travailler.

    • Arkady Shapoval

      Les appareils photo amateurs, y compris le D7100, ne prennent pas en charge le RAW non compressé.

      • Dmitry

        tu as raison pour la compression. cependant, comme indiqué à la page 67 de l'instruction D7100, dans mon cas, la compression est de 20 à 40 %. à savoir, "sur", pas "avant". celles. RAW non compressé doit être d'au moins 15,6 MP * 14 bits / canal * 3 canaux / 8 octets / bits = 81 Mo. Disons 40 % de rouleaux de compression : 81 * 0,4 = 32,8 Mo. et ceci sans métadonnées ni aperçus. ce sont tous les mêmes "forêts sombres".

        • Arkady Shapoval

          Tout est vraiment simple. Pas besoin de multiplier par 3 canaux.

          • Dmitry

            Je ne comprends pas pourquoi il n'est pas nécessaire de multiplier par 3 canaux. au total, la matrice donne une gamme de couleurs de 42 bits (c'est-à-dire 14 bits par canal). 42 bits correspondent à 6 octets. celles. la numérisation d'un pixel (RVB) prend 6 octets. celles. pour 15,6 mégapixels, vous avez besoin de 93,6 Mo.

          • Denis

            Dmitry, vous n'avez pas lu attentivement l'article ou ne l'avez pas lu du tout. Sur une matrice de 15,6, pas de mégapixels en couleur, mais monochromes. Il n'est donc pas nécessaire de multiplier.

  • Dmitry

    Semble avoir compris le truc en manipulant les données de la matrice. Si un pixel est RGGB. Lequel des deux pixels physiques (RGGB + RGGB) peut en fait obtenir trois pixels. en raison des "milieu" des cellules voisines (les première et troisième cellules sont des cellules séparées indépendantes, mais la seconde est la seconde moitié de la première et la première moitié de la seconde). pour un tel modèle de pixels physiques, il en faut deux fois moins. de plus, la même méthode s'applique au passage horizontal et vertical du cadre. il est donc physiquement suffisant d'avoir 4 fois moins de pixels. puis mes 15,6 MP se transforment en 3,9 MP. et c'est 3,9 mégapiskel * 42 bits / pixel / 8 bits / octet = 20,5 Mo. C'est clairement proche de ce que nous avons. + métadonnées + aperçu.

  • Dmitry

    Pour exclure davantage les discussions sur le sujet d'un pixel sur une matrice, est-ce trois couleurs ou une, Nikon a posé une question au service d'assistance :

    " Dmitro Tishchenko: Bonjour, Elena! Je suis intéressé par une question un peu étrange sur la matrice D7100.
    Dmitro Tishchenko : Selon le manuel d'utilisation, sa taille est de 24 mégapixels. La question est : qu'entend le fabricant par pixel ? Dans ce cas, un pixel est-il une cellule matricielle à part entière (RGGB) ou une couleur distincte (RGGB=3 pixels) ?
    Elena : Une cellule à part entière »

    C'est-à-dire qu'un pixel est un pixel tricolore polychrome.

    • Denis

      "C'est-à-dire qu'un pixel est un pixel tricolore en couleur" - c'est un non-sens, la personne qui a répondu n'est clairement pas dans le sujet. Lisez au moins Wikipédia avant de poser de telles questions et encore plus de croire à de telles réponses. Tout a longtemps été décrit et peint à plusieurs reprises.
      Le programme RawDigger a sauté dans les commentaires - c'est elle qui peut mettre fin à la discussion sur le thème d'une ou trois couleurs. Ouvrez n'importe quel fichier RAW, montez dans les paramètres, décochez 2x2 et regardez en mode composite RAW. Ce sera ce que la matrice a vu, sans débayérisation ; Lorsqu'il est agrandi, le réseau Bayer est clairement visible.

      • Dmitry

        C'est la réponse du support. Je leur ai également posé une question dans la poursuite de leur propre réponse concernant l'inadéquation évidente dans la quantité de données reçues. la réponse se résumait à la proximité des algorithmes de traitement des données. un peu plus haut, j'ai suggéré que les pixels finaux puissent être obtenus avec un volume beaucoup plus petit des cellules initiales du filtre Baer (personne n'interdit aux fabricants de maritz de ne pas en parler - nous sommes toujours intéressés par la taille finale de la matrice dans pixels (RVB)). avec RawDigger je vais essayer de faire en plus l'astuce indiquée (bien qu'hier j'ai étudié les métadonnées détaillées de l'un des RAV. Il parlait aussi de pixels et ils correspondaient à la résolution de l'image finale, ou la résolution réelle de l'image doit également être divisée par 3). Je me demande si le programme peut me montrer le nombre total de cellules qui composent la couleur.
        http://ru.wikipedia.org/wiki/%D0%9F%D0%B8%D0%BA%D1%81%D0%B5%D0%BB%D1%8C - donne la réponse que c'est une couleur.
        http://ru.wikipedia.org/wiki/%D4%E8%EB%FC%F2%F0_%C1%E0%E9%E5%F0%E0 - on ne parle pas de pixels, mais d'éléments (filtres).

        • Denis

          Après avoir désactivé la débayérisation, RawDigger montrera juste ce que la matrice a perçu (au fait, vous pouvez y activer l'affichage des pixels inefficaces, mon Canon 350D a une barre noire à gauche et en haut). Vous pouvez agrandir l'image, aller dans les paramètres et cocher la case 2x2, vous verrez clairement comment fonctionne la débayérisation. La résolution de l'image ne change pas, les couleurs des pixels passent d'une couleur à une couleur.
          Selon le lien, il existe un tel "Pixel est également appelé à tort un élément d'une matrice photosensible (sensel - d'un élément de capteur)"
          Mais, le nombre de sens ne dira rien aux simples mortels (cet article en est la preuve - tout le monde n'a pas compris le sens), ils sont donc appelés mégapixels, dans l'espoir que les utilisateurs pourront comprendre quelle résolution la photo aura ( toute cette cuisine avec débayérisation 99% des photographes s'en fichent).

          • Dmitry

            RawDigger - a essayé de l'étudier plus en détail. Et compris plus loin. Oui, sur la matrice, nous parlons en fait de sous-pixels (chaque composante de couleur séparément). Je leur ai obtenu les 15,6 mégapixels requis. Celles. 15,6 mégasous-pixels * 14 bits / sous-pixel + compression partielle sans perte (de 20 à 40 %) = 18,7 à 24,9 Mo + aperçu de 90 à 95 ko + métadonnées. ce qui est très similaire à la vérité. MAIS! Après conversion au même TIFF sans enregistrer les canaux de couleur, on obtient le même 15,6 MP, mais après débayérisation. MAIS! La matrice Bayer vous permet d'interpoler en toute sécurité et honnêtement presque les mêmes 15,6 mégapixels. Comment?!
            Fragment de filtre Bayer :
            RGRGRG...
            GBGBGB…
            RGRGRG...
            GBGBGB…
            ...
            Forme des pixels (RVB) à partir de sous-pixels (l'option la plus simple et évidemment stupide) :
            GR + GR + GR
            Go BG Go

            Go + Go + Go
            RG RG RG

            GR + GR + GR
            Go BG Go

            celles. d'un tableau 4x4 a 9 pixels "honnêtes" à part entière.
            afin de compenser les lignes manquantes, il y a des pixels supplémentaires. Alors ça ressemble à la vérité ?

            • Alexey

              lisez ma réponse ci-dessous!
              Mon opinion est qu'un pixel HONNÊTE est les composants de couleur dont NE PARTICIPENT À AUCUN AUTRE pixel !

              Et là, on est juste dupe ! Interpolation eau pure.

  • établissement

    À mon humble avis, tout le monde a été obsédé par les pixels colorés et a raté un moment.
    L'appareil photo avec les 12 mégapixels revendiqués prend en fait une image N&B de 12 mégapixels. La débayérisation est essentiellement la restauration des couleurs pour, après tout, une image de douze mégapixels. Créer un pixel de couleur sur quatre conduirait toujours à une détérioration du détail de l'image.

    • Alex

      Je me demande s'il est possible de restaurer par programme l'image originale en noir et blanc ?

      • BB

        RawDigger pour vous aider

    • Andreïkr

      Un appareil photo de 12 mégapixels ne donne pas une photo en noir et blanc à 12 mégapixels, car les sous-pixels sont recouverts de filtres de couleurs différents, le résultat ressemble à une grille et il doit être mélangé d'une manière ou d'une autre (cela n'aidera pas à corriger la luminosité des canaux, chaque filtre de couleur modifie la luminosité de différentes nuances), c'est-à-dire que la débayérisation est toujours nécessaire. Et au final, il faut s'accommoder du bruit (conséquences de la débayérisation). Pourquoi? Parce qu'il y a un changement. À ce stade, nous avons tourné avec un filtre rouge et avec un décalage vers la droite - avec un filtre vert. Mais ce sont des points différents de l'image. En les combinant, soit nous perdons de la résolution, soit nous introduisons du bruit.
      Il y a des expérimentateurs qui ont retiré les filtres de couleur de la matrice et ont ainsi obtenu des images VRAIMENT en noir et blanc. Google : Grattez la couche de matrice de filtres de couleur d'un capteur DSLR pour des photos N&B plus nettes. Après une telle manipulation, la débayérisation n'est plus nécessaire. Tu peux le faire toi-même.

  • Alexey

    Et le mien ne l'est pas ! J'ai 600d - 18.1 mégaSUBpixels et comme 17.8 vrais mégapixels.

    Imaginez que l'objectif se concentre à un point tel que les grains de l'image tombent dans la taille d'un sous-pixel.
    Et aurait heurté le cadre contre le ciel - fil.

    elle marcherait une tache noire le long d'une rangée de sous-pixels. lors du débairage, on obtient un dégradé de 4 pixels qui passe en douceur de la couleur du ciel à la moitié de la luminosité de la couleur de ce ciel et de nouveau à la couleur du ciel. mais on n'obtiendrait jamais un pixel noir car chaque pixel debay a une paire de 100% noir et une paire de 100% clair.
    en débairant avec un pas de +2, c'est-à-dire en pixellisant sans superposer deux sous-pixels du carré précédent sur le nouveau, on obtiendrait un pixel ombré strict pair à 75% dont les voisins sont de la couleur du ciel et il est 75% plus sombre que ses voisins. C'est dans le cas idéal, mais comme vous le savez, il n'y a pas d'objectifs aussi nets et un objectif de baleine ordinaire à l'ouverture f11 ne peut couvrir que 2.5 sous-pixels avec sa netteté maximale. ici, en débrayant de 17 mégapixels, on obtient un dégradé encore plus maculé. Mais si on débouche à 4.5 mégapixels, on obtient un pixel 100% noir à l'endroit où passe le fil et 100% la couleur du ciel autour. Nous avons l'approximation linéaire habituelle. lorsque le nombre de pixels réels horizontalement et verticalement est doublé et que les pixels manquants sont obtenus simplement par interpolation. Le problème est compliqué par le fait que je n'ai pas pu atteindre 4.5 mégapixels dans Photoshop, mais avec un fil bien défini dans l'image !

    Par conséquent, la question est - personne n'a rencontré de programmes capables de créer un tiff avec de vrais 4.5 pixels à partir d'un rav, qui n'ont pas de sous-pixels communs entre eux?

  • Oleg

    Eh bien, en fait, un pixel matriciel a toujours signifié un groupe d'éléments sensibles à partir desquels le pixel final est formé. Soit dit en passant, le pixel final est également affiché à l'écran non pas avec un point, mais avec le même groupe de points multicolores

    • Arkady Shapoval

      Oui, mais si le moniteur a 1024 * 720 pixels, alors tout le monde comprend que les composants 1024 * 720 * 3RGB sont responsables de l'affichage (c'est-à-dire avec une triade par pixel réel), mais ici la situation est différente.

      • Oleg

        quel autre? l'essentiel est le même, faire une image qui correspond aux pixels déclarés. Et au fait, pas toujours dans un moniteur 3RGB

  • vainqueur

    Il y a autre chose de délicat dans la matrice Bayer RGBG : puisque dans la bayer le nombre de pixels verts est deux fois plus grand que le reste, alors c'est le canal vert qui a la sensibilité la plus élevée, le DD le plus large et le niveau de bruit le plus faible. Cela crée certains problèmes de précision de mesure, qui peuvent parfois être résolus en utilisant une manière délicate de régler manuellement le BB, en tenant compte de la différence de sensibilité par canal du bayer - la soi-disant. UniWB
    En général, il est dommage que les fabricants du CPC aient abandonné la matrice RGBW : https://ru.wikipedia.org/wiki/RGBW , où un pixel est sans filtre du tout, c'est-à-dire "blanc". Une telle matrice, bien sûr, formait des couleurs plus pâles - "film", mais avec la mesure de l'exposition, la sensibilité, le bruit et la DD, les choses seraient bien meilleures.

Ajouter un commentaire

Copyright © Radojuva.com. Auteur du blog - Photographe à Kiev Arkady Shapoval. 2009-2023

Version anglaise de cet article https://radojuva.com/en/2013/08/ice-cube-m/

Version en espagnol de cet article https://radojuva.com/es/2013/08/ice-cube-m/