réponses : 153

  1. anonyme
    26.08.2013

    Je vais le réparer quand même :)
    millions = 10^6
    milliard = 10 ^ 9, milliard aussi = 10 ^ 9, seul le premier nom est traditionnel et accepté en russe, et le second est scientifique et international.
    trillion = 10^12
    mais le nombre 4 398 046 511 104 est quatre billions trois cent quatre-vingt-dix-huit milliards (milliards) quarante-six millions cinq cent onze mille cent quatre.

    réponse

  2. Anonyme-1
    26.08.2013

    Eh bien, c'est sûr : un spectacle de schizophrénie mathématique ! De FMTI aux passionnés de photo ! Les mathématiciens vont bientôt construire un modèle de nez qui coule et calculer le nombre probable d'éternuements en fonction de la masse inerte de morve... Et à partir de ce modèle, ils dériveront le nombre optimal utile de pixels dans la matrice formée par un mouchoir... Vivons richement et heureux !

    réponse

    • roman
      26.08.2013

      Sans les mathématiciens et leurs œuvres, je soupçonne fortement que nous aurions encore à faire de la peinture rupestre. Eh bien, ou peindre avec des peintures à l'huile.

      Les filtres Bayer et l'interpolation sont l'un des rares moyens d'obtenir des images à partir d'une matrice. Si nous comptons quatre sous-pixels comme un pixel, nous obtenons une image deux fois plus petite en hauteur et en largeur. Mais en même temps, nous perdrons cette partie insignifiante des informations obtenues avec l'utilisation mixte de différents canaux, y compris les informations de luminosité doublées de deux sous-pixels verts.

      réponse

      • Nicholas
        27.12.2014

        Quatre sous-pixels ne peuvent pas être considérés comme un pixel, puisque chacun contient des informations différentes, même malgré la présence d'un filtre.

        réponse

      • Alexander
        15.11.2018

        Pourquoi comptez-vous 3 sous-pixels RVB comme un seul sur un moniteur ? Là aussi, chacun a des informations différentes. Chez Bayer, la différence est de plus un sous-pixel vert, ce qui devrait en théorie augmenter la clarté au détriment de la couleur.

        réponse

      • unDernierHomme
        01.12.2018

        Outre Alexandre
        Vert, un pixel supplémentaire est fait pour augmenter la sensibilité au vert.
        Il se trouve qu'une personne est presque indifférente au bleu et qu'elle a davantage besoin de vert.
        Il y a une telle chose, la sensibilité spectrale : EY = 0,30ER + 0,59 EG + 0,11EB
        En fait, sur les ordinateurs, 16 bits de couleur sont codés en 565 (RVB) bits par pixel, un bit donne une plage de mesure deux fois plus grande. Ce qui tombe presque dans la formule ci-dessus.
        Afin de ne pas trop nous soucier des mathématiques, nous avons créé un pixel supplémentaire, ce qui est également plus facile sur le plan technologique - pour que tous les pixels soient identiques.

        Par conséquent, 4 pixels (RGBRG) se transforment facilement en 0,30ER + 0,59 EG + 0,11EB, puis en RVB.

        réponse

  3. Anonyme-1
    26.08.2013

    C'est vrai, pas des photographes, mais des destinataires d'images, des enregistreurs de photos, des consommateurs d'informations sur les couleurs, des compteurs de pixels... Avez-vous essayé de compter le nombre de coups de pinceau dans les peintures de Léonard ? Bonjour!! Le travail est une mer, et le cerveau est en activité, il ne se dessèche pas...

    réponse

    • Alexander
      28.08.2013

      Jeune homme, il vaut mieux envier le cerveau en silence, et en même temps il vaut mieux étudier pour réduire l'écart, et l'envie diminue

      réponse

  4. Vadim
    27.08.2013

    Donc je veux insérer mes "5 cents" :)
    -
    1) Tout d'abord, j'espère qu'une fois que chacun aura pris connaissance des mécanismes de la débayérisation, rien ne changera dans sa vie : il ne commencera pas à se débarrasser massivement des appareils photo numériques, à effacer ses photos préférées, à se souvenir du suicide ("Oh, comment pourrais-je endurer une telle tromperie tout ce temps ? »), etc.
    -
    2) Deuxièmement, quelqu'un a demandé aux fabricants d'appareils photo ce qu'ils entendaient par "PIXEL" ? Pourquoi tous ceux qui sont réunis ici sont-ils sûrs d'avoir été trompés, trompés, jetés ? Nikon ou Canon nous ont-ils convaincus que nous parlons de RVB, RGGB ou d'autres pixels multicanaux ? On nous parle du nombre de cellules dans la matrice dans son ensemble (pixels totaux) et du nombre de combinaisons UNIQUES (c'est-à-dire, ce qui deviendra ensuite des pixels à l'écran) que les caméras et les logiciels collectent à partir de ces cellules (pixels effectifs).
    -
    3) Troisièmement, nous ne parlons pas de combler certains vides avec des données moyennes (interpolation) ou prédites (extrapolation) inexistantes. Nous parlons du fait que les sous-pixels lors de la débayérisation peuvent être combinés de différentes manières. Et chaque combinaison est unique, ce qui signifie qu'elle peut prétendre devenir un pixel d'écran.
    -
    4) Quatrièmement, c'est toujours très bien qu'ils n'aient pas encore soulevé le sujet de la façon dont ces pixels qui apparaissent de manière incompréhensible sont affichés différemment sur différents écrans, et plus encore - comment un raster imprimé est formé à partir d'eux ! :)
    -
    Tout, « 5 kopecks » insérés, je vais courir prendre des photos, sinon j'ai l'impression de perdre un temps précieux.

    réponse

    • Denis
      28.08.2013

      Je m'abonne à chaque centime :)

      réponse

    • Lynx
      28.08.2013

      tes 5 kopecks font exactement 4.
      Fabriquez-vous également des caméras ? ))

      réponse

      • Vadim
        29.08.2013

        J'y pense :).
        Et les guillemets sont nécessaires pour cela, afin qu'une chose puisse être appelée par une autre.

        réponse

    • Vitali
      29.08.2013

      Eh bien, au moins une personne instruite.
      Ce qui est décrit dans l'article n'est pas du tout nouveau, mais pour ceux que ça intéresse, et notamment les physiciens, c'est une vérité connue depuis longtemps. La façon dont c'est fait est la seule bonne décision. Que désirez-vous? Pour que chaque pixel provienne d'une triade RVB ? Et ce peuple après ça déclare que 36 mégapukèles sur une récolte c'est beaucoup ? Quelle serait alors la taille des microlentilles si chaque pixel était formé de trois éléments sensibles ? Apprenez le matériel et vous ne serez pas surpris de l'état réel des choses. Le fabricant prend juste soin de nous, rendant le pixel "gras" et il n'y a pas de tromperie ici.

      réponse

      • Oleg
        29.08.2013

        >> La façon dont c'est fait est la seule bonne décision
        Pourquoi est-ce correct ? Le fait que vos photos commencent à peser plus, et le nombre de mégapixels exagéré est plus cool.
        >> Le fabricant prend juste soin de nous, rendant le pixel "gras" et il n'y a pas de tromperie ici.
        Sainte innocence. Le fabricant est un bourgeois qui ne se soucie que de son profit et de rien d'autre. Par exemple, les spécialistes du marketing abattent artificiellement certaines puces par programmation, les forçant ainsi à acheter des modèles plus chers. Ils remplacent les termes pour que les nombres soient plus grands, silencieux que ce terme a été remplacé.

        réponse

      • Vitali
        29.08.2013

        Les pixels ne sont pas du tout exagérés, mais réels !!! Afin de réclamer des pixels gonflés, apprenez d'abord à faire correspondre !!! Je voulais vraiment dire des mots méchants avec ces mots, mais je vais m'abstenir. Oui, vous seriez le premier à hurler sur le seuil de diffraction, le manque de netteté et le bruit énorme, dû à la surface minimale des éléments photosensibles, si chaque pixel était formé de trois capteurs. Rappel : un élément photosensible plus gros collecte plus de photons, d'où un bruit réduit, un seuil de diffraction plus bas, une meilleure netteté.

        réponse

      • Oleg
        29.08.2013

        Vous avez raison sur la taille de l'élément, mais cela ne rend pas le deb différent du flou. La dette est essentiellement un flou banal. D'un capteur 10*10, j'obtiendrai 100 octets d'informations sur l'objet. Si vous faites une photo 10 * 10, alors c'est 300 octets (3 octets par pixel). Où avez-vous obtenu 200 octets de nouvelles informations sur l'objet ? Et vous l'avez moyenné à partir des pixels voisins, c'est un flou banal.
        Expérience de pensée. Nous prenons une photo, disons 100x100 (de préférence plus nette). Et sur la grille Bayer dans chaque pixel, nous ne laissons qu'un seul sous-pixel et éteignons les 1 sous-pixels restants. Pouvez-vous utiliser la débayérisation de cette photo pour obtenir l'image originale ? Pouvez-vous me dire quelle était la luminosité des sous-pixels éteints dans chaque pixel ? Tu ne diras pas à coup sûr, tu vas barbouiller le maximum des voisins.
        À propos du matériel, vous vous explosez les joues. Si vous n'êtes pas d'accord, donnez des arguments, et secouer l'air vide est inutile.

        réponse

      • Vadim
        29.08.2013

        La même quantité d'informations d'un fichier RAW peut être analysée et interprétée de différentes manières. Avec une qualité, une vitesse, une précision différentes, selon les tâches. Et beaucoup dépendra de cela.
        -
        Prenez des photos RAW difficiles à travers différents convertisseurs : modernes et vieux de dix ans. Sentez la différence dans le bruit, les détails, la couleur. Avons-nous augmenté la quantité d'informations initiales ? Non, nous avons juste appris à mieux travailler avec et avons ainsi obtenu une version beaucoup plus intéressante.

        réponse

      • Vadim
        29.08.2013

        Le fabricant est un bourgeois qui a de bons relecteurs, juristes, juristes, marketeurs et autres personnes intelligentes dans son équipe. Par conséquent, le fabricant SAIT EXACTEMENT ce qu'IL APPELLE avec le mot "pixel". Et si cela ne coïncide pas avec mes opinions, les vôtres ou d'autres, ce sont déjà nos problèmes.
        -
        Il n'y a pas de tromperie, il y a un mot dans lequel différentes personnes mettent des significations différentes.
        Pour vous, par exemple, un pixel est un point visible à l'écran dont les caractéristiques sont décrites par les composantes de luminosité des canaux RVB.
        Pour, disons, une imprimante, il s'agit d'un point conditionnel qui essaie mal d'être affiché à l'écran après conversion en tant que pixel RVB, mais qui a en fait 4 canaux (CMJN).
        Les fabricants de caméras spécifiques en relation avec des matrices spécifiques ont leur propre compréhension du pixel.
        -
        Il n'existe pas de solution unique et correcte pour ce qu'il convient d'appeler un « pixel » ou un « sous-pixel ». Chacun a son opinion sur ce sujet. Il est important que nous tous, discutant vivement de ce sujet, comprenions maintenant l'ordre des choses et puissions appeler un chat un chat.

        réponse

      • Oleg
        29.08.2013

        Tant à l'écran qu'à l'impression, un pixel est une partie élémentaire d'une image qui peut être de n'importe quelle couleur, pas seulement rouge, bleu ou vert. Les fabricants d'appareils photo n'interprètent pas le terme pixel comme tout le monde, mais parce que c'est plus rentable pour eux. Et les fabricants de disques durs gigaoctets sont 10E9 octets, pas 1024 * 1024 * 1024. Parce que c'est plus avantageux pour eux.

        réponse

      • Vitali
        29.08.2013

        C'est vrai - dans le mille

        réponse

      • Vadim
        29.08.2013

        Le préfixe "giga-" dans ISO signifie 10 puissance XNUMX et rien d'autre.
        Vous confondez "gibi-" avec "giga-".
        En savoir plus sur les préfixes binaires :
        http://ru.wikipedia.org/wiki/%D0%94%D0%B2%D0%BE%D0%B8%D1%87%D0%BD%D1%8B%D0%B5_%D0%BF%D1%80%D0%B8%D1%81%D1%82%D0%B0%D0%B2%D0%BA%D0%B8

        réponse

      • Vadim
        29.08.2013

        Je veux dire, selon SI et JEDEC :)

        réponse

      • Vitali
        29.08.2013

        Vadim, la vérité est complètement de ton côté. À mon tour, je n'ai même pas deviné que tant de personnes ne représentaient même pas le processus de collecte d'informations à partir de la matrice. Je pensais que tous les photographes numériques comprenaient déjà ce processus. Et il s'avère...

        réponse

      • Vadim
        29.08.2013

        Eh bien, bien sûr, un pixel peut être de n'importe quelle couleur. Seule cette couleur doit être désignée d'une manière ou d'une autre. Les pixels monochromes (pas nécessairement blanc-gris-noir) peuvent être décrits par un canal, les pixels de couleur par trois ou plus, et ils peuvent être représentés de différentes manières (HSL, LAB, RVB, CMJN, etc.).
        Les fabricants d'appareils photo répertorient le nombre total de pixels monochromes (qui transportent des informations dans un canal, quel que soit le canal).
        Les pixels à l'écran sont multicanaux (c'est-à-dire que nous les percevons comme tels). Le nombre de canaux, s'il y a des sous-pixels, dépend de la technologie d'imagerie.
        Et dans l'impression couleur, les pixels sont également multicanaux. Et les canaux, généralement, au moins un de plus que lorsqu'ils sont affichés à l'écran. Et cela dépend aussi de la technologie d'impression.
        -
        Celles. les pixels sont différents. Comprendre cette thèse simple vous facilitera la vie.

        réponse

      • Vitali
        29.08.2013

        Lisez ici http://www.cambridgeincolour.com/ru/tutorials/camera-sensors.htm , seulement pensivement, très intelligiblement peint.

        réponse

      • Oleg
        29.08.2013

        http://arttower.ru/wiki/index.php?title=%D0%A4%D0%B8%D0%BB%D1%8C%D1%82%D1%80_%D0%91%D0%B0%D0%B9%D0%B5%D1%80%D0%B0
        Voici à la fin un exemple avec une oie. Et à la fin ils écrivent :
        Comme vous pouvez le voir sur la photo, cette image s'est avérée plus floue que l'originale. Cet effet est associé à la perte de certaines informations suite au fonctionnement du filtre Bayer.

        Celles. Le filtre Bayer ne restaure pas les informations d'origine à 100% ! il l'interpole (le barbouille) des pixels voisins.

        réponse

      • Vadim
        29.08.2013

        Exemple farfelu :)))
        Qu'en est-il de l'image d'origine sans débayérisation ? Ou filmé puis scanné ?
        Personne ne dit : tournons sur des matrices trois-quatre-... en même temps, obtenons de vrais pixels multicanaux, comparons-les avec les misérables "réseaux Bayer" - et, comme, sentons la différence.
        Dans cette discussion épique, les gens tentent de transmettre quelques thèses :
        1) TOUTE information sur TOUT objet restauré à partir de TOUTE source n'est pas originale et a une qualité discrète. Conclusion : allez à des concerts en direct, voyagez, regardez des couchers de soleil en direct, sentez des fleurs, savourez chaque cuillerée de bortsch, aimez vos proches, etc.
        2) si vous n'êtes pas ingénieur (par nature), mais photographe (par vocation, ou si vous avez un tel passe-temps), vous souciez moins des détails techniques profonds du processus de prise de vue (comment les cellules du capteur sont chargées, etc. .). Laissons les ingénieurs y réfléchir. Conclusion : entraînez-vous, améliorez vos compétences. Le fer s'améliorera avec le temps. Et c'est à vous de décider si vous devenez meilleur.
        3) pour ne pas se sentir trompé, précisez les choses qui vous intéressent. Les gens appellent souvent la même chose différemment, ou vice versa, mettent des significations différentes dans les mêmes mots. Conclusion : la capacité à trouver un langage commun aide dans le magasin, au travail et dans la vie de famille.
        4) la vérité naît dans les disputes. Nous ne sommes pas là pour inonder la page d'Arkady ou découvrir qui est le plus intelligent. J'ai jeté un regard neuf sur certains aspects de l'obtention et de l'analyse d'une image. C'est intéressant pour moi, parce que. Je suis ophtalmologiste. Quelqu'un à partir de ce jour commencera à utiliser correctement les préfixes "kilo-", "giga-", "kibi-", "gibi-". Conclusion : des discussions constructives rendent le monde meilleur :)

        réponse

      • Oleg
        29.08.2013

        Je ne connaissais pas Gibi. Il s'avère que Windows ne s'affiche pas selon la norme, qui aurait pensé.

        réponse

      • Vadim
        29.08.2013

        Au fait, oui, à cause de Microsoft, beaucoup ont craché sur le respect des normes. J'ai également découvert cela récemment.

        réponse

  5. Andrew
    27.08.2013

    Pour être honnête, je ne me soucie absolument pas de la façon dont ils s'appellent et fonctionnent. Je ne peux pas l'influencer. Et nous parlons du spectre visible ... avec nos yeux flexibles et en même temps très imparfaits. Nous voyons et évaluons tous différemment. Figley se remplit alors la tête d'absurdités. Et ça va commencer maintenant : vous avez la mauvaise matrice, vous avez des "grenades du mauvais système"...
    Je ne pense pas que quelqu'un m'ait trompé ou induit en erreur ... Je suis plus préoccupé par l'achat d'une autre carcasse ou d'un verre :), des voyages dans différents endroits intéressants ... et pour que mes misérables yeux aient le temps de voir assez de la beauté .

    réponse

  6. Oleg
    29.08.2013

    Je pense avoir compris la raison de la dette :
    1. Pour le fabricant, un nombre de mégapixels plus attractif, eh bien, c'est compréhensible.
    2. Maintenant, l'exigence pour l'appareil photo est de fournir une image jpg de la plus haute qualité prête à la sortie. Et pour que l'utilisateur n'ait pas à se soucier des filtres. Celles. si vous devez appliquer une sorte de filtre pour améliorer la qualité apparente de la photo, l'appareil photo doit le faire lui-même et ne pas le laisser à l'utilisateur. Ici, il a reçu une matrice de valeurs ​​​​10 * 10. Bien sûr, il n'y a que 100 octets d'informations initiales, et qui en a besoin est brut. Et qui a besoin d'une photo finie, alors l'appareil photo augmentera la résolution réelle de 2 * 2 \u4d 10 fois en interpolant les pixels manquants (deb-tion), puis il ajoutera de la netteté, des couleurs correctes et autre chose. Le résultat final est une photo de la meilleure qualité visible. Oui, si vous faites correctement une photo 10x5 à partir d'une matrice 5 * 1, il n'y aura pas d'informations exagérées, mais cela aura l'air vraiment pire. Celles. pour moi, j'ai conclu cela, à partir des pixels écrits sur l'appareil photo, 4/XNUMX sont réels et le reste est interpolé. Peut-être que ce n'est pas mal, mais la qualité visible est importante pour les gens, mais la façon dont elle est reçue est réellement filmée ou interpolée, cela n'a pas d'importance pour eux.

    réponse

    • roman
      29.08.2013

      Pas compris. Prenez une image RAW, réduisez-la de moitié, puis redimensionnez-la à sa taille d'origine. Et puis comparez les pixels gonflés débayérisés avec vos pixels honnêtes. L'exemple n'est pas tout à fait correct, mais certaines conclusions peuvent encore être tirées.

      Le filtre Bayer est une solution d'ingénierie intelligente qui vous permet d'utiliser de manière optimale la surface de la matrice. Une "décision juste" consiste à prendre un carré, à y placer trois capteurs R, G, B (laisser un coin vide), à ​​faire la moyenne de tout à un pixel et à obtenir une image avec des côtés de 4000x3000 à partir d'une matrice de 2000x1500 pixels. Il suffit d'ajouter un autre capteur vert au coin «vide» et nous obtiendrons «supplémentaire» 60% des informations de luminosité (la contribution du canal vert est de 60%, 30% - rouge, 10% - bleu). Vous pouvez simplement le jeter, ou vous pouvez le "mélanger" à l'aide d'un tapis. transformations (plus complexes qu'une simple interpolation linéaire ou même cubique) à l'image, obtenant une résolution de luminosité beaucoup plus élevée.

      réponse

      • Oleg
        29.08.2013

        >> Prenez l'image obtenue à partir de RAW
        Où se le procurer ? Tout convertisseur donne déjà traité.

        http://arttower.ru/wiki/index.php?title=%D0%A4%D0%B8%D0%BB%D1%8C%D1%82%D1%80_%D0%91%D0%B0%D0%B9%D0%B5%D1%80%D0%B0
        Voici une photo d'une oie. C'est comme l'objet d'origine. Ils en ont fait une matrice de Bayer, c'est-à-dire quelle serait la matrice d'un appareil photo idéal avec un objectif idéal. Ensuite, la dette a été appliquée à cette matrice, c'est-à-dire comme le ferait un appareil photo. La photo obtenue n'est pas égale à l'originale ! Inégal! Maintenant, si le fotik avait des pixels RVB honnêtes, l'image d'origine se serait avérée sans aucun problème. Et donc c'est un simple flou, qui est visible lorsqu'on compare les photos originales et finales de l'oie.
        Oui, d-tion est probablement une transformation légèrement plus complexe qu'une simple interpolation linéaire ou cubique, mais cela ne signifie pas qu'il ne s'agit pas d'une interpolation. D-tion est une véritable interpolation. Depuis le wiki :
        Interpolation, interpolation - en mathématiques computationnelles, un moyen de trouver des valeurs intermédiaires d'une quantité à partir d'un ensemble discret existant de valeurs connues.
        Il est.

        réponse

      • roman
        29.08.2013

        > La photo résultante n'est pas égale à l'originale !
        Quelqu'un prétend-il le contraire ?

        Si vous agissez "honnêtement", comme vous le demandez, vous devrez alors en aveugler un de chaque ensemble de quatre pixels, et non quatre, comme le fait l'algorithme de débayérisation. En conséquence, votre image sera deux fois plus petite en largeur et en hauteur. Et si vous l'agrandissez pour qu'il corresponde à la taille de l'image d'origine, le résultat après la débayérisation sera BEAUCOUP meilleur, car il a été obtenu à l'aide des informations que vous proposez de jeter.

        Le filtre Bayer permet de disposer les éléments photosensibles sous forme de grille, l'utilisation de deux pixels verts au lieu d'un augmente la résolution et apporte une information supplémentaire pour une meilleure transmission des nuances vertes (et indirectement de la luminosité).

        Vous pouvez disposer les éléments les uns sur les autres, il existe de telles matrices. Des ondes de différentes longueurs pénètrent à différentes profondeurs, de sorte que vous pouvez obtenir trois fois plus d'informations à partir d'un "pixel géométrique", mais tout n'est pas fluide non plus. Il est possible de diviser le flux lumineux en trois et de diriger la lumière vers trois matrices différentes, mais cela est coûteux et encombrant.

        réponse

      • Oleg
        29.08.2013

        Si vous prenez presque n'importe quelle image (en particulier en basse résolution) et augmentez sa résolution 2*2 fois par interpolation bilinéaire, elle sera également BEAUCOUP meilleure sans le 4ème canal. Mais ce n'est pas une raison pour faire ça avec tous les fichiers en augmentant leur taille par 4 ! fois.
        Oui, comme je l'ai écrit ci-dessus, l'exigence actuelle pour les appareils photo semble être la suivante : l'appareil photo doit produire une photo jpg finie de la plus haute qualité possible, après avoir effectué tous les filtres possibles par lui-même. La taille de la photo n'a pas d'importance. La façon dont il est obtenu à partir de pixels réels ou exagérés n'est pas si importante.

        réponse

      • Vadim
        29.08.2013

        Voici quelque chose qu'Oleg ne peut en aucun cas comprendre, en quoi les pixels monocanaux (monochromes) diffèrent des pixels multicanaux (couleur). Et tu n'y peux rien...
        -
        Par conséquent, l'interpolation en tant que moyenne n'a rien à voir avec cela. La débairisation n'est pas une moyenne, mais l'obtention d'un pixel multicanal à partir d'un groupe de pixels monochromes.
        -
        Dans ce cas, bien sûr, il faut utiliser toutes les combinaisons possibles de groupes, puisque cela donnera plus d'informations RÉELLES que d'utiliser chaque pixel monochrome une seule fois, puis de procéder à une mise à l'échelle.
        -
        Et cette oie est stupide... Les gens ont pris une image à partir d'un ensemble de pixels RVB, les ont coupés en monochrome, c'est-à-dire. ils ont jeté 2 chaînes (2/3 de l'information), puis ils disent : "Vous voyez, l'image se dégrade." BIEN SUR, c'est dégradant, il ne reste qu'un tiers d'informations ! Et seulement grâce à la débairisation, cette image peut encore être vue du tout.

        réponse

      • Oleg
        30.08.2013

        Oui, les gens ont jeté les 2/3 de l'information. Eh bien, la caméra ne prend pas non plus les 2/3 des informations, disons que la composante verte de la lumière qui frappe la cellule rouge ou bleue disparaît tout simplement. Tout est correct avec l'oie.
        Et selon vous, quelle est la bonne façon de faire un exemple d'oie ? Pensez par vous-même qu'il y a une photo d'oie, disons 100 * 100 * 3 = 300 octets, la matrice Bayer ne prendra que 100 octets. Comment ne pas tordre sur 100 octets, vous ne récupérerez pas les mêmes 300. Ne pas être d'accord? pas de problème, faisons l'oie comme vous le souhaitez. Expliquer comment.

        réponse

      • Vadim
        30.08.2013

        Le jeter et ne pas le retirer sont deux choses différentes. Ces pixels monocanal transportent des informations sur un seul canal. Mais ils ne cessent pas d'être des pixels. Et on ne nous a pas promis de pixels spécifiques. Ils ont promis des pixels - ils ont donné des pixels. Mais quels sont ces pixels et en quoi ils diffèrent de ceux de l'écran, grâce à vous, nous l'avons découvert et "mâché" dans les moindres détails.

        réponse

      • Oleg
        30.08.2013

        En général, oui. Nulle part il n'est écrit qu'il s'agit de pixels à trois canaux. Si la réticence des informations exagérées dans le fichier, vous pouvez mettre une résolution inférieure dans le fotik et ainsi obtenir une traduction honnête des pixels Bayer en RVB, les fabricants laissent le choix à l'utilisateur. Probablement en vain je les calomnie.
        Eh bien, la résolution des moniteurs peut également être écrite verticalement 3 fois plus, là aussi, personne n'a promis un pixel RVB :).

        réponse

      • Vadim
        29.08.2013

        Les pixels de l'appareil photo et les pixels de l'écran sont comme des tuiles. Il y a moins cher, il y a plus cher, il y a plus, il y a moins. Mais ceci et cela sont des tuiles, et ceci et cela sont des pixels.
        Les pixels de la matrice de la caméra étant monocanal (monochrome), ils contiennent trois fois moins d'informations que les pixels de l'écran. Ils ne sont pas égaux. Mais ce sont des pixels. Honnête. Réel.
        -
        Quelle est la manière la plus simple d'expliquer ?

        réponse

      • roman
        29.08.2013

        Je ne sais pas. Une personne croit obstinément que les fabricants le trompent. Comme, un complot maçonnique juif, tout le monde double bêtement l'image, l'aiguise et la vend comme une vraie. Je vais donc le contrarier, en JPEG, RVB est converti en YUV - un canal de luminance et 2 différences de couleur. L'ensemble du code de luminance est encodé, et ceux de différence de couleur sont laissés avec deux pixels sur quatre. Et c'est après la débayérisation ! Des imbéciles, des imbéciles...

        réponse

      • Oleg
        30.08.2013

        Je sais avec certitude qu'à partir de la matrice Bayer 10 * 10, il est impossible de restaurer avec précision l'image originale 10 * 10 * 3 de quelque manière que ce soit, y compris d-tion. L'image finale sera plus floue que l'originale et les francs-maçons n'y sont pour rien, des mathématiques pures. Je ne sais pas comment JPEG encode, je ne discuterai pas (mais j'ai toujours pensé qu'il y avait quelque chose dans une série de Fourier). Mais votre logique est la suivante, ajoutons 200% de pixels gonflés à l'image, de toute façon, certains d'entre eux seront perdus après la compression JPEG. Je note que JPEG est toujours une détérioration de la qualité de l'image (vu dans les images contrastées), et après JPEG, non seulement les exagérés, mais aussi les vrais seront perdus !
        L'exemple ci-dessus avec une oie est très révélateur. Ou êtes-vous Roman aussi en désaccord avec lui? Faisons l'exemple de l'oie comme vous le souhaitez et assurons-nous de ne pas nous retrouver avec la qualité d'image d'origine.

        réponse

      • Vadim
        30.08.2013

        :)))
        Il n'y a pas de "photo originale" d'une oie. Il y a une oie :). C'est le SUJET ORIGINAL. Nous ne pouvons jamais obtenir l'image parfaite. Nous avons vu le contour - nous voulons voir des parties du corps ; on a vu des parties du corps, on veut voir des plumes ; on a vu des plumes, on veut examiner chaque « villosités » ; nous avons vu chaque "peluche", nous voulons voir chaque tique posée dessus, etc. Il n'y a pas de limite à la perfection.
        -
        Ainsi, le GUS (et non sa photographie) est photographié avec un appareil photo sur une matrice avec un réseau Baerian. Ceci est l'IMAGE ORIGINALE.
        -
        Les informations lors de la prise de vue ne deviennent pas moins. Il y en a exactement autant que ce type de matrice peut physiquement obtenir initialement dans cet appareil photo avec ces réglages et ces conditions de prise de vue. Celles. quelques pixels monochromes.
        Encore une fois, monochrome ne signifie pas niveaux de gris. C'est juste que chaque pixel contient des informations sur un canal (dans ce cas, rouge, bleu, vert, vert n° 2).
        -
        Si nous avions initialement une matrice multicanal (par exemple, multicouche) et que, pour une raison quelconque, nous accrochions un réseau de Baer au-dessus, nous perdrions bien sûr environ 2/3 des informations. Mais on n'a rien perdu, on a au départ un capteur moins parfait. Quoi que vous fassiez avec lui, il ne "déterrera" pas plus d'informations pour nous.
        -
        Ensuite, les informations d'origine ne vont nulle part : elles sont analysées, interprétées et converties en pixels multicanaux compréhensibles pour l'écran du moniteur. Vous pouvez le faire en une seule passe (chaque pixel monochrome est utilisé une fois), vous pouvez le faire en plusieurs passes (toutes les combinaisons possibles de groupes de 4 pixels adjacents sont considérées + éventuellement des groupes plus grands et de forme irrégulière). Plus il y a de passes - plus il y a de chances d'extraire le maximum des informations disponibles, plus l'image résultante est susceptible de répondre aux attentes. Mais la quantité d'informations initiales, encore une fois, ne change pas.

        réponse

      • Oleg
        30.08.2013

        >> Il n'y a pas de "photo originale" d'une oie. Il y a une oie...
        Pas vrai. Nous ne pouvons pas décrire une oie vivante avec des détails infinis, c'est vrai. Mais nous avons imaginé une oie abstraite composée de carrés. Eh bien, c'est comme si nous ne prenions pas une photo de l'oie elle-même, mais que nous prenions une photo d'une oie. Disons que nous avons une photo d'une oie 100*100*3. Un appareil photo idéal avec un objectif idéal avec une matrice honnête de 100 * 100 * 3 prenant une telle photo d'oie donnera évidemment l'image originale d'une oie en sortie. Un appareil photo idéal avec une matrice Bayer de 100 * 100 * 1 donnera une matrice Bayer, à partir de laquelle, au moyen de transformations de dé-tion, la photo originale de l'oie n'est pas obtenue, mais une photo plus floue est obtenue. Comme indiqué dans ce lien.
        >> Les informations ne deviennent pas plus petites lors de la prise de vue. Il y en a exactement autant qu'en général physiquement ce type de matrice peut initialement obtenir
        Oui. Cette matrice est capable de recevoir de l'objet, disons, 10*10=100 octets d'informations, elle ne diminue pas, car nous ne jetons rien. Ça grossit, on rajoute 200 octets gonflés. Comme si nous recevions vraiment 300 octets de l'objet, mais en fait seulement 100.
        Regardez, nous devons convertir 1 pixel d'une matrice Bayer à un canal en une matrice à 3 canaux. Que ce soit un pixel vert. Mais nous ne connaissons pas physiquement la valeur de la couleur rouge ou bleue de l'objet à l'emplacement de ce pixel vert. La matrice n'a pas supprimé, coupé cette information. Où l'obtenir, nous le prenons d'un pixel voisin, croyant naïvement que les valeurs de couleur des pixels voisins sont à peu près similaires. Mais ce n'est pas du tout le cas. Par exemple, l'objet source est un point jaune vif (rouge + vert) de 1 pixel sur un fond vert. Et ce point est complètement tombé dans ce 1 pixel vert monocanal. Dans les pixels voisins, il n'y aura aucune information sur sa composante rouge, il n'y a que des informations sur le fond vert. De-tion nous donnera ce point vert. Alors qu'une matrice à trois canaux honnête verra que le point a un canal rouge, et par conséquent, nous obtiendrons la couleur jaune du point.

        réponse

      • Denis
        30.08.2013

        « Par exemple, l'objet source est un point jaune vif (rouge + vert) d'une taille de 1 pixel sur un fond vert. Et ce point est complètement tombé dans ce 1 pixel vert monocanal. Il n'y aura aucune information sur sa composante rouge dans les pixels voisins" - vos pensées ne font que confirmer une fois de plus l'ignorance du matériel :)
        Cette situation est impossible car il y a aussi un filtre spécial devant la matrice.

        réponse

      • Oleg
        30.08.2013

        Ils disent que sur certains modèles, le filtre anti-aliasing n'est pas devant la matrice. Et d'où vous vient l'idée que le rayon de flou de ce filtre est plus grand que la taille des pixels ? Peut-être qu'il est flou de 0.1 pixel, puis un point lumineux de la taille d'un pixel peut bien l'être.

        réponse

      • Denis
        30.08.2013

        Caméras sans filtre - modèles un et demi. De plus, l'absence de ce filtre est présentée comme un outil pour les professionnels, des gens qui savent pourquoi ils en ont besoin.
        Et en ce qui concerne le degré de flou, cela vaut la peine de le brouiller pour qu'il touche les pixels voisins. Même si de 0.1 pixel, cela signifiera qu'une partie de l'information tombera déjà sur les voisins. En pratique, il y en a plus. Je le répète encore une fois, étudiez le matériel avant de tirer des conclusions sur les poches et l'interpolation.

        PS Arkady, veuillez supprimer mon commentaire similaire ci-dessus, il a été cité au mauvais endroit, tout a déménagé.

        réponse

    • roman
      29.08.2013

      Une autre "option équitable" consiste à augmenter le nombre de pixels sur la matrice, en réduisant leurs dimensions linéaires. Mais ici, nous rencontrons un certain nombre de problèmes. Les bruits augmentent (en raison de la disposition dense des éléments sur la matrice, leur échauffement est plus important, plus de distorsions sont introduites dans les mesures). Les problèmes de diffraction commencent (nous en avons parlé un peu plus haut). La sensibilité diminue, tk. le nombre de photons provenant de la source lumineuse est toujours fini, et à mesure que la taille de l'élément photosensible diminue, le nombre de photons tombant dessus depuis la même scène diminuera. C'est la route de nulle part.

      réponse

      • Oleg
        29.08.2013

        >> Une autre "option honnête"
        Pas encore une autre, mais la seule option honnête pour augmenter la résolution est d'augmenter le nombre de pixels.
        >> C'est la route vers nulle part.
        Et les fabricants de matrices ne le savent même pas. Le nombre de pixels sur la matrice devient de plus en plus grand.

        réponse

      • roman
        29.08.2013

        > Et les fabricants de matrices ne savent même pas. Le nombre de pixels sur la matrice devient de plus en plus grand.

        Si en même temps l'aire de la matrice s'agrandit, c'est tout à fait justifié. Et dans le reste, juste, le marketing fonctionne principalement. D'accord, à mesure que la technologie s'améliore, le problème du bruit est en quelque sorte résolu. Mais personne n'a encore annulé la diffraction, et la résolution de l'optique doit correspondre à la résolution de la matrice, sinon l'augmentation n'aura aucun sens.

        réponse

  7. roman
    30.08.2013

    >> Je sais avec certitude qu'à partir de la matrice Bayer 10 * 10, il est impossible de restaurer avec précision l'image originale 10 * 10 * 3 de quelque manière que ce soit, y compris d-tion.

    C'est absolument incontestable. S'il y avait une matrice idéale, dont chaque pixel physique produirait une image à trois composants (et de telles existent, j'ai déjà écrit, mais elles sont loin d'être idéales), alors en supprimant des informations de cette matrice, nous obtiendrions une image de meilleure qualité. Mais à ce stade, nous ne pouvons que déterminer le niveau d'éclairage du capteur et former une sorte de tension en réponse à cela, que nous numérisons ensuite. Si vous prenez une matrice 4000x3000 et que vous ne la recouvrez pas de filtres de couleur, vous obtiendrez votre image monochrome 12MP honnête. Si nous plaçons également une grille Bayer de filtres de couleur au-dessus de la matrice, vous obtiendrez également des informations sur la couleur. Nous perdrons certaines des informations de luminosité à cause des filtres. Mais, encore une fois, ce tableau contiendra plus d'informations qu'un tableau de 2000x1500 pixels en moyenne.

    réponse

    • Oleg
      30.08.2013

      >> ce tableau contiendra plus d'informations qu'un tableau de 2000x1500 pixels moyens
      La matrice Bayer 4000x3000 transporte 12 Mo d'informations. Pour être honnête, pour le compresser en photos RVB 2000x1500, ce sera 9 Mo d'informations, c'est-à-dire perte de 25% (c'est-à-dire au lieu de 2 canaux verts, 1 seul). Et si vous faites une dé-tion et que vous l'étendez à des photos RVB 4000x3000, nous obtenons alors 36 Mo d'informations. Celles. ou perdre 25% ou gonfler de 200%. En principe, on peut gonfler ces 200% à tout moment, même en temps réel juste au moment de visionner une photo.
      Mais 12 mégapixels sont beaucoup plus attrayants pour un spécialiste du marketing que 3 mégapixels. Ils veulent écrire 12. Mais les spécialistes du marketing ne peuvent pas non plus traduire la photo honnêtement, car. si l'appareil photo indique 12 mégapixels, il ne peut pas produire une photo de 3 mégapixels à la sortie. Par conséquent, de vrais 12Mpix à canal unique sont écrits sur le fotik, et la sortie est la même que celle à trois canaux 12 mais partiellement gonflée. 12 = 12 et tout correspond et les clients n'ont pas de questions.

      réponse

      • roman
        30.08.2013

        > La matrice Bayer 4000x3000 transporte 12 Mo d'informations

        4000x3000x14 bits = 21 Mo (et non plus 12)

        > En principe, on peut les gonfler à 200% à tout moment, même en temps réel juste au moment de visionner une photo

        Avez-vous déjà traité RAW ? Combien un convertisseur décent l'ouvre et "enroule" il a prêté attention?

        À tous autres égards, vous ne voulez rien comprendre, donc je ne vois même pas l'intérêt de me convaincre du contraire.

        réponse

      • Oleg
        30.08.2013

        Le convertisseur fonctionne exactement aussi longtemps que le matériel le permet. Fotik le rend beaucoup plus facile et plus rapide. Dans les ordinateurs, les pourcentages sont plus puissants, voici un algorithme plus cool. Demain, ils rendront l'ordinateur 100 fois plus rapide, les programmeurs écriront un filtre encore plus dur, et l'ordinateur pensera la même chose pendant quelques secondes et rendra la photo 1% plus attrayante. Ce n'est pas un indicateur.
        >> A tous autres égards, vous ne voulez rien comprendre, donc je ne vois même pas l'intérêt de me convaincre du contraire
        Qu'est-ce que tu veux me convaincre ? Le fait que dé-tion n'est pas interpolation ? Est-ce que la Bayer Matrix 10*10 est capable de recevoir des informations d'un objet de plus de 100 octets ? Ou est-ce qu'à partir de 100 octets d'informations réelles, vous pouvez créer 300 octets d'informations réelles ? En quoi?

        réponse

      • Denis
        30.08.2013

        Roman, oui ça ne sert à rien de prouver :)
        Laissez une personne continuer à redimensionner les photos 4 fois et dormir paisiblement, en pensant qu'elle ne perd rien et cela ne fait que gagner de l'espace sur le disque dur :) Et nous sommes stupides, nous continuerons à prendre des photos en taille réelle, dans lesquelles un tiers de l'information est inventée :)

        réponse

  8. roman
    30.08.2013

    > Je ne sais pas comment le JPEG encode

    Mais intéressez-vous. Commençons par la conversion RVB en YUV. Nous sauvegardons complètement le canal de luminosité, nous éclaircissons deux canaux de différence de couleur. Vous pouvez supprimer la moitié des pixels de chaque canal U et V et la différence ne sera pas visible à l'œil nu. En conséquence, 33% des informations ont été rejetées relativement sans douleur. Dans la vidéo, en passant, ils en rejettent encore plus - environ 50%.

    Eh bien, c'est encore plus amusant.
    Les informations reçues sont divisées en blocs, chacun étant codé séparément. Chaque bloc est soumis à une FFT. Au lieu d'un ensemble de valeurs pour chaque pixel, nous obtenons un ensemble de fréquences. Là, nous coupons les hautes fréquences en fonction du taux de compression, grossissant de plus en plus l'image. Et alors seulement, nous appliquons la compression réelle selon la méthode de Huffman.

    réponse

    • Vadim
      01.09.2013

      Alors moi, Roman, j'ai relu ton post et j'ai pensé que les questions d'interprétation et de transformation de l'information frôlent la philosophie :).

      Par exemple:
      - je prends mon fichier .nef avec un volume de 14 623 438 octets ;
      - J'essaie de le compresser dans WinRAR, meilleure compression - j'obtiens 14 582 483 ;
      - bon, le résultat n'est pas génial, j'ouvre .nef dans Photoshop en sRGB, 8 bits/canal (on en avait combien là ?) et l'enregistre en .tif sans compression, entrelacé, sans profil colorimétrique, j'obtiens 36 671 508 octets ;
      - similaire, mais j'utilise la compression LZW (sans perte) - 18 310 864 octets ;
      - similaire, mais au lieu de LZW, j'appuie sur .tif avec WinRAR - 13 580 860 octets (c'est là que la magie de la rue commence !).

      Maintenant, j'essaie de préparer l'image pour l'impression. Pour que tout soit transparent, je convertis manuellement le fichier RAW ouvert dans Photoshop en sRGB, 8 bits/canal en CMJN, l'enregistre au format .tif sans compression - 48 879 468 octets.
      De même, mais avec LZW - 30 024 372 octets.
      De même, mais .tif non compressé, j'appuie sur WinRar - 24 462 690 octets.

      Ce qui est intéressant : en fait, nous n'avons rien fait de spécial avec les informations d'origine. Dans le premier cas, il a été converti pour un affichage adéquat sur l'écran. Le second est destiné à l'impression. Je n'ose même pas juger où c'est réel, où c'est gonflé. Je dirais qu'il s'agit d'avatars différents de la même information (à l'exception de la perte lors de la conversion vers d'autres profils de couleurs).

      La question demeure : comment un .tif gonflé à 3 canaux peut-il occuper MOINS d'espace qu'un .nef compressé de la même manière ? Il y a moins d'informations RÉELLES ?

      réponse

      • Denis
        01.09.2013

        En RAW, vous avez des données non compressées de la matrice, sans débayérisation, quand vous convertissez en TIFF, vous obtenez une image déjà débayérisée, il y a déjà trois fois plus de sous-pixels, c'est pourquoi elle pèse trois fois plus.

        réponse

      • Vadim
        01.09.2013

        C'est clair, pas de questions

        réponse

      • Denis
        01.09.2013

        Mais déjà l'emballage et la compression sont une autre question, tout dépend des algorithmes et des pertes acceptables. RAR ne compresse presque pas les images simples, vous l'avez vu. Il manque très probablement quelque chose.

        réponse

      • Vadim
        01.09.2013

        Le bitness a été perdu, des canaux ont été ajoutés. Et puis il s'est soudainement avéré que, sous condition d'un conditionnement compétent des informations, un raster à trois bandes à part entière peut prendre moins de volume qu'une source médiocre et non décalée.

        Et la philosophie est qu'est-ce qui est considéré comme la VRAIE quantité d'informations visuelles stockées ? Taille source RAW ? Raster pleine taille ? Laquelle des choses que j'ai décrites est la VRAIE quantité d'informations, laquelle est COMPRIMÉE et laquelle est CHARGÉE ?
        Après tout, il s'avère qu'une même information peut occuper un volume différent selon le mode de présentation et l'environnement d'utilisation.

        réponse

      • roman
        01.09.2013

        Eh bien, considérez que vous avez, en fait, une image à la sortie de la matrice, encodée à peu près de la même manière que celle utilisée dans les formats de compression d'image. Après tout, lorsqu'une partie des informations de couleur est coupée en JPEG, personne ne crie qu'il le trompe ? Et là, après tout, le moyen le plus simple de compresser est de compresser deux fois de chaque côté, puis de s'étirer. Cependant, ils bricolent des transformations plus complexes.

        réponse

    • Vadim
      01.09.2013

      Bref, je me suis efforcé d'exprimer l'idée que la quantité d'informations utiles et le volume qu'elles occupent sont deux choses différentes.
      -
      Et dernièrement, il est devenu de plus en plus difficile de comprendre s'il est dans un état natif, compressé ou gonflé.

      réponse

      • Denis
        01.09.2013

        Les fichiers RAW et JPEG compressés de mon Nikon D1X occupent presque la même quantité, c'est pourquoi je ne filme qu'en RAW :) Les deux sont compressés, même s'il est clair qu'il y a plus de pertes en JPEG.

        réponse

      • Vadim
        01.09.2013

        En général, merci pour une discussion agréable et instructive.

        Et le plus important, laissant ici les réflexions sur les mégapixels, j'ai pris beaucoup de belles photos ces jours-ci, en pensant à des choses complètement différentes :)

        réponse

      • roman
        01.09.2013

        Eh bien, sur la base de la définition de la quantité d'informations extraites des capteurs - il y a une certaine valeur. Mais la façon dont il est présenté peut être différente. L'entropie est plus faible - la taille du message est plus petite, c'est toute l'information. Plus d'entropie, plus de message.

        Nous pouvons perdre une partie de l'information en nous adaptant aux propriétés du système de sortie (moniteur) et du système de perception (œil). Par exemple, un moniteur ne peut pas sortir plus de 8 bits par pixel (la plupart du temps). Et l'œil ne distingue pas les nuances de couleur dans les ombres. Etc. Ici, la quantité d'informations diminue et, par conséquent, la taille du message. Mais en raison de la compression, nous réduisons l'entropie, laissant le message le même en volume. Converti en un format de 16 ou 32 bits - augmentation de l'entropie (les fameux "pixels gonflés").

        réponse

  9. Dmitry
    05.09.2013

    Sur le D7100 RAW à 15,6 MP, il faut compter de 20 à 26 Mo. Enregistré en RAW sans compression. Mais à en juger par la façon dont le volume final diffère, la compression est toujours clairement utilisée, mais sans perte de qualité et sans coupure d'informations. Hélas, cela prouve une fois de plus que la structure du fichier RAW pour le photographe n'est rien de plus qu'une "boîte noire" avec laquelle seuls quelques privilégiés peuvent travailler.

    réponse

    • Arkady Shapoval
      05.09.2013

      Les appareils photo amateurs, y compris le D7100, ne prennent pas en charge le RAW non compressé.

      réponse

      • Dmitry
        05.09.2013

        tu as raison pour la compression. cependant, comme indiqué à la page 67 de l'instruction D7100, dans mon cas, la compression est de 20 à 40 %. à savoir, "sur", pas "avant". celles. RAW non compressé doit être d'au moins 15,6 MP * 14 bits / canal * 3 canaux / 8 octets / bits = 81 Mo. Disons 40 % de rouleaux de compression : 81 * 0,4 = 32,8 Mo. et ceci sans métadonnées ni aperçus. ce sont tous les mêmes "forêts sombres".

        réponse

      • Arkady Shapoval
        05.09.2013

        Tout est vraiment simple. Pas besoin de multiplier par 3 canaux.

        réponse

      • Dmitry
        05.09.2013

        Je ne comprends pas pourquoi il n'est pas nécessaire de multiplier par 3 canaux. au total, la matrice donne une gamme de couleurs de 42 bits (c'est-à-dire 14 bits par canal). 42 bits correspondent à 6 octets. celles. la numérisation d'un pixel (RVB) prend 6 octets. celles. pour 15,6 mégapixels, vous avez besoin de 93,6 Mo.

        réponse

      • Denis
        05.09.2013

        Dmitry, vous n'avez pas lu attentivement l'article ou ne l'avez pas lu du tout. Sur une matrice de 15,6, pas de mégapixels en couleur, mais monochromes. Il n'est donc pas nécessaire de multiplier.

        réponse

  10. Dmitry
    05.09.2013

    Semble avoir compris le truc en manipulant les données de la matrice. Si un pixel est RGGB. Lequel des deux pixels physiques (RGGB + RGGB) peut en fait obtenir trois pixels. en raison des "milieu" des cellules voisines (les première et troisième cellules sont des cellules séparées indépendantes, mais la seconde est la seconde moitié de la première et la première moitié de la seconde). pour un tel modèle de pixels physiques, il en faut deux fois moins. de plus, la même méthode s'applique au passage horizontal et vertical du cadre. il est donc physiquement suffisant d'avoir 4 fois moins de pixels. puis mes 15,6 MP se transforment en 3,9 MP. et c'est 3,9 mégapiskel * 42 bits / pixel / 8 bits / octet = 20,5 Mo. C'est clairement proche de ce que nous avons. + métadonnées + aperçu.

    réponse

  11. Dmitry
    06.09.2013

    Pour exclure davantage les discussions sur le sujet d'un pixel sur une matrice, est-ce trois couleurs ou une, Nikon a posé une question au service d'assistance :

    " Dmitro Tishchenko: Bonjour, Elena! Je suis intéressé par une question un peu étrange sur la matrice D7100.
    Dmitro Tishchenko : Selon le manuel d'utilisation, sa taille est de 24 mégapixels. La question est : qu'entend le fabricant par pixel ? Dans ce cas, un pixel est-il une cellule matricielle à part entière (RGGB) ou une couleur distincte (RGGB=3 pixels) ?
    Elena : Une cellule à part entière »

    C'est-à-dire qu'un pixel est un pixel tricolore polychrome.

    réponse

    • Denis
      06.09.2013

      "C'est-à-dire qu'un pixel est un pixel tricolore en couleur" - c'est un non-sens, la personne qui a répondu n'est clairement pas dans le sujet. Lisez au moins Wikipédia avant de poser de telles questions et encore plus de croire à de telles réponses. Tout a longtemps été décrit et peint à plusieurs reprises.
      Le programme RawDigger a sauté dans les commentaires - c'est elle qui peut mettre fin à la discussion sur le thème d'une ou trois couleurs. Ouvrez n'importe quel fichier RAW, montez dans les paramètres, décochez 2x2 et regardez en mode composite RAW. Ce sera ce que la matrice a vu, sans débayérisation ; Lorsqu'il est agrandi, le réseau Bayer est clairement visible.

      réponse

      • Dmitry
        06.09.2013

        C'est la réponse du support. Je leur ai également posé une question dans la poursuite de leur propre réponse concernant l'inadéquation évidente dans la quantité de données reçues. la réponse se résumait à la proximité des algorithmes de traitement des données. un peu plus haut, j'ai suggéré que les pixels finaux puissent être obtenus avec un volume beaucoup plus petit des cellules initiales du filtre Baer (personne n'interdit aux fabricants de maritz de ne pas en parler - nous sommes toujours intéressés par la taille finale de la matrice dans pixels (RVB)). avec RawDigger je vais essayer de faire en plus l'astuce indiquée (bien qu'hier j'ai étudié les métadonnées détaillées de l'un des RAV. Il parlait aussi de pixels et ils correspondaient à la résolution de l'image finale, ou la résolution réelle de l'image doit également être divisée par 3). Je me demande si le programme peut me montrer le nombre total de cellules qui composent la couleur.
        http://ru.wikipedia.org/wiki/%D0%9F%D0%B8%D0%BA%D1%81%D0%B5%D0%BB%D1%8C - donne la réponse que c'est une couleur.
        http://ru.wikipedia.org/wiki/%D4%E8%EB%FC%F2%F0_%C1%E0%E9%E5%F0%E0 - on ne parle pas de pixels, mais d'éléments (filtres).

        réponse

      • Denis
        06.09.2013

        Après avoir désactivé la débayérisation, RawDigger montrera juste ce que la matrice a perçu (au fait, vous pouvez y activer l'affichage des pixels inefficaces, mon Canon 350D a une barre noire à gauche et en haut). Vous pouvez agrandir l'image, aller dans les paramètres et cocher la case 2x2, vous verrez clairement comment fonctionne la débayérisation. La résolution de l'image ne change pas, les couleurs des pixels passent d'une couleur à une couleur.
        Selon le lien, il existe un tel "Pixel est également appelé à tort un élément d'une matrice photosensible (sensel - d'un élément de capteur)"
        Mais, le nombre de sens ne dira rien aux simples mortels (cet article en est la preuve - tout le monde n'a pas compris le sens), ils sont donc appelés mégapixels, dans l'espoir que les utilisateurs pourront comprendre quelle résolution la photo aura ( toute cette cuisine avec débayérisation 99% des photographes s'en fichent).

        réponse

      • Dmitry
        06.09.2013

        RawDigger - a essayé de l'étudier plus en détail. Et compris plus loin. Oui, sur la matrice, nous parlons en fait de sous-pixels (chaque composante de couleur séparément). Je leur ai obtenu les 15,6 mégapixels requis. Celles. 15,6 mégasous-pixels * 14 bits / sous-pixel + compression partielle sans perte (de 20 à 40 %) = 18,7 à 24,9 Mo + aperçu de 90 à 95 ko + métadonnées. ce qui est très similaire à la vérité. MAIS! Après conversion au même TIFF sans enregistrer les canaux de couleur, on obtient le même 15,6 MP, mais après débayérisation. MAIS! La matrice Bayer vous permet d'interpoler en toute sécurité et honnêtement presque les mêmes 15,6 mégapixels. Comment?!
        Fragment de filtre Bayer :
        RGRGRG...
        GBGBGB…
        RGRGRG...
        GBGBGB…
        ...
        Forme des pixels (RVB) à partir de sous-pixels (l'option la plus simple et évidemment stupide) :
        GR + GR + GR
        Go BG Go

        Go + Go + Go
        RG RG RG

        GR + GR + GR
        Go BG Go

        celles. d'un tableau 4x4 a 9 pixels "honnêtes" à part entière.
        afin de compenser les lignes manquantes, il y a des pixels supplémentaires. Alors ça ressemble à la vérité ?

        réponse

      • Alexey
        09.10.2014

        lisez ma réponse ci-dessous!
        Mon opinion est qu'un pixel HONNÊTE est les composants de couleur dont NE PARTICIPENT À AUCUN AUTRE pixel !

        Et là, on est juste dupe ! Interpolation eau pure.

        réponse

  12. établissement
    06.02.2014

    À mon humble avis, tout le monde a été obsédé par les pixels colorés et a raté un moment.
    L'appareil photo avec les 12 mégapixels revendiqués prend en fait une image N&B de 12 mégapixels. La débayérisation est essentiellement la restauration des couleurs pour, après tout, une image de douze mégapixels. Créer un pixel de couleur sur quatre conduirait toujours à une détérioration du détail de l'image.

    réponse

    • Alex
      16.11.2014

      Je me demande s'il est possible de restaurer par programme l'image originale en noir et blanc ?

      réponse

      • BB
        05.01.2017

        RawDigger pour vous aider

        réponse

    • Andreïkr
      26.02.2020

      Un appareil photo de 12 mégapixels ne donne pas une photo en noir et blanc à 12 mégapixels, car les sous-pixels sont recouverts de filtres de couleurs différents, le résultat ressemble à une grille et il doit être mélangé d'une manière ou d'une autre (cela n'aidera pas à corriger la luminosité des canaux, chaque filtre de couleur modifie la luminosité de différentes nuances), c'est-à-dire que la débayérisation est toujours nécessaire. Et au final, il faut s'accommoder du bruit (conséquences de la débayérisation). Pourquoi? Parce qu'il y a un changement. À ce stade, nous avons tourné avec un filtre rouge et avec un décalage vers la droite - avec un filtre vert. Mais ce sont des points différents de l'image. En les combinant, soit nous perdons de la résolution, soit nous introduisons du bruit.
      Il y a des expérimentateurs qui ont retiré les filtres de couleur de la matrice et ont ainsi obtenu des images VRAIMENT en noir et blanc. Google : Grattez la couche de matrice de filtres de couleur d'un capteur DSLR pour des photos N&B plus nettes. Après une telle manipulation, la débayérisation n'est plus nécessaire. Tu peux le faire toi-même.

      réponse

  13. Alexey
    09.10.2014

    Et le mien ne l'est pas ! J'ai 600d - 18.1 mégaSUBpixels et comme 17.8 vrais mégapixels.

    Imaginez que l'objectif se concentre à un point tel que les grains de l'image tombent dans la taille d'un sous-pixel.
    Et aurait heurté le cadre contre le ciel - fil.

    elle marcherait une tache noire le long d'une rangée de sous-pixels. lors du débairage, on obtient un dégradé de 4 pixels qui passe en douceur de la couleur du ciel à la moitié de la luminosité de la couleur de ce ciel et de nouveau à la couleur du ciel. mais on n'obtiendrait jamais un pixel noir car chaque pixel debay a une paire de 100% noir et une paire de 100% clair.
    en débairant avec un pas de +2, c'est-à-dire en pixellisant sans superposer deux sous-pixels du carré précédent sur le nouveau, on obtiendrait un pixel ombré strict pair à 75% dont les voisins sont de la couleur du ciel et il est 75% plus sombre que ses voisins. C'est dans le cas idéal, mais comme vous le savez, il n'y a pas d'objectifs aussi nets et un objectif de baleine ordinaire à l'ouverture f11 ne peut couvrir que 2.5 sous-pixels avec sa netteté maximale. ici, en débrayant de 17 mégapixels, on obtient un dégradé encore plus maculé. Mais si on débouche à 4.5 mégapixels, on obtient un pixel 100% noir à l'endroit où passe le fil et 100% la couleur du ciel autour. Nous avons l'approximation linéaire habituelle. lorsque le nombre de pixels réels horizontalement et verticalement est doublé et que les pixels manquants sont obtenus simplement par interpolation. Le problème est compliqué par le fait que je n'ai pas pu atteindre 4.5 mégapixels dans Photoshop, mais avec un fil bien défini dans l'image !

    Par conséquent, la question est - personne n'a rencontré de programmes capables de créer un tiff avec de vrais 4.5 pixels à partir d'un rav, qui n'ont pas de sous-pixels communs entre eux?

    réponse

  14. Oleg
    16.11.2014

    Eh bien, en fait, un pixel matriciel a toujours signifié un groupe d'éléments sensibles à partir desquels le pixel final est formé. Soit dit en passant, le pixel final est également affiché à l'écran non pas avec un point, mais avec le même groupe de points multicolores

    réponse

    • Arkady Shapoval
      16.11.2014

      Oui, mais si le moniteur a 1024 * 720 pixels, alors tout le monde comprend que les composants 1024 * 720 * 3RGB sont responsables de l'affichage (c'est-à-dire avec une triade par pixel réel), mais ici la situation est différente.

      réponse

      • Oleg
        18.11.2014

        quel autre? l'essentiel est le même, faire une image qui correspond aux pixels déclarés. Et au fait, pas toujours dans un moniteur 3RGB

        réponse

      • Arkady Shapoval
        18.11.2014

        L'essence est mieux illustrée par l'image montrée dans l'article. https://radojuva.com.ua/wp-content/uploads/2013/08/native-pixels-and-sub-piexels.jpg, ainsi que l'article lui-même, qui serait agréable à lire. Le moniteur n'a peut-être pas toujours 3RGB, mais parmi le nombre écrasant de matrices, le motif Bayer est utilisé.

        réponse

  15. vainqueur
    21.10.2018

    Il y a autre chose de délicat dans la matrice Bayer RGBG : puisque dans la bayer le nombre de pixels verts est deux fois plus grand que le reste, alors c'est le canal vert qui a la sensibilité la plus élevée, le DD le plus large et le niveau de bruit le plus faible. Cela crée certains problèmes de précision de mesure, qui peuvent parfois être résolus en utilisant une manière délicate de régler manuellement le BB, en tenant compte de la différence de sensibilité par canal du bayer - la soi-disant. UniWB
    En général, il est dommage que les fabricants du CPC aient abandonné la matrice RGBW : https://ru.wikipedia.org/wiki/RGBW , où un pixel est sans filtre du tout, c'est-à-dire "blanc". Une telle matrice, bien sûr, formait des couleurs plus pâles - "film", mais avec la mesure de l'exposition, la sensibilité, le bruit et la DD, les choses seraient bien meilleures.

    réponse

  16. Charger plus de commentaires...

réponse

 

 

à l'étage
mobile ordinateur