Píxeles y subpíxeles

Un día me pregunté: '¿Por qué los archivos RAW de mi cámara Nikon D700 pesa tan poco?'. Mientras buscaba una respuesta, encontré información muy interesante.

Sobre el arte de píxeles

Sobre el arte de píxeles

Por lo tanto, cuando disparo, a veces uso el formato de archivo RAW (Nikon lo llama NEF, formato electrónico de Nikon, el formato de archivo electrónico de Nikon). Archivos RAW de Nikon tener ciertas configuraciones, normalmente uso una profundidad de color de 14 bits con compresión sin pérdidas o sin compresión. En general, los archivos NEF sin comprimir de 14 bits pesan alrededor de 24.4 MB. En la imagen de abajo, he mostrado los tamaños de mis archivos en bytes.

Tamaños de archivo NEF en mi cámara Nikon D700

Tamaños de archivo NEF en mi cámara Nikon D700

Como puede ver, los archivos son casi del mismo tamaño. Tomemos, por ejemplo, el archivo ARK-4820.NEF, su peso es de 25 bytes o 621 MB. Bytes a Megabytes se traducen de manera muy simple:

25 / 624 = 760

Quiero llamar su atención sobre el hecho de que el diferente peso de los archivos RAW (NEF) se debe al hecho de que no solo contienen información 'sin procesar' útil, sino también una pequeña imagen de vista previa, así como EXIF módulo de datos La imagen de vista previa se utiliza para ver rápidamente la imagen en el monitor de la cámara. La cámara no requiere descargar un archivo pesado de 25 MB durante la visualización rápida, sino que simplemente saca una imagen en miniatura y la muestra en su pantalla. Lo más probable es que estas imágenes estén codificadas con JPEG, y el algoritmo JPEG es muy flexible y requiere una cantidad diferente de información para el almacenamiento de cada miniatura individual.

La profundidad de color de 14 bits significa que cada uno de los tres sombras codificado con 14 bits de memoria. Por ejemplo, cuando hace clic en el botón 'signo de interrogación' en el elemento de menú correspondiente de la cámara Nikon D700 Puedes leer lo siguiente:

Las imágenes NEF (RAW) se graban con una profundidad de color de 14 bits (16384 niveles). Al mismo tiempo, los archivos son más grandes y una reproducción más precisa de los tonos.

El color se forma mezclando tres tonos básicos: rojo R (Rojo), azul B (Azul), verde G (Verde). Así, si utilizamos una profundidad de color de 14 bits, podemos obtener cualquiera de los 4 colores. (cualquiera de los cuatro mil trescientos noventa y ocho mil cuarenta y seis millones quinientos once mil ciento cuatro colores).

Es fácil de calcular: 16384 (R) * 16384 (G) * 16384 (B)

De hecho, 4 mil millones es mucho más de lo necesario para la reproducción normal del color, se utiliza una cantidad tan grande de colores para una fácil edición de imágenes. Y para codificar un 'píxel' de la imagen de esta manera, se necesitaría 42 bits de memoria:

14 bits R + 14 bits G + 14 bits B = 42 bits

Mi Nikon D700 crea imágenes de máxima calidad 4256 por 2832 píxeles, lo que da exactamente 12 052 992 píxeles (alrededor de 12 millones de píxeles, o simplemente 12 MP). Si codifica imágenes de mi Nikon D700, sin el uso de algoritmos de compresión y compresión de datos, y con una profundidad de color de 14 bits, resulta que necesitas usar 506 bits de información (225 bits/píxel por 664 píxeles). Esto es igual a 42 bytes o 12 MB de memoria.

Pregunta: ¿Por qué se calcula que se requieren alrededor de 60 MB de memoria para una imagen, pero en realidad obtengo archivos de solo 24.4 MB? El secreto radica en que el archivo RAW original no almacena píxeles 'reales', sino información sobre los subpíxeles de la matriz CMOS. Nikon D700.

En la descripción de la cámara puedes encontrar lo siguiente:

Extracto de las instrucciones para la Nikon D700

extracto de las instrucciones para la Nikon D700

Es decir, las instrucciones dicen sobre 'píxeles efectivos' y sobre el 'número total' de píxeles. El número de píxeles efectivos es muy fácil de calcular, simplemente dispare en modo JPEG L Fine y obtenga una imagen de 4256 por 2832 píxeles, que es igual a los 12 píxeles descritos anteriormente. Si redondeamos hacia arriba, obtenemos los 052 MP declarados en la instrucción. Pero, ¿qué es ese 'número total de píxeles', de los que hay casi un millón (992MP) más (12.1 MP)?

Para entender esto, basta con mostrar cómo se ve el sensor de la cámara sensible a la luz. Nikon D700.

Filtro de Bayer

Filtro de Bayer

Si te fijas bien, la matriz de Bayer no crea ninguna imagen 'multicolor'. La matriz simplemente registra puntos verdes, rojos y azules, con el doble de puntos verdes que rojos o azules.

píxeles no reales

Píxel 'no real'

De hecho, esta matriz no consiste en píxeles ('en el sentido habitual'), sino en subpíxeles o celdas registradoras. En general implicarque un píxel es un punto en una imagen que representa cualquier color. En un sensor CMOS Nikon D700 solo hay subpíxeles, que son responsables solo de los tres tonos principales, sobre la base de los cuales se forman los píxeles 'reales', 'multicolores'. La Nikon D700 tiene alrededor de 12 870 000 de estos subpíxeles, denominados píxeles "efectivos" en el manual.

No hay 12 MP 'reales' en el sensor Nikon D700. ¡Y los 12 MP que vemos en la imagen final son el resultado de una dura interpolación matemática de 12.87 Mega subpíxeles!

Cuando se promedia, cada subpíxel se convierte en un 'píxel' real mediante algoritmos. Esto sucede debido a los píxeles vecinos. Aquí solo está escondido'magia callejera de píxeles'. Del mismo modo, 4 mil millones de colores también es obra del algoritmo de desbayerización.

Subpíxeles y píxeles

La idea principal del artículo: subpíxeles y píxeles. Se nos venden 12 millones de subpíxeles por el precio de 12 millones de 'píxeles reales'.

Hablando muy groseramente, los especialistas en marketing llamaron 'píxeles' a los subpíxeles del filtro de Bayer y, por lo tanto, sustituyeron los significados de las palabras. Todo está ligado a lo que necesita entender exactamente por la palabra 'píxel'.

Volvamos a los cálculos del volumen de archivos. De hecho, el archivo NEF solo almacena 14 bits de información para cada subpíxel del filtro Bayer, que en realidad tiene la misma profundidad de tono. Teniendo en cuenta que hay 12 de estos subpíxeles en la matriz (el número es aproximado, se indica en las instrucciones), entonces el almacenamiento de la información obtenida de ellos requerirá:

12 * 870 bits = 000 bits o 14 MB

Y, sin embargo, no obtuve los 24,4 MB que observo en mi computadora de ninguna manera. Pero si sumamos datos de EXIF y JPEG PreviewImage, puede obtener los 24,4 MB iniciales. Resulta que el archivo RAW también almacena:

24,4-21,48 = 2,92 MB de datos adicionales

Importante: se pueden hacer cálculos similares para cámaras que usan sensores CCD y archivos RAW sin compresión: Nikon D1, D1h, D1x, D100, D200, así como matrices JFET (LBCAST) - nikon d2h, D2hs. De hecho, no hay diferencia ¿Es CCD o CMOS? – todavía usan el filtro Bayer y los subpexilos para formar la imagen.

Pero las cámaras Sigma con matrices Foveon tienen un tamaño de archivo RAW mucho mayor para los mismos 12 MP en comparación con una matriz CMOS que codifica un píxel real usando tres píxeles de colores primarios (como se esperaba), esto solo confirma mi razonamiento. Por cierto, apareció otro en Radozhiv. artículo interesante и uno mas.

Hallazgos

De hecho, las cámaras que usan matrices de filtro Bayer (CCD, CMOS, no importa) no tiene el número real declarado de píxeles 'reales'. en la matriz solo hay un conjunto de subpíxeles (elementos fotográficos) del patrón de Bayer, a partir del cual, utilizando algoritmos complejos especiales, se crean píxeles de imagen 'reales'. En general, la cámara no ve una imagen en color en absoluto, el procesador de la cámara trata solo con números abstractos que son responsables de un tono particular de rojo, azul o verde, y crear una imagen en color es son solo trucos matematicos. En realidad, esta es la razón por la que es tan difícil lograr la reproducción de color 'correcta' en muchas CZK.

Materiales relacionados

  1. Sistemas sin espejo de fotograma completo. Discusión, elección, recomendaciones.
  2. Sistemas sin espejo recortados. Discusión, elección, recomendaciones.
  3. Sistemas sin espejo recortados que han detenido o están finalizando su desarrollo
  4. Sistemas de espejos digitales que han detenido o están finalizando su desarrollo
  5. JVI o EVI (un artículo importante que responde a la pregunta 'espejo o sin espejo')
  6. Acerca de las baterías sin espejo
  7. Formato medio simple y claro
  8. Soluciones especialmente rápidas de marcas chinas
  9. Todos los objetivos con zoom de enfoque automático más rápidos
  10. Todos los objetivos fijos de enfoque automático más rápidos
  11. Fotograma completo reflejado en formato medio sin espejo
  12. Impulsores de velocidad de enfoque automático
  13. Una lente para gobernar el mundo
  14. El impacto de los smartphones en el mercado de la fotografía
  15. ¿Qué sigue (supremacía de los teléfonos inteligentes)?
  16. Todos los anuncios y novedades de objetivos y cámaras

Los comentarios en esta publicación no requieren registro. Cualquiera puede dejar un comentario. Muchos equipos fotográficos diferentes se pueden encontrar en AliExpress.

Material preparado Arkadi Shapoval. Formación/Consultas | YouTube | Facebook | Instagram | Twitter | Telegram

 

Añadir un comentario: Oleg

 

 

Comentarios: 153, sobre el tema: Píxeles y subpíxeles

  • Anónimo

    Lo arreglaré de todos modos :)
    millones = 10^6
    mil millones = 10 ^ 9, mil millones también = 10 ^ 9, solo el primer nombre es tradicional y aceptado en ruso, y el segundo es científico e internacional.
    billones = 10^12
    pero el número 4 es cuatro billones trescientos noventa y ocho billones (billones) cuarenta y seis millones quinientos once mil ciento cuatro.

  • Anónimo-1

    Bueno, seguro: ¡un espectáculo matemático de esquizofrenia! ¡Desde FMTI hasta entusiastas de la fotografía! Los matemáticos pronto construirán un modelo de secreción nasal y calcularán el número probable de estornudos en función de la masa inerte de mocos... Y en base a este modelo, derivarán el número útil óptimo de píxeles en la matriz formada por un pañuelo... ¡Vivamos rica y felizmente!

    • novela

      Sin los matemáticos y sus obras, sospecho fuertemente que todavía tendríamos que hacer pintura rupestre. Bueno, o pintar con pinturas al óleo.

      Los filtros Bayer y la interpolación son una de las pocas formas de obtener imágenes de una matriz. Si contamos cuatro subpíxeles como un píxel, obtenemos una imagen que tiene la mitad del tamaño en altura y anchura. Pero al mismo tiempo, perderemos esa parte insignificante de la información que se obtiene con el uso mixto de diferentes canales, incluida la información de brillo duplicado de dos subpíxeles verdes.

      • Nicholas

        Cuatro subpíxeles no se pueden considerar como un píxel, ya que cada uno contiene información diferente, incluso a pesar de la presencia de un filtro.

        • Alejandro

          ¿Por qué cuenta 3 subpíxeles RGB como uno en un monitor? Allí, también, cada uno tiene información diferente. En Bayer, la diferencia es más un subpíxel verde, lo que en teoría debería aumentar la claridad a expensas del color.

          • unúltimohombre

            Además de Alejandro
            Verde, se crea un píxel adicional para aumentar la sensibilidad al verde.
            Dio la casualidad de que una persona es casi indiferente al azul y necesita más verde.
            Existe tal cosa, sensibilidad espectral: EY = 0,30ER + 0,59 EG + 0,11EB
            En realidad, en las computadoras, 16 bits de color se codifican como 565 bits (RGB) por píxel, un bit da un rango de medición dos veces mayor. Que casi cae en la fórmula anterior.
            Para no molestarnos mucho con las matemáticas, creamos un píxel adicional, que también es tecnológicamente más fácil: hacer que todos los píxeles sean iguales.

            Por lo tanto, 4 píxeles (RGBRG) se convierten fácilmente en 0,30ER + 0,59 EG + 0,11EB, y luego en RGB.

  • Anónimo-1

    Así es, no fotógrafos, sino destinatarios de imágenes, grabadores de fotos, consumidores de información de color, contadores de píxeles... ¿Habéis probado a contar el número de pinceladas en los cuadros de Leonardo? ¡¡Hola!! El trabajo es un mar, y el cerebro está en el negocio, no se seca...

    • Alejandro

      Joven, es mejor envidiar al cerebro en silencio, y al mismo tiempo es mejor estudiar para acortar la brecha, y la envidia disminuye.

  • Vadim

    Así que quiero insertar mis "5 centavos" :)
    -
    1) En primer lugar, espero que después de que todos hayan aprendido sobre los mecanismos de la desbayerización, nada cambiará en sus vidas: no comenzarán a deshacerse masivamente de las cámaras digitales, borrar sus fotos favoritas, recordar el suicidio ("Oh, ¿cómo podría soportar tal engaño todo este tiempo?”), etc.
    -
    2) En segundo lugar, alguien preguntó a los fabricantes de cámaras qué quieren decir con "PIXEL". ¿Por qué todos los aquí reunidos están seguros de que fueron engañados, estafados, arrojados? ¿Nikon o Canon nos convencieron de que estamos hablando de RGB, RGGB o algún otro píxel multicanal? Se nos informa sobre la cantidad de celdas en la matriz en su conjunto (píxeles totales) y cuántas combinaciones ÚNICAS (es decir, lo que luego se convertirán en píxeles en la pantalla) las cámaras y el software recopilan de estas celdas (píxeles efectivos).
    -
    3) En tercer lugar, no estamos hablando de llenar algunos vacíos con datos promediados (interpolación) o predichos (extrapolación) inexistentes. Estamos hablando del hecho de que los subpíxeles durante la desbayerización se pueden combinar de diferentes maneras. Y cada combinación es única, lo que significa que puede pretender convertirse en un píxel de pantalla.
    -
    4) En cuarto lugar, todavía es muy bueno que aún no hayan planteado el tema de cómo estos píxeles que aparecen de una manera incomprensible se muestran de manera diferente en diferentes pantallas, y aún más, ¡cómo se forma una trama impresa a partir de ellos! :)
    -
    Todo, "5 kopeks" insertados, correré a tomar fotografías, de lo contrario, siento que estoy perdiendo un tiempo precioso.

    • Denis

      Me suscribo a cada centavo :)

    • Lynx

      tus 5 kopeks son exactamente 4.
      ¿También fabrican cámaras? ))

      • Vadim

        Estoy pensando en ello :).
        Y las comillas son necesarias para esto, para que una cosa pueda ser llamada por otra.

    • Vitali

      Bueno, al menos una persona educada.
      Lo que se describe en el artículo no es ninguna novedad, pero para los interesados, y especialmente los físicos, es una verdad conocida desde hace mucho tiempo. La forma en que se hace es la única decisión correcta. ¿Qué te gustaría? ¿Para que cada píxel provenga de una tríada RGB? ¿Y esta gente después de eso declara que 36 megapukeles en una cosecha es mucho? ¿Cuál sería entonces el tamaño de las microlentes si cada píxel estuviera formado por tres elementos sensibles? Aprende el material y entonces no te sorprenderá el estado real de las cosas. El fabricante solo se ocupa de nosotros, haciendo que el píxel sea "negrita" y aquí no hay engaño.

      • Oleg

        >>La forma en que se hace es la única decisión correcta
        ¿Por qué es correcto? El hecho de que sus fotos comenzaron a pesar más, y la cantidad de megapíxeles exagerada es más fresca.
        >> El fabricante solo se ocupa de nosotros, haciendo que el píxel sea "negrita" y aquí no hay engaño.
        Santa inocencia. El fabricante es un burgués que sólo se preocupa por su propio beneficio y nada más. Por ejemplo, los vendedores sacrifican artificialmente y mediante programación algunos chips, obligándolos así a comprar modelos más caros. Reemplazan los términos para que los números sean más grandes, sin decir que este término ha sido reemplazado.

        • Vitali

          ¡Los píxeles no son exagerados en absoluto, sino reales! Para reclamar píxeles hinchados, ¡aprende a combinar primero! Tenía muchas ganas de decir palabras desagradables con estas palabras, pero me abstendré. Sí, serías el primero en aullar sobre el umbral de difracción, la falta de nitidez y el enorme ruido, debido al área mínima de elementos fotosensibles, si cada píxel estuviera formado por tres sensores. Recuerde: un elemento fotosensible más grande recolecta más fotones, por lo tanto, reduce el ruido, reduce el umbral de difracción y mejora la nitidez.

          • Oleg

            Tiene razón sobre el tamaño del elemento, pero eso no hace que el deb sea diferente del desenfoque. Deb-tion es esencialmente un borrón banal. De un sensor 10*10, obtendré 100 bytes de información sobre el objeto. Si hace una foto de 10 * 10, entonces esto es de 300 bytes (3 bytes por píxel). ¿De dónde sacaste 200 bytes de nueva información sobre el objeto? Y lo promediaste de los píxeles vecinos, esto es un desenfoque banal.
            Experimento mental. Tomamos una foto, digamos 100x100 (preferiblemente más nítida). Y en la cuadrícula de Bayer en cada píxel, dejamos solo 1 subpíxel y apagamos los 2 subpíxeles restantes. ¿Puedes usar la desbayerización de esta foto para obtener la imagen original? ¿Puede decirme cuál era el brillo de los subpíxeles extinguidos en cada píxel? No lo dirás con seguridad, mancharás al máximo a los vecinos.
            Sobre el material, te vuelas las mejillas. Si no estás de acuerdo, da argumentos, y de nada sirve sacudir el aire.

          • Vadim

            La misma cantidad de información de un archivo RAW se puede analizar e interpretar de diferentes maneras. Con diferente calidad, velocidad, precisión, dependiendo de las tareas. Y mucho dependerá de esto.
            -
            Tome algunas tomas RAW difíciles a través de diferentes convertidores: moderno y de hace diez años. Siente la diferencia en ruido, detalle, color. ¿Hemos aumentado la cantidad de información inicial? No, simplemente aprendimos a trabajar mejor con él y, como resultado, obtuvimos una versión mucho más interesante.

        • Vadim

          El fabricante es un burgués que tiene buenos correctores de pruebas, abogados, juristas, especialistas en marketing y otras personas inteligentes en su personal. Por lo tanto, el fabricante SABE EXACTAMENTE lo que ÉL LLAMA con la palabra "píxel". Y si esto no coincide con mi opinión, la tuya o la de otros, estos ya son nuestros problemas.
          -
          No hay engaño, es una palabra a la que distintas personas le ponen distintos significados.
          Para usted, por ejemplo, un píxel es un punto visible en la pantalla, cuyas características están descritas por los componentes de brillo de los canales RGB.
          Para, digamos, una impresora, este es un punto condicional que intenta mostrarse en la pantalla después de la conversión como un píxel RGB, pero en realidad tiene 4 canales (CMYK).
          Los fabricantes de cámaras específicas en relación con matrices específicas tienen su propia comprensión del píxel.
          -
          No existe una única solución correcta para lo que debería llamarse un "píxel" o un "subpíxel". Cada uno tiene su propia opinión sobre este asunto. Es importante que todos nosotros, discutiendo acaloradamente este tema, ahora entendamos el orden de las cosas y podamos llamar las cosas por su nombre.

          • Oleg

            Tanto en la pantalla como en la impresión, un píxel es una parte elemental de una imagen que puede ser de cualquier color, no solo rojo, azul o verde. Los fabricantes de cámaras interpretan el término píxel no como todo el mundo, sino porque les resulta más rentable. Y los fabricantes de discos duros gigabytes son 10E9 bytes, no 1024 * 1024 * 1024. Porque es más beneficioso para ellos.

          • Vitali

            Así es - en la diana

          • Vadim

            El prefijo "giga-" en ISO significa 10 elevado a la novena potencia y nada más.
            Estás confundiendo "gibi-" con "giga-".
            Más información sobre los prefijos binarios:
            http://ru.wikipedia.org/wiki/%D0%94%D0%B2%D0%BE%D0%B8%D1%87%D0%BD%D1%8B%D0%B5_%D0%BF%D1%80%D0%B8%D1%81%D1%82%D0%B0%D0%B2%D0%BA%D0%B8

          • Vadim

            Quiero decir, según SI y JEDEC :)

          • Vitali

            Vadim, la verdad está completamente de tu lado. Yo, a su vez, ni siquiera adiviné que tanta gente ni siquiera representaba el proceso de recopilación de información de la matriz. Pensé que todos los fotógrafos digitales ya entienden este proceso. Y resulta...

          • Vadim

            Bueno, por supuesto, un píxel puede ser de cualquier color. Solo este color necesita ser designado de alguna manera. Los píxeles monocromáticos (no necesariamente blanco-gris-negro) se pueden describir por un canal, los píxeles de color por tres o más, y se pueden representar de diferentes formas (HSL, LAB, RGB, CMYK, etc.).
            Los fabricantes de cámaras enumeran el número total de píxeles monocromáticos (que transportan información en un canal, sin importar de qué canal sea).
            Los píxeles de la pantalla son multicanal (es decir, los percibimos como tales). Cuántos canales hay, si hay subpíxeles, depende de la tecnología de imagen.
            Y en la impresión a color, los píxeles también son multicanal. Y los canales, por lo general, al menos uno más que cuando se muestran en la pantalla. Y también depende de la tecnología de impresión.
            -
            Esos. los píxeles son diferentes. Entender esta sencilla tesis te hará la vida más fácil.

        • Vitali

          Aquí lee http://www.cambridgeincolour.com/ru/tutorials/camera-sensors.htm , solo cuidadosamente, muy inteligiblemente pintado.

          • Oleg

            http://arttower.ru/wiki/index.php?title=%D0%A4%D0%B8%D0%BB%D1%8C%D1%82%D1%80_%D0%91%D0%B0%D0%B9%D0%B5%D1%80%D0%B0
            Aquí al final hay un ejemplo con un ganso. Y al final escriben:
            Como puede ver en la imagen, esta imagen resultó ser más borrosa que la original. Este efecto está asociado a la pérdida de alguna información como consecuencia del funcionamiento del filtro Bayer.

            Esos. ¡El filtro de Bayer no restaura la información original al 100%! lo interpola (difumina) a partir de píxeles vecinos.

          • Vadim

            Ejemplo loco :)))
            ¿Qué pasa con la imagen original sin desbayerización? ¿O filmado y luego escaneado?
            Nadie dice: disparemos con matrices de tres-cuatro-... al mismo tiempo, obtengamos verdaderos píxeles multicanal, compárelos con las miserables "rejillas de Bayer" y sienta la diferencia.
            En esta discusión épica, la gente está tratando de transmitir solo algunas tesis:
            1) CUALQUIER información sobre CUALQUIER objeto restaurado de CUALQUIER fuente no es original y tiene una calidad discreta. Conclusión: ve a conciertos en vivo, viaja, mira atardeceres en vivo, huele flores, disfruta cada cucharada de borscht, ama a tus seres queridos, etc.
            2) si no eres ingeniero (por naturaleza), sino fotógrafo (por vocación, o tienes ese hobby), preocúpate menos por los detalles técnicos profundos del proceso de tomar una foto (cómo se cargan las celdas del sensor, etc. .). Dejemos que los ingenieros lo piensen. Conclusión: practica, mejora tus habilidades. El hierro mejorará con el tiempo. Y si te vuelves mejor depende de ti.
            3) para no sentirse engañado, especifica las cosas que te interesan. La gente suele llamar a la misma cosa de manera diferente, o viceversa, poner diferentes significados en las mismas palabras. Conclusión: la capacidad de encontrar un lenguaje común ayuda en la tienda, en el trabajo y en la vida familiar.
            4) la verdad nace en las disputas. No estamos aquí para inundar la página de Arkady o averiguar quién es más inteligente. He echado un nuevo vistazo a algunos aspectos de la obtención y el análisis de una imagen. Esto es interesante para mí, porque. Soy oftalmólogo. Alguien a partir de este día comenzará a usar correctamente los prefijos "kilo-", "giga-", "kibi-", "gibi-". Conclusión: las discusiones constructivas hacen del mundo un lugar mejor :)

          • Oleg

            No sabía sobre Gibi. Resulta que Windows no se muestra de acuerdo con el estándar, quién lo hubiera pensado.

          • Vadim

            Por cierto, sí, por culpa de Microsoft, muchos han escupido sobre el cumplimiento de estándares. También me enteré recientemente de esto.

  • Andrés

    Para ser honesto, no me importa en absoluto cómo se llamen y funcionen. No puedo influir en eso. Y estamos hablando del espectro visible... con nuestros ojos flexibles ya la vez muy imperfectos. Todos vemos y evaluamos de manera diferente. Figley luego llena su cabeza con tonterías. Y comenzará ahora: tiene la matriz incorrecta, tiene "granadas del sistema incorrecto" ...
    No creo que alguien me engañó o me engañó... yo estoy más preocupado por comprar otra canal o vidrio :), viajes a diferentes lugares interesantes... y que mis miserables ojos tengan tiempo de ver suficiente de la belleza .

  • Oleg

    Creo que entendí el motivo de la deuda:
    1. Para el fabricante, una cantidad más atractiva de megapíxeles, bueno, eso es comprensible.
    2. Ahora el requisito para que la cámara proporcione la imagen jpg lista para usar de la más alta calidad en la salida. Y para que el usuario no tenga que molestarse con los filtros. Esos. si necesita aplicar algún tipo de filtro para mejorar la calidad aparente de la foto, entonces la cámara debe hacerlo por sí misma, y ​​no dejarlo en manos del usuario. Aquí recibió una matriz de valores 10 * 10. Por supuesto, solo hay 100 bytes de información inicial, y quién los necesita es sin procesar. Y quién necesita una foto terminada, entonces la cámara aumentará la resolución real en 2 * 2 \u4d 10 veces interpolando los píxeles faltantes (deb-tion), luego agregará nitidez, colores correctos y algo más. El resultado final es una foto de la mejor calidad visible. Sí, si hace una foto de 10x5 a partir de una matriz de 5 * 1 correctamente, no habrá información exagerada en ella, pero se verá realmente peor. Esos. para mí, concluí esto, de los píxeles escritos en la cámara, 4/XNUMX son reales y el resto está interpolado. Tal vez esto no sea malo, pero la calidad visible es importante para las personas, pero cómo se recibe, se filma o se interpola en realidad, no les importa.

    • novela

      No se entiende. Tome una imagen RAW, redúzcala a la mitad y luego amplíela a su tamaño original. Y luego compare los píxeles hinchados desbayerizados con sus píxeles honestos. El ejemplo no es del todo correcto, pero aún se pueden sacar ciertas conclusiones.

      El filtro Bayer es una solución de ingeniería inteligente que le permite utilizar de manera óptima el área de la matriz. Una "decisión justa" es tomar un cuadrado, colocar tres sensores R, G, B en él (dejar una esquina vacía), promediar todo a un píxel y obtener una imagen con lados de 4000x3000 de una matriz de 2000x1500 píxeles. Basta con agregar otro sensor verde a la esquina "vacía" y obtendremos un 60% "extra" de la información de brillo (la contribución del canal verde es 60%, 30% - rojo, 10% - azul). Puedes simplemente tirarlo, o puedes “mezclarlo” con la ayuda de un tapete. transformaciones (más complejas que una simple interpolación lineal o incluso cúbica) a la imagen, obteniendo una resolución de brillo mucho mayor.

      • Oleg

        >>Toma la imagen obtenida de RAW
        ¿Dónde conseguirlo? Cualquier convertidor da ya procesado.

        http://arttower.ru/wiki/index.php?title=%D0%A4%D0%B8%D0%BB%D1%8C%D1%82%D1%80_%D0%91%D0%B0%D0%B9%D0%B5%D1%80%D0%B0
        Aquí hay una foto de un ganso. Es como el objeto original. Hicieron una matriz de Bayer con eso, es decir cuál sería la matriz de una cámara ideal con un objetivo ideal. Luego se aplicó deuda a esta matriz, es decir como lo haría una cámara. ¡La foto resultante no es igual a la original! ¡No es igual! Ahora, si el fotik tuviera píxeles rgb honestos, entonces la imagen original habría resultado sin d-ciones. Y entonces, esto es un simple desenfoque, que es visible al comparar las fotos originales y finales del ganso.
        Sí, la d-ción es probablemente una transformación un poco más compleja que la simple interpolación lineal o cúbica, pero esto no significa que no sea una interpolación. D-ción es una interpolación real. De la wiki:
        Interpolación, interpolación: en matemáticas computacionales, una forma de encontrar valores intermedios de una cantidad a partir de un conjunto discreto existente de valores conocidos.
        Es.

        • novela

          > ¡La foto resultante no es igual a la original!
          ¿Alguien afirma lo contrario?

          Si actúa "honestamente", como pide, entonces deberá cegar uno de cada conjunto de cuatro píxeles, y no cuatro, como lo hace el algoritmo de desbayerización. Como resultado, su imagen será el doble de pequeña en ancho y alto. Y si lo amplía para que coincida con el tamaño de la imagen original, el resultado después de la desbayerización se verá MUCHO mejor, porque se obtuvo utilizando la información que propone desechar.

          El filtro de Bayer permite disponer los elementos fotosensibles en forma de cuadrícula, el uso de dos píxeles verdes en lugar de uno aumenta la resolución y aporta información extra para una mejor transmisión de las tonalidades verdes (e indirectamente de la luminosidad).

          Puede organizar elementos uno encima del otro, existen tales matrices. Las ondas de diferentes longitudes penetran a diferentes profundidades, por lo que puede obtener tres veces más información de un "píxel geométrico", pero tampoco todo es fluido allí. Es posible dividir el flujo de luz en tres y dirigir la luz a tres matrices diferentes, pero esto es costoso y engorroso.

          • Oleg

            Si toma casi cualquier imagen (especialmente de baja resolución) y aumenta su resolución 2*2 veces por interpolación bilineal, también se verá MUCHO mejor sin el cuarto canal. ¡Pero esta no es una razón para hacer esto con todos los archivos aumentando su tamaño en 4! veces.
            Sí, como escribí anteriormente, el requisito ahora para las cámaras parece ser este: la cámara debe producir una foto jpg terminada de la mejor calidad posible, habiendo hecho todos los filtros posibles por sí misma. No importa el tamaño de la foto. Cómo se obtiene a partir de píxeles reales o exagerados no es tan importante.

          • Vadim

            Aquí hay algo que Oleg no puede entender de ninguna manera, cómo los píxeles de un solo canal (monocromáticos) difieren de los de varios canales (color). Y no hay nada que puedas hacer al respecto...
            -
            En consecuencia, la interpolación como promedio no tiene nada que ver con esto. La debairización no es promediar, sino obtener un píxel multicanal de un grupo de píxeles monocromáticos.
            -
            En este caso, por supuesto, es necesario utilizar todas las combinaciones posibles de grupos, ya que esto brindará más información REAL que usar cada píxel monocromático solo una vez y luego aumentar la escala.
            -
            Y ese ganso es estúpido... La gente tomó una imagen de un conjunto de píxeles RGB, los redujo a monocromo, es decir. tiraron 2 canales (2/3 de la información), y luego dicen: “Ves, la imagen se está degradando”. POR SUPUESTO, es degradante, ¡solo queda un tercio de la información! Y solo gracias a la desbairización, esta imagen todavía se puede ver.

          • Oleg

            Sí, la gente tiró 2/3 de la información. Bueno, la cámara tampoco toma 2/3 de la información, digamos que el componente verde de la luz que incide en la celda roja o azul simplemente desaparece. Todo es correcto con el ganso.
            ¿Y cuál crees que es la forma correcta de hacer un ejemplo de un ganso? Piense por sí mismo que hay una foto de un ganso, digamos 100 * 100 * 3 = 300 bytes, la matriz de Bayer tomará solo 100 bytes. Cómo no torcer de 100 bytes no obtendrá los mismos 300. ¿No estoy de acuerdo? no hay problema, hagamos el ganso como quieras. Explique cómo.

          • Vadim

            Tirarlo y no sacarlo son dos cosas diferentes. Estos píxeles monocanal transportan información sobre un solo canal. Pero no dejan de ser píxeles. Y no nos prometieron ningún píxel específico. Prometieron píxeles, dieron píxeles. Pero, ¿qué son estos píxeles y en qué se diferencian de los de la pantalla? Gracias a usted, lo descubrimos y "masticamos" con gran detalle.

          • Oleg

            En general, sí. En ninguna parte está escrito que estos sean píxeles de tres canales. Si la renuencia a la información exagerada en el archivo, puede poner una resolución más baja en el fotik y, por lo tanto, obtener una traducción honesta de los píxeles de Bayer a rgb, entonces los fabricantes dejan la elección al usuario. Probablemente en vano los calumno.
            Bueno, entonces la resolución de los monitores también se puede escribir verticalmente 3 veces más, allí tampoco nadie prometió un píxel rgb :).

        • Vadim

          Los píxeles de la cámara y los píxeles de la pantalla son como mosaicos. Hay más barato, hay más caro, hay más, hay menos. Pero tanto esto como aquello son mosaicos, y esto y aquello son píxeles.
          Dado que los píxeles de la matriz de la cámara son de un solo canal (monocromáticos), contienen tres veces menos información que los píxeles de la pantalla. No son iguales. Pero son píxeles. Honesto. Verdadero.
          -
          ¿Cuál es la forma más fácil de explicar?

          • novela

            No lo sé. Una persona cree obstinadamente que los fabricantes lo están engañando. Como una conspiración masónica judía, todos duplican estúpidamente la imagen, la agudizan y la venden como si fuera real. Entonces lo molestaré, en JPEG, RGB se convierte a YUV: un canal de luminancia y 2 diferencias de color. Todo el código de luminancia está codificado, y los de diferencia de color quedan con dos píxeles de cada cuatro. ¡Y esto es después de la desbayerización! Gente tonta, tonta...

          • Oleg

            Sé con certeza que a partir de la matriz Bayer 10 * 10 es imposible restaurar con precisión la imagen original 10 * 10 * 3 de ninguna manera, incluida la d-tion. La imagen final será más borrosa que la original y los masones no tienen nada que ver con eso, pura matemática. No sé cómo codifica JPEG, no lo discutiré (pero siempre pensé que había algo dispuesto en una serie de Fourier). Pero su lógica es esta, agreguemos píxeles inflados al 200% a la imagen, de todos modos, algunos de ellos se perderán después de la compresión JPEG. Observo que JPEG siempre es un deterioro en la calidad de la imagen (visto en imágenes contrastantes), y después de JPEG, no solo se perderán las exageradas, sino también las reales.
            El ejemplo anterior con un ganso es muy revelador. ¿O tú, Roman, también estás en desacuerdo con él? Hagamos el ejemplo del ganso de la manera que desee y asegurémonos de no terminar con la calidad de imagen original.

          • Vadim

            :)))
            No hay una "imagen original" de un ganso. Hay un ganso :). Este es el TEMA ORIGINAL. Nunca podemos obtener la imagen perfecta. Vimos el contorno: queremos ver partes del cuerpo; vimos partes del cuerpo, queremos ver plumas; vimos plumas, queremos examinar cada “vellosidad”; vimos cada "pelusa", queremos ver cada garrapata sentada en él, etc. No hay límite para la perfección.
            -
            Entonces, el GUS (y no su fotografía) se fotografía con una cámara en una matriz con una red de Baerian. Esta es la IMAGEN ORIGINAL.
            -
            La información al disparar no se vuelve menos. Hay exactamente tanto como este tipo de matriz puede obtener físicamente inicialmente en esta cámara con estos ajustes y estas condiciones de disparo. Esos. algunos píxeles monocromáticos.
            Nuevamente, monocromo no significa escala de grises. Es solo que cada píxel lleva información sobre un canal (en este caso, rojo, azul, verde, verde No. 2).
            -
            Si inicialmente tuviéramos una matriz multicanal (por ejemplo, multicapa) y, por alguna razón, colgáramos una red de Baer en la parte superior, perderíamos, por supuesto, alrededor de 2/3 de la información. Pero no hemos perdido nada, inicialmente tenemos un sensor menos perfecto. Hagas lo que hagas con él, no va a "desenterrar" más información para nosotros.
            -
            Luego, la información original tampoco va a ninguna parte: se analiza, interpreta y convierte en píxeles multicanal que son comprensibles para la pantalla del monitor. Puede hacer esto en una sola pasada (cada píxel monocromático se usa una vez), puede hacerlo en varias pasadas (se consideran todas las combinaciones posibles de grupos de 4 píxeles adyacentes + grupos posiblemente más grandes y de forma irregular). Cuantas más pasadas, más oportunidades de exprimir al máximo la información disponible, más probable es que la imagen resultante cumpla con las expectativas. Pero la cantidad de información inicial, de nuevo, no cambia.

          • Oleg

            >>No hay una "imagen original" de un ganso. Hay un ganso...
            No está bien. No podemos describir un ganso vivo con infinitos detalles, así es. Pero imaginamos un ganso abstracto que consta de cuadrados. Bueno, es como si no estuviéramos tomando una foto del ganso en sí, sino tomando una foto de un ganso. Digamos que tenemos una foto de un ganso 100*100*3. Una cámara ideal con una lente ideal con una matriz honesta de 100 * 100 * 3 tomando una foto de un ganso de este tipo obviamente dará la imagen original de un ganso en la salida. Una cámara ideal con una matriz de Bayer de 100 * 100 * 1 dará una matriz de Bayer, a partir de la cual, mediante transformaciones de deción, no se obtiene la foto original del ganso, sino una foto más borrosa. Como se muestra en ese enlace.
            >>La información no se vuelve más pequeña al disparar. Hay exactamente tanto como en general físicamente este tipo de matriz puede obtener inicialmente
            Si. Esta matriz es capaz de recibir del objeto, digamos, 10*10=100 bytes de información, no se hace más pequeño, porque no tiramos nada. Se hace más grande, agregamos 200 bytes inflados. Como si realmente recibiésemos 300 bytes del objeto, pero en realidad solo 100.
            Mira, tenemos que convertir 1 píxel de una matriz de Bayer de un solo canal en una de 3 canales. Que sea un píxel verde. Pero no conocemos físicamente el valor del color rojo o azul del objeto en el sitio de este píxel verde. La matriz no eliminó, cortó esta información. Dónde obtenerlo, lo tomamos de un píxel vecino, creyendo ingenuamente que los valores de color de los píxeles vecinos son aproximadamente similares. Pero esto no es así en absoluto. Por ejemplo, el objeto de origen es un punto amarillo brillante (rojo+verde) de 1 píxel sobre un fondo verde. Y este punto cayó completamente en este 1 píxel verde de un solo canal. En los píxeles vecinos, no habrá información sobre su componente rojo, solo hay información sobre el fondo verde. De-ción nos dará este punto verde. Mientras que una matriz honesta de tres canales verá que el punto tiene un canal rojo, y como resultado obtendremos el color amarillo del punto.

          • Denis

            “Por ejemplo, el objeto original es un punto amarillo brillante (rojo + verde) de 1 píxel de tamaño sobre un fondo verde. Y este punto cayó completamente en este 1 píxel verde de un solo canal. No habrá información sobre su componente rojo en los píxeles vecinos”: sus pensamientos solo confirman una vez más la ignorancia del material :)
            Esta situación es imposible, porque también hay un filtro especial delante de la matriz.

          • Oleg

            Dicen que en algunos modelos el filtro antialiasing no está delante de la matriz. ¿Y de dónde sacaste la idea de que el radio de desenfoque de este filtro es mayor que el tamaño del píxel? Tal vez se difumina en 0.1 píxeles, y luego puede ser un punto brillante del tamaño de un píxel.

          • Denis

            Cámaras sin filtro: modelos de uno y medio. Además, la ausencia de este filtro se presenta como una herramienta para profesionales, personas que saben por qué lo necesitan.
            Y en cuanto al grado de desenfoque, parece que vale la pena desenfocarlo para que llegue a los píxeles vecinos. Aunque sea por 0.1 píxeles, esto significará que parte de la información ya recaerá sobre los vecinos. En la práctica, hay más. Repito una vez más, estudie el material antes de sacar conclusiones sobre la hinchazón y la interpolación.

            PS Arkady, borre mi comentario similar anterior, fue citado en el lugar equivocado, todo se mudó.

    • novela

      Otra “opción justa” es aumentar el número de píxeles de la matriz, reduciendo sus dimensiones lineales. Pero aquí nos encontramos con una serie de problemas. Los ruidos están creciendo (debido a la disposición densa de los elementos en la matriz, su calentamiento es mayor, se introducen más distorsiones en las mediciones). Comienzan los problemas con la difracción (escribimos sobre esto un poco más arriba). La sensibilidad disminuye, tk. la cantidad de fotones de la fuente de luz sigue siendo finita y, a medida que disminuye el tamaño del elemento fotosensible, la cantidad de fotones que caen sobre él desde la misma escena disminuirá. Este es el camino a ninguna parte.

      • Oleg

        >>Otra "opción honesta"
        No otra más, pero la única opción honesta para aumentar la resolución es aumentar el número de píxeles.
        >> Este es el camino a ninguna parte.
        Y los fabricantes de matrices ni siquiera lo saben. El número de píxeles en la matriz es cada vez más grande.

        • novela

          > Y los fabricantes de matrices ni siquiera lo saben. El número de píxeles en la matriz es cada vez más grande.

          Si al mismo tiempo aumenta el área de la matriz, está bastante justificado. Y en el resto, solo, el marketing funciona principalmente. De acuerdo, a medida que la tecnología mejora, el problema del ruido se resuelve de alguna manera. Pero nadie ha cancelado todavía la difracción, y la resolución de la óptica debe corresponder a la resolución de la matriz, de lo contrario no tendrá sentido el aumento.

  • novela

    >> Sé con certeza que a partir de la matriz Bayer 10 * 10 es imposible restaurar con precisión la imagen original 10 * 10 * 3 de ninguna manera, incluida la d-ción.

    Esto es absolutamente indiscutible. SI hubiera una matriz ideal, cada píxel físico del cual produciría una imagen de tres componentes (y existen, ya lo escribí, pero están lejos de ser ideales), entonces, como resultado de eliminar información de esta matriz, obtendríamos una imagen de mejor calidad. Pero en esta etapa, solo podemos determinar el nivel de iluminación del sensor y formar algún tipo de voltaje en respuesta a esto, que luego digitalizamos. Si toma una matriz de 4000x3000 y no la cierra con filtros de color, obtendrá su imagen monocromática honesta de 12MP. Si también colocamos una cuadrícula de Bayer de filtros de color encima de la matriz, también obtendrá información sobre el color. Perderemos parte de la información de brillo debido a los filtros. Pero, una vez más, esta matriz llevará más información que una matriz de 2000x1500 píxeles promediados.

    • Oleg

      >> esta matriz llevará más información que una matriz de 2000x1500 píxeles promediados
      La matriz Bayer 4000x3000 lleva 12 MB de información. Para ser honesto, para comprimirlo en fotos RGB de 2000x1500, serán 9 MB de información, es decir, pérdida del 25% (es decir, en lugar de 2 canales verdes, solo 1). Y si haces una deducción y la amplías a fotos RGB de 4000x3000, obtenemos 36 MB de información. Esos. o perder un 25% o inflarse un 200%. En principio, podemos inflar estos al 200% en cualquier momento, incluso en tiempo real justo al visualizar una foto.
      Pero 12 megapíxeles son mucho más atractivos para un vendedor que 3 megapíxeles. Quieren escribir 12. Pero los especialistas en marketing tampoco pueden traducir la foto con honestidad, porque. si la cámara dice 12 megapíxeles, entonces no puede producir una foto de 3 megapíxeles en la salida. Por lo tanto, los 12Mpix reales de un solo canal están escritos en el fotik, y la salida es la misma 12 pero parcialmente inflada de tres canales. 12=12 y todo coincidió y los clientes no tienen preguntas.

      • novela

        > La matriz Bayer 4000x3000 transporta 12 MB de información

        4000x3000x14 bits = 21 MB (ya no 12)

        > En principio, podemos inflar estos al 200% en cualquier momento, incluso en tiempo real justo al visualizar una foto

        ¿Alguna vez has procesado RAW? ¿Cuánto un convertidor decente lo abre y "bobina" prestó atención?

        En todos los demás aspectos, no quieres entender nada, así que ni siquiera veo el sentido de convencerme de lo contrario.

        • Oleg

          El convertidor funciona exactamente mientras el hardware lo permita. Fotik lo hace mucho más fácil y rápido. En las computadoras, los porcentajes son más poderosos, aquí hay un algoritmo más genial. Mañana harán que la computadora sea 100 veces más rápida, los programadores escribirán un filtro aún más difícil y la computadora pensará lo mismo durante un par de segundos y hará que la foto sea un 1% más atractiva. Esto no es un indicador.
          >> En todos los demás aspectos, no quieres entender nada, así que ni siquiera veo el punto de convencerme de lo contrario
          ¿De qué me quieres convencer? ¿El hecho de que la de-ción no es interpolación? ¿Será que el 10*10 Bayer Matrix es capaz de recibir información de un objeto de más de 100 bytes? ¿O es que de 100 bytes de información real se pueden hacer 300 bytes de información real? ¿En que?

        • Denis

          Roman, sí, es inútil probar :)
          Deje que una persona continúe cambiando el tamaño de las fotos 4 veces y duerma tranquila, pensando que no pierde nada y esto solo ahorra espacio en el disco duro :) Y somos estúpidos, continuaremos tomando fotos de tamaño completo, en las que un tercio de la información es inventada :)

  • novela

    > No sé cómo codifica JPEG

    Pero toma interés. Comencemos con la conversión de RGB a YUV. Guardamos el canal de brillo por completo, diluimos dos canales de diferencia de color. Puede eliminar la mitad de los píxeles de cada canal U y V y la diferencia no será visible a simple vista. Como resultado, el 33 % de la información se descartó de forma relativamente sencilla. En el video, por cierto, descartan aún más, alrededor del 50%.

    Bueno, es aún más divertido.
    La información recibida se divide en bloques, cada uno se codifica por separado. Cada bloque se somete a una FFT. En lugar de un conjunto de valores para cada píxel, obtenemos un conjunto de frecuencias. Allí cortamos las frecuencias superiores en función de la relación de compresión, engrosando cada vez más la imagen. Y solo entonces aplicamos la compresión real de acuerdo con el método de Huffman.

    • Vadim

      Así que yo, Roman, releí tu post y pensé que los temas de interpretación y transformación de la información bordean la filosofía :).

      Por ejemplo:
      - Tomo mi archivo .nef con un volumen de 14 bytes;
      - Trato de comprimirlo en WinRAR, mejor compresión - Obtengo 14 582 483;
      - vale, el resultado no es muy bueno, abro .nef en Photoshop en sRGB, 8 bits/canal (¿cuántos teníamos ahí?) y lo guardo en .tif sin compresión, intercalado, sin perfil de color, me sale 36 octetos;
      - similar, pero uso compresión LZW (sin pérdidas) - 18 bytes;
      - similar, pero en lugar de LZW presiono .tif con WinRAR - 13 bytes (¡aquí es donde comienza la magia callejera!).

      Ahora estoy tratando de preparar la imagen para imprimir. Para que todo sea transparente, convierto manualmente el archivo RAW abierto en Photoshop a sRGB, 8 bits/canal a CMYK, lo guardo en .tif sin compresión: 48 879 468 bytes.
      Del mismo modo, pero con LZW: 30 024 372 bytes.
      Del mismo modo, pero sin comprimir .tif presiono WinRar - 24 bytes.

      Lo que es interesante: de hecho, no hicimos nada especial con la información original. En el primer caso, se convirtió para una visualización adecuada en la pantalla. El segundo es para imprimir. Ni siquiera me atrevo a juzgar dónde es real, dónde está inflado. Diría que estos son avatares diferentes de la misma información (excepto por la pérdida al convertir a otros perfiles de color).

      La pregunta sigue siendo: ¿cómo puede un .tif de 3 canales empaquetado e inflado ocupar MENOS espacio que un .nef empaquetado de manera similar? ¿Hay menos información REAL?

      • Denis

        En RAW tienes datos descomprimidos de la matriz, sin desbayerización, cuando conviertes a TIFF te sale una imagen ya desbayerizada, ya hay tres veces más subpíxeles, por eso pesa tres veces más.

        • Vadim

          Está claro, sin preguntas.

      • Denis

        Pero el empaquetado y la compresión ya son una cuestión diferente, todo depende de los algoritmos y las pérdidas aceptables. RAR casi no comprime imágenes simples, como has visto. Lo más probable es que falte algo.

        • Vadim

          Se perdió el bitness, se agregaron canales. Y luego, de repente, resultó que, bajo la condición de un paquete de información competente, un ráster completo de tres bandas puede ocupar menos volumen que una fuente pobre y sin problemas.

          Y la filosofía es ¿qué se considera la cantidad REAL de información visual almacenada? ¿Tamaño RAW de la fuente? ¿Ráster de tamaño completo? ¿Cuál de las cosas que describí es la cantidad REAL de información, cuál está COMPRIMIDA y cuál está INFLADA?
          Después de todo, resulta que la misma información puede ocupar un volumen diferente según el método de presentación y el entorno de uso.

      • novela

        Bueno, considere que, de hecho, tiene una imagen en la salida de la matriz, codificada aproximadamente de la misma manera que se usa en los formatos de compresión de imágenes. Después de todo, cuando se corta parte de la información de color en JPEG, ¿nadie grita que lo están engañando? Y allí, después de todo, la forma más fácil de comprimir es dos veces en cada lado y luego estirar. Sin embargo, juegan con transformaciones más complejas.

    • Vadim

      En resumen, me esforcé mucho en expresar la idea de que la cantidad de información útil y el volumen que ocupa son dos cosas diferentes.
      -
      Y últimamente se ha vuelto cada vez más difícil entender si está en un estado nativo, comprimido o inflado.

      • Denis

        Los archivos RAW y JPEG comprimidos de mi Nikon D1X ocupan casi la misma cantidad, por eso disparo solo en RAW :) Ambos están comprimidos, aunque está claro que hay más pérdidas en JPEG.

        • Vadim

          En general, gracias por una discusión agradable e informativa.

          Y lo más importante, dejando aquí los pensamientos sobre los megapíxeles, tomé muchas buenas fotos en estos días, pensando en cosas completamente diferentes :)

      • novela

        Bueno, según la definición de la cantidad de información tomada de los sensores, hay algo de valor. Pero la forma en que se presenta puede ser diferente. La entropía es menor: el tamaño del mensaje es más pequeño, es todo información. Más entropía, más mensaje.

        Podemos perder parte de la información, adaptándonos a las propiedades del sistema de salida (monitor) y del sistema de percepción (ojo). Por ejemplo, un monitor no puede generar más de 8 bits por píxel (en su mayoría). Y el ojo no distingue matices de color en las sombras. Etc Aquí disminuye la cantidad de información y, en consecuencia, el tamaño del mensaje. Pero debido a la compresión, reducimos la entropía, dejando el mensaje igual en volumen. Convertido a un formato de 16 o 32 bits: mayor entropía (los notorios "píxeles inflados").

  • Dmitry

    En la D7100 RAW a 15,6 MP, se necesitan de 20 a 26 MB. Grabado RAW sin compresión. Pero a juzgar por cómo difiere el volumen final, la compresión todavía se usa claramente, pero sin pérdida de calidad y sin cortar ninguna información. Por desgracia, esto demuestra una vez más que la estructura del archivo RAW para el fotógrafo no es más que una "caja negra" con la que solo unos pocos pueden trabajar.

    • Arkadi Shapoval

      Las cámaras de aficionados, incluida la D7100, no admiten RAW sin comprimir.

      • Dmitry

        Tienes razón sobre la compresión. sin embargo, como se indica en la página 67 de la instrucción D7100, en mi caso, la compresión es del 20-40%. es decir, "en", no "antes". esos. RAW sin comprimir debe tener al menos 15,6 MP * 14 bits/canal * 3 canales/8 bytes/bits = 81 MB. Digamos rollos de compresión del 40%: 81 * 0,4 = 32,8 MB. y esto es sin metadatos y vistas previas. esos son todos los mismos resultados del "bosque oscuro".

        • Arkadi Shapoval

          Todo es realmente simple. No es necesario multiplicar por 3 canales.

          • Dmitry

            No puedo entender por qué no es necesario multiplicar por 3 canales. en total, la matriz da una gama de colores de 42 bits (es decir, 14 bits por canal). 42 bits son 6 bytes. esos. la digitalización de un píxel (RGB) ocupa 6 bytes. esos. para 15,6 megapíxeles necesitas 93,6 MB.

          • Denis

            Dmitry, no leíste el artículo detenidamente o no lo leíste en absoluto. En una matriz de 15,6, no megapíxeles a todo color, sino monocolor. Así que no hay necesidad de multiplicar.

  • Dmitry

    Parece haber captado el truco con la manipulación de datos de la matriz. Si un píxel es RGGB. ¿Cuál de los dos píxeles físicos (RGGB + RGGB) en realidad puede obtener tres píxeles? debido a los "medios" de las celdas vecinas (la primera y la tercera celda son celdas independientes separadas, pero la segunda es la segunda mitad de la primera y la primera mitad de la segunda). para tal modelo de píxeles físicos, necesita la mitad. además, el mismo método se aplica al paso horizontal y vertical del marco. por lo tanto, físicamente es suficiente tener 4 veces menos píxeles. luego mis 15,6 MP se convierten en 3,9 MP. y esto es 3,9 megapiskel * 42 bits/píxel/8 bits/byte = 20,5 MB. Esto está claramente cerca de lo que tenemos. + metadatos + vista previa.

  • Dmitry

    Para excluir aún más las discusiones sobre el tema de un píxel en una matriz, si son tres colores o uno, Nikon hizo una pregunta al servicio de soporte:

    Dmitro Tishchenko: ¡Buenas tardes, Elena! Me interesa una pregunta un tanto extraña sobre la matriz D7100.
    Dmitro Tishchenko: Según el manual de usuario, su tamaño es de 24 megapíxeles. La pregunta es: ¿qué quiere decir el fabricante con píxel? En este caso, ¿es un píxel una celda de matriz completa (RGGB) o un color separado (RGGB = 3 píxeles)?
    Elena: Una célula en toda regla”

    Es decir, un píxel es un píxel de tres colores a todo color.

    • Denis

      "Es decir, un píxel es un píxel de tres colores a todo color": esto no tiene sentido, la persona que respondió claramente no está en el tema. Lea al menos Wikipedia antes de hacer tales preguntas y más aún creyendo tales respuestas. Todo ha sido descrito y pintado repetidamente durante mucho tiempo.
      El programa RawDigger saltó en los comentarios: es ella quien puede poner fin a la discusión sobre el tema de uno o tres colores. Abra cualquier archivo RAW, acceda a la configuración, desmarque 2x2 y busque en el modo compuesto RAW. Esto será lo que vio la matriz, sin desbayerización; Cuando se amplía, la matriz de Bayer es claramente visible.

      • Dmitry

        Esta es la respuesta de soporte. También les hice una pregunta en busca de su propia respuesta con respecto a la evidente falta de coincidencia en la cantidad de datos recibidos. la respuesta se redujo a la cercanía de los algoritmos de procesamiento de datos. un poco más arriba, sugerí que los píxeles finales se pueden obtener con un volumen mucho más pequeño de las celdas iniciales del filtro Baer (nadie prohíbe a los fabricantes de maritz que no hablen de esto; todavía estamos interesados ​​​​en el tamaño final de la matriz en píxeles (RGB)). con RawDigger intentaré hacer adicionalmente el truco indicado (aunque ayer estudié los metadatos detallados de uno de los RAVs. También hablaba de píxeles y correspondían a la resolución de la imagen final, o también hay que dividir la resolución de la imagen real por 3). Me pregunto si el programa puede mostrarme el número total de celdas que componen el color.
        http://ru.wikipedia.org/wiki/%D0%9F%D0%B8%D0%BA%D1%81%D0%B5%D0%BB%D1%8C - da la respuesta de que es un color.
        http://ru.wikipedia.org/wiki/%D4%E8%EB%FC%F2%F0_%C1%E0%E9%E5%F0%E0 - no estamos hablando de píxeles, sino de elementos (filtros).

        • Denis

          Después de deshabilitar la desbayerización, RawDigger solo mostrará lo que percibió la matriz (por cierto, puede habilitar la visualización de píxeles ineficientes allí, mi Canon 350D tiene una barra negra a la izquierda y arriba). Puedes ampliar la imagen, ir a la configuración y marcar la casilla 2x2, verás claramente cómo funciona la desbayerización. La resolución de la imagen no cambia, los colores de los píxeles cambian de un solo color a todo color.
          Según el enlace, existe tal "Pixel también se denomina erróneamente un elemento de una matriz fotosensible (sensel - del elemento sensor)"
          Pero, la cantidad de sentidos no le dirá nada a los simples mortales (este artículo es una prueba de esto, no todos entendieron el significado), por lo tanto, se llaman megapíxeles, con la expectativa de que los usuarios puedan entender qué resolución tendrá la foto ( toda esta cocina con desbayerización al 99% de los fotógrafos no le importa).

          • Dmitry

            RawDigger: trató de estudiarlo con más detalle. Y lo descubrí más. Sí, en la matriz estamos hablando de subpíxeles (cada componente de color por separado), de hecho. Les conseguí los 15,6 megapíxeles requeridos. Esos. 15,6 megasubpíxeles * 14 bits/subpíxel + compresión parcial sin pérdida (en un 20-40 %) = 18,7-24,9 MB + 90-95 kB de vista previa + metadatos. que está muy cerca de la verdad. ¡PERO! Después de convertir al mismo TIFF sin guardar los canales de color, obtenemos los mismos 15,6 MP, pero después de la desbayerización. ¡PERO! La matriz de Bayer le permite interpolar de forma segura y honesta casi los mismos 15,6 megapíxeles. ¡¿Cómo?!
            Fragmento de filtro de Bayer:
            RGRGRG...
            GBGBGB…
            RGRGRG...
            GBGBGB…
            ...
            Forma píxeles (RGB) a partir de subpíxeles (la opción más simple y obviamente estúpida):
            RG+GR+RG
            GB GB GB

            GB + GB + GB
            RG GR RG

            RG+GR+RG
            GB GB GB

            esos. de una matriz de 4x4 tiene 9 píxeles "honestos" completos.
            para compensar las filas que faltan, hay píxeles adicionales. Entonces parece la verdad?

            • Alexey

              ¡lee mi respuesta a continuación!
              ¡Mi opinión es que un píxel HONESTO son los componentes de color que NO PARTICIPAN en NINGÚN OTRO píxel!

              ¡Y aquí estamos siendo engañados! Interpolación de agua pura.

  • establecimiento

    En mi humilde opinión, de alguna manera todos se obsesionaron con los píxeles de colores y se perdieron un momento.
    La cámara con los 12 megapíxeles reclamados en realidad toma una imagen en blanco y negro de 12 megapíxeles. La desbayerización es esencialmente la restauración de colores para, después de todo, una imagen de doce megapíxeles. La creación de un píxel de color de cada cuatro aún conduciría a un deterioro en el detalle de la imagen.

    • Alex

      Me pregunto si es posible restaurar mediante programación la imagen original en blanco y negro.

      • BB

        RawDigger para ayudarte

    • Andreykr

      Una cámara con 12 megapíxeles no da una toma en blanco y negro a 12 megapíxeles, porque los subpíxeles están cubiertos con diferentes filtros de color, el resultado parece una cuadrícula y necesita mezclarse de alguna manera (no ayudará a corregir el brillo de los canales, cada filtro de color cambia el brillo de diferentes tonos), es decir, todavía se necesita la desbayerización. Y al final hay que aguantar el ruido (las consecuencias de la desbayerización). ¿Por qué? Porque hay un cambio. En este punto, disparamos con un filtro rojo y con un desplazamiento a la derecha, con uno verde. Pero estos son puntos diferentes de la imagen. Combinándolos perdemos resolución o introducimos ruido.
      Hay experimentadores que eliminaron los filtros de color de la matriz y, por lo tanto, obtuvieron imágenes REALMENTE en blanco y negro. Google: Rascar la capa de matriz de filtro de color de un sensor DSLR para obtener fotos en blanco y negro más nítidas. Después de tal manipulación, ya no es necesaria la desbayerización. Puedes hacerlo por ti mismo.

  • Alexey

    ¡Y el mío no! Tengo 600d - 18.1 megaSUBpixeles y como 17.8 megapixeles reales.

    Imagine que la lente se enfocó hasta tal punto que los granos de la imagen cayeron al tamaño de un subpíxel.
    Y habría golpeado el marco contra el cielo - alambre.

    ella caminaría un punto negro a lo largo de una fila de subpíxeles. al debair, obtenemos un degradado de 4 píxeles que cambia suavemente del color del cielo a la mitad del brillo del color de este cielo y de nuevo al color del cielo. pero nunca obtendríamos un píxel negro, porque cada píxel debay tiene un par de negros 100% y un par de claros 100%.
    al debair con un paso de +2, es decir, la pixelización sin superponer dos subpíxeles del cuadrado anterior al nuevo, obtendríamos un píxel estricto incluso un 75% sombreado cuyos vecinos son del color del cielo y es un 75% más oscuro que sus vecinos. Este es el caso ideal, pero como sabe, no existen lentes tan nítidas y una lente de ballena ordinaria con una apertura f11 puede cubrir solo 2.5 subpíxeles con su máxima nitidez. aquí, al rebajar 17 megapíxeles, obtenemos un degradado aún más difuminado. Pero si debatimos a 4.5 megapíxeles, obtenemos un píxel 100% negro en el lugar por donde pasa el cable y 100% del color del cielo alrededor. Tenemos la aproximación lineal habitual. cuando se duplica el número de píxeles reales en horizontal y en vertical y los que faltan se obtienen simplemente por interpolación. El problema se complica por el hecho de que no pude lograr 4.5 megapíxeles en Photoshop, ¡pero con un cable claramente definido en la imagen!

    Por lo tanto, la pregunta es: ¿nadie ha encontrado ningún programa que pueda hacer un tiff con 4.5 píxeles reales de un rabino que no tenga subpíxeles comunes entre ellos?

  • Oleg

    Bueno, en realidad, un píxel de matriz siempre ha significado un grupo de elementos sensibles a partir de los cuales se forma el píxel final. Por cierto, el píxel final también se muestra en la pantalla no con un punto, sino con el mismo grupo de puntos multicolores.

    • Arkadi Shapoval

      Sí, pero si el monitor tiene 1024 * 720 píxeles, entonces todos entienden que los componentes 1024 * 720 * 3RGB son los responsables de la pantalla (es decir, con una tríada por píxel real), pero aquí la situación es diferente.

      • Oleg

        ¿qué otro? la esencia es la misma, hacer una imagen que corresponda a los píxeles declarados. Y por cierto, no siempre en un monitor 3RGB

  • vencedor

    Hay algo más complicado con la matriz Bayer RGBG: dado que en el bayer el número de píxeles verdes es el doble que el resto, entonces es el canal verde el que tiene la mayor sensibilidad, el DD más amplio y el nivel de ruido más bajo. Esto crea ciertos problemas con la precisión de la medición, que a veces se pueden resolver utilizando una forma complicada de configurar manualmente el BB, teniendo en cuenta la diferencia en la sensibilidad por canal del bayer, la llamada. UniWB
    En general, es una pena que los fabricantes de CPC abandonaran la matriz RGBW: https://ru.wikipedia.org/wiki/RGBW , donde un píxel no tiene ningún filtro, es decir, "blanco". Tal matriz, por supuesto, se formó más pálida: colores de "película", pero con medición de exposición, sensibilidad, ruido y DD, las cosas serían mucho mejores.

Añadir un comentario

Copyright © Radojuva.com. Autor del blog - Fotógrafo en Kiev Arkadi Shapoval. 2009-2023

Versión en inglés de este artículo https://radojuva.com/en/2013/08/ice-cube-m/?replytocom=35911

English version de este artículo https://radojuva.com/es/2013/08/ice-cube-m/?replytocom=35911