Um dia eu me perguntei: 'Por que os arquivos RAW da minha câmera Nikon D700 pesar tão pouco?'. Enquanto procurava por uma resposta, encontrei algumas informações muito interessantes.
![Sobre pixel art](https://radojuva.com/wp-content/uploads/2013/08/about-pixels.jpg)
Sobre pixel art
Então, ao fotografar, às vezes uso o formato de arquivo RAW (a Nikon o chama de NEF - Nikon Electronic Format - formato de arquivo eletrônico da Nikon). Arquivos RAW da Nikon tem certas configurações, costumo usar profundidade de cor de 14 bits com compressão sem perdas ou sem. Em geral, os arquivos NEF descompactados de 14 bits pesam cerca de 24.4 MB. Na imagem abaixo mostrei os tamanhos dos meus arquivos em bytes.
![Tamanhos de arquivo NEF na minha câmera Nikon D700](https://radojuva.com/wp-content/uploads/2013/08/nikon-nef-file-size-d700.jpg)
Tamanhos de arquivo NEF na minha câmera Nikon D700
Como você pode ver, os arquivos são quase do mesmo tamanho. Tomemos, por exemplo, o arquivo ARK-4820.NEF, seu peso é de 25 bytes, ou 621 MB. Bytes para Megabytes são traduzidos de forma muito simples:
25 / 624 = 760
Quero chamar sua atenção para o fato de que o peso diferente dos arquivos RAW (NEF) se deve ao fato de que eles carregam não apenas informações 'raw' úteis, mas também uma pequena imagem de visualização, bem como EXIF módulo de dados. A imagem de visualização é usada para visualizar rapidamente a imagem no monitor da câmera. A câmera não requer o download de um arquivo pesado de 25 MB durante a visualização rápida, mas simplesmente tira uma imagem em miniatura e a mostra em sua tela. Essas imagens provavelmente são codificadas usando JPEG, e o algoritmo JPEG é muito flexível e requer uma quantidade diferente de informações para armazenamento para cada miniatura individual.
A profundidade de cor de 14 bits significa que cada um dos três tons codificado com 14 bits de memória. Por exemplo, quando você clica no botão 'ponto de interrogação' no item de menu correspondente da câmera Nikon D700 Você pode ler o seguinte:
As imagens 'NEF (RAW) são gravadas com profundidade de cor de 14 bits (16384 níveis). Ao mesmo tempo, os arquivos são maiores e mais precisos na reprodução das tonalidades
A cor é formada pela mistura de três tons básicos - vermelho R (Vermelho), azul B (Azul), verde G (Verde). Assim, se usarmos profundidade de cor de 14 bits, podemos obter qualquer uma das 4 cores. (qualquer um de quatro bilhões trezentos e noventa e oito bilhões quarenta e seis milhões quinhentos e onze mil cento e quatro cores).
É fácil de calcular: 16384 (R) * 16384 (G) * 16384 (B)
Na verdade, 4 bilhões é muito mais do que o necessário para a reprodução normal de cores, uma oferta tão grande de cores é usada para edição de imagem fácil. E para codificar um 'pixel' da imagem dessa maneira, seria necessário 42 bits de memória:
14 bits R + 14 bits G + 14 bits B = 42 bits
Meu Nikon D700 cria imagens de qualidade máxima 4256 por 2832 pixels, o que dá exatamente 12 pixels (cerca de 052 milhões de pixels, ou simplesmente 992 MP). Se codificar imagens do meu Nikon D700, sem o uso de algoritmos de compactação e compactação de dados e com uma profundidade de cor de 14 bits, verifica-se que você precisa usar 506 bits de informação (225 bits / pixel vezes 664 pixels). Isso é igual a 42 bytes, ou 12 MB de memória.
Pergunta: por que é calculado que cerca de 60 MB de memória são necessários para uma imagem, mas na realidade eu recebo arquivos de apenas 24.4 MB? O segredo está no fato de que o arquivo RAW original não armazena pixels 'reais', mas informações sobre os subpixels da matriz CMOS Nikon D700.
Na descrição da câmera você pode encontrar o seguinte:
![Trecho das instruções para a Nikon D700](https://radojuva.com/wp-content/uploads/2013/08/different-type-of-pixels.jpg)
Exposição das instruções para a Nikon D700
Ou seja, as instruções dizem sobre 'pixels efetivos' e sobre o 'número total' de pixels. O número de pixels efetivos é muito fácil de calcular, basta fotografar no modo JPEG L Fine e obter uma imagem de 4256 por 2832 pixels, que é igual aos 12 pixels descritos anteriormente. Se arredondarmos, obtemos o MP de 052 declarado na instrução. Mas o que é esse 'número total de pixels', dos quais há quase um milhão (992MP) a mais (12.1 MP)?
Para entender isso, basta mostrar como é o sensor da câmera sensível à luz. Nikon D700.
![Filtro bayer](https://radojuva.com/wp-content/uploads/2013/08/bayer-array.jpg)
Filtro bayer
Se você olhar de perto, a matriz Bayer não cria nenhuma imagem 'multicolorida'. A matriz simplesmente registra pontos verdes, vermelhos e azuis, com duas vezes mais pontos verdes do que pontos vermelhos ou azuis.
![pixels não reais](https://radojuva.com/wp-content/uploads/2013/08/sub-piexel.jpg)
Pixel 'não real'
Na verdade, essa matriz não consiste em pixels ('no sentido usual'), mas em subpixels ou células registradoras. Geralmente implicarque um pixel é um ponto em uma imagem que representa qualquer cor. no sensor CMOS Nikon D700 existem apenas subpixels, responsáveis apenas pelos três tons principais, com base nos quais são formados pixels 'reais' e 'multicoloridos'. A Nikon D700 tem cerca de 12 desses subpixels, chamados de pixels 'efetivos' no manual.
Não há 12 MP 'reais' no sensor Nikon D700. E os 12 MP que vemos na imagem final são o resultado de uma difícil interpolação matemática de 12.87 Mega sub-pixels!
Quando calculada a média, cada subpixel é convertido em um 'pixel' real por algoritmos. Isso acontece devido aos pixels vizinhos. Aqui está apenas escondido 'magia de rua de pixel'. Da mesma forma, 4 bilhões de cores também é o trabalho do algoritmo de desbayerização.
![Subpixels e pixels](https://radojuva.com/wp-content/uploads/2013/08/native-pixels-and-sub-piexels.jpg)
A ideia principal do artigo: sub-pixels e pixels. 12 milhões de subpixels são vendidos para nós pelo preço de 12 milhões de 'pixels reais'.
Falando muito grosseiramente, os profissionais de marketing chamaram os subpixels do filtro Bayer de 'pixels' e, assim, fizeram a substituição dos significados das palavras. Tudo está ligado ao que exatamente você precisa entender pela palavra 'pixel'.
Vamos voltar aos cálculos do volume de arquivos. Na verdade, o arquivo NEF armazena apenas 14 bits de informação para cada subpixel do filtro Bayer, que é, na verdade, a mesma profundidade de matiz. Considerando que existem 12 desses subpixels na matriz (o número é aproximado, indicado nas instruções), o armazenamento das informações obtidas deles exigirá:
12 * 870 bits = 000 bits ou 14 MB
E mesmo assim não consegui de forma alguma os 24,4 MB que observo no meu computador. Mas se adicionarmos dados de EXIF e JPEG PreviewImage, você pode obter os 24,4 MB iniciais. Acontece que o arquivo RAW também armazena:
24,4-21,48=2,92 MB de dados extras
Importante: cálculos semelhantes podem ser feitos para câmeras usando sensores CCD e arquivos RAW sem compressão - Nikon D1, D1h, D1x, D100, D200, bem como matrizes JFET (LBCAST) - Nikon D2h, D2hs. Na verdade, não há diferença É CCD ou CMOS? – ainda utilizam o filtro Bayer e subpexiles para formar a imagem.
Mas as câmeras Sigma com matrizes Foveon possuem um tamanho de arquivo RAW muito maior para os mesmos 12 MP em comparação com uma matriz CMOS que codifica um pixel real usando três pixels de cores primárias (como esperado), isso apenas confirma meu raciocínio. A propósito, outro apareceu em Radozhiv artigo interessante и mais um.
Descobertas
De fato, câmeras que usam matrizes de filtro Bayer (CCD, CMOS - não importa) não tem o número real declarado de pixels 'reais'. Na matriz existe apenas um conjunto de subpixels (elementos fotográficos) do padrão Bayer, a partir dos quais, usando algoritmos complexos especiais, são criados pixels de imagem 'reais'. Em geral, a câmera não vê uma imagem colorida, o processador da câmera lida apenas com números abstratos que são responsáveis por um determinado tom de vermelho, azul ou verde, e criar uma imagem colorida é são apenas truques de matemática. Na verdade, é por isso que é tão difícil obter a reprodução de cor 'correta' em muitos CZKs.
Materiais relacionados
- Sistemas sem espelho full frame. Discussão, escolha, recomendações.
- Sistemas sem espelho recortados. Discussão, escolha, recomendações.
- Sistemas sem espelho recortados que pararam ou estão terminando seu desenvolvimento
- Sistemas de espelhos digitais que pararam ou estão terminando seu desenvolvimento
- JVI ou EVI (um artigo importante que responde à pergunta 'espelho ou sem espelho')
- Sobre baterias sem espelho
- Formato médio simples e claro
- Soluções especialmente rápidas de marcas chinesas
- Todas as lentes de zoom de foco automático mais rápidas
- Todas as lentes prime com foco automático mais rápidas
- Full frame espelhado em formato médio sem espelho
- Impulsionadores de velocidade de foco automático
- Uma lente para dominar o mundo
- O impacto dos smartphones no mercado de fotografia
- O que vem a seguir (Supremacia do Smartphone)?
- Todos os anúncios e novidades de lentes e câmeras
Os comentários nesta postagem não requerem registro. Qualquer pessoa pode deixar um comentário.
Material preparado Arkady Shapoval.
RAV é a caixa de Pandora, e ninguém sabe o que está enfiado lá. apenas uma coisa é conhecida, tudo isso é interpolação
Bem, pelo menos os fabricantes do Capture One, Lightroom (câmera raw) e montes de conversores de código aberto têm uma ideia sobre isso.
A Nikon D700 tem cerca de 12 desses subpixels, chamados de pixels 'efetivos' no manual.
12.87 no total, 12.1 efetivos, 12.87 subpixels, 12.1 pixels.
Obrigado pela revisão, muito emocionante e interessante :) (gostei)
Seria interessante se você escrevesse essas perguntas para o escritório de representação oficial da Nikon... Arkady, você não pensou nisso?
Com CCD, como eu o entendo, as coisas são semelhantes?
Sim, não importa CCD ou CMOS, desde que haja um filtro Bayer, então todos os pixels são considerados.
“Mas as câmeras Sigma com matrizes Foveon têm um tamanho de arquivo RAW muito maior para os mesmos 12 MP em comparação com uma matriz CMOS” - não sei por que mais, mas a essência é a mesma. Eles decidiram que, como todos os fabricantes mentem, estamos em pior situação, então eles chamam suas matrizes de 4 megapixels de 12 megapixels (como há três subpixels em diferentes profundidades em um pixel, o marketing não deve permanecer em silêncio).
O ponto não é exatamente o mesmo. Existem 3 camadas, em cada camada apenas alguns subpixels (camada azul, camada verde, camada vermelha). O número de pixels para tais matrizes é escrito (por exemplo, para Sigma SD1) 15,36 milhões (4800 × 3200) × 3 camadas. Aqueles. realmente há um total de 15.36 milhões de PIXELS. E a imagem lá é muito mais nítida.
Para ter a mesma resolução em uma matriz CMOS, esta deve ter:
15.36 * 3 * 0.75 = 34.56 M SUBpixels
0.75 - fator de conversão - 3 subpixels em Foveon vs. 4 em CMOS
Sim, é a mesma coisa. “Assim como os fabricantes de fotossensores Bayer, que indicam o número de subpixels de cor única nas características das matrizes, a Foveon posiciona a matriz X3-14.1MP como “14 megapixels” (4,68 milhões de “colunas” de três sensores). Essa abordagem de marketing, quando um “pixel” é chamado de elemento que percebe uma cor, atualmente é geralmente aceita na indústria fotográfica.”
Aliás, alguém sabe qual é a estrutura do filtro Bayer que a Nikon D1X tem com sua maravilhosa matriz?
Exatamente o mesmo, RGGB, apenas os pixels não são quadrados, mas retangulares (alongados em altura).
Existe um excelente programa RawDigger (http://www.rawdigger.ru/), eu realmente não descobri, mas uma coisa muito útil para escolher corvos, com sua ajuda você pode entender que tipo de porco o fabricante plantou)))
Bem, o site de uma pessoa maravilhosa Alexei Tutubalin (http://blog.lexa.ru/) muitas coisas interessantes sobre escolher em partes iguais
artigo extremamente incomum e interessante ... obrigado!
Que reviravolta! Na minha ingenuidade, pensei que, se um pixel consiste em três células coloridas, essas células devem ter 12M por 36MP ...
Embora haja outro ponto interessante. De fato, quando visualizado em um monitor LCD, cada pixel também consiste em 3 células. Mas, ao mesmo tempo, o número real de pixels em comprimento / altura é escrito no monitor e não o número de células. O tipo que é esperto aqui são apenas fabricantes de câmeras.
Ao visualizar uma imagem de um monitor de TV, você percebe três subpixels de três cores como um pixel de alguma outra cor. São três retângulos, geralmente com uma altura igual a um pixel quadrado e uma largura de um terço desse quadrado - se você colocá-los lado a lado, você obtém apenas um quadrado.
Na câmera, a matriz consiste em um conjunto de sensores fotográficos que registram não a COR, mas a intensidade da luz. Na frente de cada sensor fotográfico há um vidro translúcido - vermelho, verde ou azul. O vidro transmite apenas 1/3 (aproximadamente) do espectro visível. Se esses filtros forem removidos, obteremos uma imagem em preto e branco limpa. Se os filtros estiverem definidos, obteremos três conjuntos de imagens em p/b, semelhantes aos canais do Photoshop. Só que eles ainda serão granulados em cima de tudo devido ao arranjo peculiar dos elementos na matriz.
A câmera estica a imagem de cada canal, insere os pixels que faltam e monta a imagem RGB deles, que o monitor nos mostra. Todos os conversores raw fazem a mesma coisa em vez de uma câmera, às vezes melhor às custas de mais poder de processamento.
Um pouco errado. Existem monitores com quatro pixels RGBW. Em AMOLED, geralmente há uma imagem terrível do tipo de comprador.
Eu tenho uma Canon 50d com 15mp e arquivos RAW variando de 13mb a 27mb.
Hmm... eu tenho uma canon 550d e também tamanhos RAW diferentes, e eles diferem bastante, de alguma forma não se encaixa com o artigo...
Isso ocorre porque a 550D usa RAW com compactação, na D700 você pode obter arquivos RAW de 10 a 25 MB da mesma forma, para isso está descrito aqui https://radojuva.com.ua/2012/08/12-bit-raw-vs-14-bit-raw/. Portanto, neste artigo, concentro-me no fato de que usei a configuração “sem compactação” no menu da câmera.
E o meu 50d então? Nele, eu sempre fotografo em RAW e é sem compressão - 14 bits.
o que deve estar errado com ele?
Bem, estou me perguntando por que todos os arquivos são de tamanhos diferentes, mas pelo que entendi, todos os arquivos são quase do mesmo tamanho.
A Canon 50d usa RAW compactado por padrão, o tamanho do arquivo de saída é diferente para cada foto individual. Se você colocar “com compactação” no d700 deste artigo, os arquivos também terão um tamanho diferente. O mesmo se aplica aos modelos inferiores da Nikon e Canon, onde você não pode definir RAW sem compactação. Essa ninharia distingue as câmeras profissionais das amadores.
Aqui está o que eu pesquisei
Os arquivos raw de câmera digital geralmente contêm:
-valores de tensão discretos dos elementos da matriz (antes da interpolação para matrizes usando matrizes de filtros de cores)
-metadados - identificação da câmera;
- metadados - uma descrição técnica das condições de disparo;
-metadata — parâmetros de processamento padrão;
- uma ou mais variantes da representação gráfica padrão ("preview", geralmente JPEG de qualidade média), processada por padrão.
Muitas vezes, um arquivo Raw também contém uma visualização jpeg bastante grande, o que aumenta o tamanho do arquivo.
Fonte: Wikipedia
http://ru.wikipedia.org/wiki/Raw_(формат_фотографий)
Arkady, você começou tão bem e terminou tão mal.
“Dado que existem 12 desses subpixels na matriz, o armazenamento das informações obtidas deles exigirá:
12 * 052 bits = 992 bits ou 14 bytes ou 168741888 MB”
Você escreveu que existem 12 subpixels, fotossensores reais.
Portanto:
12 * 870 bits = 000 bits = 14 MB. Este é o primeiro.
Segundo. Em vez de 14 bits, armazenar 2 bytes (16 bits) é um luxo que ninguém precisa. Em cada quatro subpixels, já existem dois verdes, ou seja, 28 bits é metade do tamanho de um pixel quad.
Isso é em computação gráfica, quando é usada uma representação de cores de 16 bits, 16 por 3 não é divisível uniformemente (3 componentes de cores), o último 16º bit é usado para o verde devido à maior sensibilidade do olho a essa cor.
Então (24.44-21.48) MB é usado para armazenar o que você listou (incluindo o que está descrito na Wikipedia).
No último cálculo, no início eu realmente tinha 12, mas não consigo verificar quantos deles, porque ainda usei apenas aqueles valoresque consigo ver no meu computador. A essência disso não muda muito.
De qualquer forma, 12 052 992 é um número virtual e é obtido somente após a remoção, e em RAW ainda não há remoção.
Devolvi o artigo à sua forma original, olha, está melhor?
sim. E é bom que tenham removido a afirmação de que as “coordenadas” dos subpixels devem ser armazenadas em RAW. De fato, para entender qual subpixel está codificado em um determinado local de informação binária, basta saber a ordem em que eles seguem, a largura do array Bayer e a altura. Em um loop de leitura de bits, isso é tão fácil quanto descascar peras.
Artigo é super!
Arcádia! Da mesma forma, os profissionais de marketing estão trapaceando com telas LCD nas câmeras. Por exemplo, para o meu D7000, é indicado que a tela tem 921600 pixels, parece que esta é uma resolução grande, mas na verdade a tela tem uma resolução VGA normal (640x480), e um número tão grande de pixels é obtido pela fórmula 640x480x3, onde 3 é o número de subpixels de cor
e também os próprios subpixels não ocupam toda a área da matriz, é apenas esquematicamente que eles são tão 'gordos' :)
Você está errado! A resolução da tela está correta! 921600 pontos! 1176×784px
No livro de Tom Hogan, reconhecido especialista em dispositivos Nikon "Guia Completo da Nikon D7000" nas páginas 236-237, é indicado que a tela possui resolução VGA de 640 × 480 pixels e, para ser mais preciso, um matriz de pontos 1920 × 480
boa tarde. Arkady, eu nunca tive uma câmera profissional. Pergunta: - o que realmente 14 bits de cor transmitem a imagem com muito mais precisão do que 12?
14 bits são mais adequados para processamento posterior e as imagens no monitor são indistinguíveis umas das outras. Não apenas as câmeras profissionais têm 14 bits, por exemplo, D5100, D5200 também usam profundidade de cor de 14 bits, mas apenas com compactação, mais detalhes aqui https://radojuva.com.ua/2012/08/12-bit-raw-vs-14-bit-raw/
Arkady, obrigado pelo artigo!
Tudo parece estar bem, mas na minha opinião, algo não bate ...
se a D700 tiver 12 pixels MegaSUB, então de que maneira milagrosa a imagem é formada na tela com uma resolução de 4256 por 2832 ??? se 12 fosse o número de megaSubpixels, então a resolução final teria que ser diferente!
De fato, cada ponto desses 4256 por 2832 é formado por 3(4) subpixels!
Se eu estiver errado, por favor me corrija.
Na verdade, este é o algoritmo de debairing, quando um pixel monocromático se torna colorido pela leitura de informações de pixels vizinhos. No artigo, mencionei mais de uma vez que o algoritmo de subpixels faz pixels, nos inflando de alguma forma.
No D5100, você pode desabilitar a compactação de arquivos RAW usando firmware quebrado. tenho ele desabilitado. Os arquivos são obtidos em média em 32 KB. :)
Em relação a 14 e 12 bits, o artigo:
“Os últimos 2 bits - por que eles são?”
http://www.libraw.su/articles/last-2-bits.html
Portanto, a matriz Super CCD produz cores muito melhores do que o CMOS padrão.
e a antiga Kodak oferece cores melhores do que qualquer Nikon.
Há um :)
Arkady, obrigado pelo seu trabalho, não perco um único artigo seu. Aprendi muitas coisas úteis, mais uma vez muito obrigado!
Olá. Eu também estava interessado nesta questão, e aqui está o que descobri.
Primeiro, de acordo com o algoritmo de desbayerização. Em sua essência, é bastante simples - um quadrado de subpixel 2x2 é retirado da matriz, um vermelho, um azul e dois verdes caem nele. Com base nisso, a cor do pixel é calculada. O quadrado é então deslocado para a direita em um subpixel e o RGB o insere novamente. Assim, o quadrado “percorre” toda a matriz e a saída é uma imagem com quase a mesma resolução que a matriz de subpixels. Isso é apenas simplificado, na verdade é um pouco mais complicado, e cada empresa tem seu próprio know-how para evitar distorções cromáticas, desfoque e assim por diante durante o processo de desbayerização.
Para onde vão os pixels ineficientes? Um pouco sobre isso é descrito no dpreview: http://www.dpreview.com/glossary/camera-system/effective-pixels . Resumidamente:
1. Parte dos pixels é perdida por debayerização - um pixel de cada lado. Experimente você mesmo, por exemplo, em um quadrado 4x4 (16 subpixels) existem apenas 9 quadrados 2x2 (pixels recebidos)
2. Parte dos pixels não é exposta à luz, e eles são usados para obter dados sobre o comportamento do sensor na parte apagada da matriz - iluminação da sombra, talvez o nível de ruído, algumas outras informações
3. E alguns dos sensores desaparecem devido aos recursos de design - é que a matriz acaba sendo muito grande para este modelo de câmera e parte da área não é utilizada. E fazer uma matriz separada do tamanho certo pessoalmente para esta câmera é caro.
E, em geral, se você pesquisar as frases “pixels ineficientes”, “para onde vão os pixels ineficientes”, o Google / Yandex encontrará muito mais do que pesquisar “eficaz” :)
Você também calculou mal o tamanho final do arquivo. Sim, o RAW armazena absolutamente todas as informações da matriz e na forma mais bruta. O processador da câmera lê dados de 14 bits da matriz em uma célula de memória de 2 bytes e os grava em um arquivo neste formato. Muito provavelmente - linearmente, como se lê, sem nenhum formato de arquivo especial. Assim, cada subpixel ocupa não 14 bits de dados, mas todos os 16, e o tamanho total do arquivo é 12 x 870 = 000 bytes, ou 2 megabytes. Adicione metadados aqui (condições de disparo, configurações da câmera, modelo da câmera, versão do firmware), além de uma imagem de visualização, você obtém apenas o seu 25.
Dois bytes não rolam. Você indicou que dessa forma você obtém 24,54, e isso já é mais do que meu arquivo de 24,4 MB. Onde mais adicionar metadados?
Sim, me desculpe, eu realmente perdi. Como se viu, mesmo dentro da mesma empresa, os dados podem ser empacotados em pacotes, então cada sub-pixel realmente ocupará apenas seu próprio volume, ou armazenados separadamente, então eles se expandem para dois bytes.
“Primeiro, de acordo com o algoritmo de desbayerização. Em sua essência, é bastante simples - um quadrado de subpixel 2x2 é retirado da matriz, um vermelho, um azul e dois verdes caem nele. ”
Na verdade. Mais precisamente, de jeito nenhum :) O processamento é realizado para cada plano separadamente - para vermelho, azul e verde. Ao mesmo tempo, o verde tem o dobro da resolução. A tarefa é restaurar três pixels para cada bloco vermelho e azul e dois pixels para o bloco verde.
Os algoritmos usados neste caso são muito diferentes e muitas vezes bastante complexos. Começando pelo fato de que a interpolação é realizada em blocos de tamanho maior (5x5, 7x7 pixels, não um quadrado 2x2) e terminando com cálculos baseados no componente de brilho obtido de pixels de todas as cores.
Vocês agora lembram muito uma multidão de intérpretes talmúdicos confusos discutindo sobre o significado da localização de uma letra antiga no meio de uma palavra de uma frase de algum sábio sobre algum tópico, supostamente ao reorganizar para outro lugar, é completamente muda o sentido da expressão e os acentos... Talvez alguns de vocês nem precisem fazer fotografia, né? Bem, existem pilotos de carros de corrida, e há reparadores de carros, costureiras e fabricantes de agulhas de costura ...
Camarada, por que não se esclarecer em termos técnicos e de engenharia, isso é ruim?
É impensável que um piloto profissional de corridas não entenda o que dirige e como funciona o seu aparelho.
Agora as câmeras são feitas por engenheiros com profissionais de marketing, e não por artistas e fotógrafos.
Devemos admitir que um rosto milagroso é formado em uma caixa maravilhosa por ordem de nosso Senhor Jesus Cristo? E espiritualizados por esta mensagem para continuar sua ocupação, não escurecendo a mente magra com fabricações proibidas?
Você disse bobagem! Você é uma pessoa corajosa: nem todo mundo pode facilmente “desabafar” sem sentido e não ficar nem um pouco envergonhado por isso.
Ao exorcista, urgentemente!
É exatamente isso :) Tentar fazer fotografia e geralmente nem se lembrar da configuração de luz e iluminação para fotografar é completamente estúpido - se você não “vê” o que fotografar, não há necessidade de falar sobre a ferramenta em tudo - “câmera e lente”. Entre os milhares de comentários sobre o projeto, há apenas alguns com perguntas “sobre a luz” e nenhuma resposta sensata para eles.
Eu não entendi nada
“Mas o que são esses 'pixels efetivos', dos quais há quase um milhão (1 MP) a mais (12,87 MP)?”
Talvez o número total de pixels, e não eficaz nesta proposta foi feito?
Obrigado pelo artigo. Fez um ponto importante. A desbayerização é essencialmente interpolação. E a interpolação não faz milagres, novas informações não são retiradas de lugar nenhum. Aqueles. na verdade, podemos reduzir uma foto jpg, bmp (não raw) em 2 vezes em largura e comprimento e, assim, reduzir os arquivos de fotos em cerca de 4 vezes, enquanto ela conterá a mesma quantidade de informações que a original.
Aqueles. todas essas introduções por comerciantes, além de números inflacionados, levam a um aumento artificial do tamanho do arquivo e, como resultado, ao custo de novos discos rígidos, pen drives, cartões de memória, novos computadores (arquivos grandes são mais difíceis de processar ), trafego na internet, etc. .
Debayerização e interpolação não são a mesma coisa. Sim, há menos informações de cor do que no arquivo final, mas todos os pixels ainda coletam informações de luminância. Os fabricantes usam algoritmos de recuperação que são mais complicados do que “aumento de 2x”, então não é tão fácil dizer que 4 pixels formam um final, tudo é muito mais complicado. Tendo reduzido, como você diz, a imagem em 2 vezes, você não restaurará por interpolação o que a câmera produziu após a desbayerização. Sim, a nitidez na imagem reduzida será maior, mas isso não significa que conseguimos isso sem perda de informações.
Pelo fato de que desbayerização não é o mesmo que interpolação. Digamos que a matriz fotik contenha 10 * 10 células, isto é 100 bytes de informação. Eles fazem uma foto RGB com isso, já contendo 10 * 10 * 3 = 300 bytes de informação. Onde a desbayerização obteve 200 bytes de novas informações sobre o assunto? Ela o interpolou dos 100 bytes originais, é apenas habilmente velado. Esses 200 bytes não podem conter nenhuma informação nova sobre o objeto que está sendo capturado.
Tente compactar qualquer foto em 2 vezes e depois restaurar seu tamanho original, por exemplo, com inerpolação bilinear (o xnview pode fazer isso). Você vê uma forte diferença entre o original e este?
Para começar, estude, pelo menos aproximadamente, algoritmos de desbayerização, e depois fale sobre o fato de que a câmera veio com 200 bytes de informação. Ela não inventou esses 200 bytes, mas os calculou e restaurou com base nos dados de todos os pixels. Se a câmera fez debayerização. reduzir a resolução resultaria em alguma perda de detalhes.
Se eu reduzir a foto em 2 vezes e depois aumentá-la, haverá uma diferença. E quanto melhor a câmera e a ótica, maior será a diferença (claro, um quadro de 16 megapixels de uma saboneteira será indistinguível mesmo quando redimensionado em 4 vezes, mas não estamos falando disso).
Além disso, não se esqueça do ruído e do mesmo JPEG, em que todas as saboneteiras e muitas SLRs são filmadas - ali, compactar uma imagem de resolução mais baixa levará a uma maior perda de detalhes, você pode verificar salvando 2 -fold imagem em JPEG e, em seguida, aumentando-a de volta.
>> Ela não inventou esses 200 bytes, mas calculou, restaurou com base nos dados de todos os pixels
Isso é o que é interpolação. Posso tirar qualquer foto e não inventá-la, mas calcular e restaurar qualquer número de pixels por interpolação bilinear. O único sentido desses pixels é 0. Sabemos sobre o objeto apenas 100 bytes, e os 200 restantes são nossas suposições sugadas do dedo.
>>Se a câmera fizesse a desbayerização reduzindo a resolução, isso levaria a alguma perda de detalhes.
Então, em vez de 10 * 10, você obtém 5 * 5 * 3 = 75 bytes, ou seja, 25 bytes seriam perdidos. Aqueles. 2 canais de verde seriam em média em um, a perda é pequena. Claro, é mais legal para um profissional de marketing inflar o tamanho para 300 bytes.
É possível traduzir uma matriz de células 10*10 em uma foto 10*10*3 honestamente, de modo que cada pixel seja da mesma cor da célula, ou seja, em cada pixel, apenas o subpixel vermelho, apenas verde ou apenas azul estaria aceso, e os outros 2 estariam desligados. Essa foto, embora leve 300 bytes, armazena apenas 100, os 200 restantes são zeros vazios. Mas esta é uma tradução honesta. Então faça o que quiser com isso, pelo menos desbayerização, pelo menos interpolação. Mas então a decepção será muito óbvia, ampliei a foto e lá cada pixel é apenas um tom. Portanto, os fabricantes realmente desfocam um pouco essa foto, e cada pixel é calculado em média com seu vizinho, e eles chamam isso de debayerização, embora isso nem seja interpolação, mas desfoque estúpido. Agora vemos pixels de todos os tons e o engano não é óbvio. Assim como na foto havia 100 bytes de informações úteis, os 200 restantes são lixo.
Sim, várias pessoas já estão explicando a mesma coisa para você, e você está por sua conta, lixo e tudo :)
Aprenda como a desbayerização realmente funciona ou redimensione suas fotos por um fator de 4 e continue pensando que você não tem nada a perder. Posso aconselhá-lo a comprar um telefone Nokia 808 PureView, há exatamente o que combina com você - uma matriz de 41 megapixels, mas a ênfase não está na resolução, mas na alta qualidade das imagens de 8 megapixels combinando pixels vizinhos. É aí que estarão os megapixels mais honestos para você :)
inundar o fabricante com alegações de falsificação) nem um único juiz ligará o tópico ... e o artigo é forte, faz você pensar.
E onde, exatamente, a falsificação? :)
12 megapixels estão escritos na câmera, também existem cerca de 12 milhões de células sensíveis à luz, a imagem também contém 12 milhões de pontos - tudo corresponde ao declarado.
tudo é muito interessante e informativo, muito obrigado ao autor por seu trabalho, e que tudo em sua vida seja vari-bom