Um dia eu me perguntei: 'Por que os arquivos RAW da minha câmera Nikon D700 pesar tão pouco?'. Enquanto procurava por uma resposta, encontrei algumas informações muito interessantes.
Então, ao fotografar, às vezes uso o formato de arquivo RAW (a Nikon o chama de NEF - Nikon Electronic Format - formato de arquivo eletrônico da Nikon). Arquivos RAW da Nikon tem certas configurações, costumo usar profundidade de cor de 14 bits com compressão sem perdas ou sem. Em geral, os arquivos NEF descompactados de 14 bits pesam cerca de 24.4 MB. Na imagem abaixo mostrei os tamanhos dos meus arquivos em bytes.
Como você pode ver, os arquivos são quase do mesmo tamanho. Tomemos, por exemplo, o arquivo ARK-4820.NEF, seu peso é de 25 bytes, ou 621 MB. Bytes para Megabytes são traduzidos de forma muito simples:
25 / 624 = 760
Quero chamar sua atenção para o fato de que o peso diferente dos arquivos RAW (NEF) se deve ao fato de que eles carregam não apenas informações 'raw' úteis, mas também uma pequena imagem de visualização, bem como EXIF módulo de dados. A imagem de visualização é usada para visualizar rapidamente a imagem no monitor da câmera. A câmera não requer o download de um arquivo pesado de 25 MB durante a visualização rápida, mas simplesmente tira uma imagem em miniatura e a mostra em sua tela. Essas imagens provavelmente são codificadas usando JPEG, e o algoritmo JPEG é muito flexível e requer uma quantidade diferente de informações para armazenamento para cada miniatura individual.
A profundidade de cor de 14 bits significa que cada um dos três tons codificado com 14 bits de memória. Por exemplo, quando você clica no botão 'ponto de interrogação' no item de menu correspondente da câmera Nikon D700 Você pode ler o seguinte:
As imagens 'NEF (RAW) são gravadas com profundidade de cor de 14 bits (16384 níveis). Ao mesmo tempo, os arquivos são maiores e mais precisos na reprodução das tonalidades
A cor é formada pela mistura de três tons básicos - vermelho R (Vermelho), azul B (Azul), verde G (Verde). Assim, se usarmos profundidade de cor de 14 bits, podemos obter qualquer uma das 4 cores. (qualquer um de quatro bilhões trezentos e noventa e oito bilhões quarenta e seis milhões quinhentos e onze mil cento e quatro cores).
É fácil de calcular: 16384 (R) * 16384 (G) * 16384 (B)
Na verdade, 4 bilhões é muito mais do que o necessário para a reprodução normal de cores, uma oferta tão grande de cores é usada para edição de imagem fácil. E para codificar um 'pixel' da imagem dessa maneira, seria necessário 42 bits de memória:
14 bits R + 14 bits G + 14 bits B = 42 bits
Meu Nikon D700 cria imagens de qualidade máxima 4256 por 2832 pixels, o que dá exatamente 12 pixels (cerca de 052 milhões de pixels, ou simplesmente 992 MP). Se codificar imagens do meu Nikon D700, sem o uso de algoritmos de compactação e compactação de dados e com uma profundidade de cor de 14 bits, verifica-se que você precisa usar 506 bits de informação (225 bits / pixel vezes 664 pixels). Isso é igual a 42 bytes, ou 12 MB de memória.
Pergunta: por que é calculado que cerca de 60 MB de memória são necessários para uma imagem, mas na realidade eu recebo arquivos de apenas 24.4 MB? O segredo está no fato de que o arquivo RAW original não armazena pixels 'reais', mas informações sobre os subpixels da matriz CMOS Nikon D700.
Na descrição da câmera você pode encontrar o seguinte:
Ou seja, as instruções dizem sobre 'pixels efetivos' e sobre o 'número total' de pixels. O número de pixels efetivos é muito fácil de calcular, basta fotografar no modo JPEG L Fine e obter uma imagem de 4256 por 2832 pixels, que é igual aos 12 pixels descritos anteriormente. Se arredondarmos, obtemos o MP de 052 declarado na instrução. Mas o que é esse 'número total de pixels', dos quais há quase um milhão (992MP) a mais (12.1 MP)?
Para entender isso, basta mostrar como é o sensor da câmera sensível à luz. Nikon D700.
Se você olhar de perto, a matriz Bayer não cria nenhuma imagem 'multicolorida'. A matriz simplesmente registra pontos verdes, vermelhos e azuis, com duas vezes mais pontos verdes do que pontos vermelhos ou azuis.
Na verdade, essa matriz não consiste em pixels ('no sentido usual'), mas em subpixels ou células registradoras. Geralmente implicarque um pixel é um ponto em uma imagem que representa qualquer cor. no sensor CMOS Nikon D700 existem apenas subpixels, responsáveis apenas pelos três tons principais, com base nos quais são formados pixels 'reais' e 'multicoloridos'. A Nikon D700 tem cerca de 12 desses subpixels, chamados de pixels 'efetivos' no manual.
Não há 12 MP 'reais' no sensor Nikon D700. E os 12 MP que vemos na imagem final são o resultado de uma difícil interpolação matemática de 12.87 Mega sub-pixels!
Quando calculada a média, cada subpixel é convertido em um 'pixel' real por algoritmos. Isso acontece devido aos pixels vizinhos. Aqui está apenas escondido 'magia de rua de pixel'. Da mesma forma, 4 bilhões de cores também é o trabalho do algoritmo de desbayerização.
Falando muito grosseiramente, os profissionais de marketing chamaram os subpixels do filtro Bayer de 'pixels' e, assim, fizeram a substituição dos significados das palavras. Tudo está ligado ao que exatamente você precisa entender pela palavra 'pixel'.
Vamos voltar aos cálculos do volume de arquivos. Na verdade, o arquivo NEF armazena apenas 14 bits de informação para cada subpixel do filtro Bayer, que é, na verdade, a mesma profundidade de matiz. Considerando que existem 12 desses subpixels na matriz (o número é aproximado, indicado nas instruções), o armazenamento das informações obtidas deles exigirá:
12 * 870 bits = 000 bits ou 14 MB
E mesmo assim não consegui de forma alguma os 24,4 MB que observo no meu computador. Mas se adicionarmos dados de EXIF e JPEG PreviewImage, você pode obter os 24,4 MB iniciais. Acontece que o arquivo RAW também armazena:
24,4-21,48=2,92 MB de dados extras
Importante: cálculos semelhantes podem ser feitos para câmeras usando sensores CCD e arquivos RAW sem compressão - Nikon D1, D1h, D1x, D100, D200, bem como matrizes JFET (LBCAST) - Nikon D2h, D2hs. Na verdade, não há diferença É CCD ou CMOS? – ainda utilizam o filtro Bayer e subpexiles para formar a imagem.
Mas as câmeras Sigma com matrizes Foveon possuem um tamanho de arquivo RAW muito maior para os mesmos 12 MP em comparação com uma matriz CMOS que codifica um pixel real usando três pixels de cores primárias (como esperado), isso apenas confirma meu raciocínio. A propósito, outro apareceu em Radozhiv artigo interessante и mais um.
Descobertas
De fato, câmeras que usam matrizes de filtro Bayer (CCD, CMOS - não importa) não tem o número real declarado de pixels 'reais'. Na matriz existe apenas um conjunto de subpixels (elementos fotográficos) do padrão Bayer, a partir dos quais, usando algoritmos complexos especiais, são criados pixels de imagem 'reais'. Em geral, a câmera não vê uma imagem colorida, o processador da câmera lida apenas com números abstratos que são responsáveis por um determinado tom de vermelho, azul ou verde, e criar uma imagem colorida é são apenas truques de matemática. Na verdade, é por isso que é tão difícil obter a reprodução de cor 'correta' em muitos CZKs.
Materiais relacionados
- Sistemas sem espelho full frame. Discussão, escolha, recomendações.
- Sistemas sem espelho recortados. Discussão, escolha, recomendações.
- Sistemas sem espelho recortados que pararam ou estão terminando seu desenvolvimento
- Sistemas de espelhos digitais que pararam ou estão terminando seu desenvolvimento
- JVI ou EVI (um artigo importante que responde à pergunta 'espelho ou sem espelho')
- Sobre baterias sem espelho
- Formato médio simples e claro
- Soluções especialmente rápidas de marcas chinesas
- Todas as lentes de zoom de foco automático mais rápidas
- Todas as lentes prime com foco automático mais rápidas
- Full frame espelhado em formato médio sem espelho
- Impulsionadores de velocidade de foco automático
- Uma lente para dominar o mundo
- O impacto dos smartphones no mercado de fotografia
- O que vem a seguir (Supremacia do Smartphone)?
- Todos os anúncios e novidades de lentes e câmeras
Os comentários nesta postagem não requerem registro. Qualquer pessoa pode deixar um comentário.
Material preparado Arkady Shapoval.
vou resolver mesmo assim :)
milhão = 10^6
bilhão = 10^9, bilhão também = 10^9, apenas o primeiro nome é tradicional e aceito em russo, e o segundo é científico e internacional.
trilhão = 10^12
mas o número 4 é quatro trilhões trezentos e noventa e oito bilhões (bilhões) quarenta e seis milhões quinhentos e onze mil cento e quatro.
Bem, com certeza: um show de esquizofrenia matemática! De FMTI a entusiastas da fotografia! Em breve, os matemáticos construirão um modelo de nariz escorrendo e calcularão o número provável de espirros em função da massa inerte de muco... Vamos viver rica e feliz!
Sem os matemáticos e suas obras, suspeito fortemente que ainda teríamos que fazer pintura rupestre. Bem, ou pintar com tintas a óleo.
Filtros Bayer e interpolação são uma das poucas maneiras de obter imagens de uma matriz. Se contarmos quatro subpixels como um pixel, obteremos uma imagem com metade do tamanho em altura e largura. Mas, ao mesmo tempo, perderemos essa parte insignificante das informações obtidas com o uso misto de diferentes canais, incluindo informações de brilho duplicado de dois subpixels verdes.
Quatro subpixels não podem ser considerados como um pixel, pois cada um contém informações diferentes, mesmo com a presença de um filtro.
Por que você conta 3 subpixels RGB como um em um monitor? Lá, também, cada um tem informações diferentes. Na Bayer, a diferença é mais um subpixel verde, o que, em teoria, deveria aumentar a clareza em detrimento da cor.
Além de Alexandre
Verde, um pixel adicional é criado para aumentar a sensibilidade ao verde.
Acontece que uma pessoa é quase indiferente ao azul e precisa mais do verde.
Existe tal coisa, sensibilidade espectral: EY = 0,30ER + 0,59 EG + 0,11EB
Na verdade, em computadores, 16 bits de cor são codificados como 565 (RGB) bits por pixel, um bit fornece uma faixa de medição duas vezes maior. O que quase cai na fórmula acima.
Para não nos incomodar muito com a matemática, criamos mais um pixel adicional, que também é tecnologicamente mais fácil - tornar todos os pixels iguais.
Portanto, 4 pixels (RGBRG) facilmente se transformam em 0,30ER + 0,59 EG + 0,11EB e depois em RGB.
Isso mesmo, não fotógrafos, mas receptores de imagens, gravadores de fotos, consumidores de informações de cores, contadores de pixels... Você já tentou contar o número de pinceladas nas pinturas de Leonardo? Olá!! O trabalho é um mar, e o cérebro está no negócio, não seca...
Jovem, é melhor invejar o cérebro em silêncio e, ao mesmo tempo, é melhor estudar para diminuir a lacuna, e a inveja diminui
Então eu quero inserir meus “5 centavos” :)
-
1) Em primeiro lugar, espero que depois que todos tenham aprendido sobre os mecanismos de desbayerização, nada mude em suas vidas: eles não vão começar a se livrar massivamente das câmeras digitais, apagar suas fotos favoritas, lembrar do suicídio (“Ah, como eu poderia suportar tal engano todo esse tempo?”), etc.
-
2) Em segundo lugar, alguém perguntou aos fabricantes de câmeras o que eles querem dizer com “PIXEL”? Por que todos os que estão aqui reunidos têm certeza de que foram enganados, enganados, jogados? A Nikon ou a Canon nos convenceram de que estamos falando de RGB, RGBG ou algum outro pixel multicanal? Somos informados sobre o número de células na matriz como um todo (pixels totais) e quantas combinações ÚNICAS (ou seja, o que se tornará pixels na tela) câmeras e software coletam dessas células (pixels efetivos).
-
3) Em terceiro lugar, não estamos falando em preencher alguns vazios com médias inexistentes (interpolação) ou dados previstos (extrapolação). Estamos falando do fato de que os subpixels durante a desbayerização podem ser combinados de diferentes maneiras. E cada combinação é única, o que significa que pode se tornar um pixel da tela.
-
4) Em quarto lugar, ainda é muito bom que eles ainda não tenham levantado o tópico de como esses pixels que aparecem de maneira incompreensível são exibidos de maneira diferente em telas diferentes, e ainda mais - como um raster impresso é formado a partir deles! :)
-
Tudo, “5 copeques” inseridos, corro para tirar fotos, senão sinto que estou perdendo um tempo precioso.
Assino cada centavo :)
seus 5 copeques são exatamente 4.
Vocês também fabricam câmeras? ))
Estou pensando sobre isso :).
E as aspas são necessárias para isso, para que uma coisa possa ser chamada por outra.
Bem, pelo menos uma pessoa educada.
O que está descrito no artigo não é novidade, mas para os interessados, e principalmente para os físicos, é uma verdade há muito conhecida. A maneira como é feito é a única decisão certa. O que você gostaria? Para cada pixel vir de uma tríade RGB? E esse povo depois disso declara que 36 megapukeles em uma safra é muito? Qual seria o tamanho das microlentes se cada pixel fosse formado por três elementos sensíveis? Aprenda o material e então você não ficará surpreso com o estado real das coisas. O fabricante apenas cuida de nós, tornando o pixel “ousado” e não há engano aqui.
>>A forma como é feito é a única decisão certa
Por que é correto? O fato de suas fotos começarem a pesar mais, e o número de megapixels exagerados é mais legal.
>> O fabricante apenas cuida de nós, tornando o pixel "negrito" e não há engano aqui.
Santa inocência. O fabricante é um burguês que se preocupa apenas com seu próprio lucro e nada mais. Por exemplo, os profissionais de marketing abatem programaticamente alguns chips, forçando-os a comprar modelos mais caros. Eles substituem os termos para que os números sejam maiores, silenciando que esse termo foi substituído.
Pixels não são nada exagerados, mas reais!!! Para reivindicar pixels inchados, aprenda a combinar primeiro!!! Eu realmente queria dizer palavras desagradáveis com essas palavras, mas vou me conter. Sim, você seria o primeiro a uivar sobre o limiar de difração, falta de nitidez e ruído enorme, devido à área mínima de elementos fotossensíveis, se cada pixel fosse formado por três sensores. Lembre-se: um elemento fotossensível maior coleta mais fótons, portanto, ruído reduzido, limiar de difração mais baixo, melhor nitidez.
Você está certo sobre o tamanho do elemento, mas isso não torna o deb diferente do blur. A dívida é essencialmente um borrão banal. De um sensor 10*10, obterei 100 bytes de informação sobre o objeto. Se você fizer uma foto 10 * 10, isso significa 300 bytes (3 bytes por pixel). Onde você conseguiu 200 bytes de novas informações sobre o objeto? E você fez a média dos pixels vizinhos, isso é um borrão banal.
Experiência de pensamento. Tiramos uma foto, digamos 100x100 (de preferência mais nítida). E na grade Bayer em cada pixel, deixamos apenas 1 subpixel e extinguimos os 2 subpixels restantes. Você pode usar a desbayerização desta foto para obter a imagem original? Você pode me dizer qual era o brilho dos subpixels extintos em cada pixel? Você não vai dizer com certeza, você vai manchar o máximo dos vizinhos.
Sobre o material, você explode suas bochechas. Se você não concordar, dê argumentos, e agitar o ar vazio é inútil.
A mesma quantidade de informação de um arquivo RAW pode ser analisada e interpretada de diferentes maneiras. Com qualidade, velocidade, precisão diferentes, dependendo das tarefas. E muito vai depender disso.
-
Tire algumas fotos RAW difíceis através de diferentes conversores: modernos e com dez anos. Sinta a diferença de ruído, detalhe, cor. Aumentamos a quantidade de informações iniciais? Não, acabamos de aprender a trabalhar melhor com ele e obtivemos uma versão muito mais interessante como resultado.
O fabricante é um burguês que tem bons revisores, advogados, advogados, marqueteiros e outras pessoas inteligentes em sua equipe. Portanto, o fabricante SABE EXATAMENTE o que ele chama com a palavra “pixel”. E se isso não coincide com a minha, a sua ou outras opiniões, esses já são nossos problemas.
-
Não há engano, há uma palavra em que pessoas diferentes colocam significados diferentes.
Para você, por exemplo, um pixel é um ponto visível na tela, cujas características são descritas pelos componentes de brilho dos canais RGB.
Para, digamos, uma impressora, este é um ponto condicional que mal tenta ser exibido na tela após a conversão como um pixel RGB, mas na verdade possui 4 canais (CMYK).
Os fabricantes de câmeras específicas em relação a matrizes específicas têm seu próprio entendimento do pixel.
-
Não existe uma única solução correta para o que deveria ser chamado de “pixel” ou “subpixel”. Cada um tem sua opinião sobre este assunto. É importante que todos nós, discutindo calorosamente este tópico, agora entendamos a ordem das coisas e possamos chamar os bois pelos nomes.
Tanto na tela quanto na impressão, um pixel é uma parte elementar de uma imagem que pode ser de qualquer cor, não apenas vermelho, azul ou verde. Os fabricantes de câmeras interpretam o termo pixel não como todo mundo, mas porque é mais lucrativo para eles. E os fabricantes de gigabytes de discos rígidos são 10E9 bytes, não 1024 * 1024 * 1024. Porque é mais benéfico para eles.
Isso mesmo - na mosca
O prefixo “giga-” na ISO significa 10 à nona potência e nada mais.
Você está confundindo “gibi-” com “giga-“.
Saiba mais sobre prefixos binários:
http://ru.wikipedia.org/wiki/%D0%94%D0%B2%D0%BE%D0%B8%D1%87%D0%BD%D1%8B%D0%B5_%D0%BF%D1%80%D0%B8%D1%81%D1%82%D0%B0%D0%B2%D0%BA%D0%B8
Quero dizer, de acordo com SI e JEDEC :)
Vadim, a verdade está completamente do seu lado. Eu, por sua vez, nem imaginava que tanta gente nem representasse o processo de coleta de informações da matriz. Achei que todos os fotógrafos digitais já entendem esse processo. E acontece...
Bem, é claro, um pixel pode ser de qualquer cor. Apenas esta cor precisa ser designada de alguma forma. Pixels monocromáticos (não necessariamente branco-cinza-preto) podem ser descritos por um canal, pixels coloridos por três ou mais, e podem ser representados de diferentes maneiras (HSL, LAB, RGB, CMYK, etc.).
Os fabricantes de câmeras listam o número total de pixels monocromáticos (que transportam informações em um canal, independentemente do canal).
Os pixels na tela são multicanais (ou seja, nós os percebemos como tal). Quantos canais existem, se existem subpixels, depende da tecnologia de imagem.
E na impressão colorida, os pixels também são multicanais. E canais, geralmente, pelo menos um a mais do que quando exibido na tela. E também depende da tecnologia de impressão.
-
Aqueles. pixels são diferentes. Compreender esta tese simples tornará a vida mais fácil.
Leia aqui http://www.cambridgeincolour.com/ru/tutorials/camera-sensors.htm , apenas pensativo, muito inteligível pintado.
http://arttower.ru/wiki/index.php?title=%D0%A4%D0%B8%D0%BB%D1%8C%D1%82%D1%80_%D0%91%D0%B0%D0%B9%D0%B5%D1%80%D0%B0
Aqui no final está um exemplo com um ganso. E no final escrevem:
Como você pode ver na imagem, esta imagem ficou mais borrada do que a original. Este efeito está associado à perda de algumas informações como resultado da operação do filtro Bayer.
Aqueles. O filtro Bayer não restaura as informações originais em 100%! ele interpola (mancha) de pixels vizinhos.
Exemplo maluco :)))
E a imagem original sem desbayerização? Ou filmado e depois digitalizado?
Ninguém diz: vamos filmar em três-quatro-... matrizes ao mesmo tempo, obter pixels multicanais verdadeiros, compará-los com as miseráveis "grades Bayer" - e, tipo, sentir a diferença.
Nesta discussão épica, as pessoas estão tentando transmitir apenas algumas teses:
1) QUALQUER informação sobre QUALQUER objeto restaurado de QUALQUER fonte não é original e tem uma qualidade discreta. Conclusão: vá a shows ao vivo, viaje, assista ao pôr do sol ao vivo, cheire flores, aproveite cada colherada de borscht, ame seus entes queridos, etc.
2) se você não é engenheiro (por natureza), mas fotógrafo (por vocação, ou tem um hobby), preocupe-se menos com os detalhes técnicos profundos do processo de tirar uma foto (como as células do sensor são carregadas, etc.) .). Deixe os engenheiros pensarem sobre isso. Conclusão: pratique, melhore suas habilidades. O ferro vai melhorar com o tempo. E se você se torna melhor é com você.
3) para não se sentir enganado, especifique as coisas que lhe interessam. As pessoas muitas vezes chamam a mesma coisa de forma diferente, ou vice-versa, colocam significados diferentes nas mesmas palavras. Conclusão: a capacidade de encontrar uma linguagem comum ajuda na loja, no trabalho e na vida familiar.
4) a verdade nasce nas disputas. Não estamos aqui para inundar a página de Arkady ou descobrir quem é mais esperto. Dei uma nova olhada em alguns aspectos da obtenção e análise de uma imagem. Isso é interessante para mim, porque. Eu sou um oftalmologista. Alguém a partir deste dia começará a usar corretamente os prefixos “kilo-“, “giga-“, “kibi-“, “gibi-“. Conclusão: discussões construtivas fazem do mundo um lugar melhor :)
Eu não sabia do Gibi. Acontece que o Windows não mostra de acordo com o padrão, quem diria.
By the way, sim, por causa da Microsoft, muitos têm cuspido em conformidade com os padrões. Também fiquei sabendo disso recentemente.
Para ser honesto, eu absolutamente não me importo como eles são chamados e funcionam. Não posso influenciá-lo. E estamos falando do espectro visível... com nossos olhos flexíveis e ao mesmo tempo muito imperfeitos. Todos nós vemos e avaliamos de forma diferente. Figley então enche a cabeça de bobagens. E vai começar agora: você tem a matriz errada, você tem “granadas do sistema errado”...
Não acho que alguém me enganou ou me enganou... estou mais preocupado em comprar outra carcaça ou vidro :), viagens a diferentes lugares interessantes... e para que meus olhos miseráveis tenham tempo de ver o suficiente da beleza .
Acho que entendi o motivo da dívida:
1. Para o fabricante, um número de megapixels mais atraente, bem, isso é compreensível.
2. Agora, o requisito para a câmera fornecer a mais alta qualidade de imagem jpg pronta na saída. E para que o usuário não precise se preocupar com filtros. Aqueles. se você precisar aplicar algum tipo de filtro para melhorar a qualidade aparente da foto, então a câmera deve fazer isso sozinha, e não deixar para o usuário. Aqui ele recebeu uma matriz de valores10*10. Claro, existem apenas 100 bytes de informação inicial, e quem precisa deles é bruto. E quem precisa de uma foto finalizada, a câmera aumentará a resolução real em 2 * 2 \u4d 10 vezes interpolando os pixels ausentes (deb-tion), adicionará nitidez, cores corretas e outra coisa. O resultado final é uma foto da melhor qualidade visível. Sim, se você fizer uma foto 10x5 a partir de uma matriz 5 * 1 corretamente, não haverá informações exageradas, mas ficará muito pior. Aqueles. para mim, concluí isso, a partir dos pixels escritos na câmera 4/XNUMX são reais, e o resto são interpolados. Talvez isso não seja ruim, mas a qualidade visível é importante para as pessoas, e como ela é realmente obtida, tomada ou interpolada, não é importante para elas.
Não entendido. Pegue uma imagem RAW, reduza-a pela metade e, em seguida, aumente-a para o tamanho original. E então compare os pixels inchados desbayerizados com seus pixels honestos. O exemplo não está totalmente correto, mas algumas conclusões ainda podem ser tiradas.
O filtro Bayer é uma solução de engenharia inteligente que permite usar de forma otimizada a área da matriz. Uma “decisão justa” é pegar um quadrado, colocar três sensores R, G, B nele (deixar um canto vazio), calcular a média de tudo para um pixel e obter uma imagem com lados de 4000x3000 de uma matriz de 2000x1500 pixels. Basta adicionar outro sensor verde ao canto “vazio” e obteremos “extra” 60% das informações de brilho (a contribuição do canal verde é de 60%, 30% - vermelho, 10% - azul). Você pode simplesmente jogá-lo fora ou “misturar” com a ajuda de um tapete. transformações (mais complexas do que a simples interpolação linear ou mesmo cúbica) à imagem, obtendo uma resolução de brilho muito maior.
>>Pegue a imagem obtida do RAW
Onde obtê-lo? Qualquer conversor dá já processado.
http://arttower.ru/wiki/index.php?title=%D0%A4%D0%B8%D0%BB%D1%8C%D1%82%D1%80_%D0%91%D0%B0%D0%B9%D0%B5%D1%80%D0%B0
Aqui está uma foto de um ganso. É como o objeto original. Eles fizeram uma matriz Bayer disso, ou seja, qual seria a matriz de uma câmera ideal com uma lente ideal. Em seguida, a dívida foi aplicada a esta matriz, ou seja, como uma câmera faria. A foto resultante não é igual à original! Não igual! Agora, se o fotik tivesse pixels rgb honestos, a imagem original teria ficado sem d-tions. E então este é um simples desfoque, que é visível ao comparar as fotos originais e finais do ganso.
Sim, d-tion é provavelmente uma transformação um pouco mais complexa do que a simples interpolação linear ou cúbica, mas isso não significa que não seja interpolação. D-tion é uma interpolação real. Do wiki:
Interpolação, interpolação - em matemática computacional, uma maneira de encontrar valores intermediários de uma quantidade a partir de um conjunto discreto existente de valores conhecidos.
Isto é.
> A foto resultante não é igual à original!
Alguém afirma o contrário?
Se você agir “honestamente”, como pede, precisará cegar um de cada conjunto de quatro pixels, e não quatro, como o algoritmo de desbayerização faz. Como resultado, sua imagem será duas vezes menor em largura e altura. E se você ampliá-lo para corresponder ao tamanho da imagem original, o resultado após a desbayerização ficará MUITO melhor, porque foi obtido usando as informações que você se propõe a descartar.
O filtro Bayer permite organizar os elementos fotossensíveis na forma de uma grade, o uso de dois pixels verdes em vez de um aumenta a resolução e fornece informações extras para melhor transmissão de tons de verde (e indiretamente brilho).
Você pode organizar elementos uns sobre os outros, existem essas matrizes. Ondas de diferentes comprimentos penetram em diferentes profundidades, então você pode obter três vezes mais informações de um “pixel geométrico”, mas nem tudo é suave lá também. É possível dividir o fluxo de luz em três e direcionar a luz para três matrizes diferentes, mas isso é caro e complicado.
Se você tirar quase qualquer foto (especialmente de baixa resolução) e aumentar sua resolução 2*2 vezes por interpolação bilinear, também ficará MUITO melhor sem o 4º canal. Mas isso não é motivo para fazer isso com todos os arquivos aumentando seu tamanho em 4! vezes.
Sim, como escrevi acima, o requisito agora para as câmeras parece ser este: a câmera deve produzir uma foto jpg finalizada da mais alta qualidade possível, tendo feito todos os filtros possíveis por conta própria. O tamanho da foto não importa. Como ele é obtido a partir de pixels reais ou exagerados não é tão importante.
Aqui está algo que Oleg não consegue entender de forma alguma, como os pixels de canal único (monocromáticos) diferem dos multicanais (coloridos). E não há nada que você possa fazer sobre isso...
-
Assim, a interpolação como média não tem nada a ver com isso. A desbaiirização não é a média, mas a obtenção de um pixel multicanal de um grupo de pixels monocromáticos.
-
Nesse caso, é claro, é necessário usar todas as combinações possíveis de grupos, pois isso fornecerá mais informações REAIS do que usar cada pixel monocromático apenas uma vez e depois fazer o upscaling.
-
E esse ganso é estúpido... As pessoas pegaram uma imagem de um conjunto de pixels RGB, cortaram para monocromático, ou seja. eles jogaram fora 2 canais (2/3 da informação), e então eles dizem: “Você vê, a imagem é degradante”. CLARO, é degradante, resta apenas um terço da informação! E somente graças à desbaiirização, essa imagem ainda pode ser visualizada.
Sim, as pessoas jogaram fora 2/3 das informações. Bem, a câmera também não pega 2/3 da informação, digamos que o componente verde da luz que atinge a célula vermelha ou azul simplesmente desaparece. Tudo está correto com o ganso.
E qual você acha que é a maneira certa de fazer um exemplo de um ganso? Pense por si mesmo, há uma foto de um ganso, digamos 100 * 100 * 3 = 300 bytes, a matriz Bayer levará apenas 100 bytes. Como não torcer de 100 bytes você não receberá de volta os mesmos 300. Não concordo? não tem problema, vamos fazer o ganso do jeito que você quiser. Explique como.
Jogar fora e não tirar são duas coisas diferentes. Esses pixels monocanal carregam informações sobre apenas um canal. Mas eles não deixam de ser pixels. E não nos prometeram nenhum pixel específico. Eles prometeram pixels - eles deram pixels. Mas o que são esses pixels e como eles diferem dos da tela, graças a você, descobrimos e “mastigamos” em grande detalhe.
Em geral, sim. Em nenhum lugar está escrito que estes são pixels de três canais. Se a relutância de informações exageradas no arquivo, você pode colocar uma resolução menor no fotik e, assim, obter uma tradução honesta dos pixels da Bayer em rgb, então os fabricantes deixam a escolha para o usuário. Provavelmente em vão eu os calunio.
Bem, então a resolução dos monitores também pode ser escrita verticalmente 3 vezes mais, lá também ninguém prometeu um pixel rgb :).
Os pixels da câmera e os pixels da tela são como blocos. Há mais barato, há mais caro, há mais, há menos. Mas tanto isso quanto aquilo são ladrilhos, e isso e aquilo são pixels.
Como os pixels da matriz da câmera são de canal único (monocromáticos), eles contêm três vezes menos informações do que os pixels da tela. Eles não são iguais. Mas são pixels. Honesto. Real.
-
Qual é a maneira mais fácil de explicar?
Não sei. Uma pessoa teimosamente acredita que os fabricantes a estão enganando. Tipo, uma conspiração maçônica judaica, todo mundo estupidamente duplica a imagem, aguça e vende como se fosse real. Então eu vou chateá-lo, em JPEG, RGB é convertido em YUV - um canal de luminância e 2 diferenças de cores. A luminosidade codifica o todo e, para diferença de cor, restam dois pixels em quatro. E isso depois da desbayerização! Gente tola, tola...
Eu sei com certeza que a partir da matriz Bayer 10 * 10 é impossível restaurar com precisão a imagem original 10 * 10 * 3 de qualquer forma, incluindo d-tion. A imagem final será mais borrada que a original e os maçons não têm nada a ver com isso, pura matemática. Não sei como o JPEG codifica, não vou discutir (mas sempre pensei que havia algo definido em uma série de Fourier). Mas sua lógica é essa, vamos adicionar 200% de pixels inflados à imagem, de qualquer forma, alguns deles serão perdidos após a compactação JPEG. Observo que o JPEG é sempre uma deterioração na qualidade da imagem (vista em imagens contrastantes), e depois do JPEG, não apenas os exagerados, mas também os reais serão perdidos!
O exemplo acima com um ganso é muito revelador. Ou você Roman também discorda dele? Vamos fazer o exemplo do ganso da maneira que você deseja e garantir que não acabemos com a qualidade da imagem original.
:)))
Não existe uma "imagem original" de um ganso. Há um ganso :). Este é o ASSUNTO ORIGINAL. Nunca podemos obter a imagem perfeita. Vimos o contorno - queremos ver partes do corpo; vimos partes do corpo, queremos ver penas; vimos penas, queremos examinar cada “vilosidade”; vimos todos os “fiapos”, queremos ver todos os carrapatos que estão nele, etc. Não há limite para a perfeição.
-
Assim, o GUS (e não sua fotografia) é fotografado com uma câmera em uma matriz com uma rede baeriana. Esta é a IMAGEM ORIGINAL.
-
Informações ao fotografar não se tornam menos. Há exatamente tanto quanto esse tipo de matriz pode entrar fisicamente nesta câmera inicialmente com essas configurações e essas condições de disparo. Aqueles. alguns pixels monocromáticos.
Novamente, monocromático não significa escala de cinza. É que cada pixel carrega informações sobre um canal (neste caso, vermelho, azul, verde, verde nº 2).
-
Se inicialmente tivéssemos uma matriz multicanal (por exemplo, multicamada) e, por algum motivo, pendurássemos uma rede Baer no topo, é claro que perderíamos cerca de 2/3 da informação. Mas não perdemos nada, inicialmente temos um sensor menos perfeito. Faça o que fizer com ele, ele não vai “desenterrar” mais informações para nós.
-
Então a informação original também não vai a lugar nenhum: ela é analisada, interpretada e convertida em pixels multicanal que são compreensíveis para a tela do monitor. Você pode fazer isso em uma passagem (cada pixel monocromático é usado uma vez), você pode fazer isso em várias passagens (todas as combinações possíveis de grupos de 4 pixels adjacentes são consideradas + grupos possivelmente maiores e de forma irregular). Quanto mais passes - quanto mais chances de extrair o máximo das informações disponíveis, maior a probabilidade de a imagem resultante atender às expectativas. Mas a quantidade de informação inicial, novamente, não muda.
>>Não existe uma "imagem original" de um ganso. Há um ganso...
Não está certo. Não podemos descrever um ganso vivo em detalhes infinitos, isso mesmo. Mas imaginamos um ganso abstrato que consiste em quadrados. Bem, é como se não estivéssemos tirando uma foto do ganso em si, mas tirando uma foto de um ganso. Digamos que temos uma foto de um ganso 100*100*3. Uma câmera ideal com uma lente ideal com uma matriz honesta de 100 * 100 * 3, tirando essa foto de um ganso, obviamente fornecerá a imagem original de um ganso na saída. Uma câmera ideal com uma matriz Bayer de 100 * 100 * 1 fornecerá uma matriz Bayer, a partir da qual, por meio de transformações de-ção, a foto original do ganso não é obtida, mas uma foto mais borrada é obtida. Como mostrado nesse link.
>>As informações não ficam menores ao fotografar. Há exatamente tanto quanto em geral fisicamente esse tipo de matriz pode obter inicialmente
sim. Essa matriz é capaz de receber do objeto, digamos, 10*10=100 bytes de informação, ela não fica menor, pois não jogamos nada fora. Fica maior, adicionamos 200 bytes inflados. Como se realmente tivéssemos recebido 300 bytes do objeto, mas na verdade apenas 100.
Veja, temos que converter 1 pixel de uma matriz Bayer de canal único em uma matriz de 3 canais. Que seja um pixel verde. Mas não sabemos fisicamente o valor da cor vermelha ou azul do objeto no local desse pixel verde. A matriz não removeu, cortou esta informação. Onde obtê-lo, o pegamos de um pixel vizinho, acreditando ingenuamente que os valores de cor dos pixels vizinhos são aproximadamente semelhantes. Mas não é assim. Por exemplo, o objeto de origem é um ponto de 1 pixel amarelo brilhante (vermelho+verde) em um fundo verde. E esse ponto caiu completamente nesse pixel verde de 1 canal único. Nos pixels vizinhos, não haverá informações sobre seu componente vermelho, apenas informações sobre o fundo verde. De-tion nos dará este ponto verde. Enquanto uma matriz de três canais honesta verá que o ponto tem um canal vermelho e, como resultado, obteremos a cor amarela do ponto.
“Por exemplo, o objeto original é um ponto amarelo brilhante (vermelho + verde) de 1 pixel de tamanho em um fundo verde. E esse ponto caiu completamente nesse pixel verde de 1 canal único. Não haverá informações sobre seu componente vermelho em pixels vizinhos” - seus pensamentos apenas mais uma vez confirmam a ignorância do material :)
Esta situação é impossível, porque há também um filtro especial na frente da matriz.
Eles dizem que em alguns modelos o filtro anti-aliasing não está na frente da matriz. E de onde você tirou a ideia de que o raio de desfoque desse filtro é maior que o tamanho do pixel? Talvez desfoque em 0.1 pixels e, em seguida, um ponto brilhante do tamanho de um pixel pode muito bem ser.
Câmeras sem filtro - modelos de um ano e meio. Além disso, a ausência desse filtro se apresenta como uma ferramenta para profissionais, pessoas que sabem por que precisam dele.
E quanto ao grau de desfoque, parece valer a pena desfocá-lo para que atinja os pixels vizinhos. Mesmo que por 0.1 pixels, isso significa que algumas das informações já recairão sobre os vizinhos. Na prática, há mais. Repito mais uma vez, estude o material antes de tirar conclusões sobre inchaço e interpolação.
PS Arkady, por favor, exclua meu comentário semelhante acima, ele foi citado no lugar errado, tudo saiu.
Outra “opção justa” é aumentar o número de pixels na matriz, reduzindo suas dimensões lineares. Mas aqui nos deparamos com uma série de problemas. Os ruídos estão crescendo (devido ao arranjo denso dos elementos na matriz, seu aquecimento é maior, mais distorções são introduzidas nas medições). Começam os problemas com a difração (escrevemos sobre isso um pouco mais alto). A sensibilidade diminui, tk. o número de fótons da fonte de luz ainda é finito e, à medida que o tamanho do elemento fotossensível diminui, o número de fótons que caem sobre ele da mesma cena diminuirá. Este é o caminho para lugar nenhum.
>>Outra "opção honesta"
Ainda não, mas a única opção honesta para aumentar a resolução é aumentar o número de pixels.
>> Este é o caminho para lugar nenhum.
E os fabricantes de matrizes nem sabem. O número de pixels na matriz está ficando cada vez maior.
> E os fabricantes de matrizes nem sabem. O número de pixels na matriz está ficando cada vez maior.
Se ao mesmo tempo a área da matriz cresce, é bastante justificado. E no resto, apenas, o marketing funciona principalmente. Ok, à medida que a tecnologia melhora, o problema do ruído é resolvido de alguma forma. Mas ninguém ainda cancelou a difração, e a resolução da ótica deve corresponder à resolução da matriz, caso contrário não haverá sentido no aumento.
>> Eu sei com certeza que a partir da matriz Bayer 10*10 é impossível restaurar com precisão a imagem original 10*10*3 de qualquer forma, incluindo d-tion.
Isso é absolutamente indiscutível. SE houvesse uma matriz ideal, cada pixel físico do qual produziria uma imagem de três componentes (e existem, eu já escrevi, mas estão longe de ser ideais), então, como resultado da remoção de informações dessa matriz, obteríamos uma imagem de melhor qualidade. Mas nesta fase, só podemos determinar o nível de iluminação do sensor e formar algum tipo de tensão em resposta a isso, que depois digitalizamos. Se você pegar uma matriz de 4000x3000 e não cobri-la com filtros de cores, obterá sua imagem monocromática honesta de 12MP. Se também colocarmos uma grade Bayer de filtros de cores no topo da matriz, você também obterá informações sobre a cor. Perderemos algumas das informações de brilho devido aos filtros. Mas, mais uma vez, esse array carregará mais informações do que um array de 2000x1500 pixels médios.
>> esta matriz carregará mais informações do que uma matriz de pixels médios de 2000x1500
A matriz Bayer 4000x3000 carrega 12MB de informação. Para ser honesto, para compactá-lo em fotos RGB de 2000x1500, serão 9 MB de informações, ou seja, perda de 25% (ou seja, em vez de 2 canais verdes, apenas 1). E se você fizer uma de-ção e esticá-la para fotos RGB de 4000x3000, obteremos 36 MB de informações. Aqueles. ou perder 25% ou inflar em 200%. Em princípio, podemos inflar esses 200% a qualquer momento, mesmo em tempo real ao visualizar uma foto.
Mas 12 megapixels é muito mais atraente para um profissional de marketing do que 3 megapixels. Eles querem escrever 12. Mas os profissionais de marketing também não podem traduzir a foto honestamente, porque. se a câmera diz 12 megapixels, então ela não pode produzir uma foto de 3 megapixels na saída. Portanto, 12Mpix reais de canal único são gravados no fotik, e a saída é a mesma de 12, mas parcialmente inflada de três canais. 12=12 e tudo combinado e os clientes não têm dúvidas.
> A matriz Bayer 4000x3000 carrega 12 MB de informação
4000x3000x14 bits = 21 MB (não mais 12)
> Em princípio, podemos inflar esses 200% a qualquer momento, mesmo em tempo real ao visualizar uma foto
Você já processou RAW? Quanto um conversor decente abre e “enrola” ele prestou atenção?
Em todos os outros aspectos, você não quer entender nada, então nem vejo sentido em me convencer do contrário.
O conversor funciona exatamente enquanto o hardware permitir. Fotik torna muito mais fácil e rápido. Em computadores, porcentagens são mais poderosas, aqui está um algoritmo mais legal. Amanhã eles tornarão o computador 100 vezes mais rápido, os programadores escreverão um filtro ainda mais difícil e o computador pensará o mesmo por alguns segundos e tornará a foto 1% mais atraente. Este não é um indicador.
>> Em todos os outros aspectos, você não quer entender nada, então nem vejo sentido em me convencer do contrário
O que você quer me convencer? O fato de que de-ção não é interpolação? Será que a Matriz Bayer 10*10 é capaz de receber informações de um objeto de mais de 100 bytes? Ou será que de 100 bytes de informação real você pode fazer 300 bytes de informação real? Em quê?
Roman, sim, é inútil provar :)
Deixe uma pessoa continuar a redimensionar fotos 4 vezes e dormir em paz, pensando que não perde nada e isso só economiza espaço no disco rígido :) E somos estúpidos, continuaremos a tirar fotos em tamanho real, nas quais um terço da informação é inventado :)
> Não sei como o JPEG codifica
Mas tenha interesse. Vamos começar com a conversão RGB para YUV. Salvamos completamente o canal de brilho, reduzimos dois canais de diferença de cores. Você pode remover metade dos pixels de cada canal U e V e a diferença não será visível a olho nu. Como resultado, 33% das informações foram descartadas de forma relativamente indolor. No vídeo, a propósito, eles descartam ainda mais - cerca de 50%.
Bem, é ainda mais divertido.
A informação recebida é dividida em blocos, cada um é codificado separadamente. Cada bloco é submetido a uma FFT. Em vez de um conjunto de valores para cada pixel, obtemos um conjunto de frequências. Lá cortamos as frequências superiores dependendo da taxa de compressão, tornando a imagem cada vez mais grosseira. E só então aplicamos a compressão real de acordo com o método de Huffman.
Então eu, Roman, reli seu post e achei que as questões de interpretação e transformação da informação beiram a filosofia :).
Por exemplo:
- Levo meu arquivo .nef com um volume de 14 bytes;
- tento compactar no WinRAR, melhor compactação - recebo 14 582 483;
- ok, o resultado não é ótimo, eu abro .nef no Photoshop em sRGB, 8 bits/canal (quantos nós temos lá?) E salvo em .tif sem compressão, intercalado, sem perfil de cores, fico com 36 bytes;
- semelhante, mas uso compactação LZW (sem perdas) - 18 bytes;
- semelhante, mas em vez de LZW eu pressiono .tif com WinRAR - 13 bytes (é aqui que começa a mágica das ruas!).
Agora estou tentando preparar a imagem para impressão. Para deixar tudo transparente, converto manualmente o arquivo RAW aberto no Photoshop para sRGB, 8 bits/canal para CMYK, salvo em .tif sem compressão - 48 bytes.
Da mesma forma, mas com LZW - 30 bytes.
Da mesma forma, mas .tif descompactado eu pressiono WinRar - 24 bytes.
O que é interessante: na verdade, não fizemos nada de especial com as informações originais. No primeiro caso, foi convertido para exibição adequada na tela. A segunda é para impressão. Nem me atrevo a julgar onde é real, onde é inflado. Eu diria que são avatares diferentes da mesma informação (exceto pela perda ao converter para outros perfis de cores).
A questão permanece: como um .tif de 3 canais empacotado e inchado pode ocupar MENOS espaço do que um .nef empacotado de forma semelhante? Há menos informação REAL?
Em RAW, você tem dados descompactados da matriz, sem debayerização, ao converter para TIFF, você obtém uma imagem já debayerizada, já existem três vezes mais subpixels, por isso pesa três vezes mais.
É claro, sem perguntas
Mas já o empacotamento e compressão é outra questão, tudo depende dos algoritmos e das perdas aceitáveis. O RAR quase não comprime imagens simples, você viu. Muito provavelmente algo está faltando.
O bitness foi perdido, os canais foram adicionados. E então, de repente, descobriu-se que, sob a condição de um empacotamento competente de informações, um raster de três bandas completo pode ocupar menos volume do que uma fonte pobre e não debayed.
E a filosofia é o que é considerado a quantidade REAL de informação visual armazenada? Tamanho RAW de origem? Raster em tamanho real? Qual das coisas que descrevi é a quantidade REAL de informação, que é COMPRIMIDA e qual é BLOADED?
Afinal, verifica-se que a mesma informação pode ocupar um volume diferente dependendo do método de apresentação e do ambiente de uso.
Bem, considere que você, de fato, tem uma imagem na saída da matriz, codificada aproximadamente da mesma forma que é usada em formatos de compressão de imagem. Afinal, quando parte da informação da cor é cortada em JPEG, ninguém grita que está traindo ele? E aí, afinal, a maneira mais fácil de comprimir é duas vezes de cada lado, e depois alongar. No entanto, eles mexem com transformações mais complexas.
Em suma, tentei muito expressar a ideia de que a quantidade de informação útil e o volume que ela ocupa são duas coisas diferentes.
-
E ultimamente tem se tornado cada vez mais difícil entender se está em um estado nativo, comprimido ou inflado.
Os arquivos compactados RAW e JPEG da minha Nikon D1X ocupam quase a mesma quantidade, e é por isso que fotografo apenas em RAW :) Ambos são compactados, embora seja claro que há mais perdas em JPEG.
Em geral, obrigado por uma discussão agradável e informativa.
E o mais importante, deixando aqui os pensamentos sobre megapixels, tirei muitas fotos legais esses dias, pensando em coisas completamente diferentes :)
Bem, com base na definição da quantidade de informações retiradas dos sensores - há algum valor. Mas a forma como ela é apresentada pode ser diferente. A entropia é menor - o tamanho da mensagem é menor, é tudo informação. Mais entropia, mais mensagem.
Podemos perder parte da informação, adaptando-nos às propriedades do sistema de saída (monitor) e do sistema de percepção (olho). Por exemplo, um monitor não pode produzir mais de 8 bits por pixel (principalmente). E o olho não distingue tons de cor nas sombras. etc. Aqui a quantidade de informação diminui e, consequentemente, o tamanho da mensagem. Mas devido à compressão, reduzimos a entropia, deixando a mensagem com o mesmo volume. Convertido para um formato de 16 ou 32 bits - aumento da entropia (os notórios “pixels inflados”).
Na D7100 RAW a 15,6 MP, leva de 20 a 26 MB. RAW gravado sem compressão. Mas a julgar pela diferença do volume final, a compactação ainda é claramente usada, mas sem perda de qualidade e corte de qualquer informação. Infelizmente, isso prova mais uma vez que a estrutura do arquivo RAW para o fotógrafo nada mais é do que uma “caixa preta” com a qual apenas alguns selecionados podem trabalhar.
As câmeras amadoras, incluindo a D7100, não suportam RAW não compactado.
você está certo sobre a compressão. no entanto, conforme indicado na página 67 da instrução D7100, no meu caso, a compressão é de 20-40%. ou seja, "em", não "antes". Essa. RAW não compactado deve ter pelo menos 15,6 MP * 14 bits / canal * 3 canais / 8 bytes / bits = 81 MB. Digamos que rolos de compactação de 40%: 81 * 0,4 = 32,8 MB. e isso sem metadados e visualizações. esses são todos a mesma “floresta escura” acaba.
Tudo é realmente simples. Não há necessidade de multiplicar por 3 canais.
Não consigo entender porque não é necessário multiplicar por 3 canais. no total, a matriz fornece uma gama de cores de 42 bits (ou seja, 14 bits por canal). 42 bits são 6 bytes. Essa. a digitalização de um pixel (RGB) leva 6 bytes. Essa. para 15,6 megapixels, você precisa de 93,6 MB.
Dmitry, você não leu o artigo com atenção, ou não leu nada. Em uma matriz de 15,6 megapixels não full-color, mas de cor única. Portanto, não há necessidade de multiplicar.
Parece ter pego o truque com a manipulação de dados da matriz. Se um pixel é RGBG. Qual dos dois pixels físicos (RGGB + RGGB) pode realmente obter três pixels. devido aos “meios” das células vizinhas (a primeira e a terceira células são células separadas independentes, mas a segunda é a segunda metade da primeira e a primeira metade da segunda). para esse modelo de pixels físicos, você precisa da metade. além disso, o mesmo método ocorre com a passagem horizontal e vertical do quadro. portanto, é fisicamente suficiente ter 4 vezes menos pixels. então meus 15,6 MP se transformam em 3,9 MP. e isso é 3,9 megapiskel * 42 bits / pixel / 8 bits / byte = 20,5 MB. Isso é claramente próximo do que temos. + metadados + visualização.
Para excluir ainda mais as discussões sobre o tópico de um pixel em uma matriz, sejam três cores ou uma, a Nikon fez uma pergunta ao serviço de suporte:
” Dmitro Tishchenko: Boa tarde, Elena! Estou interessado em uma pergunta um tanto estranha sobre a matriz D7100.
Dmitro Tishchenko: De acordo com o manual do usuário, seu tamanho é de 24 megapixels. A questão é: o que o fabricante quer dizer com pixel? Nesse caso, um pixel é uma célula de matriz completa (RGGB) ou uma cor separada (RGGB=3 pixels)?
Elena: Uma célula completa”
Ou seja, um pixel é um pixel de três cores colorido.
“Ou seja, um pixel é um pixel de três cores colorido” - isso não faz sentido, a pessoa que respondeu claramente não está no assunto. Leia pelo menos a Wikipedia antes de fazer essas perguntas e ainda mais acreditando em tais respostas. Tudo tem sido repetidamente descrito e pintado.
O programa RawDigger saltou nos comentários - é ela quem pode encerrar a discussão sobre o tema de uma ou três cores. Abra qualquer arquivo RAW, entre nas configurações, desmarque 2x2 e procure no modo composto RAW. Será isso que a matriz viu, sem desbayerização; Quando ampliada, a matriz Bayer é claramente visível.
Esta é a resposta do suporte. Também lhes fiz uma pergunta em busca de sua própria resposta sobre a óbvia incompatibilidade na quantidade de dados recebidos. a resposta se resumia à proximidade dos algoritmos de processamento de dados. um pouco mais alto, sugeri que os pixels finais podem ser obtidos com um volume muito menor das células iniciais do filtro Baer (ninguém proíbe os fabricantes de maritz de não falar sobre isso - ainda estamos interessados no tamanho final da matriz em pixels (RGB)). com RawDigger vou tentar adicionalmente fazer o truque indicado (embora ontem eu estudei os metadados detalhados de um dos RAVs. Também falava sobre pixels e eles correspondiam à resolução da imagem final, ou a resolução real da imagem também deve ser dividida por 3). Gostaria de saber se o programa pode me mostrar o número total de células que compõem a cor.
http://ru.wikipedia.org/wiki/%D0%9F%D0%B8%D0%BA%D1%81%D0%B5%D0%BB%D1%8C - dá a resposta que é uma cor.
http://ru.wikipedia.org/wiki/%D4%E8%EB%FC%F2%F0_%C1%E0%E9%E5%F0%E0 - não estamos falando de pixels, mas de elementos (filtros).
Após desabilitar a debayerização, o RawDigger mostrará apenas o que a matriz percebeu (a propósito, você pode habilitar a exibição de pixels ineficientes lá, minha Canon 350D tem uma barra preta na esquerda e na parte superior). Você pode ampliar a imagem, ir para as configurações e marcar a caixa de seleção 2x2, você verá claramente como funciona a desbayerização. A resolução da imagem não muda, as cores dos pixels mudam de cor única para colorida.
De acordo com o link, existe um "Pixel também é erroneamente chamado de elemento de uma matriz fotossensível (sensel - do elemento sensor)"
Mas, o número de sentidos não dirá nada aos meros mortais (este artigo é prova disso - nem todos entenderam o significado), por isso são chamados de megapixels, na expectativa de que os usuários consigam entender qual resolução a foto terá ( toda essa cozinha com desbayerização 99% dos fotógrafos não ligam).
RawDigger - tentou estudá-lo com mais detalhes. E descobri mais. Sim, na matriz estamos falando de subpixels (cada componente de cor separadamente) na verdade. Eu consegui os 15,6 megapixels necessários. Aqueles. 15,6 megasubpixels * 14 bits / subpixel + compressão parcial sem perdas (em 20-40%) = 18,7-24,9 MB + 90-95 kB de visualização + metadados. o que está muito próximo da verdade. MAS! Após converter para o mesmo TIFF sem salvar os canais de cores, obtemos os mesmos 15,6 MP, mas após a desbayerização. MAS! A matriz Bayer permite interpolar com segurança e honestidade quase os mesmos 15,6 megapixels. Quão?!
Fragmento de filtro Bayer:
RRGRG…
GBGBGB…
RRGRG…
GBGBGB…
...
Forma pixels (RGB) a partir de subpixels (a opção mais simples e obviamente estúpida):
RG + RG + RG
GB GB GB
GB + GB + GB
RG GR RG
RG + RG + RG
GB GB GB
Essa. de um array 4x4 tem 9 pixels “honestos” completos.
para compensar as linhas ausentes, há pixels adicionais. Então parece a verdade?
leia minha resposta abaixo!
Minha opinião é que um pixel HONESTO são os componentes de cor dos quais NÃO PARTICIPAM de nenhum OUTRO pixel!
E aqui estamos apenas sendo enganados! Interpolação de água pura.
IMHO, de alguma forma, todos se fixaram em pixels coloridos e perderam um momento.
A câmera com os 12 megapixels reivindicados, na verdade, tira uma imagem em preto e branco de 12 megapixels. A desbayerização é essencialmente a restauração de cores para, afinal, uma imagem de doze megapixels. Criar um pixel de cor em quatro ainda levaria a uma deterioração nos detalhes da imagem.
Gostaria de saber se é possível restaurar programaticamente a imagem original em preto e branco?
RawDigger para ajudá-lo
Uma câmera com 12 megapixels não dá uma foto preto e branco em 12 megapixels, porque os subpixels são cobertos com filtros de cores diferentes, o resultado parece uma grade e precisa ser misturado de alguma forma (não vai ajudar a corrigir o brilho dos canais, cada filtro de cor altera o brilho de diferentes tonalidades), ou seja, ainda é necessária a desbayerização. E no final, você tem que aguentar o barulho (as consequências da desbayerização). Por quê? Porque há uma mudança. Neste ponto, filmamos com um filtro vermelho e com um deslocamento para a direita - com um verde. Mas estes são pontos diferentes da imagem. Combinando-os, ou perdemos a resolução ou introduzimos ruído.
Há experimentadores que removeram filtros de cores da matriz e, assim, obtiveram fotos REALMENTE em preto e branco. Google: raspando a camada de matriz de filtro de cores de um sensor DSLR para fotos em preto e branco mais nítidas. Após tal manipulação, a desbayerização não é mais necessária. Você pode fazer isso sozinho.
E o meu não! Eu tenho 600d - 18.1 megaSUBpixels e gosto de 17.8 megapixels reais.
Imagine que a lente focalizou de tal forma que os grãos da imagem caíram no tamanho de um subpixel.
E teria atingido o quadro contra o céu - fio.
ela caminhava por um ponto preto ao longo de uma fileira de subpixels. ao rebaixar, obtemos um gradiente de 4 pixels que muda suavemente da cor do céu para metade do brilho da cor deste céu e volta novamente para a cor do céu. mas nunca obteríamos um pixel preto porque cada pixel debay tem um par de preto 100% e um par de luz 100%.
ao debaiar com um passo de +2, ou seja, pixelização sem sobrepor dois subpixels do quadrado anterior no novo, obteríamos um pixel sombreado estrito mesmo com 75% cujos vizinhos são da cor do céu e é 75% mais escuro que seus vizinhos. Este é o caso ideal, mas como você sabe, não existem lentes tão nítidas e uma lente de baleia comum com abertura f11 pode cobrir apenas 2.5 subpixels com sua nitidez máxima. aqui, ao reduzir em 17 megapixels, obtemos um gradiente ainda mais manchado. Mas se dermos a isca em 4.5 megapixels, obtemos um pixel 100% preto no local por onde passa o fio e 100% da cor do céu ao redor. Temos a aproximação linear usual. quando o número de pixels reais na horizontal e na vertical é duplicado e os que faltam são obtidos simplesmente por interpolação. O problema é complicado pelo fato de não conseguir atingir 4.5 megapixels no Photoshop, mas com um fio claramente definido na imagem!
Portanto, a questão é - ninguém se deparou com nenhum programa que possa fazer uma briga com 4.5 pixels reais de um rav, que não tenha subpixels comuns entre si?
Bem, na verdade, um pixel de matriz sempre significou um grupo de elementos sensíveis a partir do qual o pixel final é formado. A propósito, o pixel final também é exibido na tela não com um ponto, mas com o mesmo grupo de pontos multicoloridos
Sim, mas se o monitor tiver 1024 * 720 pixels, todos entendem que os componentes de 1024 * 720 * 3RGB são responsáveis pela exibição (ou seja, com uma tríade por pixel real), mas aqui a situação é diferente.
quais os outros? a essência é a mesma, fazer uma imagem que corresponda aos pixels declarados. E a propósito, nem sempre em um monitor 3RGB
A essência é melhor ilustrada pela imagem mostrada no artigo. https://radojuva.com.ua/wp-content/uploads/2013/08/native-pixels-and-sub-piexels.jpg, bem como o próprio artigo, que seria bom de ler. O monitor pode nem sempre ter 3RGB, mas entre a esmagadora quantidade de matrizes, o padrão Bayer é usado.
Há algo mais complicado na matriz Bayer RGBG: como no bayer o número de pixels verdes é duas vezes maior que o resto, é o canal verde que possui a maior sensibilidade, o DD mais amplo e o menor nível de ruído. Isso cria certos problemas com a precisão da medição, que às vezes podem ser resolvidos usando uma maneira complicada de definir manualmente o BB, levando em consideração a diferença na sensibilidade por canal do bayer - o chamado. UniWB
Em geral, é uma pena que os fabricantes do CPC tenham abandonado a matriz RGBW: https://ru.wikipedia.org/wiki/RGBW , onde um pixel está sem filtro, ou seja, “branco”. Essa matriz, é claro, formou cores mais pálidas - "filme", mas com medição de exposição, sensibilidade, ruído e DD, as coisas seriam muito melhores.