Livro base - Curso de fotografia/Câmera/Componentes: diferenças entre revisões

[edição verificada][edição verificada]
Conteúdo apagado Conteúdo adicionado
Sem resumo de edição
mSem resumo de edição
Linha 130:
Imagine agora a situação que falamos anterior que a luz vermelha às vezes não encontra o receptor vermelho, então, agora além dos receptores, ainda tem que haver um espaço para acomodar os amplificadores, com isso CMOS tem muito mais ruído que CCD. Além disso, como o CCD teve um investimento muito maior em tempo de desenvolvimento o seu padrão de ruído já foi muito estudado e muito das questões foram reduzidas. Com menos espaço entre os sensores o CCD também entrega imagens de maior qualidade, e com mais intervalo dinâmico (ou ainda encontramos na literatura em português alcance dinâmico/latitude de exposição, em inglês ''dynamic range'', a gente já já explica isso), e como registra tudo de uma vez, não tem diferenças entre o que um ampliador cria pra outro, já que só tem um grande, isso também evita diferenças entre o tempo de registro de uma área do sensor para outra, impedindo coisas como essa hélice:
 
[[Imagem:Jamtlands Flyg EC120B Colibri.JPG|600px|center]]
 
E é claro que então o sensor mais utilizado hoje em dia é o ... CMOS ... isso mesmo, CMOS mesmo com essa desvantagens tem uma vantagem que pesa muito em seu favor, o custo. O custo de produção do CMOS e do que é necessário para instalar na câmera, ou seja, complexidade do sistema, faz com que ele fique ridiculamente mais barato, podendo haver diferenças de mais de 10x o valor entre uma câmera CCD a uma CMOS. Além disso, o CCD tende a esquentar mais, sendo necessário sistemas de refrigeração mais importantes, somado a complexidade e a necessidade de um amplificador maior, o resultado são câmeras de maior volume. Pra piorar, com o sistema mais complexo o CCD chega a gastar quase 100 vezes mais energia que o CMOS. Assim, câmeras com CCD são algumas médio formato:
 
[[Imagem:Leica Store SF (15037112502).jpg|600px|center]]
 
Embora até elas mesmo tenham começado a adotar sensores CMOS, já que alguns desses problemas listados têm diminuído, com o avanço da nanotecnologia, os amplificadores têm ocupado menos espaço, e os fotosensores também tiveram seu tamanho reduzido e com isso conseguem ocupar mais do espaço da placa com sensores, acho que assim fica fácil entender:
Linha 144:
Percebe que se aumentarmos muito o tamanho das partículas, começa a ter muito mais áreas amarelas? Então, hoje tem se caminhado para desenvolvimento de um maior volume de sensores, e esse número de sensores conhecemos como "MegaPixels". Lembre agora dos tamanhos das áreas de captura que dissemos lá no capítulo anterior:
 
[[Imagem:Sensor sizes overlaid clean version.svg|600px|center]]
 
Ter 50 Mpx em uma câmera médio formato é muito, muito diferente de ter 50 Mpx em celular 2/3 <nowiki>''</nowiki>. Não tem milagre, vai ter perda de qualidade no celular, só imaginar o quão pequeno seria o tamanho desses sensores, hoje ainda não temos tecnologia para fazer isso bem, a qualidade da luz que chega nesses sensores é muito ruim, assim muito menos informação consegue se registrar com a tecnologia atual.
Linha 154:
MARTAKIS1.jpg
</gallery>