De repente, estudando sobre panning me veio à mente se existe alguma câmera que possa fazer rastreamento (ou tracking) de foco enquanto está capturando.
Será que isso já existe ou estou viajando?
Imaginei se houvesse um sistema de rastreamento durante a captura de um movimento panning, que com esse reastreamento o resultado poderia sair até melhor do que sem… Mas não sei se as câmeras são monocomando: ou captura ou foca… apesar de que em vídeo isso acontece.
Nunca ouvi falar disso.
Nas DSLRs não seria possível pois o espelho fica levantado na captura, não mandando luz pro sensor de foco.
A não ser que seja pelo liveview.
Nas MLs seria possível, mas acho que todas elas também são programadas pra fazer o foco antes do início da exposição.
Vídeo não é bem isso que você falou também, pois o foco em vídeo pode ser feito entre os frames.
O vídeo faz 24/30/60/etc fotos por segundo e o foco pode ser feito entre uma foto e outra.
No mais, não acho que isso seria tão útil pra panning, já que essa técnica geralmente é feita quando o assunto está em movimento paralelo ao plano de foco.
Se você tem uma situação bem específica ou um projeto criativo que você queira fazer que se beneficiaria disso, daí acho que a solução seria o foco manual.
Pergunta muito interessante Fernandoomi. Acompanhando. :snack:
Não é possível com a tecnologia atual. O processo de captura de imagem consiste em capturar um certo número de fótons em cada “poço” (na verdade, cada fóton que é detectado em um filtro fotoelétrico vai ser convertido em um elétron, que vai pro tal poço). Somente quando a captura é concluída, o sensor vai saber quantos elétrons estavam no poço, quantificar em níveis de sinal na ADU (Analog to Digital Unit. ISO base normalmente usa um bit a cada elétron capturado) e, de acordo com a posição de cada pixel, associar uma cor. Note que cada poço não é um pixel, mas vem antes do pixel. Um sensor com matriz Bayer possui quatro poços pra formar um pixel.
Poder-se-ia fazer várias capturas rápidas e empilhar depois, mas aí já é pós-processamento.
Em vídeo, a câmera não está continuamente capturando. Ela captura e grava, captura e grava o próximo quadro. O mesmo no live view. Por isso uns smartphones modernos capturam momentos antes da gente disparar o “obturador”. O que o smartphone faz é gravar uns poucos segundos antes daquele momento, e depois descartar, e quando a gente aperta o botão, ele salva aqueles últimos segundos.
Em astrofoto, a câmera principal fica vários segundos (ou minutos) capturando fótons. Neste tempo, o sistema de rastreio pode adiantar ou atrasar. Pra manter o rastreio perfeito, usa-se (1 a 5, normalmente) e informa o deslocamento das estrelas, pra que a montagem equatorial faça correções na posição. É um sistema bastante preciso, que pode manter o rastreio abaixo de 1 arcossegundo.
Se eu entendi direito, tem uma Pentax que faz, não?
Possível eu acho que seria sim.
Por exemplo, uma câmera de espelho fixo que manda parte da luz constantemente pra um sensor de foco separado do sensor de captura.
Perdemos um pouco de transmissão com esse design de câmera, mas tornaria possível o autofoco continuar funcionando em longa exposição.
Outro exemplo, uma mirrorless poderia fazer um “line skipping”, a cada x linhas de pixels uma linha seria sempre dedicada a autofoco e continuaria fazendo o tracking em longa exposição, sacrificando um pouco de resolução.
Possível, com certeza, é. Disponível no momento, não. Precisaria de uma coisa diferente, embora os conceitos envolvidos já sejam bem conhecidos.
Note que os sensores atuais têm dois momentos relevantes: a captura e a leitura. O primeiro é quando os elétrons estão sendo acumulados nos poços, e o segundo é quando a câmera lê estes elétrons. Pra ser diferente, teria que haver um canal de leitura dos pixels de imagem e outro independente pros pixels de foco.
Em astrofoto, também há um equivalente pra isso, chamado OAG (off-Axis Guider), que é uma câmera auxiliar ligada ao mesmo trem de imagem. No caso da câmera comum, um grande facilitador seria ter ambos os sensores (o de foco e de imagem) no mesmo plano. O OAG é bem parecido com sua descrição.
https://astrogeartoday.com/wp-content/uploads/2022/02/OAG-1.jpg
E as ML né? Canon tem desde a M6 mark ii.
Não entendi isso, nunca vi nenhum diagrama de sensor com nada parecido…
No máximo tem as micro lentes em cima do pixel, mas 1 para 1.
E não 4 para 1.
Essa descrição de 4 pra 1 me pareceu ser muito o bining que os smartphones fazem, que o sensor de 48MP gera uma imagem de 12MP ao combinar 4 pixels em 1.
Mas isso não é o caso de nenhuma câmera que eu me lembre.
Como sera q fica uma longa exposição puxando o foco manualmente? :snack:
Usam muito para fogos de artifício
hmmmm faz sentido, legal
Qual é a cor de um pixel? É a combinação do sinal capturado pelo poço vermelho, pelo poço azul e pelos dois poços verdes, assumindo um sensor Bayer. O demosaico é o algoritmo usado pra converter o sinal de cada conjunto de poços (um poço vermelho pode capturar um pouco de luz azul e verde; mas é basicamente um poço vermelho) em pixels. Um artigo bem legal:
Recomendo a leitura completa. Mas, sobre o que falamos, veja especialmente a parte 5:
Mas curioso que o escritor começa falando em poços (wells ou buckets, baldes), mas na parte 5, ele fala em pixels.
Aí estou vendo um poço para um pixel.
E o demosaico é um algoritmo, logo no momento da captura os pixels só tem uma cor.
Inclusive é armazenado sem demosaico no raw.
Ficando a cargo dos softwares rodar a sua versão do demosaico no raw.
Exatamente. Mas um pixel é uma combinação de valores R,G,B. O elemento abaixo é somente R, G ou B. É o tal poço, embora na primeira parte do artigo ele cite os dois nomes (well x bucket, balde) e escolha balde.
Nunca tinha visto também.
Nossa que legal, LE dá umas fotos totalmente diferentonas. Essa parece uma flor rs