Información

¿Cuál es el equivalente a la velocidad de obturación en el ojo humano?


Me acabo de enterar de que en las cámaras de video, cada fotograma del video tiene su propia velocidad de obturación.

Y sé cómo funciona la velocidad de fotogramas en el ojo humano, bueno, no del todo, de ahí la pregunta.

http://en.wikipedia.org/wiki/Frame_rate

El ojo humano y su interfaz cerebral, el sistema visual humano, pueden procesar de 10 a 12 imágenes separadas por segundo, percibiéndolas individualmente.

¿Cuánta (o cuál es el equivalente) de velocidad de obturación en esas imágenes individuales?


El receptor de luz del ojo es una proteína llamada rodopsina. Para mí, el equivalente a la velocidad de obturación para el ojo es la (des) sensibilización de la rodopsina por fosforilación. Cuanto más brillante es la luz, más sitios de la rodopsina se fosforilan, lo que disminuye la intensidad de la señal que proviene del fotorreceptor a través de la proteína transducina G que transmite la señal visual hacia adelante.

Este proceso lleva unos segundos, pero luego es posible verlo al salir a la luz del sol o en una habitación oscura.

Esto se parece más a una perilla de volumen que a una velocidad de obturación, ya que la misma señal sale a la misma velocidad de cada sensor de luz, pero tiene un efecto similar: modula la intensidad de la imagen.


No hay nada comparable a un obturador de la cámara en el ojo. El párpado es como un parasol. Cuando el párpado está abierto, la imagen se proyecta continuamente en la retina a diferencia de una cámara de cine. Sin embargo, si la pregunta es sobre los fotogramas por segundo (número de imágenes estáticas) necesarios para producir una sensación de movimiento continuo, este artículo puede ser de ayuda. En una cámara de video, en lugar de una velocidad de obturación, es el número de veces que se muestrea (graba) la imagen en el sensor por segundo electrónicamente. El ojo es más parecido a una cámara de video. La retina tiene bastones y conos que tienen tasas de "actualización" variables, lo que hace que sea más complicado calcular las cifras exactas.


No todas tus cañas / conos disparan en un momento dado. La excepción es cuando se ve un destello de luz brillante. El tiempo de recuperación de la ceguera por flash resultante es bastante lento: segundos. Pero hay algo de fotoblanqueo allí, así que tal vez eso no sea justo.


Tus ojos son muy diferentes a los de una cámara en muchos niveles. Por un lado, sus ojos son redondeados en la parte posterior y no planos como un sensor de cámara, aunque a Sony le gustaría cambiar eso. Tus ojos también agregan información que no siempre está ahí. Por ejemplo, el debate sobre el vestido blanco o azul. No hace falta decir que una comparación perfecta no solo es imposible, también es injusta.

Sin embargo, existen algunas similitudes técnicas en la forma en que funcionan la cámara y la óptica del globo ocular, y pensamos que podría ser divertido colocar especificaciones comparables del globo ocular junto con las especificaciones de la cámara de hoy en día para ver cuánto costaría una cámara teórica. Para simplificar las cosas, veamos & # 8217s cada especificación técnica de forma individual.

(Nota rápida: no soy médico, solo un hombre de Google).

Longitud focal

Cuando hablamos de distancia focal en una cámara, estamos hablando literalmente de la distancia desde el centro óptico de la lente al sensor de la cámara. La misma regla se aplicaría en su ojo. Entonces, técnicamente hablando, el ojo humano promedio tendría una distancia focal de 17 mm.

  • Longitud focal: 17 mm
  • Equipo comparable:Objetivo Olympus M.Zuiko 17mm f / 2.8
  • Precio: $299

Punto de vista

Mientras que una lente de 17 mm en una cámara de fotograma completo tendría un campo de visión de aproximadamente 93 grados, el ojo humano promedio tiene un campo de visión de aproximadamente 180 grados cuando mira hacia adelante. Usando una calculadora de ángulo de visión simple, el ángulo de visión real sería igual al de una lente de 1 mm.

  • Punto de vista: 180 grados
  • Equipo comparable:Lente Nikkor de 6 mm
  • Precio: $100,000

Factor de cultivo

Teniendo en cuenta el ángulo de visión, nuestro globo ocular de 17 mm tiene una equivalencia focal de 1 mm. Entonces, teóricamente, nuestro ojo tiene un factor de recorte negativo de x.05 en comparación con una cámara de fotograma completo. No hace falta decir que la tecnología no existe en la vida real.

  • Factor de cultivo: x.05
  • Equipo comparable:Acelerador de Velocidad Metabones (x 14)
  • Precio: $7000

F-Stop

Un F-stop es en realidad una fórmula muy simple:

En una situación increíblemente oscura, el iris de un ojo # 8217 puede expandirse hasta aproximadamente 8 mm. Entonces, si pusiéramos esa información en una fórmula con nuestra distancia focal siendo la longitud de nuestros ojos (aproximadamente 17 mm), obtendríamos un f-stop real de alrededor de f / 2.1. Ese número es impresionante, pero ciertamente no trascendental.

  • Parada F: f / 2.1 y # 8211 f / 8.3
  • Equipo comparable:Objetivo Canon EF 35 mm f / 2 IS USM
  • Precio: $549

Resolución

Se estima que el ojo humano promedio puede leer hasta 576 MP de información en un momento dado, lo que le da un significado completamente nuevo al término pantalla de retina. Desafortunadamente, las DSLR de hoy en día todavía no pueden tomar fotografías a ese megapíxel. Sin embargo, en astronomía, hay una cámara que se acerca a los 570MP.

  • Resolución: 576MP
  • Equipo comparable:Cámara de energía oscura
  • Precio: $35,000,000

ISO se relaciona con la cantidad de energía enviada a la cámara y al sensor # 8217s en un momento dado. Sin embargo, cuando está hablando de sus ojos, realmente no tiene la capacidad de aumentar su sensibilidad mucho más allá de ISO 1000 en una cámara.

  • YO ASI: 1 – 1000
  • Equipo comparable:Canon EOS DCS 3
  • Precio: $ 16.453 en 1995

Profundidad de bits

Se dice que nuestros ojos pueden percibir hasta 10 millones de colores diferentes. Si bien eso puede parecer mucho, en realidad es bastante bajo en relación con lo que las cámaras actuales son capaces de percibir. Todos los días, las cámaras de video graban información de color a 8 bits por canal, pero algunas cámaras pueden grabar hasta 14 bits por canal y # 8211 eso & # 8217 ¡4.4 billones de colores!

  • Profundidad de bits: 7,5 bits por canal
  • Equipo comparable: Vídeo DSLR diario
  • Precio: $1,000

Gama dinámica

El rango dinámico tiene que ver con la capacidad de su cámara para procesar detalles extremadamente brillantes y extremadamente oscuros al mismo tiempo. La mayoría de las cámaras de nivel profesional tienen un rango dinámico de entre 11 y 14 pasos. Cuantas más paradas tenga la cámara, mayor será su capacidad para grabar imágenes contrastantes. Sorprendentemente, cuando se trata de rango dinámico, el ojo humano está a la par con la tecnología moderna.

  • Gama Dymaic:10-14 paradas
  • Equipo comparable:Sony a7S
  • Precio: $2,498

Velocidad de obturación

Sus ojos no tienen un obturador mecánico o radial, por lo que se parecen más a una cámara con obturador electrónico. Sin embargo, si desea comparar el desenfoque de movimiento de su ojo con un desenfoque de movimiento similar de una cámara, simplemente mueva la mano hacia adentro desde su cara a un ritmo constante. ¿Ves el desenfoque de movimiento?

Si tuviera que ajustar la velocidad de obturación en una cámara para que coincida con la del desenfoque de movimiento que se encuentra en su ojo, llegará a una velocidad de obturación de alrededor de 1 / 100-1 / 200. Probablemente no vea mucho desenfoque de movimiento en la vida cotidiana porque sus ojos están acostumbrados a rastrear objetos en movimiento increíblemente rápido. Una técnica muy similar a esta sería la forma en que un fotógrafo de automóviles rastrea un automóvil en movimiento en una pista de carreras.

  • Velocidad de obturación: 1/100 – 1/200
  • Equipo comparable: DSLR para todos los días
  • Precio: $1,000

Cuadros por segundo

A través de la investigación, los científicos han podido descubrir que los humanos pueden interpretar información hasta aproximadamente 1,000 fps. Si bien ciertamente no puede reproducir esta información en su mente en cámara lenta (al menos no todavía), tiene mayores implicaciones para el futuro del cine y la cantidad de cineastas de FPS deberían filmar. Por eso, una película de 48 fps como el Hobbit se siente muy diferente a una película de 24 fps.

  • Cuadros por segundo: 1,000 fps
  • Equipo comparable:Phantom Flex 4K
  • Precio: $140,000

Gran total: $ 35,268,799 + impuestos

Si bien es definitivamente imposible decir con certeza cuál sería el costo real de una configuración equivalente al ojo humano, si tuviéramos que sumar todos nuestros precios, nuestra cámara teórica costaría tanto como La película Bob Esponja: esponja fuera del agua hecho el fin de semana de apertura. (Vivimos en tiempos oscuros).

¿Quiere aprender más sobre la comparación entre el ojo humano y las cámaras? Echa un vistazo a algunas de las siguientes publicaciones:

¿Crees que este número debería ser mayor o menor? ¿Vendería su globo ocular por $ 35,000,000? Comparta sus pensamientos en los comentarios a continuación.


La regla del obturador de 180 °

La regla de los 180 grados es un estándar en la industria del cine y explica la relación entre la velocidad de obturación y la velocidad de fotogramas al grabar movimiento en video. Para imitar el movimiento de la misma manera que el ojo humano lo experimenta en la vida real, la regla de 180 grados establece que la velocidad de obturación debe configurarse para duplicar la velocidad de fotogramas. Cuando escuchas a la gente hablar de “velocidades de obturación cinematográficas”, se refieren a este estándar en el que la velocidad de obturación se establece al doble de velocidad de fotogramas, o lo más cerca posible. (La mayoría de las DSLR tienen la opción de disparar a 1/50 pero no a 1/48, por lo que si dispara a 24 fps, configure la velocidad de obturación en 1/50).

La regla de los 180 ° se puede romper para emular una época cinematográfica específica, o se puede usar para hacer videos deliberadamente inestables o discordantes. Cuanto más amplio sea el ángulo de obturación, de 270 ° a 360 °, más desenfoque de movimiento, y cuanto más estrecho es el ángulo de obturación (menos de 180 °), se percibe menos desenfoque de movimiento de un fotograma al siguiente.

Dado que la mayoría de las cámaras digitales tienen un obturador de cortina y no el obturador giratorio estilo película, un ángulo de obturación de 180 ° equivale a disparar con una velocidad de obturación que es el doble de la velocidad de fotogramas, o técnicamente, 1 / [2xfps]. En términos digitales, el ángulo de obturación es la velocidad de obturación de la cámara en relación con la velocidad de fotogramas. En las DSLR y otras cámaras digitales, los ángulos de obturación comunes de 180 ° incluyen 1/50 de segundo a 24 fps o 1/60 de segundo a 30 fps.

Recuerde, una velocidad de obturación rápida producirá una imagen más oscura con poco o ningún desenfoque de movimiento (dependiendo de la velocidad del sujeto), mientras que una velocidad de obturación lenta producirá una imagen más clara con un desenfoque de movimiento más pronunciado.


Cámara vs ojos: diferencias

Medición de luz absoluta versus subjetiva: Simplemente hablando, el ojo humano es un dispositivo subjetivo. Esto significa que sus ojos trabajan en armonía con su cerebro para crear las imágenes que percibe: sus ojos están ajustando el enfoque (doblando la luz a través de la lente en sus globos oculares) y traduciendo fotones (luz) en un impulso eléctrico que su cerebro puede procesar. . A partir de ahí, todo gira en torno a tu cerebro: reajusta continuamente su equilibrio de color según el contexto de iluminación. En otras palabras, nuestros ojos saben qué debe verse como rojo, blanco o negro, etc.

Una cámara, por otro lado, es un dispositivo de medición absoluta - Está midiendo la luz que incide en una serie de sensores, pero el sensor es "tonto" y las señales grabadas deben ajustarse para adaptarse a la temperatura de color de la luz que ilumina la escena, por ejemplo

Enfoque de la lente: En la cámara, la lente se acerca / aleja de la película para enfocar. En sus ojos, la lente cambia de forma para enfocar: los músculos de sus ojos cambian la forma real de la lente dentro de sus ojos.

Sensibilidad a la luz: Una película en una cámara es uniformemente sensible a la luz. La retina humana no lo es. Por lo tanto, con respecto a la calidad de la imagen y el poder de captura, nuestros ojos tienen una mayor sensibilidad en lugares oscuros que una cámara típica.

Hay situaciones de iluminación que las cámaras digitales actuales no pueden capturar fácilmente: las fotos saldrán borrosas o en un aluvión de ruido digital. Por ejemplo, al observar una imagen de fluorescencia de células bajo un microscopio, la imagen que puede ver con sus ojos sería casi imposible de capturar con una cámara normal. Esto se debe principalmente al hecho de que la cantidad de luz que ingresa a la cámara (y a sus ojos) es muy baja.


La cámara frente al ojo humano

Este artículo comenzó después de seguir una discusión en línea sobre si una lente de 35 mm o 50 mm en una cámara de fotograma completo brinda el campo de visión equivalente a la visión humana normal. Esta discusión en particular inmediatamente profundizó en la física óptica del ojo como cámara y lente & # 8212 una comparación comprensible ya que el ojo consiste en un elemento frontal (la córnea), un anillo de apertura (el iris y la pupila), una lente y un sensor (la retina).

A pesar de todas las matemáticas impresionantes lanzadas de un lado a otro con respecto a la física óptica del globo ocular, la discusión no parecía tener sentido lógicamente, por lo que hice muchas lecturas por mi cuenta sobre el tema.

No habrá ningún beneficio directo de este artículo que te permita salir corriendo y tomar mejores fotografías, pero puede que te resulte interesante. También puede resultarle increíblemente aburrido, así que primero le daré mi conclusión, en forma de dos citas de Garry Winogrand:

Una fotografía es la ilusión de una descripción literal de cómo la cámara "vio" un fragmento de tiempo y espacio.

La fotografía no se trata de lo fotografiado. Se trata de como esa cosa aspecto fotografiado.

Básicamente, al hacer toda esta investigación sobre cómo es el ojo humano igual que una cámara, lo que realmente aprendí es cómo la visión humana es diferente a un fotografo. En cierto modo, me explicó por qué a menudo encuentro una fotografía mucho más hermosa e interesante que la escena en sí.

El ojo como sistema de cámara

Superficialmente, es bastante lógico comparar el ojo con una cámara. Podemos medir la longitud del ojo de adelante hacia atrás (aproximadamente 25 mm desde la córnea hasta la retina) y el diámetro de la pupila (2 mm contraída, 7 a 8 mm dilatada) y calcular números similares a lentes a partir de esas medidas.

Sin embargo, encontrará algunos números diferentes citados para la distancia focal del ojo. Algunos son de mediciones físicas de las estructuras anatómicas del ojo, otros de cálculos optométricos, algunos tienen en cuenta que el cristalino del ojo y el tamaño del ojo en sí cambian con las contracciones de varios músculos.

Sin embargo, para resumir, una distancia focal del ojo comúnmente citada es de 17 mm (esto se calcula a partir del valor de dioptrías optométricas). Sin embargo, el valor más comúnmente aceptado es de 22 mm a 24 mm (calculado a partir de la refracción física en el ojo). En determinadas situaciones, la distancia focal puede ser mayor.

Dado que conocemos la distancia focal aproximada y el diámetro de la pupila, es relativamente fácil calcular la apertura (f-stop) del ojo. Dada una distancia focal de 17 mm y una pupila de 8 mm, el globo ocular debería funcionar como una lente f / 2.1. Si usamos la distancia focal de 24 mm y la pupila de 8 mm, debería ser f / 3.5. De hecho, se han realizado varios estudios en astronomía para medir realmente el número f del ojo humano, y el número medido resulta ser f / 3.2 af / 3.5 (Middleton, 1958).

En este punto, los dos que leyeron hasta aquí probablemente se hayan preguntado "si la distancia focal del ojo es de 17 o 24 mm, ¿por qué todos discuten sobre si las lentes de 35 mm o 50 mm tienen el mismo campo de visión que el ojo humano?"

La razón es que la distancia focal medida del ojo no es lo que determina el ángulo de visión de la visión humana. Entraré en esto con más detalle a continuación, pero el punto principal es que solo una parte de la retina procesa la imagen principal que vemos. (El área de visión principal se llama cono de atención visual, el resto de lo que vemos es “visión periférica”).

Los estudios han medido el cono de atención visual y han descubierto que tiene unos 55 grados de ancho. En una cámara de fotograma completo de 35 mm, una lente de 43 mm proporciona un ángulo de visión de 55 grados, por lo que la distancia focal proporciona exactamente el mismo ángulo de visión que tenemos los humanos. Maldita sea si eso no está a medio camino entre 35 mm y 50 mm. Así que el argumento original ha terminado, la lente "normal" real en una SLR de 35 mm no es ni de 35 mm ni de 50 mm, está a mitad de camino.

El ojo es No un sistema de cámara

Habiendo obtenido la respuesta a la discusión original, podría haber dejado las cosas en paz y alejarme con otra trivia bastante inútil archivada para sorprender a mis amigos en línea. Pero NOOoooo. Cuando tengo un montón de trabajo que hacer, casi siempre elijo pasar un par de horas más leyendo más artículos sobre la visión humana.

Es posible que haya notado que la sección anterior omitió algunas de las analogías entre el ojo y la cámara, porque una vez que supera las simples medidas de apertura y lente, el resto de las comparaciones no encajan tan bien.

Considere el sensor del ojo, la retina. La retina tiene casi el mismo tamaño (32 mm de diámetro) que el sensor de una cámara de fotograma completo (35 mm de diámetro). Después de eso, sin embargo, casi todo es diferente.

La retina de un ojo humano

La primera diferencia entre la retina y el sensor de su cámara es bastante obvia: la retina está curvada a lo largo de la superficie posterior del globo ocular, no plana como el sensor de silicio de la cámara. La curvatura tiene una ventaja obvia: los bordes de la retina están aproximadamente a la misma distancia del cristalino que el centro. En un sensor plano, los bordes están más lejos de la lente y el centro más cerca. Advantage retina & # 8212 debería tener una mejor "nitidez de las esquinas".

El ojo humano también tiene muchos más píxeles que su cámara, alrededor de 130 millones de píxeles (¿los propietarios de cámaras de 24 megapíxeles se sienten humildes ahora?). Sin embargo, solo alrededor de 6 millones de los píxeles del ojo son conos (que ven el color), los 124 millones restantes solo ven en blanco y negro. Pero aproveche la retina de nuevo. Gran momento.

Pero si miramos más allá, las diferencias se vuelven aún más pronunciadas & # 8230

En un sensor de cámara, cada píxel se establece en un patrón de cuadrícula regular. Cada milímetro cuadrado del sensor tiene exactamente el mismo número y patrón de píxeles. En la retina hay una pequeña área central, de unos 6 mm de ancho (la mácula) que contiene la concentración más densa de fotorreceptores en el ojo. La porción central de la mácula (la fóvea) está densamente empaquetada con sólo células cónicas (sensibles al color). El resto de la mácula alrededor de esta área central de "solo color" contiene bastones y conos.

La mácula contiene aproximadamente 150.000 "píxeles" en cada cuadrado de 1 mm (compárelo con 24.000.000 píxeles distribuidos en un sensor de 35 mm x 24 mm en un 5DMkII o D3x) y proporciona nuestra "visión central" (el cono de 55 grados de atención visual mencionado anteriormente). De todos modos, la parte central de nuestro campo visual tiene mucha más capacidad de resolución que incluso la mejor cámara.

El resto de la retina tiene muchos menos "píxeles", la mayoría de los cuales son solo sensores en blanco y negro. Proporciona lo que solemos considerar "visión periférica", las cosas que vemos "por el rabillo del ojo". Esta parte detecta muy bien los objetos en movimiento, pero no proporciona la resolución suficiente para leer un libro, por ejemplo.

El campo de visión total (el área en la que podemos ver el movimiento) del ojo humano es de 160 grados, pero fuera del cono de atención visual no podemos reconocer realmente los detalles, solo formas amplias y movimiento.

Las ventajas del ojo humano en comparación con la cámara se reducen un poco a medida que dejamos la retina y viajamos de regreso al cerebro. La cámara envía los datos de cada píxel desde el sensor a un chip de computadora para procesarlos en una imagen. El ojo tiene 130 millones de sensores en la retina, pero el nervio óptico que transporta las señales de esos sensores al cerebro tiene solo 1,2 millones de fibras, por lo que menos del 10% de los datos de la retina se transmite al cerebro en un instante dado. (En parte, esto se debe a que los sensores de luz química en la retina tardan un tiempo en "recargarse" después de ser estimulados. En parte, porque el cerebro no podría procesar tanta información de todos modos).

Y, por supuesto, el cerebro procesa las señales de forma muy diferente a la de una cámara fotográfica. A diferencia de los clics intermitentes del obturador de una cámara, el ojo envía al cerebro un video de alimentación constante que se procesa en lo que vemos. Una parte subconsciente del cerebro (el núcleo geniculado lateral si debe saberlo) compara las señales de ambos ojos, ensambla las partes más importantes en imágenes tridimensionales y las envía a la parte consciente del cerebro para el reconocimiento de imágenes y más. Procesando.

El cerebro subconsciente también envía señales al ojo, moviendo el globo ocular ligeramente en un patrón de exploración para que la visión nítida de la mácula se mueva a través de un objeto de interés. En unas pocas fracciones de segundo, el ojo envía varias imágenes y el cerebro las procesa en una imagen más completa y detallada.

El cerebro subconsciente también rechaza gran parte del ancho de banda entrante, enviando solo una pequeña fracción de sus datos al cerebro consciente. Puede controlar esto hasta cierto punto: por ejemplo, en este momento su cerebro consciente le está diciendo al núcleo geniculado lateral "envíeme información solo desde la visión central, concéntrese en las palabras escritas en el centro del campo de visión, muévase de izquierda a derecha". justo para que pueda leerlos ”. Deje de leer por un segundo y sin mover los ojos intente ver lo que hay en su campo de visión periférico. Hace un segundo, no "veías" ese objeto a la derecha oa la izquierda del monitor de la computadora porque la visión periférica no se estaba transmitiendo al cerebro consciente.

Si se concentra, incluso sin mover los ojos, al menos puede notar que el objeto está allí. Sin embargo, si desea verlo con claridad, tendrá que enviar otra señal cerebral al ojo, desplazando el cono de atención visual hacia ese objeto. Tenga en cuenta también que ambos no pueden leer el texto y ver los objetos periféricos & # 8212 el cerebro no puede procesar tantos datos.

El cerebro no está terminado cuando la imagen ha llegado a la parte consciente (llamada corteza visual). Esta área se conecta fuertemente con las porciones de memoria del cerebro, lo que le permite "reconocer" objetos en la imagen. Todos hemos experimentado ese momento en el que vemos algo, pero no reconocemos qué es durante uno o dos segundos. Una vez que lo hemos reconocido, nos preguntamos por qué en el mundo no fue obvio de inmediato. Es porque le tomó al cerebro una fracción de segundo acceder a los archivos de memoria para el reconocimiento de imágenes. (Si aún no lo ha experimentado, espere unos años. Lo hará).

En realidad (y esto es muy obvio) la visión humana es video, no fotografía. Incluso cuando mira una fotografía, el cerebro está tomando múltiples "instantáneas" mientras mueve el centro de enfoque sobre la imagen, apilándolas y ensamblándolas en la imagen final que percibimos. Mire una fotografía durante unos minutos y se dará cuenta de que subconscientemente su ojo se ha desplazado sobre la imagen, obteniendo una visión general de la imagen, enfocándose en los detalles aquí y allá y, después de unos segundos, dándose cuenta de algunas cosas al respecto. no eran obvios a primera vista.

¿Entonces cuál es el punto?

Bueno, tengo algunas observaciones, aunque están muy lejos de "¿qué lente tiene el campo de visión más similar a la visión humana?". Esta información me hizo pensar en lo que me fascina tanto con algunas fotografías y no tanto con otras. No sé que ninguna de estas observaciones sea cierta, pero son pensamientos interesantes (al menos para mí). Todos ellos se basan en un hecho: cuando realmente me gusta una fotografía, paso uno o dos minutos mirándola, dejando que mi visión humana la escanee, captando los detalles o quizás preguntándome sobre los detalles que no son visibles.

Las fotografías tomadas en un ángulo de visión "normal" (35 mm a 50 mm) parecen conservar su atractivo independientemente de su tamaño. Incluso las imágenes de tamaño web tomadas a esta distancia focal mantienen la esencia de la toma. La foto de abajo (tomada a 35 mm) tiene muchos más detalles cuando se ve en una imagen grande, pero la esencia es obvia incluso cuando es pequeña. Quizás el procesamiento del cerebro se sienta más cómodo reconociendo una imagen que ve en su campo de visión normal. Quizás sea porque los fotógrafos tendemos a enfatizar inconscientemente la composición y los sujetos en una fotografía de ángulo de visión "normal".

La foto de arriba demuestra algo más sobre lo que siempre me he preguntado: ¿nuestra fascinación y amor por la fotografía en blanco y negro ocurre porque es una de las pocas formas en que los receptores de cono denso (solo color) en nuestra mácula se ven obligados a enviar una escala de grises? imagen a nuestro cerebro?

Quizás a nuestro cerebro le gusta mirar solo el tono y la textura, sin que los datos de color obstruyan ese estrecho ancho de banda entre el globo ocular y el cerebro.

Al igual que las tomas de "ángulo normal", las tomas con teleobjetivo y macro a menudo se ven muy bien en impresiones pequeñas o archivos JPG de tamaño web. Tengo un 8 × 10 de un ojo de elefante y # 8217 y una macro impresión de tamaño similar de una araña en la pared de mi oficina que incluso desde el otro lado de la habitación se ve muy bien. (Al menos me quedan muy bien, pero notarás que están colgados en mi oficina. Los he colgado en un par de otros lugares de la casa y me han dicho con tacto que "realmente no van con los muebles de la sala ”, por lo que tal vez no se vean tan bien para todos).

No hay una gran composición ni otros factores que hagan que esas fotos sean atractivas para mí, pero las encuentro fascinantes de todos modos. Quizás porque incluso en un tamaño pequeño, mi visión humana puede ver detalles en la fotografía que nunca pude ver mirando a un elefante o una araña a "simple vista".

Por otro lado, cuando obtengo un buen gran angular o una toma panorámica, apenas me molesto en publicar un gráfico de tamaño web o hacer una letra pequeña (y no voy a comenzar con este artículo). Lo quiero impreso en GRANDE. Creo que tal vez para que mi visión humana pueda escanear a través de la imagen y distinguir los pequeños detalles que se pierden por completo cuando se reduce. Y cada vez que hago una impresión grande, incluso de una escena en la que he estado una docena de veces, noto cosas en la fotografía que nunca había visto cuando estaba allí en persona.

Quizás el 'video' que mi cerebro está haciendo mientras escanea la impresión proporciona muchos más detalles y lo encuentro más agradable de lo que daría la composición de la foto cuando se imprimió en pequeño (o que vi cuando estaba realmente en la escena) .

Y quizás el "escaneo" subconsciente que hace mi visión a través de una fotografía explica por qué cosas como la "regla de los tercios" y el enfoque selectivo atraen mi atención hacia ciertas partes de la fotografía. Tal vez los fotógrafos simplemente descubrimos cómo el cerebro procesa las imágenes y lo aprovechamos a través de la experiencia práctica, sin conocer toda la ciencia involucrada.

Pero supongo que mi única conclusión real es la siguiente: una fotografía NO es exactamente lo que mi ojo y mi cerebro vieron en la escena. Cuando obtengo una buena toma, es algo diferente y algo mejor, como lo que dijo Winogrand en las dos citas anteriores, y también en esta cita:

Ves que algo está sucediendo y lo golpeas. O obtienes lo que viste o obtienes algo más & # 8212 y lo que sea mejor imprime.

Sobre el Autor: Roger Cicala es el fundador de LensRentals. Este artículo se publicó originalmente aquí.


¿Cuál es el equivalente a la velocidad de obturación en el ojo humano? - biología

La forma en que el ojo enfoca la luz es interesante, porque la mayor parte de la refracción que tiene lugar no la realiza la lente en sí, sino el humor acuoso, un líquido en la parte superior de la lente. La luz es refractada cuando entra al ojo por este líquido, refractada un poco más por el cristalino y luego un poco más por el humor vítreo, la sustancia gelatinosa que llena el espacio entre el cristalino y la retina.

La lente es fundamental para formar una imagen nítida, sin embargo, esta es una de las características más sorprendentes del ojo humano, que se puede ajustar tan rápido al enfocar objetos a diferentes distancias. Este proceso de ajuste se conoce como acomodación.

Considere la ecuación de la lente:

Con una cámara, la lente tiene una distancia focal fija. Si se cambia la distancia del objeto, la distancia de la imagen (la distancia entre la lente y la película) se ajusta moviendo la lente. Esto no se puede hacer con el ojo humano: la distancia de la imagen, la distancia entre el cristalino y la retina, es fija. Si se cambia la distancia del objeto (es decir, el ojo está tratando de enfocar objetos que están a diferentes distancias), entonces la distancia focal del ojo se ajusta para crear una imagen nítida. Esto se hace cambiando la forma del cristalino, un músculo conocido como músculo ciliar hace este trabajo.

Corrección de la miopía

Una persona miope solo puede crear imágenes nítidas de objetos cercanos. Los objetos que están más lejos se ven borrosos porque el ojo los enfoca en un punto frente a la retina.

Necesitamos una lente divergente para divergir los rayos de luz lo suficiente para que cuando los rayos converjan en el ojo, converjan en la retina, creando una imagen enfocada.

Corrección de la hipermetropía

Una persona con visión de futuro solo puede crear imágenes claras de objetos que están lejos. Los objetos cercanos se enfocan detrás de la retina, por lo que se ven borrosos.

Se utiliza una lente convergente, lo que permite que las imágenes se enfoquen nítidamente en la retina.


¿Cuál es el equivalente a la velocidad de obturación en el ojo humano? - biología

¿Cuántos fotogramas por segundo puede ver el ojo humano?

¿Cuántos fotogramas por segundo debo tener para que los movimientos parezcan fluidos?

¿Cuántos fotogramas por segundo hace que la película deje de parpadear?

¿Cuál es el marco más corto que notaría un ojo humano?

Imagínese viendo una película de una niebla increíblemente lenta. No ve bordes ni bordes afilados. Ahora reproduce la película a 10 fps. Se verá fluido. ¿Por qué? Porque la diferencia de un fotograma a otro es muy baja. El extremo sería una pared totalmente inmóvil: entonces 1 fps equivaldría a 1000 fps.

Ahora toma tu mano y muévela lentamente frente a tu cara. Luego muévelo más rápido hasta que quede borroso. ¿Cuántos fotogramas por segundo ves? Debe ser poco, porque solo ves una mano borrosa sin poder distinguir cada cambio por milisegundo, pero deben ser muchos, porque ves un movimiento fluido sin ninguna interrupción ni salto. Así que este es el truco del ojo en ambos ejemplos: El desenfoque simula fluidez, la nitidez simula tartamudeo. (Es similar a & quot la rotación simula la gravedad & quot.)


Ejemplo 1 de desenfoque de movimiento: captura de una actuación en directo de The Corrs & quot ¿Qué puedo hacer? & Quot en MTV Unpluged


Ejemplo 2 de desenfoque de movimiento: captura desde & quotInstinto básico& quot, donde ves a una mujer hundiendo un picahielos en el cuerpo de un hombre mientras está sentada sobre él.

El hecho es que el ojo humano percibe el movimiento típico de una película de cine como fluido a aproximadamente 18 fps, debido a su desenfoque.

Si pudieras ver tu mano en movimiento muy clara y nítida, entonces tu ojo necesitaba tomar más instantáneas para que pareciera fluida. Si tuviera una película con 50 imágenes muy nítidas y nítidas por segundo, su ojo distinguiría muchos detalles de vez en cuando y tendría la sensación de que la película tartamudea.


También a 25 fps pero sin desenfoque de movimiento: imágenes de la historia de la BBC sobre Ed Gein, el asesino, cuyo caso inspiró a Hitchcock a hacer & quotPsicópata& quot y Jonathan Demme para hacer & quotSilencio de los inocentes& quot. La música es de CNN's & quotCreadores de mercado& quot (0,52 MB).

Piensa en los juegos modernos: ¿alguna vez has jugado a Quake con 18 fps? No hay desenfoque de movimiento en esos juegos, por lo que necesita muchos fotogramas por segundo más.

Sin embargo, ves las manchas y la suciedad de los fotogramas individuales en una película de cine, ¿no es así? Y esas películas se reproducen a 24 fps. Entonces, hay una diferencia entre ver los movimientos fluidos y ver que hay algo (suciedad) en absoluto. Sigue leyendo.

Imagina que miras un brillante pared blanca. Ahora esta pared se vuelve totalmente negra durante 1/25 de segundo. ¿Lo notarías? Seguramente lo harías. 1/50 de segundo, bueno, quizás más difícil. ¿1/100 de segundo? Muy dificil. Piense en sus televisores de 100 Hz. Se les llama sin parpadeo, porque a velocidades de parpadeo de 100 veces por segundo, uno se detiene para notar la oscuridad de la pantalla del televisor, aunque la pantalla del televisor no brilla todo el tiempo, sino que pulsa 100 veces por segundo. El brillo devora la oscuridad.

Vuelva a realizar la & quotPrueba 1: Suavidad de movimiento & quot. You have a fluid film with 24 fps. The film roll has to roll thru the projector. To not see it rolling you have to make the picture black while the film rolls on. You would have to blacken the screen 24 times per second. But 24 black moments are too visible. Thus you have smooth motions but flicker.
The solution is: Show each frame 3 times and make the screen black 3 times per frame. This makes the black moments shorter and more frequent: "Triple the refresh rate". So you see about 72fps in the cinema, where 3 consecutive frames are the same. Strange solution? Solution of an analog world. And an example how "Brightness eats darkness".

Let's do the opposite test to "Sensitivity to darkness". Let's talk about, how sensitive the eye is to brightness.

Imagine yourself in a very dark room. You have been there for hours and it's totally black. Now light flashes right in front of you. Let's say as bright as the sun. Would you see it, when it's only 1/25th of a second? You surely would. 1/100th of a second? Si. 1/200th of a second? Si. Tests with Air force pilots have shown, that they could identificar the plane on a flashed picture that was flashed only for 1/220th of a second.

That is identifying. So it's pretty safe to say, that recognizing, that SOME light was there is possible with 1/300th of a second. Now if you take into consideration, that you have two eyes with different angles and different areas of sensitivity (you probably know, that you see TV flickering best, when you don't look directly into the TV screen, but with the sides of your eyes) and you can move/rotate/shake your head and your eyes to a different position, you probably needed flashes as short as 1/500th of second to make sure, nobody sees them in any case.

Now, what happens if I flashed you 1/500th of a second once in a second for 365 days directly into your eye? Would you feel something strange? Would it feel different than without it? Would you notice that something is wrong?

So, we should add a security value, to make sure nobody sees ANYTHING even unconsciously and feels comfortable about it.

Maybe the industry didn't add enough security factor to CDs and that's why many people still feel that analog is sometimes better. It's like in a room full of neon lights. You just know that something isn't right.

The reasons for the results of Test 2 and Test 3 are afterimages. Bright light creates an afterimage in the eye. The same way you see light in your eye seconds AFTER the doctor shined a light into it. This afterlight makes it possible to see what was there seconds ago. The brightness of the afterimage of the cinema canvas produces such afterimages and thus helps the movie to be flickerfree.

So the question "How many frames do I need to make the movie flickerfree" = to not see the blackness between the frames (about 70-100 fps) doesn't answer the question "How short can a bright image be to see it?" = the Airforce question and this doesn't answer the question "How short can a (not bright) image be to see it?".

So the conclusion is: To make movies/Virtual Reality perfect, you'd have to know what you want. To have a perfect illusion of everything that can flash, blink and move you shouldn't go below 500 fps.

  1. If your screen refreshes at 85Hz and your game runs at 50Hz (=50fps): Are you sure that you don't need to synchronize them? Are you sure, you don't need to play with a multiple of 85 to enjoy synchronized refresh updates? So the game running at 85fps may better than at 100fps. Maybe even a TFT display was better. It displays only with about 40fps but progressively.
  2. Even though single eye cells (rods and cones) may have their limitations due to their chemical reaction times and due to the distance to the brain, you cannot be sure how they interact or complement or synchronize. If 1 cell is able to perceive 10fps, 2 cells may be able to perceive 20fps by complementing one another. So don't confuse "The human eye" with "The cell".
  3. Some eye cells are reacting only when a stimulus is moving. Some react when it's moving from A to B, some when it's moving from D to Z. This may complicate frame-based simulation of reality.
  4. Motion of your body could alter the way how you perceive. Do you get headaches after watching 3 movies in the cinema in a row? Maybe that's because you didn't move with the filmed motion? This is the reason for front-passengers' indispositions (= somebody else moved the car) and seasickness (=the sea moved the ship suddenly). Maybe this is the reason why 3D gaming glasses will never work perfectly. And this has nothing to do with frame rates.
  5. When you look straight (= with the center of your eyes) it's not the same as if it was with the sides of your eyes. The sides are more sensitive to brightness and to flickering. The next time you are in the cinema do the following: Look up to the ceiling while the movie is playing. Especially during bright/white scenes you will clearly notice that the movie flickers.
  6. Sensitivity to blue is different than to green: You see green best, even when it's dark, e.g. leaves in a forest at night. So "blue frames per second" may differ from "green frames per second"
  7. Do you like to play Quake? Do you think "More is better"? Maybe that's why you think 200fps is better than 180fps.
  8. Do you think moving in 3D games is stuttering? Maybe your mouse scans motion with too little dpi (Dots Per Inch) or fps (Frames Per Second)?
  9. Do you think it is important that a graphics card can display 250 fps in your favourite game, because that's a feature they write about in PC magazines and on covers?
    Now this is just a figure to show how fast the card is, not to show that you need such a high frame rate. It's like with cars: 100km/h in 5 seconds. When will you ever need to go 100km/h in 5 seconds?

So what is "Enough fps"? I don't know, because nobody went there so far. Maybe 120fps is enough, maybe you will get headaches after 3 hours. Seeing framewise is simply not the way how the eyerain system works. It works with a continuous flow of lightinformation. (Similar to the effects of cameras' flashlights ("red eyes"): flashing is simply not the way how we see). So there are still questions. Maybe you need as much as 4000fps, maybe less, maybe more.

The same question as for fps will arise for resolution. How many pixels can the human eye see? Does 2000x1000 (=Star Wars Episode II resolution) look like reality? Or is it just enough to make a film "cinemable"?


3. SENSITIVITY & DYNAMIC RANGE

Dynamic range* is one area where the eye is often seen as having a huge advantage. If we were to consider situations where our pupil opens and closes for different brightness regions, then yes, our eyes far surpass the capabilities of a single camera image (and can have a range exceeding 24 f-stops). However, in such situations our eye is dynamically adjusting like a video camera, so this arguably isn't a fair comparison.

Eye Focuses on Background Eye Focuses on Foreground Our Mental Image

If we were to instead consider our eye's instantaneous dynamic range (where our pupil opening is unchanged), then cameras fare much better. This would be similar to looking at one region within a scene, letting our eyes adjust, and not looking anywhere else. In that case, most estimate that our eyes can see anywhere from 10-14 f-stops of dynamic range, which definitely surpasses most compact cameras (5-7 stops), but is surprisingly similar to that of digital SLR cameras (8-11 stops).

On the other hand, our eye's dynamic range also depends on brightness and subject contrast, so the above only applies to typical daylight conditions. With low-light star viewing our eyes can approach an even higher instantaneous dynamic range, for example.

*Quantifying Dynamic Range. The most commonly used unit for measuring dynamic range in photography is the f-stop, so we'll stick with that here. This describes the ratio between the lightest and darkest recordable regions of a scene, in powers of two. A scene with a dynamic range of 3 f-stops therefore has a white that is 8X as bright as its black (since 2 3 = 2x2x2 = 8).

Photos on left (matches) and right (night sky) by lazlo and dcysurfer, respectively.

Sensibilidad. This is another important visual characteristic, and describes the ability to resolve very faint or fast-moving subjects. During bright light, modern cameras are better at resolving fast moving subjects, as exemplified by unusual-looking high-speed photography. This is often made possible by camera ISO speeds exceeding 3200 the equivalent daylight ISO for the human eye is even thought to be as low as 1.

However, under low-light conditions, our eyes become much more sensitive (presuming that we let them adjust for 30+ minutes). Astrophotographers often estimate this as being near ISO 500-1000 still not as high as digital cameras, but close. On the other hand, cameras have the advantage of being able to take longer exposures to bring out even fainter objects, whereas our eyes don't see additional detail after staring at something for more than about 10-15 seconds.


Eagles have high-definition vision

When compared to other creatures, human eyesight does see bright, vivid colour crisply and clearly. But this doesn’t hold a candle to how eagles perceive the world. Many birds of prey can see colours on an even wider spectrum than humans do. Their eyes pick up more shades and contrasts. They can even see ultraviolet (UV) light. The ability to make out UV light helps these birds spot traces left by prey—urine or fur, for example. This make their prey stand out against the uniform colour of a field.


Scientists Discover That the Shape of Light Changes Our Vision

Scientists at the UNIGE have shown that the response of the retina to light depends not only on the intensity of the light perceived by the eye, but also on its temporal shape and the order in which the colors are organized.

Vision is a complex process that has been successfully deciphered by many disciplines – physics, biochemistry, physiology, neurology, etc. The retina captures light, the optic nerve transmits electrical impulses to the brain, which ultimately generates the perception of an image. Although this process takes some time, recent studies have shown that the first stage of vision, the perception of light itself, is extremely fast. But the analysis of this decisive step was carried out on molecules in solution in the laboratory.

Scientists from the University of Geneva (UNIGE), in collaboration with EPFL and the University Hospitals of Geneva (HUG), Switzerland, reproduced the experiment on mice, in order to observe the processing of light by a living organism in all its complexity. This non-invasive study shows that light energy alone does not define the response of the retina. Its shape –short or long– also has an impact on the signal sent to the brain to form an image. This discovery, published in the journal Avances de la ciencia, opens up a new field of research into vision, diagnostics, and possibly new curative possibilities.

The cellular mechanism of vision has been successfully studied thanks to the collaboration of several disciplines. “In the eye, the first stage of vision is based on a small molecule – the retinal – which, on contact with light, changes shape,” explains Geoffrey Gaulier, researcher at the Applied Physics Department of the UNIGE Faculty of Science and first author of the study. “When the retinal alters its geometric form, it triggers a complex mechanism that will result in a nerve impulse generated in the optic nerve.”

This process takes some time between the moment the eye perceives the light and the moment the brain decodes it. Physicists looked at the very first molecule in the chain, retinal, to see how long it took to switch its shape. They isolated this molecule in a cuvette and subjected it to laser pulses to test its reaction speed. To their great surprise, the molecule reacted in about 50 femtoseconds!

“By way of comparison, one femtosecond compared to one second is the equivalent of one second compared to the age of the Universe,” points out Jean-Pierre Wolf, professor at the UNIGE Physics Section and the last author of the research. “This is so fast that we wondered whether this speed could be achieved by the molecule only when it was isolated, or whether it possessed the same speed in a living organism in all its complexity.”

Light intensity and shape define the eye’s sensitivity

To study this first stage of vision in detail, the scientists called on biologists, notably Ivan Rodriguez and Pedro Herrera, professors at the UNIGE Faculties of Science and Medicine, respectively, who placed a contact lens and performed an electroretinogram on mice. “This method, which is totally non-invasive, makes it possible to measure the intensity of the signal sent to the optic nerve,” continues Jean-Pierre Wolf. When the light hits the retina, they were able to observe an electrical voltage at the cornea, thanks to an electronic amplifier. And their results showed that this stage took place with the same extreme speed as when the molecule is isolated!

The team continued the study by varying the shape of the pulses over time. “We always send the same energy, the same number of photons, but we change the shape of the light pulse. Sometimes the pulse is short, sometimes long, sometimes sliced, etc,” explains Geoffrey Gaulier. Indeed, changing the shape should not induce any variation in the response of the retina, because until now it was thought that only the number of photons captured by the eye played a role. “But this is not the case!” says the Geneva-based researcher. This result could be explained with the help of computer simulations performed in the group of Ursula Röthlisberger from EPFL.

The scientists observed that the eye did not react in the same way depending on the shape of the light, even though the light energy was identical. “We also discovered that the eye’s reaction differed according to the order in which the colors were varied, for example as in a temporal rainbow, even though they follow each other extremely quickly,” continues Jean-Pierre Wolf. In short, the retina believes that there is more or less light depending on the shape of the light, while the energy is similar, and therefore sends a stronger or weaker current to the brain depending on its response.

This discovery, which was made in the context of a Swiss National Science Foundation (SNSF) Sinergia project, opens up a new field of research into vision. “Now that we know that the shape of light plays a role in perception, we can use this new knowledge to make the eye work differently,” proposes Jean-Pierre Wolf. Areas of investigation into new possibilities for diagnosing or possibly treating eye weaknesses can now be developed.


Ver el vídeo: Belichtungszeit (Diciembre 2021).