¿La gente ve el mundo en pequeños píxeles? Y si es así, ¿cuál es la resolución del DPI humano?

Esa es una pregunta complicada, por varias razones, entre las cuales se encuentra el hecho de que mucho de lo que “vemos” en realidad es reconstruido por nuestro cerebro.

La respuesta más simple es, sí, la retina del ojo está forrada con sensores y esos sensores son discretos y tienen un tamaño finito.

Pero se complica cuando intentas determinar la “resolución” como lo harías con una cámara (que está en píxeles, no en DPI); no hay una correspondencia directa entre el tamaño de un píxel y el tamaño de un objeto en el mundo exterior ). El ojo humano solo tiene visión de alta resolución en un campo de visión muy estrecho. La mayor parte de su campo de visión es una resolución increíblemente baja. No te das cuenta porque tu cerebro llena los huecos y porque mueves los ojos constantemente para que las cosas que te interesan estén centradas en la parte de mayor resolución de tu campo de visión. (Puedes entrenarte para ver qué tan pobre es la mayor parte de tu campo visual. Una vez que lo has hecho, tiendes a notarlo todo el tiempo).

Si realiza una búsqueda en Google para la resolución del ojo humano, verá muchas respuestas que sugieren que la resolución es bastante grande. He visto sitios que afirman que la visión humana está al norte de los 500 megapíxeles, por ejemplo. Pero eso realmente no es cierto. Toma la resolución en la fóvea, el centro de tu campo de visión, y la multiplica en todo tu campo de visión. Esa no es en absoluto la forma en que funciona tu ojo.

Los números que he visto en sitios web que tienen en cuenta que solo el centro de su campo de visión es de alta resolución y que la mayor parte de su campo de visión es bastante lamentable, por lo general parecen estimar alrededor de la marca de 5–8 megapíxeles.

No, no lo hacemos. El ojo humano contiene células individuales sensibles a la luz, pero no están organizadas como “píxeles” ni el cerebro las interpreta de esa manera. También existe una interacción entre las células adyacentes, junto con lo que puede describirse mejor en forma simple como un tipo de compresión / filtrado que se produce entre la retina y los centros visuales del cerebro, lo que elimina la percepción de cualquier cosa de forma remota, como píxeles discretos. Además, lo que creemos que vemos es, a falta de un término mejor, hasta cierto punto una interpretación de los datos sensoriales sin procesar proporcionados por la retina, con parte de la imagen percibida “completada” y sintetizada por el sistema visual. Por ejemplo, no vemos el punto ciego en nuestro campo de visión, a pesar de que hay una pequeña porción de la retina, cerca del centro del campo de visión, que no tiene células sensibles a la luz.

Las medidas de resolución tales como DPI simplemente no se aplican aquí. Lo que utilizamos en cambio son medidas de la agudeza espacial de la visión, que indica la cantidad de detalles que se pueden resolver en una parte del campo visual. En los seres humanos, la agudeza máxima generalmente se considera en alrededor de 60 ciclos (o pares de líneas) por grado visual. Esto se aplica solo en el centro del campo, y solo a los patrones en blanco y negro. Lejos del centro, o cuando hablamos de resolver las diferencias de color, nuestra agudeza es considerablemente peor.

No veo “píxeles”, pero sin mis gafas veo cuadros como impresionistas, millones de puntos y manchas de color.