La capacité de percevoir le monde en trois dimensions représente l’une des prouesses les plus fascinantes de notre système visuel. Cette fonction biologique sophistiquée nous permet de naviguer avec précision dans notre environnement, d’évaluer instantanément les distances, de saisir des objets en mouvement et d’apprécier la profondeur spatiale qui nous entoure. Pourtant, cette perception du relief que nous considérons comme naturelle résulte d’un processus neurobiologique d’une complexité remarquable. Chaque instant de notre vie éveillée, nos yeux captent des images bidimensionnelles que notre cerveau transforme miraculeusement en une représentation tridimensionnelle cohérente. Cette transformation implique une orchestration précise entre les structures oculaires, les voies nerveuses et les aires cérébrales spécialisées. Comprendre les mécanismes qui sous-tendent cette capacité visuelle extraordinaire constitue un enjeu majeur pour la recherche médicale, notamment pour développer des traitements adaptés aux pathologies qui altèrent la vision stéréoscopique.

L’anatomie du système visuel binoculaire humain

Le système visuel humain repose sur une architecture anatomique remarquablement sophistiquée, où chaque composant joue un rôle précis dans la construction de notre perception tridimensionnelle. L’organisation de ce système commence au niveau périphérique avec les globes oculaires et se prolonge jusqu’aux structures cérébrales les plus élaborées.

La structure de la rétine et la distribution des photorécepteurs

La rétine constitue la membrane photosensible tapissant le fond de l’œil, où s’opère la première étape de transformation de la lumière en signal nerveux. Cette structure complexe contient environ 130 millions de photorécepteurs répartis en deux catégories principales : les cônes et les bâtonnets. Les cônes, au nombre d’environ 6 millions par œil, assurent la vision diurne et la perception des couleurs, tandis que les bâtonnets, bien plus nombreux avec 120 millions d’unités, permettent la vision nocturne. Cette distribution n’est pas uniforme sur toute la surface rétinienne : la densité des photorécepteurs varie considérablement selon les régions, avec une concentration maximale au niveau de la zone centrale.

Le rôle de la fovéa centralis dans la perception de la profondeur

La fovéa centralis, petite dépression d’environ 1,5 millimètre de diamètre située au centre de la macula, représente la zone de vision la plus précise de la rétine. Cette région contient exclusivement des cônes densément compactés, avec une concentration pouvant atteindre 150 000 cellules par millimètre carré. Lorsque vous fixez un objet, c’est précisément son image qui se projette sur cette zone privilégiée de chaque rétine. L’acuité visuelle exceptionnelle de la fovéa s’avère cruciale pour la perception fine des détails nécessaires au calcul précis de la disparité binoculaire, élément fondamental de la vision stéréoscopique.

Les voies optiques du chiasma optique au cortex visuel primaire V1

Les informations visuelles captées par les cellules ganglionnaires rétiniennes cheminent via leurs axones qui constituent le nerf optique. Au niveau du chiasma optique, structure cruciale située à la base du cerveau, s’opère une réorganisation particulière des fibres nerveuses. Les axones provenant de la partie médiane de chaque rétine (région nasale) croisent la ligne médiane pour rejoindre le côté opposé du cerveau, tandis que ceux iss

eux provenant de la région temporale (latérale) conservent un trajet ipsilatéral, c’est-à-dire qu’ils restent du même côté. Cette organisation aboutit à une projection visuelle bilatérale : chaque hémisphère cérébral reçoit les informations issues de la moitié droite ou gauche du champ visuel, mais en provenance des deux yeux. Après le chiasma, les fibres se regroupent en tractus optiques, synapsent dans le corps géniculé latéral du thalamus, puis projettent via les radiations optiques vers le cortex visuel primaire V1, situé dans le lobe occipital. C’est dans cette région corticale, organisée en cartes rétinotopiques, que débute véritablement l’analyse fine de la disparité binoculaire, étape indispensable à la reconstruction d’une vision tridimensionnelle stable.

La distance interpupillaire moyenne et son impact sur la stéréoscopie

La distance interpupillaire (DIP) correspond à l’écart entre les centres des deux pupilles, en général autour de 6 à 6,5 cm chez l’adulte. Ce paramètre anatomique, souvent mesuré par les opticiens lors de la fabrication de lunettes, conditionne la quantité de disparité binoculaire disponible pour le cerveau. Plus les yeux sont écartés, plus la différence de points de vue entre les deux rétines est marquée, ce qui augmente le potentiel de perception de profondeur pour des objets situés à moyenne distance. À l’inverse, une DIP très faible réduit la base stéréoscopique et peut diminuer la finesse de la perception en relief, surtout pour les tâches nécessitant une précision millimétrique, comme la chirurgie ou certaines pratiques sportives.

Au cours du développement, la distance interpupillaire augmente progressivement avec la croissance du crâne, ce qui modifie le calibrage de la vision binoculaire chez l’enfant. Le cerveau doit alors ajuster en permanence ses calculs de profondeur afin de maintenir une vision stéréoscopique confortable. C’est l’une des raisons pour lesquelles les dispositifs de vision 3D (casques de réalité virtuelle, écrans stéréoscopiques) intègrent souvent un réglage de DIP, permettant d’aligner les images virtuelles sur la géométrie réelle de vos yeux. Un mauvais réglage peut entraîner fatigue visuelle, céphalées, voire une gêne marquée, en particulier chez les sujets présentant déjà une fragilité de la convergence oculaire.

Les mécanismes neuronaux de la stéréopsie

Si l’anatomie prépare le terrain, ce sont les mécanismes neuronaux qui réalisent l’exploit de transformer deux images planes en une perception riche de profondeur. La stéréopsie repose sur une série d’algorithmes biologiques qui comparent, associent et intègrent d’infimes différences entre les signaux issus des deux rétines. En quelques dizaines de millisecondes seulement, le cerveau extrait des décalages angulaires de l’ordre de quelques secondes d’arc, bien en dessous de ce que nous pourrions consciemment percevoir. Comment une telle précision est-elle possible ?

La disparité binoculaire horizontale et le calcul des décalages rétiniens

Lorsque vous fixez un point dans l’espace, son image tombe exactement sur des zones correspondantes de vos deux fovéas. En revanche, tous les objets situés devant ou derrière ce plan de fixation se projettent sur des positions légèrement différentes sur chaque rétine : c’est la disparité binoculaire horizontale. On distingue classiquement les disparités croisée (objet situé en avant du plan de fixation) et non croisée (objet situé en arrière). La magnitude de cette disparité, exprimée en degrés ou en secondes d’arc, fournit une information directe sur la profondeur relative des objets.

Le cerveau réalise en permanence un calcul de décalages rétiniens entre les deux yeux, un peu comme un logiciel de traitement d’images qui superposerait deux photos pour en déduire une carte de profondeur. Plus un objet présente une disparité importante, plus il est perçu comme proche ou éloigné du plan de fixation. Ce mécanisme est particulièrement efficace dans la zone dite de vision stéréoscopique fine, généralement comprise entre 30 cm et 10 m environ. Au-delà, la disparité devient trop faible pour fournir un indice fiable, et d’autres signaux, comme la perspective ou la taille apparente, prennent le relais.

Les neurones détecteurs de disparité dans le cortex strié V1

Au niveau du cortex visuel primaire V1, des neurones spécialisés se comportent comme de véritables détecteurs de disparité. Chaque cellule reçoit des entrées des deux yeux et présente un champ récepteur binoculaire, organisé de telle sorte qu’elle réagit préférentiellement à une configuration particulière de décalage entre les deux images. Certains neurones sont ainsi maximement activés par une disparité croisée spécifique, d’autres par une disparité non croisée, et d’autres encore par une absence de disparité, correspondant au plan de fixation.

On peut comparer ces neurones à des “règles graduées” neuronales, chacune étant réglée sur une valeur de profondeur relative. En combinant l’activité de milliers de ces unités élémentaires, le cerveau obtient une carte dense de disparité sur l’ensemble du champ visuel. Des études en imagerie fonctionnelle et en électrophysiologie ont montré que ces réponses à la disparité apparaissent très précocement, dès 60 à 80 millisecondes après la présentation du stimulus, soulignant la rapidité impressionnante de la vision tridimensionnelle humaine.

Le traitement dans les aires visuelles extrastriées V2 et V3

Au-delà de V1, les informations sur la profondeur sont relayées vers des aires visuelles extrastriées comme V2 et V3, où le traitement devient plus complexe et plus intégré. Dans ces régions, les neurones ne codent plus uniquement de simples différences de position entre les deux rétines, mais commencent à représenter des surfaces en 3D, des contours, et même des formes volumétriques entières. Certaines cellules de V2 sont particulièrement sensibles aux frontières d’objets définies uniquement par la disparité, même en l’absence de contraste de luminance, signe que la profondeur devient un attribut visuel à part entière.

Plus en avant encore, dans des aires comme V3A, MT ou le cortex intrapariétal, la vision 3D est intégrée avec les informations de mouvement et de localisation spatiale nécessaires à l’action. C’est notamment dans ces régions que se construit la représentation tridimensionnelle utilisée pour guider vos gestes, comme attraper un objet en mouvement ou évaluer la trajectoire d’une balle. On peut dire que V1 et V2 calculent la géométrie de la profondeur, tandis que les aires pariétales et temporales l’utilisent pour la planification motrice et la reconnaissance des formes.

L’algorithme de correspondance stéréoscopique du cerveau

Pour transformer deux images en une seule scène cohérente, le cerveau doit résoudre ce que les scientifiques appellent le problème de correspondance stéréoscopique : déterminer quels points de l’image gauche correspondent aux mêmes points de l’image droite. Cette tâche est loin d’être triviale, surtout dans des scènes complexes où de nombreux objets se chevauchent. Imaginez essayer de faire coïncider manuellement des milliers de pixels entre deux photos légèrement décalées : c’est précisément le défi que notre système visuel relève en continu, sans que nous en ayons conscience.

Les neurosciences suggèrent que le cerveau applique plusieurs “règles” implicites, proches d’algorithmes utilisés en vision par ordinateur. Il favorise, par exemple, les solutions qui minimisent les variations de profondeur brusques (principe de continuité), qui respectent l’unicité d’appariement (un point de l’image gauche ne peut correspondre qu’à un seul point de l’image droite) et qui tiennent compte des occlusions. En combinant ces contraintes avec les signaux précoces de V1, le système visuel parvient à construire une carte de profondeur robuste, même lorsque les informations sont bruitées ou partielles. C’est cette carte interne qui donne à votre perception 3D sa stabilité, y compris dans des environnements visuellement chaotiques comme une foule ou une forêt dense.

Les indices monoculaires de perception de la profondeur

La vision tridimensionnelle ne repose pas uniquement sur la stéréopsie. Nous pouvons encore percevoir la profondeur avec un seul œil, comme en témoignent les personnes souffrant de stéréocécité qui parviennent tout de même à se déplacer sans heurt. Dans ce cas, le cerveau exploite une série d’indices monoculaires, c’est-à-dire accessibles à partir d’une seule image rétinienne. Ces indices sont également ceux que les peintres, photographes et créateurs d’images 3D utilisent pour donner une illusion de volume sur un support plat.

La parallaxe de mouvement et le flux optique rétinien

Lorsque vous bougez la tête ou que vous vous déplacez, les objets proches semblent se déplacer plus rapidement sur votre rétine que les objets lointains : c’est la parallaxe de mouvement. Le cerveau interprète ces différences de vitesse apparente pour en déduire la structure en profondeur de la scène. Ce phénomène est particulièrement observable lorsque vous regardez par la fenêtre d’un train : les éléments très proches du rail défilent à grande vitesse, tandis que l’horizon paraît presque immobile.

Ce déplacement apparent des éléments visuels forme ce que l’on appelle le flux optique rétinien. Des aires corticales spécialisées, notamment dans le lobe temporal (les aires MT et MST), analysent ces schémas de mouvement pour estimer la direction et la vitesse de votre déplacement, mais aussi la position relative des objets dans l’espace. On peut comparer ce mécanisme à un système de radar biologique, qui utilise les variations du flux visuel pour anticiper obstacles et trajectoires, même en l’absence de vision binoculaire fonctionnelle.

L’occlusion interposition des objets dans le champ visuel

Un des indices de profondeur les plus simples, mais aussi les plus puissants, est l’occlusion, ou interposition. Lorsqu’un objet en masque partiellement un autre, le cerveau en déduit immédiatement que le premier est situé devant le second. Ce principe, que nous utilisons intuitivement pour interpréter les scènes visuelles, ne nécessite aucun calcul de disparité ni de mouvement : une simple hiérarchie de masques suffit à établir un ordre de profondeur relatif.

Les artistes exploitent depuis des siècles cette propriété en superposant des plans successifs dans leurs compositions : premier plan, plan intermédiaire, arrière-plan. Notre système visuel, de son côté, intègre ces informations d’occlusion avec les autres indices de profondeur pour raffiner la perception tridimensionnelle. Même lorsque la stéréopsie est altérée, par exemple en cas de strabisme, l’occlusion continue de fournir un repère robuste pour appréhender le relief de l’environnement.

Le gradient de texture et la perspective linéaire géométrique

Un autre indice monoculaire essentiel est le gradient de texture : plus une texture (herbe, pavés, foule) semble fine et dense, plus elle est interprétée comme lointaine. À mesure qu’elle se rapproche, les éléments individuels deviennent plus grands et plus espacés. Le cerveau a appris, au fil de l’expérience, à utiliser ces variations de taille et de densité pour estimer la distance relative des surfaces. Cet effet est particulièrement marqué dans les paysages urbains ou naturels, où la répétition d’éléments réguliers crée une impression de profondeur.

La perspective linéaire, découverte et formalisée à la Renaissance, exploite ce même principe à travers la convergence apparente de lignes parallèles vers un point de fuite. Bien que les rails d’un chemin de fer soient parallèles dans la réalité, ils semblent se rejoindre à l’horizon sur la rétine. En interprétant correctement ces indices géométriques, votre cerveau reconstruit une scène en trois dimensions à partir d’une simple image plane. C’est précisément ce type d’indices que les images photographiques ou les jeux vidéo en 2D utilisent pour simuler une vision tridimensionnelle crédible.

L’accommodation cristallinienne et la mise au point focale

L’accommodation correspond à la capacité du cristallin à modifier sa courbure pour focaliser l’image d’un objet sur la rétine. Lorsque vous passez rapidement de la fixation d’un écran proche à celle d’un paysage lointain, les muscles ciliaires ajustent la puissance optique de l’œil pour maintenir une image nette. Le cerveau surveille en permanence cet effort musculaire et s’en sert comme d’un indice de distance absolue, particulièrement efficace pour les objets situés à moins de 2 mètres.

Cet indice d’accommodation est intimement lié à la convergence oculaire, avec laquelle il est normalement couplé. Dans les dispositifs de réalité virtuelle ou de cinéma 3D, ce couplage naturel peut être perturbé : vos yeux convergent vers un point virtuel situé devant ou derrière l’écran, alors que l’accommodation reste fixée sur la distance physique de l’écran. Ce conflit vergence–accommodation est l’une des sources principales de fatigue visuelle dans certains environnements 3D prolongés, surtout lorsque les stimuli de profondeur sont exagérés ou mal calibrés.

La convergence oculaire et l’angle de panum

Pour que la vision binoculaire soit confortable, les deux axes visuels doivent se diriger vers le même point de l’espace : c’est la convergence oculaire. Six muscles extra-oculaires, contrôlés par des noyaux moteurs dans le tronc cérébral, ajustent en permanence la position de chaque globe pour maintenir l’alignement. Lorsque vous suivez un objet qui se rapproche de vous, les deux yeux convergent progressivement, un peu comme deux projecteurs qui se croisent sur une cible mobile. Cette convergence fournit au cerveau un indice direct de la distance du point de fixation, complémentaire de la disparité binoculaire.

La fusion des images issues des deux yeux n’est possible que si la disparité reste dans une certaine plage de tolérance, appelée zone de fusion de Panum. Dans cette zone, de faibles différences de position entre les deux rétines sont encore perçues comme un seul objet en relief, sans dédoublement. Au-delà, la disparité devient trop importante et le cerveau ne parvient plus à fusionner les images : vous voyez alors une diplopie, c’est-à-dire un dédoublement de la scène. Les systèmes visuels bien calibrés maintiennent la plupart des objets d’intérêt à l’intérieur de cette zone de Panum, en ajustant simultanément convergence et accommodation.

Chez les personnes présentant des insuffisances de convergence ou certains troubles oculomoteurs, cette zone de fusion peut être réduite ou difficile à atteindre. Des exercices orthoptiques visent justement à élargir cette plage fonctionnelle, en entraînant la capacité des yeux à converger et diverger de façon coordonnée. On comprend alors pourquoi, lors d’une projection 3D mal réglée ou d’un usage prolongé de la réalité virtuelle, vous pouvez ressentir une gêne : vos yeux sont constamment poussés aux limites de la zone de Panum pour tenter de fusionner des images parfois trop décalées.

Les anomalies de la vision stéréoscopique

La perception tridimensionnelle, aussi performante soit-elle, peut être fragilisée par plusieurs types de troubles oculaires ou neurologiques. Lorsqu’un maillon de la chaîne binoculaire est perturbé – alignement des yeux, clarté des images, intégration corticale – la vision stéréoscopique s’en trouve affectée. Ces anomalies peuvent aller d’une simple diminution de la finesse de profondeur à une abolition complète de la stéréopsie, avec des conséquences variables sur la vie quotidienne selon la sévérité et l’âge d’apparition.

Le strabisme et l’amblyopie fonctionnelle

Le strabisme correspond à un désalignement persistant des axes visuels : un œil peut être tourné vers l’intérieur (ésotropie), vers l’extérieur (exotropie), vers le haut ou vers le bas. Chez l’enfant, si ce désalignement n’est pas corrigé précocement, le cerveau préfère généralement les informations de l’œil bien aligné et supprime celles de l’œil dévié pour éviter la diplopie. Ce phénomène de suppression aboutit à une amblyopie fonctionnelle, aussi appelée “œil paresseux”, où l’acuité de l’œil dévié reste faible malgré une anatomie parfois normale.

Cette suppression corticale a un impact direct sur la vision tridimensionnelle : sans deux images nettes et alignées, le calcul de disparité devient impossible et la stéréopsie fine est perdue. Les traitements combinent souvent correction optique, rééducation orthoptique et, dans certains cas, chirurgie des muscles oculaires pour réaligner les axes visuels. Plus l’intervention est précoce, plus les chances de restaurer une vision binoculaire fonctionnelle sont élevées, le cerveau étant particulièrement plastique dans les premières années de vie.

La stéréocécité congénitale et acquise

La stéréocécité désigne l’incapacité totale ou quasi totale à percevoir la profondeur à partir de la disparité binoculaire. Elle peut être congénitale, lorsqu’un trouble de l’alignement ou une forte différence de réfraction entre les deux yeux (anisométropie) n’est pas corrigé durant les périodes critiques du développement. Dans ces cas, la personne n’a jamais connu la vision en relief et s’appuie presque exclusivement sur les indices monoculaires pour estimer les distances. Beaucoup rapportent d’ailleurs ne pas se sentir particulièrement gênés au quotidien, ayant développé très tôt des stratégies compensatoires.

La stéréocécité peut aussi être acquise, à la suite d’un traumatisme crânien, d’une lésion occipitale bilatérale, d’une chirurgie oculaire ou de pathologies comme certaines formes d’albinisme qui perturbent la projection bilatérale des fibres rétiniennes. Dans ces situations, la perte de vision stéréoscopique peut être plus handicapante, car elle survient chez un individu qui avait auparavant une perception 3D normale. Certaines activités, comme la conduite, les sports de raquette ou le travail de précision, deviennent alors plus difficiles, le cerveau devant réapprendre à s’appuyer principalement sur les indices monoculaires de profondeur.

Les tests cliniques de titmus et de lang pour mesurer la stéréoacuité

Pour évaluer la qualité de la vision tridimensionnelle, les ophtalmologistes et orthoptistes disposent de tests standardisés de stéréoacuité, c’est-à-dire de la plus petite disparité binoculaire détectable. Le test de Titmus, par exemple, utilise des images imprimées en relief (comme le célèbre “cercle volant”) visualisées à travers des lunettes polarisées. Le patient doit indiquer quels éléments semblent flotter au-dessus de la page, ce qui permet de quantifier sa capacité à distinguer de très fines différences de profondeur, parfois jusqu’à 40 secondes d’arc.

Le test de Lang, quant à lui, présente des motifs stéréoscopiques intégrés dans une image apparemment uniforme, ne nécessitant pas de lunettes spéciales. Il est particulièrement utile chez le jeune enfant, car il permet de dépister rapidement l’existence d’une stéréopsie sans instructions complexes. D’autres tests, comme le TNO (avec filtres rouges-verts) ou les tests en réalité virtuelle, complètent l’arsenal diagnostique moderne. Ensemble, ils aident à détecter précocement les troubles de la vision binoculaire et à suivre l’efficacité des traitements de rééducation ou des interventions chirurgicales.

Les applications technologiques de la vision 3D humaine

La compréhension des mécanismes de la vision tridimensionnelle a inspiré de nombreuses technologies destinées à reproduire ou exploiter la stéréopsie humaine. Des stéréoscopes du XIXe siècle aux casques de réalité virtuelle contemporains, l’objectif reste le même : présenter à chaque œil une image légèrement différente pour que le cerveau recrée une impression de profondeur. Ces systèmes doivent respecter autant que possible les contraintes physiologiques du système visuel, sous peine de provoquer inconfort ou fatigue.

Les systèmes anaglyphes et la séparation chromatique rouge-cyan

Les systèmes anaglyphes constituent l’une des méthodes historiques les plus simples pour générer une vision 3D. Deux images, correspondant à la vue de l’œil gauche et de l’œil droit, sont superposées mais imprimées ou projetées avec des couleurs complémentaires, typiquement rouge et cyan. Le spectateur porte des lunettes dont chaque verre comporte un filtre de couleur opposée : le verre rouge laisse passer principalement le canal rouge et bloque le cyan, tandis que le verre cyan effectue l’opération inverse. Ainsi, chaque œil ne perçoit que l’image qui lui est destinée.

Ce procédé, économique et facile à mettre en œuvre, est encore utilisé dans certains supports pédagogiques, bandes dessinées ou vidéos en ligne. Toutefois, il altère la perception des couleurs et offre une qualité de relief limitée par rapport aux technologies plus récentes. De plus, la séparation chromatique n’est jamais parfaite, ce qui peut entraîner des fuites d’images (“ghosting”) et réduire le confort visuel. Malgré ces limites, les anaglyphes restent un outil didactique intéressant pour illustrer les principes de la vision binoculaire et sensibiliser le grand public aux mécanismes de la stéréopsie.

La technologie de polarisation circulaire RealD dans les cinémas

Dans la plupart des salles de cinéma 3D modernes, la vision en relief repose sur la polarisation de la lumière. Les systèmes comme RealD utilisent des projecteurs capables d’alterner très rapidement entre deux états de polarisation circulaire opposés, l’un réservé à l’œil gauche, l’autre à l’œil droit. Les lunettes passives que vous portez en salle comportent des filtres polarisants qui laissent passer uniquement l’état correspondant à chaque œil, séparant ainsi les deux images superposées sur le même écran.

La polarisation circulaire présente l’avantage de maintenir l’effet 3D même lorsque le spectateur incline légèrement la tête, contrairement à la polarisation linéaire plus ancienne. Le rendu des couleurs et la luminosité sont également meilleurs que dans les systèmes anaglyphes, au prix toutefois d’une perte de lumière inhérente aux filtres polarisants. Les concepteurs de films 3D doivent tenir compte des limitations physiologiques de la vision humaine : excès de disparité, jaillissements trop fréquents hors de l’écran ou transitions brutales de profondeur peuvent provoquer inconfort et fatigue, notamment chez les spectateurs les plus sensibles.

Les casques de réalité virtuelle oculus et HTC vive

Les casques de réalité virtuelle (VR) de type Oculus ou HTC Vive représentent une nouvelle étape dans l’exploitation de la vision tridimensionnelle humaine. Chaque œil dispose de son propre écran haute résolution, sur lequel est affichée une image légèrement différente de la scène virtuelle, calculée en temps réel en fonction de la position et de l’orientation de la tête. Des lentilles placées devant les écrans élargissent le champ de vision et créent l’illusion que l’image se trouve à plusieurs mètres de distance, alors qu’elle est en réalité à quelques centimètres de vos yeux.

Ces systèmes imitent de très près la géométrie de la vision binoculaire naturelle, en tenant compte de la distance interpupillaire et en générant une disparité cohérente avec les mouvements de la tête. Ils peuvent, en outre, intégrer des indices supplémentaires de profondeur, comme la parallaxe de mouvement, le flou de profondeur de champ ou l’occlusion dynamique. Toutefois, comme évoqué plus haut, la dissociation entre l’accommodation (fixée sur la distance de l’écran) et la convergence (adaptée à la scène virtuelle) peut entraîner un inconfort chez certains utilisateurs. Les chercheurs travaillent activement sur des écrans à focalisation variable ou à champ lumineux (light field displays) pour réduire ce conflit vergence–accommodation.

Les écrans autostéréoscopiques sans lunettes de nintendo 3DS

Les écrans autostéréoscopiques cherchent à recréer une vision tridimensionnelle sans lunettes. La console portable Nintendo 3DS, par exemple, utilise une barrière de parallaxe ou un système lenticulaire : une couche optique devant l’écran dirige différentes colonnes de pixels vers l’œil gauche et l’œil droit. Lorsque l’utilisateur tient la console à la bonne distance, chaque œil ne voit que les pixels qui lui sont destinés, ce qui génère une impression de profondeur sans accessoire supplémentaire.

Cette technologie illustre bien à quel point la vision tridimensionnelle humaine peut être exploitée par des dispositifs ingénieux. Cependant, elle impose des contraintes strictes : l’effet 3D n’est optimal que dans une fenêtre de position relativement réduite, et certains utilisateurs sensibles peuvent ressentir une fatigue visuelle après un usage prolongé. Consciente de ces limites, Nintendo a d’ailleurs intégré un curseur permettant de régler l’intensité de l’effet 3D, voire de le désactiver. À l’avenir, les écrans autostéréoscopiques multi-vues et les affichages volumétriques pourraient offrir une expérience 3D plus naturelle, encore plus proche des principes de la vision stéréoscopique humaine que nous venons de détailler.