malgré des décennies d’étude, nous ne comprenons pas les processus fondamentaux par lesquels notre cerveau code et représente l’information visuelle entrante et l’utilise pour guider la perception et l’action. Une multitude de preuves suggèrent que la reconnaissance visuelle est médiée par une série de zones dans le cortex des primates connues sous le nom de flux ventral, y compris V1 (cortex visuel primaire), V2 et V4 (Fig. 1 bis) (1)., Les premiers stades sont dans une certaine mesure compris; Hubel et Wiesel ont découvert, par exemple, que les neurones dans V1 répondent sélectivement à l’orientation et à la direction d’un bord en mouvement (2). Cependant, un vaste fossé demeure entre coder pour un bord simple et représenter toute la richesse de notre monde visuel. David Hubel lui—même a observé dans 2012 que nous n’avons toujours « presque aucun exemple de structures neuronales dans lesquelles nous connaissons la différence entre l’information entrant et ce qui sort-à quoi sert la structure., Nous avons une idée de la réponse pour la rétine, le corps géniculé latéral et le cortex visuel primaire, mais c’est à peu près tout” (3). Dans PNAS, Okazawa et al. (4) Faire des progrès significatifs dans cette quête en découvrant et en caractérisant une forme unique de sélectivité neuronale dans la zone V4.
(a) vue latérale du cerveau du macaque avec les zones de courant ventral précoces V1, V2 et V4 mises en évidence. B) schéma des paramètres contenus dans le modèle de texture Portilla Simoncelli. Les statistiques spectrales reflètent la sortie des filtres de type V1., Les statistiques d’ordre supérieur reflètent les corrélations de ces sorties de filtre entre les orientations, les fréquences spatiales et les positions locales. La plupart des neurones V1 ne sont sensibles qu’aux statistiques spectrales, et de nombreux neurones V2 sont sensibles aux statistiques spectrales et d’ordre supérieur; Okazawa et al. montrez que certains neurones V4 sont réglés exclusivement pour des statistiques d’ordre supérieur. (C-E) dans les premières zones de flux ventral, des images physiquement différentes peuvent donner des réponses similaires, et différentes transformations d’image peuvent révéler des propriétés de codage particulières., (C) la rotation d’une image modifie les spectres de puissance mais préserve certaines statistiques d’ordre supérieur. Dans V4, tel que rapporté par Okazawa et al., des images tournées différemment peuvent donner des réponses similaires. (D) la traduction spatiale d’une texture modifie l’image pixel par pixel mais préserve les statistiques spectrales et d’ordre supérieur. Dans V2, de telles images donnent des réponses similaires. (E) la randomisation de la phase d’une image détruit les statistiques d’ordre supérieur mais préserve le spectre de puissance. Dans V1, les images avec des statistiques spectrales similaires donnent des réponses similaires, avec ou sans statistiques d’ordre supérieur.,
un défi central dans la compréhension de la façon dont les neurones codent les stimuli visuels est de savoir quel stimulus montrer aux neurones. Nous ne connaissons pas les « bons » stimuli jusqu’à ce que nous ayons une idée de ce que les neurones sont sélectifs pour, mais nous pourrions ne pas savoir ce que les neurones sont sélectifs pour jusqu’à ce que nous leur avons montré les bons stimuli. Près du sommet de la hiérarchie du flux ventral, comme dans le cortex inférotemporal, il s’est avéré utile de sonder les réponses en utilisant des stimuli très complexes tels que des photographies de scènes et d’objets naturels (1, 5⇓-7)., Cependant, la complexité de tels stimuli et la difficulté à les manipuler ou à les contrôler expérimentalement peuvent rendre difficile de dire ce qu’un neurone donné code, au-delà du fait qu’il répond plus à une image qu’à une autre. Dans les stades antérieurs-la rétine, le noyau géniculé latéral et V1—l’utilisation de stimuli simples, tels que des motifs de bruit, des arêtes orientées ou des réseaux d’ondes sinusoïdales, a donné une compréhension fonctionnelle raisonnable du codage neural (8), mais de tels stimuli ne sont suffisants que parce que ces neurones présentent des formes de codage plus simples, ,
Dans la zone étudiée par Okazawa et coll., zone V4, la plupart des auteurs précédents ont caractérisé les neurones en supposant qu’ils codent des formes et des contours à bords durs, en utilisant des stimuli cousus ensemble à partir de segments de ligne « de type V1” en contours plus longs avec des courbures paramétrées (9⇓-11). Cette approche reflète une compréhension intuitive du monde visuel: que les formes et les surfaces sont définies par leurs contours et que le système visuel doit en quelque sorte représenter ces caractéristiques. Cependant, comme Okazawa et coll., soulignez, une grande partie du monde visuel est caractérisé non pas par des contours, mais par la texture: les motifs qui composent les surfaces des objets et des environnements. Ted Adelson a décrit cela comme la distinction entre les” choses « (objets, éléments de scènes) et les” choses » (matériaux, textures, etc.) (12).
Les Textures sont notoirement difficiles à utiliser comme stimuli visuel; contrairement à l’angle d’une ligne ou à la courbure d’un contour, elles ne permettent pas un simple paramétrage. Quel ensemble de chiffres pourrait capturer la différence entre l’écorce de bois et une parcelle d’herbe? Pour résoudre ce problème, Okazawa et coll., s’est inspiré des travaux existants dans la modélisation et la synthèse de la texture visuelle et l’a étendu de manière novatrice. Ils ont commencé avec un modèle de texture développé par Portilla et Simoncelli (13). Le modèle a deux composants: un ensemble de statistiques, calculées sur une image, qui capturent implicitement de nombreuses propriétés d’ordre supérieur des textures visuelles (Fig. 1B), et un algorithme pour générer des stimuli avec ces propriétés., Il a été développé à l’origine pour capturer les propriétés perceptives pertinentes de la texture visuelle (13, 14) et a été étendu pour expliquer comment les représentations visuelles varient à travers le champ visuel (15, 16) et, qualitativement, à travers différentes zones de flux ventral (6, 17).
Les centaines de paramètres contenus dans de tels modèles statistiques d’image ont empêché leur utilisation dans la caractérisation neuronale détaillée, mais Okazawa et al. sont capables de transformer le modèle en un substrat approprié pour caractériser la sélectivité neuronale., Tout d’abord, ils ont pris un grand ensemble de stimuli et ont utilisé la réduction de la dimensionnalité pour réduire les centaines de paramètres du modèle dans un espace de faible dimension. Même dans cet espace simplifié, ils ne pouvaient pas montrer de manière réaliste toutes les combinaisons de paramètres possibles à chaque neurone. Par conséquent, en s’appuyant sur des travaux existants caractérisant la sélectivité de forme (18), ils ont utilisé une technique d’échantillonnage adaptatif pour explorer des régions de leur espace de faible dimension qui évoquaient de grandes vitesses de tir., Après avoir mesuré les réponses de chaque neurone à un ensemble de stimuli suffisamment riche et évoquant une réponse, ils pourraient ensuite modéliser la réponse en termes d’espace de faible dimension.
des travaux antérieurs ont examiné les réponses des neurones V4 aux stimuli de texture (6, 19), mais avec leur technique de modélisation, Okazawa et al. ont pu caractériser en détail plusieurs formes de sélectivité largement inconnues dans V4. Tout d’abord, ils ont constaté que de nombreux neurones V4 étaient bien décrits par la sélectivité des statistiques d’image d’ordre supérieur, et certains étaient adaptés à des sous-ensembles particuliers de statistiques d’ordre supérieur., Ces sous-ensembles ont des noms curieux comme” orientation croisée de l’énergie « et” position croisée linéaire »; bien que pas exactement intuitif, les auteurs font un effort pour montrer, avec des images, comment la sélectivité à une statistique particulière se rapporte aux préférences pour des images particulières., Le plus remarquable, ils utilisent des manipulations d’image simples pour montrer que certains neurones V4 codent sélectivement ces statistiques d’ordre supérieur tout en restant tolérants aux changements dans les « spectres de puissance”, un terme qui décrit la quantité totale de différentes orientations et fréquences spatiales dans une image, ce pour quoi les neurones V1 sont principalement accordés. Par exemple, un neurone V4 pourrait bien répondre à une texture semblable à une écorce quelle que soit l’orientation générale du motif (Fig. 1 B et C)., Enfin, en examinant dans quelle mesure une population de neurones V4 pouvait discriminer entre différents modèles de texture, ils ont pu montrer que la représentation des statistiques d’image d’ordre supérieur dans V4 ressemble à la représentation perceptuelle dérivée d’expériences comportementales précédentes (17).
Le travail de modélisation de Okazawa et coll. représente à la fois une avancée technique et un contrepoids conceptuel aux efforts précédents dans V4. De nombreux modèles de V4 ont caractérisé la sélectivité par rapport aux contours, en utilisant de simples espaces d’entités paramétrés (10, 11)., Plutôt que de considérer les neurones comme effectuant des calculs sur une entrée visuelle réelle, ces modèles fonctionnent dans l’espace des quantités abstraites, comme la courbure, et par conséquent, les modèles ne s’appliquent qu’à ces types de stimuli. En revanche, l’approche actuelle peut faire des prédictions sur la façon dont les neurones devraient répondre à tout schéma de stimulus (20). Dans les travaux futurs, theOkazawa et al. ont pu caractériser en détail plusieurs formes de sélectivité largement inconnues dans V4.les auteurs pourraient utiliser ce fait pour réconcilier leurs résultats avec les résultats antérieurs dans V4., Une possibilité élégante est que la sélectivité décrite précédemment pour la courbure et les contours n’est qu’un cas particulier de sensibilité aux statistiques d’image d’ordre supérieur. Cependant, une alternative est que Okazawa et al. concentré uniquement sur un sous-ensemble de cellules v4 spécifiquement accordé à la texture, alors que les efforts précédents décrivaient une représentation différente, éventuellement médiée par des populations neuronales distinctes mais en interaction.
les résultats actuels sont également intéressants à la lumière des travaux récents dans le domaine V2., Alors que les neurones V1 semblent coder presque exclusivement des propriétés spectrales comme l’orientation et le contenu de la fréquence spatiale (Fig. 1 B et E), les neurones V2 montrent en outre une sélectivité pour les statistiques d’image d’ordre supérieur (Fig. 1 B et D), semblables à ceux paramétrés par Okazawa et al. (17). Il sera donc important à l’avenir de déterminer quelle part de la sélectivité statistique d’ordre supérieur dans V4 est héritée de V2 ou calculée de novo à partir de ses entrées., Cependant, la plupart des neurones V2 conservent une sensibilité aux propriétés spectrales, alors qu’au moins certains neurones de V4 semblent largement tolérants aux changements spectraux. Ces résultats peuvent donc Suggérer une transformation de V2 à V4 qui complète et étend la transformation de V1 et V2. De nouvelles techniques seront nécessaires, parallèlement à la modélisation et à la conception de stimulus, pour caractériser en détail mécaniste les calculs qui ont lieu entre ces zones corticales et à travers différentes couches et types de cellules dans une zone (21)., Comment exactement ces transformations corticales forment une base physiologique pour la vision reste un puzzle profondément intrigant, et des approches telles que celle d » Okazawa et al. paveront la voie à suivre.