2SNT.G. La photographie numérique

Les élèves doivent savoir
  • Distinguer les photosites du capteur et les pixels de l’image en comparant les résolutions du capteur et de l’image selon les réglages de l’appareil.
  • Traiter par programme une image pour la transformer en agissant sur les trois composantes de ses pixels.
  • Expliciter des algorithmes associés à la prise de vue.
  • Identifier les étapes de la construction de l’image finale.

Photosites, pixels et résolution

Historique de la photographie

Inventée au début du XIXe siècle, la photographie va bientôt fêter ses 200 ans d’existence et a beaucoup évolué par rapport à ses débuts. Initialement, on utilisait la propriété des ions argents à noircir à la lumière pour produire des plaques photographiques en négatif (noir pour les zones exposées et blanc pour les zones qui n’ont pas reçu de lumière). Il était donc nécessaire de rephotographier les négatifs pour obtenir une image en noir et blanc semblable à l’objet photographié : c’était le développement.

Comme les ions argent mettaient du temps à noircir, l’exposition était très longue (parfois plusieurs minutes) et nécessitait de ne surtout pas bouger pour des photos de portraits.

Au début du XXe siècle apparaît la photographie en couleurs. La pellicule, un long ruban comprenant plusieurs carrés de 24mm sur 36mm photosensibles, remplace les encombrantes plaques photographiques des origines et son format compact permet de diminuer la taille des appareils photo qui deviennent facilement portables, moins chers et de plus en plus populaires.

En 1966 sont inventés les capteurs CCD (charge-coupled device) qui permettent de convertir la lumière reçue en signal électrique et qui ouvrent la voie à la prise de photographies numériques. D’abord utilisés en astronomie, ils arrivent à portée du grand public avec la vente des premiers appareils photo numériques au début des années 1980.

Ces appareils numériques vont devenir progressivement de plus en plus performants avec des résolutions de plus en plus fines. Au début des années 2000, les téléphones portables vont commencer à intégrer des appareils photo, mais c’est l’avènement du smartphone, avec l’iPhone de Apple en 2007, qui va démocratiser ses usages et le rendre indispensable au plus grand nombre.

Depuis les performances des appareils photo intégrés dans les smartphones ne cessent de progresser, par la miniaturisation des photosites (qui permet d’avoir des photos de plus en plus précises), les prouesses des objectifs miniaturisés (avec l’apparition des zooms mécaniques sur les smartphones en 2018) et surtout les perfectionnements des algorithmes qui traitent les photos.

Ouverture et focale

Un appareil photo fonctionne sur le principe de l’œil humain : une (ou plusieurs) lentille fait converger la lumière sur la plaque photosensible afin d’y établir une image nette (et inversée) de ce que l’on souhaite photographier.

Deux éléments principaux vont donc contribuer à la photographie finale : le bloc optique qui amène la lumière dans l’appareil et le capteur qui doit traiter cette lumière.

Le fonctionnement du bloc optique relève du cours de physique chimie (se reporter à celui-ci sur ce site). Attardons-nous toutefois sur les caractéristiques que l’on retrouve sur les objectifs photographiques. Deux chiffres vont indiquer les capacités de cette optique : l’ouverture et la focale.

L’ouverture est précédée de la lettre ‘f’ et suivie d’un chiffre qui va indiquer la capacité à capter de faibles lumières (la forme de cette indication peut changer selon les constructeurs, par exemple f/2.8 ou 1 :2.8…). Plus le chiffre est faible, plus l’objectif sera capable de traiter les lumières de faible intensité. Ce chiffre est l’ouverture minimale, sachant qu’un diaphragme (qui fonctionne comme l’iris de l’œil), peut réduire l’intensité lumineuse qui entre dans l’objectif afin de prendre des photos qui ne seront pas surexposées en plein soleil.

Il est à noter que l’ouverture conditionne également la profondeur de champ, c’est-à-dire la zone qui sera nette dans une image. Plus l’ouverture est grande, plus la profondeur de champ sera grande. Pour photographier un paysage, où tout doit être net, on prendra donc une grande ouverture (donc on ferme le diaphragme) avec une valeur comprise entre 8 et 16 (en général). Pour un portrait avec un arrière-plan flou, on privilégiera les petites ouvertures (et les diaphragmes grands ouverts) avec des valeurs de 1.4 à 2.8.

La focale indique le champ visuel de l’objectif et s’exprime en millimètre. Une focale de 35mm correspond à peu près à la vision humaine. En dessous de 35mm on parlera d’objectif grand-angle et au-dessus de 85mm on parlera de téléobjectif.

Un objectif grand-angle permet de prendre des photos avec un champ très large. C’est idéal pour des paysages ou des photos d’architecture, mais plus l’angle est grand, plus le risque de déformation de l’image augmente. La plupart des smartphones ont des objectifs grand-angles. L’inconvénient du grand-angle c’est qu’il augmente la sensation de distance et il n’est donc pas adapté à la photo de portraits ou même de personnes.

Un téléobjectif permet de prendre des photos agrandies d’objets lointains. Entre 50mm et 90mm c’est idéal pour les portraits, au-delà on réservera ce type d’objectifs à la prise de vue animalière ou sportive. Il est à noter qu’un téléobjectif va compresser les distances et faire paraître proche des objets lointains. Très peu de smartphones sont équipés de téléobjectifs, car il faut que les lentilles soient très éloignées du capteur, ce qui est difficile à réaliser dans un téléphone très plat.

Pixels et photosites

Un capteur électronique d’appareil photo se compose d’une grille de photosites. Chaque photosite va capter une petite partie de la lumière et indiquer au processeur la quantité de lumière reçue en ce point (luminosité du point). Comme les photosites ne captent pas les couleurs, on y superpose une grille de Bayer, composée de carrés de couleurs primaires rouge, vert et bleu. Quatre photosites mis ensemble vont donc permettre de déterminer la quantité de chacune des couleurs primaires afin de savoir quelle était la couleur de la lumière reçue : ils forment un pixel de l’image.

Vous remarquerez qu’il y a donc 4 photosites pour 1 pixel et qu’il y a deux photosites qui vont capter le vert pour seulement un pour les deux autres couleurs primaires. Ce choix est lié à la sensibilité de notre œil qui est aussi plus sensible aux lumières vertes. De cette façon le pixel se rapproche du fonctionnement des cellules de la rétine.

La « qualité » d’un capteur photo se mesure généralement au nombre de pixels qui s’exprime en millions (mégapixels : Mpx). En 2020, les capteurs photo des smartphones ont une résolution comprise entre 8 et 108 Mpx. Mais un nombre très grand ne signifie pas forcément une meilleure photo. En effet, plus les pixels sont petits, plus ils sont susceptibles de générer des informations aléatoires qui vont diminuer la qualité de l’image. C’est alors au processeur d’effectuer des traitements pour éliminer ce « bruit de fond » parasite. Des pixels plus petits vont également capter moins de lumière et être moins sensibles aux faibles luminosités. Chaque constructeur doit donc trouver le bon compromis entre marketing et qualité d’image.

Notons que l’un des appareils photo les plus sensibles en basse lumière en 2020, le Sony A7s2, n’a qu’un capteur de 16 Mpx et que ce capteur est beaucoup plus grand que ce qu’il est possible de mettre dans un smartphone. En conséquence il est de plus en plus utilisé pour les tournages de nuit par les cinéastes professionnels.

Métadonnées EXIF

Lorsqu’une photo est prise par un appareil numérique, des informations de prise de vue vont être enregistrées dans le fichier image. Ces informations sont appelées Métadonnées EXIF et sont très utiles pour le traitement ultérieur de la photo.

Voici les métadonnées Exif d’une photo prise par un smartphone :

Ces informations sont nombreuses et donnent la marque de l’appareil, la focale et l’ouverture de l’objectif (numéro F ici), la façon dont a été mesurée la lumière, le temps d’exposition (en seconde, ici 1/1356e de seconde), ainsi que les coordonnées GPS de la prise de vue.

Il est possible d’y ajouter des métadonnées personnelles, à l’aide d’un logiciel spécialisé, pour conserver les informations sur le photographe : nom, coordonnées de l’agence photographique… qui constitue ainsi la signature numérique d’une photo pour en faire valoir le droit d’auteur.

Raw, JPG, Heic

Le format avec lequel un fichier photo est enregistré va également jouer sur sa qualité finale.

Le format JPEG (extension jpg) est le format le plus courant. Il est lisible par tous les systèmes d’exploitation, tous les navigateurs internet et est réellement universel. Il prend relativement peu de place, mais c’est un format compressé et cela signifie qu’à chaque traitement il y aura une perte de qualité.

La plupart des logiciels de traitements d’image permettent de choisir l’intensité de la compression :

On remarque qu’il est possible de gagner beaucoup de place au détriment de la qualité, mais avec une limite et surtout une forte dégradation en dessous de 10%.

On se limite en général à une qualité de 75% qui est un bon compromis entre place occupée et qualité.

Dans les appareils photographiques professionnels, les prises de vues sont stockées au format RAW (dont l’organisation change en fonction des marques). Ce format est un format non compressé (ou avec un minimum de compression) qui enregistre les couleurs avec une meilleure définition que le format JPEG. L’inconvénient est que ce format n’est pas reconnu par les navigateurs et qu’il faut donc « développer » les photos dans des logiciels de traitement photo spécialisés avant de pouvoir les partager, les photos prennent aussi beaucoup plus de place. Cette étape de développement permet de sélectionner les informations que l’on souhaite conserver et d’obtenir finalement une meilleure qualité d’image… à condition de maîtriser les logiciels.

Enfin le format heic est un format relativement récent qui permet de conserver une meilleure qualité que le JPEG tout en prenant peu de place. Seuls les systèmes d’exploitation et les smartphones récents prennent en charge ce format qui se veut un futur remplaçant du JPEG.

Enfin il existe d’autres formats de fichiers photo pour des usages plus spécifiques, comme le TIFF (compressé ou non compressé) comme intermédiaire entre les logiciels de retouche photo, le GIF qui permet de conserver plusieurs images en basse résolution pour un effet dessin animé ou le PNG qui se veut un remplaçant plus moderne du GIF.

Algorithmes dans les appareils photo numériques

La simple prise de vue d’une photo n’est plus suffisante pour en assurer le succès sur les réseaux sociaux. Entre la prise brute et la version finale améliorée, de nombreux traitements vont avoir lieu.

Algorithmes automatiques et Intelligence Artificielle

La grande mode des années 2015 et suivante a été la mise en place de plusieurs traitements automatisés pour améliorer les images prises par les appareils photo et les smartphones. Pompeusement nommés « Intelligences Artificielles », ces traitements visent deux objectifs : compenser la faible qualité des capteurs de smartphones (comparés aux appareils photo professionnels) et ajouter des effets « à la mode ». Les évolutions dans ce domaine étant très rapide, les constructeurs de smartphones mettent régulièrement à jour leurs appareils pour se démarquer de la concurrence ne proposant « la meilleure » qualité photo.

Ces algorithmes sont également accessibles via des logiciels, sur appareils mobiles ou sur ordinateur, pour traiter des photos issues de toutes les sources imaginables (internet, scanners, appareil photo numérique…).

Traitements de base : luminosité et contraste

Dans un logiciel de traitement d’image, ce qui est le plus important à considérer, à la fois du point de vue des algorithmes que du regard de l’utilisateur final, c’est l’histogramme de la photo.

Celui-ci est une représentation de la répartition des intensités lumineuses en fonction de la couleur (ou d’une moyenne globale des couleurs). La courbe idéale d’une photo serait un rectangle plat couvrant l’ensemble de l’histogramme : chaque couleur serait utilisée à son maximum dans l’image. Mais cela ne correspondrait à rien de « beau » à nos yeux.

L’histogramme doit donc servir de guide visuel avec ces règles simples quand on retouche une photo : il faut essayer de répartir les « pics » de la courbe au mieux en largeur (sans laisser de « vide » à droite ou à gauche) et le plus haut possible sans toucher le sommet de l’histogramme (ce qui signifierait un écrêtage et une perte d’information).

Tout traitement d’image (automatisé par des algorithmes ou manuel), commencera donc par le réglage de trois paramètres : le contraste, la luminosité et les niveaux (de blanc et de noir).

Voici une photo de l’horloge astronomique de Prague prise par temps couvert. Cette photo a été prise en RAW et contient donc plus d’informations qu’un format JPEG.

De base on constate que l’histogramme est trop sur la gauche (pas bien centré), ce qui se traduit par un aspect trop sombre bien visible sur l’image.

Si on diminue le contraste au maximum, la courbe de l’histogramme se resserre encore et l’image va paraître terne :

Au contraire, si on augmente les contrastes, on élargit l’histogramme et on commence à se rapprocher d’une courbe idéale… mais l’image est encore trop sombre et on voit un écrêtage sur la gauche qui indique que l’on perd de l’information dans les zones sombres : il faudra décaler la luminosité (exposition dans ce logiciel) vers la droite :

Lorsqu’on augmente l’exposition (luminosité), on voit bien l’histogramme se décaler vers la droite :

Pour cette photographie, déjà trop sombre, il ne faudrait pas décaler la luminosité sur la gauche, car toute la partie droite de l’histogramme sera plate :

Les curseurs « blanc » et « noir » du logiciel permettraient d’ajuster uniquement les tons clairs et sombres en « tirant » l‘histogramme vers la droite ou la gauche.

Les règles de gestion de l’histogramme étant simples, un traitement automatisé de l’image est possible afin d’équilibrer celle-ci de façon automatique :

Gestion des couleurs

On l’a vu avec le fonctionnement des pixels du capteur photo, les couleurs d’une image sont enregistrées sur trois couleurs principales : rouge, vert et bleu. La « qualité » des couleurs (justesse par rapport à la réalité) dépendant de la qualité d’information allouée à chaque couleur (nombre de bit). En JPEG, par exemple, chaque couleur est codée sur 8 bit, donc 256 valeurs possibles, ce qui donne environ 16 millions de teintes possibles.

La gestion des couleurs d’une image se fait donc par défaut dans un mode RVB (ou RGB si on est en anglais).

La gestion des couleurs en RVB n’est pas la seule utilisée. Les graphistes utilisent plutôt une roue chromatique pour choisir leurs couleurs (on y voit toutes les couleurs) et pour certains traitements il est également intéressant de passer à un traitement en TSL (ou HSB) où l’on réglera la teinte (hue), la saturation (intensité de la teinte) et la luminosité (brightness) de la teinte.

Modifier la saturation d’une image est le moyen le plus simple pour la transformer en image noir et blanc :

A contrario, augmenter trop la saturation d’une image va rendre celle-ci irréelle et assez désagréable à regarder.

Pour éviter cet effet trop saturé, les logiciels de traitements permettent de modifier la vibrance d’une image. Il s’agit alors de modifier le contraste entre les couleurs plutôt que d’augmenter la saturation de celles-ci.

Voici ce que donne la mise au minimum de la vibrance :

Et sa mise au maximum :

Même s’il est généralement déconseillé de pousser les curseurs de réglages au maximum, on voit bien ici que l’horloge est bien plus colorée et agréable à regarder, sans que le mur ne soit devenu trop jaune et irréaliste

Effets créatifs

Les algorithmes permettent d’aller bien plus loin que de simplement modifier la luminosité, le contraste ou les couleurs d’une image. Il est ainsi possible de déterminer des zones de l’image en examinant la moyenne des couleurs des pixels qui se trouvent dans une partie de l’image afin de détourer des objets, de les enlever de l’image ou même de remplacer le ciel ou d’autres parties de l’image.

Voici par exemple une photo de Prague prise depuis la tour de l’horloge astronomique :

À l’aide d’un traitement par algorithme automatique, on peut demander au logiciel, en quelques clics de souris, de remplacer le ciel, d’y placer des oiseaux et de rajouter des effets atmosphériques :

De la même façon, beaucoup de logiciels permettent d’appliquer des filtres automatiques pour changer l’aspect d’une image de façon totalement automatisé :

Chapitre précédent

Retour aux chapitres