Commençons par quelques généralités sur
la photographie numérique.
Mise en garde : Des erreurs de physique ont pu se glisser dans
les calculs qui suivent ; elles seront progressivement corrigées.
La constitution globale du photoscope est la même dans les
deux cas : 1 objectif, 1 diaphragme, 1 obturateur, 1 capteur et 1 système
de visée. La différence provient du capteur :
En argentique, des grains très fins de bromure d'argent
(ou chlorure, ou iodure) sont exposés à la lumière
; la formule chimique du bromure d'argent, solide ionique, s'écrit
AgBr ; conventionnellement (comme pour tous les solides ioniques), elle
ne fait pas apparaître la présence des ions Ag+
et Cl-. Un faible pourcentage des photons incidents (correspondant
à de la lumière visible ou dans le proche ultraviolet) arrachent
un électron au cristal de bromure d'argent, donc à l'ion
bromure. La réaction s'écrit Br- -> Br + é
; cet atome de brome se retrouvera piégé dans la gélatine
à base d'os (on n'a pas trouvé mieux que la gélatine
extraite d'ossements) qui englobe les grains.
L'électron est capté par l'ion argent pour donner un
atome d'argent métallique. Les atomes d'argent ainsi formés
se regroupent en agrégats formant ce que l'on appelle l'image
latente. Ces agrégats ne contiennent pas assez d'atomes d'argent
pour être suffisamment visibles (pour qu'ils le soient, il faudrait
plus d'argent, donc une quantité de lumière trop importante
pour une prise de vue rapide).
Ensuite les agrégats sont développés chimiquement,
afin d'augmenter leur taille. Le révélateur contient
un réducteur, souvent de l'hydroquinone, C6H6O2,
qui se transforme en benzoquinone C6H4O2
; les ions argent Ag+ sont réduits en métal argent,
au voisinage des agrégats et cet argent métal vient grossir
ceux-ci. La demi-équation d'oxydoréduction relative à
l'hydroquinone s'écrit : C6H4O2,
+ 2 H+ + 2 é = C6H6O2.
L'hydroquinone est bien le réducteur. Elle libère des électrons
qui réagissent avec les ions argent du bromure d'argent entourant
l'image latente, selon la demi-équation Ag+ + é
= Ag.
Lorsque l'image a suffisamment noirci (les agrégats de métal
argent sont opaques à la lumière), le fixateur élimine
le bromure d'argent qui n'a pas réagi, et qui se trouve dans les
zones éloignées des agrégats, donc dans les zones
n'ayant pas reçu de lumière. On obtient une image négative
: les zones ayant reçu des photons ont noirci, les autres sont devenues
transparentes. Pour obtenir directement une image positive, il faut,
après développement, éliminer (dissoudre) les agrégats
de métal argent, puis exposer la pellicule directement à
la lumière et la développer à nouveau, sans la fixer.
Toute la chaîne de traitement, de la prise de vue au tirage,
est analogique. Quoique de plus en plus de laboratoires numérisent
le négatif ou la diapositive pour effectuer le tirage papier, ce
qui, à mon avis, améliore nettement les résultats
(quand le travail est soigné).
En numérique, une image est formée de "points"
appelé pixels. Chaque pixel sur le capteur correspond à un
carré, ou un rectangle de matériau semi-conducteur. Parmi
les photons incidents, ceux qui correspondant à de la lumière
visible (ou dans le proche infrarouge, donc le capteur devra être
protégé par un filtre arrétant l'infrarouge) font
passer un électron de la bande de valence à la bande de conduction,
l'électron se retrouvant piégé dans un puits de potentiel.
Tous les photons visibles ne sont pas efficaces, mais un fort pourcentage
(40 à 90 % = rendement quantique = 20 fois plus qu'en argentique)
transfère un électron.
Après exposition, le signal issu du capteur, CCD
ou CMos, est traité numériquement, donc dès la
prise de vue.
Nous verrons que le capteur CCD a un
rendement quantique (nombre
de photons produisant la conversion énergie d'un photon -> électron
changeant de niveau énergétique, rapporté au nombre
total de photons incidents, dans le domaine de la lumière visible)
très supérieur (environ 20 fois) à celui d'une surface
sensible argentique. Cela permet (ou permettrait), à sensibilité
égale du photoscope, c'est à dire pour un même triplet
sensibilité ISO, ouverture du diaphragme et vitesse d'obturation,
de
réduire considérablement la surface du capteur
sensible, typiquement 20 fois, d'où un gain important en encombrement
et poids pour le photoscope, ou d'augmenter considérablement
la sensibilité ISO conduisant à d'excellentes images.
Si on prend pour référence de qualité un appareil
argentique 24 x 36 mm, une surface de capteur 20 fois plus petite conduit
à une diagonale de 10 mm (au lieu de 43 mm), soit avec un pouce
mesurant 25 mm, 1 / 2,5 pouce, ce qui est effectivement la taille des capteurs
des photoscopes compacts ou ultra compacts. Ou bien, avec un capteur de
24 x 36 mm, à une sensibilité de 2000 ISO, pour d'excellentes
images (on n'y est pas encore tout à fait, mais cela vient). Le
traitement numérique, de plus en plus intelligent, permettra même
d'outrepasser ces limites, par lissage des zones sans détails, renforcement
du contraste local...
Mais cela fait apparaître de façon plus notable d'autres limitations telles que la diffraction (puisque les pixels ont des dimensions de l'ordre de quelques microns), la qualité de l'optique qui doit avoir une résolution très élevée (mais pas trop pour éviter les repliements de spectres en fréquence conduisant à du moirage, la limitation en fréquence spatiale étant réalisée à l'aide d'un filtre diffuseur), et le bruit quantique dans les zones sombres de l'image, puisque le nombre de photons nécessaires est plus faible qu'en argentique.
Il apparaît clairement que la photographie argentique (pour la
partie prise de vue au moins) est appelée à disparaître,
quoiqu'on en dise. Car les défauts des appareils numériques
se voient progressivement corrigés. Aujourd'hui (mars 2006),
après 40 000 photographies prises et plusieurs centaines de tirages
papier (réalisés au début en grande surface, puis
chez un vrai professionnel de la photographie, à peine plus cher
pour des photographies plus grandes, plus nettes, avec la possibilité
de discuter le rendu des couleurs), je peux conclure qu'un bon appareil
numérique type Panasonic FZ 10, mais il y en a d'autres, donne des
résultats
concrets statistiquement supérieurs à ceux que l'on pouvait
obtenir avec un appareil réflex 24 x 36 mm argentique. Dans certains
cas particuliers (photos de nuit, hautes lumières, certains paysages),
mon réflex, ou mon Olympus m à
objectif 2,8 f 35 mm, sont supérieurs, mais dans l'ensemble, ils
sont battus. Car avec un encombrement et un poids inférieurs à
ceux d'un réflex 24 x 36 équipé d'une focale fixe,
j'ai un zoom équivalent 35 - 420 mm ouvert à 2,8 constant
et stabilisé optiquement, des images bien piquées quelle
que soit l'ouverture et pour toutes les focales de 35 à environ
300 mm, une sensibilité immédiatement modifiable de 50 à
400 ISO, un mode rafale à près de 4 images par seconde, un
automatisme total, une réserve de 1000 vues en compression maximale,
avec 2 cartes minuscules de 256 et 512 mégaoctets et la possibilité
de vérifier immédiatement mon travail, donc de progresser
sur le plan technique en multipliant les essais successifs, voire de tenter
sans hésiter des photographies "impossibles".
Par ailleurs des progrès considérables sont encore à
attendre du côté des logiciels. Chasseur d'Images n°
264 de juin 2004 présente le logiciel DxO Optics Pro ralisé
par la firme française DoLabs qui supprime vignettage, distorsion,
aberration chromatique et optimise le piqué et le bruit, en automatique,
sur un lot de photographies, avec des résultats qui semblent très
convaincants. Ce qui ne dispense pas de préférer un photoscope
équipé d'un très bon objectif.
On peut donc être sur qu'avec les progrès à venir,
la cause sera définitivement entendue. Le seul vrai point faible
est actuellement l'inexistence de l'équivalent en numérique,
du projecteur de diapositives, peu coûteux, très lumineux
et offrant une haute résolution. Les agrandisseurs sont avantageusement
remplacés par les imprimantes couleurs (pensez à vérifier
la stabilité des encres et des supports ; certains sont garantis
50, 100 ou 200 ans, quand d'autres se décolorent en quelque jours),
ou les tirages effectués par les laboratoires professionnels, après
un éventuel traitement de l'image dans PhotoShop ou un logiciel
équivalent.
Sans lire dans le marc de café, mais aussi sans tomber dans les pièges commerciaux tendus par les fabricants avec leur course aux pixels, on peut raisonnablement penser que les photoscopes de l'avenir se répartiront en 4 gammes :
Pour des usages professionnels spécifiques (photographie technique
et publicitaire), des chambres moyen ou grand format, éventuellement
à bascule et décentrement, équipées de dos
numériques,
pour les autres usages professionnels, les appareils "encombrants"
et lourds du type réflex numérique, construits sur
la base recyclée des anciens réflex argentiques 24 x 36 mm,
avec objectifs interchangeables deviendront le standard,
les appareils dédiés aux amateurs et au reportage léger
seront de taille plus compacte, avec capteur de taille sensiblement inférieure
à 24 x 36 mm, tout en permettant des tirages de qualité jusqu'au
format 30 x 40 ou 50 x 70 cm et se présenteront soit sous une forme
ultra compacte avec un petit zoom 3 ou 4 fois, soit sous la forme bridge,
avex zoom optique 12 fois stabilisé, plus encombrante, plus sophistiquée
mais mieux adaptée à la photographie artistique.
L'intérêt actuel de la visée réflexe traditionnelle
disparaîtra sans doute. Pour l'instant, les viseurs numériques
des bridges sont de qualité insuffisante, mais cela peut progresser.
La vraie limitation réside dans l'échauffement du capteur
CCD, s'il est utilisé à la fois pour la visée et la
prise de vue, échauffement qui augmente son bruit de fond. Les capteurs
CMos récents (2006) consomment moins d'énergie, s'échauffent
donc moins et vont permettre d'ici à quelques années de s'affranchir
définitivement de la visée réflexe, avec son miroir
mobile, son verre dépoli et son pentaprisme redresseur, ainsi que
son obturateur plan focal complexe et à durée de vie limitée
(100 000 déclenchements garantis pour certaines marques).
Ces informations ont été glanées sur des sites
d'astronomie amateur ou de fabricants de photoscopes.
A l'heure actuelle, 2 technologies se partagent le marché des capteurs photosensibles, il s'agit des CCD (Coupled Charge Device) et CMos (Métal Oxyde semiconducteur, dérivés de la technologie des microprocesseurs et donc moins coûteux). Les CMos étaient initialement réservés au matériel bas de gamme (vidéosurveillance), mais ils ont beaucoup progressé en niveau de bruit, consommation énergétique, donc échauffement, et se retrouvent maintenant sur le matériel haut de gamme.
Dans les 2 cas, la surface des capteurs est constituée par une plaquette de silicium sur laquelle est gravée une matrice (ça fait bien, mais il n'y a ici rien à voir avec une matrice mathématique) ou un pavage de carrés ou de rectangles (pixels) sensibles à la lumière. Leur maximum de sensibilité se situe vers 780 à 800 nm, soit à la limite du rouge et de l'infrarouge, mais ils sont encore sensibles dans le bleu, heureusement ! Les photons (grains de lumière) qui frappent un pavé ou pixel, soit sont perdus (dommage), soit transfèrent leur énergie h . n à 1 électron qui se retrouve piègé dans un puits de potentiel. Rappelons que h est la constante de Planck, h = 6,62 . 10-34 J.s et que n est la fréquence de l'onde lumineuse associée au photon. Leur sensibilité au proche infrarouge nécessite, en usage photographique normal, de les faire précéder par un filtre arrêtant l'infrarouge. Nos test personnels montrent que l'efficacité de ces filtres est très variable.
Comme en optique, il est d'usage de parler de longueur d'onde l, rappelons la relation l = c / n, où c est la célérité de la lumière (dans le vide, car la longueur d'onde associée au photon est toujours donnée dans le vide, donc c = 3 . 108 m . s-1). La lumière visible ayant des longueurs d'onde dans le vide comprises entre 400 et 800 nm (nanomètres), cela correspond à des fréquences comprises entre 7,5 . 1014 Hz et 3,75 . 1014 Hz et des énergies photoniques de 5,0 . 10-19 J et 2,5 . 10-19 J, soit encore, avec 1 eV (électron-volt) = 1,6 . 10-19 J, une énergie de 3,1 eV à 1,6 eV. Energie qui correspond à celle mise en jeu dans de nombreuses réactions chimiques, pensez à la tension délivrée par un élément de pile électrique ou d'accumulateur.
Le rendement quantique est le pourcentage de photons qui, parmi ceux qui possèdent la bonne énergie (fréquences n correspondant au spectre de la lumière visible), transfèrent un électron. Il est de 40 à 90 % pour les CCD, contre 2 à 4 % pour une surface sensible argentique, soit 20 fois plus (remarque : Pour quelle longueur d'onde, ce pourcentage est-il donné ? L'absorption des filtres placés devant chaque pixel n'est évidemment pas pris en compte). Il est donc bien possible, à conditions de prise de vue identiques, de réduire de 20 fois la surface d'un capteur en passant de l'argentique au numérique, soit de passer du 24 x 36 mm de diagonale égale à racine carrée de 242 + 362 = 43,3 mm à une diagonale de capteur de 43,3 divisé par racine carrée de 20, soit 43,3 / 4,47 = 9,7 mm. Mais les pixels devenant très petits, l'objectif va être mis à rude épreuve, la mise au point devra être parfaite, la diffraction va faire sentir ses effets plus fortement, de même que le bruit quantique (ce point mérite d'être vérifié, la fluctuation quantique concerne-t-elle l'ensemble des photons, utiles ou perdus, ou seulement les photons captés utilement ?).
Une première différence entre les 2 types de capteurs, CCD et CMos, concerne la manière dont, après l'exposition du capteur, sont collectées les informations recueillies par chaque pixel. Le CMos permet un adressage direct de chaque pixel ; ses pixels peuvent donc être lus dans n'importe quel ordre. Dans le CCD, les électrons accumulés dans chaque puits sont transférés dans les puits voisins (d'où le nom CCD, Coupled Charge Device, transfert de charges). Par exemple, toutes les lignes descendent d'un cran, et la ligne la plus basse est vidée par une de ses extrémités, pixel après pixel, dans un convertisseur analogique numérique, et ainsi de suite. Un pixel surexposé (c'est à dire rempli d'électrons au point de déborder, voir blooming) va au cours de ses transferts successifs faire déborder les pixels d'accueil, ce qui produira une ligne blanche sur l'image.
De part sa structure, le CMos permet l'intégration de fonctions pour chacun de ses pixels, par exemple un amplificateur individuel, voire un réducteur de bruit par double échantillonnage corrélé, ce qui est un avantage par rapport au CCD, mais il est (actuellement) affecté par une plus grande sensibilité à la saturation, ou blooming et un bruit sensiblement plus fort. Ce dernier point a fait en 2006 l'objet de nettes améliorations.
: Contrairement à ce
que vous lirez sur certains sites Internet et à ce que tentent de
faire croire les fabricants et les vendeurs de photoscopes, le critère
le plus important pour un photoscope ou un capteur CCD n'est pas - du moins
pas uniquement - le nombre de pixels qu'il comporte.
Un photoscope doté de 3 à 4 millions de pixels
permet de bons tirages 24 x 30 cm. Il lui est possible d'aller encore plus
loin, après traitement numérique de l'image. Reconnaissons
qu'il est rare qu'un amateur agrandisse plus ses images.
D'autres critères sont tout aussi essentiels :
Nous avons vu que pour un usage non professionnel, un capteur à 3 ou 4 millions de pixels est suffisant. Il faut bien entendu que l'optique qui lui est associée ait un pouvoir résolvant suffisant, car les pixels sont généralement très petits, bien plus petits que les grains de chlorure d'argent des émulsions argentiques. Mais la résolution ne doit pas non plus être trop élevée, car se produira alors un phénomène de sous-échantillonnage (voir le cours de MPI pour le sous-échantillonnage temporel ; il s'agit de sous-échantillonnage spatial ici) qui conduira à des artefacts. Les photoscopes bas de gamme ignorent bien sur ce problème, leur objectif servant de filtre passe-bas ; les hauts de gamme comportent soit un filtre passe-bas, anti-aliasing (diffuseur) devant le capteur, soit un traitement logiciel - il y a certainement du filtrage en fréquences spatiales, type FFT en deux dimensions ici.
Ainsi qu'il vient d'être dit, le CMos est actuellement affecté
d'un bruit très supérieur au CCD. Il s'agit du bruit lié
au courant d'obscurité. Un capteur placé dans le noir, devrait,
après déchargement de ses pixels, garder des pixels non chargés.
Mais du fait d'impuretés qui créent des niveaux d'énergie
parasites dans la bande interdite (gap), des électrons peuvent se
retrouver dans le puits de potentiel, par l'apport de photons de faible
énergie, c'est à dire par un effet d'agitation thermique.
Cela crée un courant d'obscurité qui vaut de 2 à
200 pA . cm-2 pour les CCD et 50 à 1000 pA . cm-2
pour les CMos.
Examinons concrètement le cas d'un capteur de 4 x 6 mm comportant
4000000 pixels et exposé pendant une durée de 8 secondes.
Un courant de 10 pA . cm-2 correspond à une intensité
de 10 . 10-12 A sur 1 cm2, soit 10 . 10-12
x (0,4 x 0,6) = 2,4 . 10-12 A pour l'intégralité
du capteur. Chaque pixel reçoit une intensité de 2,4
. 10-12 / 4000000 = 6 . 10-19 A, soit en 8 secondes
6 . 10-19 x 8 = 4,8 . 10-18 C, soit encore 4,8 .
10-18 / 1,6 . 10-19 = 30 électrons.
Nous voyons que cela fait en 8 secondes de 6 à 600 électrons
pour un CCD et de 150 à 3000 électrons pour un CMos. Si la
durée d'exposition est réduite, le nombre d'électrons
parasites l'est proportionnllement et nous obtenons pour une vitesse d'obturation
de 1 / 100 seconde, de 0 électrons pour le CCD à 4 électrons
au maximum pour le CMos. Certains appareils comportent un mode spécial
pose longue qui mesure d'abord le bruit propre du capteur (pose avec l'obturateur
mécanique fermé) et le soustrait de l'image enregistrée
ensuite.
Une autre cause de bruit est le bruit quantique : Imaginons une source stable qui envoie ses photons sur un pixel. Celui-ci ne reçoit pas le même nombre de photons, lors d'enregistrements successifs, à durée d'exposition égale ; leur nombre fluctue, avec un écart-type égal à la racine carrée du nombre moyen de photons reçu. Ce qui veut dire qu'un pixel chargé de mesurer une zone sombre et qui devrait recevoir 50 photons pendant la durée d'exposition, recevra 50 photons à plus ou moins racine carrée de 50, soit un écart-type d'environ 7 photons, soit une fourchette de 43 à 57 photons environ. L'erreur relative, conduisant au bruit quantique est racine carrée de 50 sur 50, soit 1 / racine de 50, soit encore 14 %, soit un rapport signal sur bruit de (50 / 7)2 = 50 <=> 17 dB (10 x Log(50) = 10 x 1,7 = 17). Dans une zone lumineuse, si un pixel doit recevoir 10000 photons, il en recevra 10000 à plus ou moins racine carrée de 10000 = 100. L'erreur relative ne sera plus que de 100 / 10000 = 1 %, soit 40 dB. A 40000 photons, le rapport signal sur bruit atteindra 46 dB, ce qui est exactement la valeur donnée par le Panasonic FZ 10 dans le test Chasseur d'Images n° 261 de mars 2004. Mais il semblerait que cette valeur corresponde à un disque gris neutre, donc qui n'est pas au maximum de luminosité, et non pas blanc. Mais le temps de pose n'est pas donné. Il y a peut-être aussi un traitement logiciel à l'oeuvre, qui lisse les zones sans détails.
Dans la pratique (actuelle), les puits de potentiel se saturent avec 40000 électrons (chiffre dépendant de la qualité du CCD et certainement aussi de la taille de chaque pixel). Au-delà, ils débordent sur les pixels voisins, sauf si un système de "déversoir" ou électrode antiblooming est prévu pour évacuer les électrons excédentaires vers la masse. C'est pour cela qu'un capteur CCD surexposé produit une zone uniformément blanche, sans aucun détail, phénomène dénommé "blooming" ; il peut aussi donner des traits blancs lors des transferts successifs de charges. Le minimum est de 40 électrons, valeur qui a été retrouvée par calcul à partir de données du capteur Kodak KAC 1310 ; la limite de détection actuelle est de 10 électrons pour un capteur CCD). De 40 à 40000 électrons, cela fait un rapport d'intensité lors de la numérisation de 40 à 40000 égal à 1000, soit en puissance 10002, soit 6 bels (6 = log (10002)), soit encore un rapport signal sur bruit de 60 dB (décibels), ou un nombre numérisé sur 10 bits (nombres de 0 à 1023). Le Panasonic FZ 10 donne lui un rapport signal sur bruit de 46 dB, la limite pour une numérisation sur 8 bits étant 10 x Log (5122) = 54 dB.
Essayons de déterminer le nombre de photons reçus par
un pixel dans de mauvaises conditions d'éclairage. Soit une
lampe à incandescence de 40 W de rendement photonique supposé
égal à 5 % pour l'émission dans la zone visible du
spectre lumineux, rayonnant dans toutes les directions de l'espace et éclairant
un mur blanc, diffusant lui-même dans toutes les directions de l'espace,
et situé à R = 1,5 mètre de la lampe. Supposons que
le pixel est carré de 2,25 m de côté
et que le "Fill factor", facteur de remplissage est de 1 ou 100 %. Cela
signifie que tout le capteur est sensible à la lumière, que
chaque pixel touche son voisin. Dans la réalité, les fils
de connexion, les pixels de transfert de charge, les électrodes
antiblooming (servant à vider les électrons excédentaires
des zones surexposées) perdent de la surface utile, sensible aux
photons, mais des microlentilles peuvent être employées pour
collecter l'énergie et la concentrer uniquement sur la zone sensible
de chaque pixel. Le capteur CCD 4 mégapixels du Panasonic FZ 10
comporte pour ce faire 2 microlentilles par pixel (soit 8 millions de lentilles
!).
Calcul d'un ordre de grandeur : La lampe émet, également
répartie sur une sphère de 1,5 mètre de rayon une
puissance de 40 W, dont 40 x 0,05 = 2 W (watts) utiles en photons visibles,
soit encore 2 W répartis sur une surface S = 4 . p
. R2 = 28,3 m2, soit encore 0,0707 W . m-2
ou watt par mètre carré.
Aucun objectif ne peut donner des images de qualité parfaite.
La netteté est limitée par des défauts optiques, appelés
aberrations, dus à des compromis lors de la conception, ou à
des défauts de construction. Mais tout objectif, même parfaitement
corrigé des aberrations, est limité dans sa résolution
par le phénomène de diffraction.
Supposons un sujet formé de bandes alternativement blanches et
noires. Si sur la pellicule, ou le capteur, l'image de ces bandes est de
taille importante, un objectif parfait les rendra parfaitement. Mais si
le sujet photographié s'éloigne, les bandes projetées
sur la pellicule deviennent de plus en plus étroites. L'objectif
parfait les tracera gris clair et gris foncé. Si le sujet photographié
s'éloigne encore, l'objectif parfait tracera des bandes de gris
de plus en plus proches en tonalité, jusqu'à tracer une zone
uniformément grise.
La courbe donnant le contraste des traits, en fonction de la fréquence
spatiale est nommée fonction de transfert de modulation.
L'objectif traçant une zone uniformément grise a atteint
les limites de sa résolution spatiale en traits par millimètre
(en fait l'oeil humain verra une zone uniformément grise pour un
contraste de 10%). Par exemple, un très bon objectif 24 x 36 mm
est capable de tracer sur une pellicule haute résolution 120 traits
par mm, soit 120 traits blancs séparés par 120 traits noir.
Ce qui signifie que l'objectif donne nettement plus dans l'absolu.
Appelons i la largeur du trait (noir et blanc) le plus fin qu'un objectif
parfait puisse tracer ; c'est aussi la largeur occupée par 2 pixels
adjacents. Insistons : le contraste de ces traits est quasi nul, c'est
à dire qu'ils risquent fort d'être invisibles, sauf traitement
spécial. Soit D le diamètre de l'objectif, o son ouverture
numérique, f' sa distance focale, l la
longueur d'onde de la radiation lumineuse employée, 2 a
l'angle maximum séparant deux rayons lumineux frappant la pellicule
photographique ou le capteur (a est donc l'angle
formé par l'axe optique et le rayon le plus éloigné
angulairement de celui-ci, passant par le foyer image et issu de l'objectif,
donc d'un point à la périphérie de l'objectif). Les
2 rayons interfèrent sur la pellicule et donnent les franges d'interférence
les plus fines possibles.
Nous avons les relations :
sin a = l / (2
i). Cette relation donne dans le cas limite où a
= p / 2, i = l /
2 ; il s'agit alors d'ondes stationnaires, de même direction et de
sens opposé, qui seraient produites par un objectif de diamètre
infini, ou très grand par rapport à sa distance focale.
tan a = D/ (2 . f'). o = f' / D. D'où
tan a = 1 / (2 . o)
Comparons pour diverses ouvertures d'objectif tan a
= et sin a.
ouverture o | 1,0 | 1,4 | 2,0 | 2,8 | 4,0 | 5,6 | 8,0 | 11 |
tan a | 0,5 | 0,36 | 0,25 | 0,18 | 0,13 | 0,089 | 0,063 | 0,045 |
sin a | 0,45 | 0,34 | 0,24 | 0,18 | 0,12 | 0,089 | 0,062 | 0,045 |
ouverture o | 1,0 | 1,4 | 2,0 | 2,8 | 4,0 | 5,6 | 8,0 | 11 | 16 | 22 |
nombre de traits
maximum, par millimètre |
1600 | 1220 | 870 | 650 | 450 | 325 | 230 | 165 | 110 | 80 |
nombre de pixels
maximum, par millimètre |
3200 | 2440 | 1740 | 1300 | 900 | 650 | 460 | 330 | 220 | 160 |
taille minimale d'un pixel
en micron (contraste nul) |
0,31 | 0,42 | 0,57 | 0,77 | 1,11 | 1,54 | 2,17 | 3,03 | 4,55 | 6,25 |
taille raisonnable en micron
(contraste utilisable) |
0,62 | 0,84 | 1,14 | 1,54 | 2,22 | 3,08 | 4,34 | 6,06 | 9,10 | 12,5 |
Capteur, marque | dimension | diagonale utile | photosites utilisés | nombre total de photosites | taille d'un photosite | nombre de photosites par mm | limite d'ouverture imposée par la diffraction |
Sony | 1 / 1,8 " | 9 mm | 2592 x 1944 | 5 Mp | 2,8 mm de côté | 357 | f / 5,6 |
Sony | 2 / 3 " | 11 mm | 2560 x 1920 | 5 Mp | 3,4 mm de côté | 294 | f / 8 |
Sony | APS-C 6 Mp | 28,4 mm | 3008 x 2000 | 6,1 Mp | 8 mm de côté | 125 | f / 16 |
Panasonic | 1 / 2,5 " | 6,5 mm | 2304 x 1728 | 4 Mp | 2,25 mm de côté | 443 | f / 4 |
J'ai utilisé un objectif Micro Nikkor, capable d'enregistrer
120 traits (noir et blanc) par mm, sur du film Microfile de Kodak (donc
beaucoup plus dans l'absolu). Mais bien que très détaillées,
les images obtenues semblaient molles, car ces traits fins manquaient de
contraste et n'étaient visibles que du photographe averti. Les non
spécialistes trouvaient mes images presque floues.
Or 120 traits (1 noir, 1 blanc) par millimètre représentent
240 pixels par mm (il faut au moins 2 pixels pour représenter 1
trait noir et 1 trait blanc), soit en 24 x 36 mm une résolution
totale de 50 Mp, 50 millions de pixels.
Numérisés, puis traités en contraste, ces clichés
devraient être percutants.
Mais dans la pratique, l'argentique pose d'autres problèmes
: Planéité du film (qui n'était pas parfaite dans
mon premier Nikkormat), vibrations du déclencheur, mauvaise mise
au point des laboratoires de tirage, pour masquer les éventuelles
poussières. Résultat, des tirages parfois très bons,
parfois nuls.
J'ai eu ensuite un Rollei 24 x 36 qui donnait en général
de meilleurs clichés, mais de fiabilité encore inférieure
à celle du Nikkormat.
J'ai encore, et je le conseille vivement, même à un possesseur
d'appareil numérique, par exemple en dépannage, un Olympus
µ, doté d'un objectif à focale fixe de 35 mm et
d'ouverture assez grande, 2,8. J'ai réussi avec lui des photos que
je n'avais jamais pu réaliser avec les autres, par exemple, capter
les effets de prisme coloré des cristaux de glace sur la neige.
Le pouvoir résolvant de son objectif est inférieur à
ceux du Micro Nikkor 3,5/55 mm du Nikon, ou du Planar 1,8/50 mm du Rollei.
Je l'estimerais aux environs de 40 traits par mm (sur la pellicule). Mais
le contraste est meilleur à cette résolution et surtout la
"transparence". Il est capable de prendre une photo détaillée
et contrastée, avec un Soleil d'hiver dans le champ ! Bien sur,
il faut régler l'exposition Soleil hors champ. Son encombrement
et son poids minime, son total automatisme et sa rapidité d'emploi,
même avec des gants de ski font des souvenirs que je ne pourrais
jamais enregistrer autrement. Il lui manque seulement un téléobjectif.
Cette limitation inhérente à tous les objectifs, même parfaits, d'un contraste qui décroît lorsque les détails deviennent de plus en plus fins, est approximativement corrigé en argentique de la manière suivante : En n'agitant pas trop le bain de développement, le révélateur vient à manquer sur les surfaces à "noircir" de grande taille. Le contraste entre zones de grande taille est donc diminué. Par contre, les fins détails noir se trouvant très près des fins détails blancs, le révélateur non consommé pour le développement de l'un, migre facilement vers l'autre. Il s'ensuit un renforcement des effets de bord, mais son contrôle ne peut en aucun cas avoir la finesse d'un traitement mathématique, surtout lorsque celui-ci est adapté rigoureusement à l'objectif à corriger.
Quatre tendances se font jour et me semble-t-il vont continuer à
coexister :
Le capteur des compacts ou bridges est donc de petite taille, diagonale
de 6,5 mm pour le 1 / 2,5 " et 9 mm pour le 1 / 1,8 ", à comparer
aux 43 mm du film 24 x 36 mm soit 6,6 ou 4,8 fois moins.
Cela présente de nombreux avantages : Coût bien
moins élevé du capteur (mais ce critère évolue
dans l'intérêt du consommateur avec les progrès technologiques),
objectif de focales beaucoup plus courtes, donc appareil nettement moins
lourd et encombrant. Comparez un Panasonic FZ 10 équipé d'un
zoom 12 x, équivalent à 35 - 420 mm de focale en 24 x 36,
ouvert à f / 2,8, au même équipement en réflex
24 x 36 ! Et pourtant, le 24 x 36 est un petit format en argentique.
L'inconvénient est la profondeur de champ accrue, à
ouverture égale, de 6,6 ou 4,8 fois. Cela peut être agréable
en paysage, mais c'est un désastre en portrait.
Des logiciels de traitement d'image permettent cependant de donner
du flou aux arrières-plans. Et n'hésitez-pas à travailler
à grande ouverture, voire ouverture maximale, en longue focale.
D'où l'intérêt d'une réalisation optique irréprochable.
Par ailleurs, pour une qualité excellente, il faut des objectifs
de grande ouverture, 2,0 ou 2,8, afin de limiter les effets de la diffraction.
Nous avons évoqué le traitement numérique des images qui permet de renforcer le contraste local et la visibilité des fins détails. Ce traitement a un ennemi, le bruit du capteur. Ce bruit se traduit en numérique par des points (équivalents au grain des films argentiques de grande sensibilité), parfois de couleur discrète, mais parfois fortement colorés donc insupportables. Pour diminuer le bruit, le calculateur de l'appareil va lisser les pixels, ou effectuer une moyenne des mesures réalisées sur des pixels adjacents (voir travail pratique de MPI sur la mesure de températures pour comprendre cela). Ceci diminuera la résolution de l'image. Les constructeurs recherchent donc - et trouvent parfois - des compromis entre netteté et présence du bruit. Ce domaine est en plein progrès, des logiciels PC ou des logiciels embarqués sur des photoscopes récents étant capable de lisser le grain, tout en accentuant les fins détails.
Votre choix sera différemment orienté selon les critères
suivants :
Extraits d'images publiés dans les pages qui suivent, grandeur
nature, de taille proportionnelle à la taille d'image donnée
par chaque appareil :
résolution du capteur en Mega pixels | 3 | 4 | 5 | D10 | 1 DS |
Taille d'image publiée, en pixels | 190 x 190 | 220 x 220 | 250 x 250 | 279 x 279 | 394 x 394 |
Comparaison du rendu des ombres :
Image | Réglages | Luminosité / Contraste | Luminosité
: + 72
Page suivante