Mise en garde : Des erreurs de physique ont pu se glisser dans les calculs qui suivent ; elles seront progressivement corrigées. En cas de doute sur une information, ou si la propriété énoncée n'est vérifiée que dans certains cas particuliers, le symbole $$ a été ajouté.
La constitution globale du photoscope est la même dans les
deux cas : 1 objectif, 1 diaphragme, 1 obturateur, 1 capteur et 1 système
de visée. La différence provient du capteur :
En argentique, des grains très fins de bromure d'argent
(ou chlorure, ou iodure) sont exposés à la lumière
; la formule chimique du bromure d'argent, solide ionique, s'écrit
AgBr ; conventionnellement (comme pour tous les solides ioniques), elle
ne fait pas apparaître la présence des ions Ag+
et Cl-. Un faible pourcentage des photons incidents (correspondant
à de la lumière visible ou dans le proche ultraviolet) arrachent
un électron au cristal de bromure d'argent, donc à l'ion
bromure. La réaction s'écrit Br- -> Br + é
; cet atome de brome se retrouvera piégé dans la gélatine
à base d'os (on n'a pas trouvé mieux que la gélatine
extraite d'ossements) qui englobe les grains.
L'électron est capté par l'ion argent pour donner un
atome d'argent métallique. Les atomes d'argent ainsi formés
se regroupent en agrégats formant ce que l'on appelle l'image
latente. Ces agrégats ne contiennent pas assez d'atomes d'argent
pour être suffisamment visibles (pour qu'ils le soient, il faudrait
plus d'argent, donc une quantité de lumière trop importante
pour une prise de vue rapide). C'est la différence essentielle avec
l'expérience de travaux pratiques consistant à produire un
précipité de chlorure d'argent et à faire noircir
celui-ci au soleil.
Ensuite les agrégats sont développés chimiquement,
afin d'augmenter leur taille. Le révélateur contient
un réducteur, souvent de l'hydroquinone, C6H6O2,
qui se transforme en benzoquinone C6H4O2
; les ions argent Ag+ sont réduits en métal argent,
au voisinage des agrégats et cet argent métal vient grossir
ceux-ci. La demi-équation d'oxydoréduction relative à
l'hydroquinone s'écrit : C6H4O2,
+ 2 H+ + 2 é = C6H6O2.
L'hydroquinone est bien le réducteur. Elle libère des électrons
qui réagissent avec les ions argent du bromure d'argent entourant
l'image latente, selon la demi-équation Ag+ + é
= Ag.
Lorsque l'image a suffisamment noirci (les agrégats de métal
argent sont opaques à la lumière), le fixateur élimine
le bromure d'argent qui n'a pas réagi, et qui se trouve dans les
zones éloignées des agrégats, donc dans les zones
n'ayant pas reçu de lumière. On obtient une image négative
: les zones ayant reçu des photons ont noirci, les autres sont devenues
transparentes. Pour obtenir directement une image positive, il faut,
après développement, éliminer (dissoudre) les agrégats
de métal argent, puis exposer la pellicule directement à
la lumière et la développer à nouveau, sans la fixer.
Toute la chaîne de traitement, de la prise de vue au tirage,
est analogique. Quoique de plus en plus de laboratoires numérisent
le négatif ou la diapositive pour effectuer le tirage papier, ce
qui, à mon avis, améliore nettement les résultats
(quand le travail est soigné).
En numérique, une image est formée de "points"
appelé pixels. Chaque pixel sur le capteur correspond à un
carré, ou un rectangle de matériau semi-conducteur. Parmi
les photons incidents, ceux qui correspondant à de la lumière
visible (ou dans le proche infrarouge, donc le capteur devra être
protégé par un filtre arrêtant l'infrarouge) font passer
un électron de la bande de valence à la bande de conduction,
l'électron se retrouvant piégé dans un puits de potentiel.
Tous les photons visibles ne sont pas efficaces, mais un fort pourcentage
($$ 40 à
90 % = rendement quantique = 20 fois plus qu'en argentique) transfère
un électron.
Après exposition, le signal issu du capteur, CCD
ou CMos, est traité numériquement, donc dès la
prise de vue.
Nous verrons que le capteur CCD a un
rendement quantique (nombre
de photons produisant la conversion énergie d'un photon -> électron
changeant de niveau énergétique, rapporté au nombre
total de photons incidents, dans le domaine de la lumière visible)
très supérieur (environ 20 fois) à celui d'une surface
sensible argentique. Cela permet (ou permettrait), à sensibilité
égale du photoscope, c'est à dire pour un même triplet
sensibilité ISO, ouverture du diaphragme et vitesse d'obturation,
de
réduire considérablement la surface du capteur
sensible, typiquement 20 fois, d'où un gain important en encombrement
et poids pour le photoscope, ou d'augmenter considérablement
la sensibilité ISO conduisant à d'excellentes images.
Si on prend pour référence de qualité un appareil
argentique 24 x 36 mm, une surface de capteur 20 fois plus petite conduit
à une diagonale de 10 mm (au lieu de 43 mm), soit avec un pouce
mesurant 25 mm, 1 / 2,5 pouce, ce qui est effectivement la taille des capteurs
des photoscopes compacts ou ultra compacts. Ou bien, avec un capteur de
24 x 36 mm, à une sensibilité de 2000 ISO, pour d'excellentes
images (on n'y est pas encore tout à fait, mais cela vient). Le
traitement numérique, de plus en plus intelligent, permettra même
d'outrepasser ces limites, par lissage des zones sans détails, renforcement
du contraste local...
Mais cela fait apparaître de façon plus notable d'autres limitations telles que la diffraction (puisque les pixels ont des dimensions de l'ordre de quelques microns), la qualité de l'optique qui doit avoir une résolution très élevée (mais pas trop pour éviter les repliements de spectres en fréquence conduisant à du moirage, la limitation en fréquence spatiale étant réalisée à l'aide d'un filtre diffuseur), et le bruit quantique dans les zones sombres de l'image, puisque le nombre de photons nécessaires est plus faible qu'en argentique ($$ à vérifier, peut-être faux).
Ces informations ont été glanées sur des sites
d'astronomie amateur ou de fabricants de photoscopes.
A l'heure actuelle, 2 technologies se partagent le marché des capteurs photosensibles, il s'agit des CCD (Coupled Charge Device) et CMos ($$ Métal Oxyde semiconducteur, dérivés de la technologie des microprocesseurs et donc moins coûteux). Les CMos étaient initialement réservés au matériel bas de gamme (vidéosurveillance), mais ils ont beaucoup progressé en niveau de bruit, consommation énergétique, donc échauffement, et se retrouvent maintenant sur le matériel haut de gamme.
Dans les 2 cas, la surface des capteurs est constituée par une plaquette de silicium sur laquelle est gravée une matrice (ça fait bien, mais il n'y a ici rien à voir avec une matrice mathématique) ou un pavage de carrés ou de rectangles (pixels) sensibles à la lumière. Leur maximum de sensibilité se situe vers 780 à 800 nm, soit à la limite du rouge et de l'infrarouge, mais ils sont encore sensibles $$ dans le bleu, heureusement ! Les photons (grains de lumière) qui frappent un pavé ou pixel, soit sont perdus (dommage), soit transfèrent leur énergie h . n à 1 électron qui se retrouve piégé dans un puits de potentiel. Rappelons que h est la constante de Planck, h = 6,62 . 10-34 J.s et que n est la fréquence de l'onde lumineuse associée au photon. Leur sensibilité au proche infrarouge nécessite, en usage photographique normal, de les faire précéder par un filtre arrêtant l'infrarouge. Nos test personnels montrent que l'efficacité de ces filtres est très variable.
Comme en optique, il est d'usage de parler de longueur d'onde l, rappelons la relation l = c / n, où c est la célérité de la lumière (dans le vide, car la longueur d'onde associée au photon est toujours donnée dans le vide, donc c = 3 . 108 m . s-1). La lumière visible ayant des longueurs d'onde dans le vide comprises entre 400 et 800 nm (nanomètres), cela correspond à des fréquences comprises entre 7,5 . 1014 Hz et 3,75 . 1014 Hz et des énergies photoniques de 5,0 . 10-19 J et 2,5 . 10-19 J, soit encore, avec 1 eV (électron-volt) = 1,6 . 10-19 J, une énergie de 3,1 eV à 1,6 eV. Énergie qui correspond à celle mise en jeu dans de nombreuses réactions chimiques, pensez à la tension délivrée par un élément de pile électrique ou d'accumulateur.
Le rendement quantique est le pourcentage de photons qui, parmi ceux qui possèdent la bonne énergie (fréquences n correspondant au spectre de la lumière visible), transfèrent un électron. Il est de 40 à 90 % pour les CCD, contre 2 à 4 % pour une surface sensible argentique, soit 20 fois plus (remarque : $$ Pour quelle longueur d'onde, ce pourcentage est-il donné ? L'absorption $$ des filtres placés devant chaque pixel n'est évidemment pas pris en compte). Il est donc bien possible, à conditions de prise de vue identiques, de réduire de 20 fois la surface d'un capteur en passant de l'argentique au numérique, soit de passer du 24 x 36 mm de diagonale égale à racine carrée de 242 + 362 = 43,3 mm à une diagonale de capteur de 43,3 divisé par racine carrée de 20, soit 43,3 / 4,47 = 9,7 mm. Mais les pixels devenant très petits, l'objectif va être mis à rude épreuve, la mise au point devra être parfaite, la diffraction va faire sentir ses effets plus fortement, de même que le bruit quantique (ce point mérite d'être vérifié, la fluctuation quantique concerne-t-elle l'ensemble des photons, utiles ou perdus, ou seulement les photons captés utilement ?).
Une première différence entre les 2 types de capteurs, CCD et CMos, concerne la manière dont, après l'exposition du capteur, sont collectées les informations recueillies par chaque pixel. Le CMos permet un adressage direct de chaque pixel ; ses pixels peuvent donc être lus dans n'importe quel ordre. Dans le CCD, les électrons accumulés dans chaque puits sont transférés dans les puits voisins (d'où le nom CCD, Coupled Charge Device, transfert de charges). Par exemple, toutes les lignes descendent d'un cran, et la ligne la plus basse est vidée par une de ses extrémités, pixel après pixel, dans un convertisseur analogique numérique, et ainsi de suite. Un pixel surexposé (c'est à dire rempli d'électrons au point de déborder, voir blooming) va au cours de ses transferts successifs faire déborder les pixels d'accueil, ce qui produira une ligne blanche sur l'image.
De part sa structure, le CMos permet l'intégration de fonctions pour chacun de ses pixels, par exemple un amplificateur individuel, voire un réducteur de bruit par double échantillonnage corrélé, ce qui est un avantage par rapport au CCD, mais il est (actuellement) affecté par une plus grande sensibilité à la saturation, ou blooming et un bruit sensiblement plus fort. Ce dernier point a fait en 2006 l'objet de nettes améliorations.
: Contrairement à ce
que vous lirez sur certains sites Internet et à ce que tentent de
faire croire les fabricants et les vendeurs de photoscopes, le critère
le plus important pour un photoscope ou un capteur CCD n'est pas - du moins
pas uniquement - le nombre de pixels qu'il comporte.
Un photoscope doté de 3 à 4 millions de pixels
permet de bons tirages 24 x 30 cm. Il lui est possible d'aller encore plus
loin, après traitement numérique de l'image. Reconnaissons
qu'il est rare qu'un amateur agrandisse plus ses images.
D'autres critères sont tout aussi essentiels :
Nous avons vu que pour un usage non professionnel, un capteur à 3 ou 4 millions de pixels est suffisant. Il faut bien entendu que l'optique qui lui est associée ait un pouvoir résolvant suffisant, car les pixels sont généralement très petits, bien plus petits que les grains de chlorure d'argent des émulsions argentiques. Mais la résolution ne doit pas non plus être trop élevée, car se produira alors un phénomène de sous-échantillonnage (voir le cours de MPI pour le sous-échantillonnage temporel ; il s'agit de sous-échantillonnage spatial ici) qui conduira à des artefacts. Les photoscopes bas de gamme ignorent bien sur ce problème, leur objectif servant de filtre passe-bas ; les hauts de gamme comportent soit un filtre passe-bas, anti-aliasing (diffuseur) devant le capteur, soit un traitement logiciel - il y a certainement du filtrage en fréquences spatiales, type FFT en deux dimensions ici.
Ainsi qu'il vient d'être dit, le CMos est actuellement affecté
d'un bruit très supérieur au CCD. Il s'agit du bruit lié
au courant d'obscurité. Un capteur placé dans le noir, devrait,
après déchargement de ses pixels, garder des pixels non chargés.
Mais du fait d'impuretés qui créent des niveaux d'énergie
parasites dans la bande interdite (gap), des électrons peuvent se
retrouver dans le puits de potentiel, par l'apport de photons de faible
énergie, c'est à dire par un effet d'agitation thermique.
Cela crée un courant d'obscurité qui vaut de $$
2
à 200 pA . cm-2 pour les CCD et 50 à 1000 pA .
cm-2 pour les CMos.
Examinons concrètement le cas d'un capteur de 4 x 6 mm comportant
4000000 pixels et exposé pendant une durée de 8 secondes.
Un courant de 10 pA . cm-2 correspond à une intensité
de 10 . 10-12 A sur 1 cm2, soit 10 . 10-12
x (0,4 x 0,6) = 2,4 . 10-12 A pour l'intégralité
du capteur. Chaque pixel reçoit une intensité de 2,4
. 10-12 / 4000000 = 6 . 10-19 A, soit en 8 secondes
6 . 10-19 x 8 = 4,8 . 10-18 C, soit encore 4,8 .
10-18 / 1,6 . 10-19 = 30 électrons.
Nous voyons que cela fait en 8 secondes de 6 à 600 électrons
pour un CCD et de 150 à 3000 électrons pour un CMos. Si la
durée d'exposition est réduite, le nombre d'électrons
parasites l'est proportionnellement et nous obtenons pour une vitesse d'obturation
de 1 / 100 seconde, de 0 électrons pour le CCD à 4 électrons
au maximum pour le CMos. Certains appareils comportent un mode spécial
pose longue qui mesure d'abord le bruit propre du capteur (pose avec l'obturateur
mécanique fermé) et le soustrait de l'image enregistrée
ensuite.
Une autre cause de bruit est le bruit quantique : Imaginons une source stable qui envoie ses photons sur un pixel. Celui-ci ne reçoit pas le même nombre de photons, lors d'enregistrements successifs, à durée d'exposition égale ; leur nombre fluctue, avec un écart-type égal à la racine carrée du nombre moyen de photons reçu. Ce qui veut dire qu'un pixel chargé de mesurer une zone sombre et qui devrait recevoir 50 photons pendant la durée d'exposition, recevra 50 photons à plus ou moins racine carrée de 50, soit un écart-type d'environ 7 photons, soit une fourchette de 43 à 57 photons environ. L'erreur relative, conduisant au bruit quantique est racine carrée de 50 sur 50, soit 1 / racine de 50, soit encore 14 %, soit un rapport signal sur bruit de (50 / 7)2 = 50 <=> 17 dB (10 x Log(50) = 10 x 1,7 = 17). Dans une zone lumineuse, si un pixel doit recevoir 10000 photons, il en recevra 10000 à plus ou moins racine carrée de 10000 = 100. L'erreur relative ne sera plus que de 100 / 10000 = 1 %, soit 40 dB. A 40000 photons, le rapport signal sur bruit atteindra 46 dB, ce qui est exactement la valeur donnée par le Panasonic FZ 10 dans le test Chasseur d'Images n° 261 de mars 2004. Mais il semblerait que cette valeur corresponde à un $$ disque gris neutre, donc qui n'est pas au maximum de luminosité, et non pas blanc. Mais le temps de pose n'est pas donné. Il y a peut-être aussi un traitement logiciel à l'œuvre, qui lisse les zones sans détails.
Dans la pratique (actuelle), les puits de potentiel se saturent avec $$ 40000 électrons (chiffre dépendant de la qualité du CCD et certainement aussi de la taille de chaque pixel). Au-delà, ils débordent sur les pixels voisins, sauf si un système de "déversoir" ou électrode antiblooming est prévu pour évacuer les électrons excédentaires vers la masse. C'est pour cela qu'un capteur CCD surexposé produit une zone uniformément blanche, sans aucun détail, phénomène dénommé "blooming" ; il peut aussi donner des traits blancs lors des transferts successifs de charges. Le minimum est de 40 électrons, valeur qui a été retrouvée par calcul à partir de données du capteur Kodak KAC 1310 ; la limite de détection actuelle est de 10 électrons pour un capteur CCD). De 40 à 40000 électrons, cela fait un rapport d'intensité lors de la numérisation de 40 à 40000 égal à 1000, soit en puissance 10002, soit 6 bels (6 = log (10002)), soit encore un rapport signal sur bruit de 60 dB (décibels), ou un nombre numérisé sur 10 bits (nombres de 0 à 1023). Le Panasonic FZ 10 donne lui un rapport signal sur bruit de 46 dB, la limite pour une numérisation sur 8 bits étant 10 x Log (5122) = 54 dB.
Essayons de déterminer le nombre de photons reçus par
un pixel dans de mauvaises conditions d'éclairage. Soit une
lampe à incandescence de 40 W de rendement photonique supposé
égal à 5 % pour l'émission dans la zone visible du
spectre lumineux, rayonnant dans toutes les directions de l'espace et éclairant
un mur blanc, diffusant lui-même dans toutes les directions de l'espace,
et situé à R = 1,5 mètre de la lampe. Supposons que
le pixel est carré de 2,25 m de côté
et que le "Fill factor", facteur de remplissage est de 1 ou 100 %. Cela
signifie que tout le capteur est sensible à la lumière, que
chaque pixel touche son voisin. Dans la réalité, les fils
de connexion, les pixels de transfert de charge, les électrodes
antiblooming (servant à vider les électrons excédentaires
des zones surexposées) perdent de la surface utile, sensible aux
photons, mais des microlentilles peuvent être employées pour
collecter l'énergie et la concentrer uniquement sur la zone sensible
de chaque pixel. Le capteur CCD 4 mégapixels du Panasonic FZ 10
comporte pour ce faire 2 microlentilles par pixel (soit 8 millions de lentilles
!).
Calcul d'un ordre de grandeur : La lampe émet, également
répartie sur une sphère de 1,5 mètre de rayon une
puissance de 40 W, dont 40 x 0,05 = 2 W (watts) utiles en photons visibles,
soit encore 2 W répartis sur une surface S = 4 . p
. R2 = 28,3 m2, soit encore 0,0707 W . m-2
ou watt par mètre carré.
$$ $$ $$
Aucun objectif ne peut donner des images de qualité parfaite.
La netteté est limitée par des défauts optiques, appelés
aberrations, dus à des compromis lors de la conception, ou à
des défauts de construction. Mais tout objectif, même parfaitement
corrigé des aberrations, est limité dans sa résolution
par le phénomène de diffraction.
Supposons un sujet formé de bandes alternativement blanches et
noires. Si sur la pellicule, ou le capteur, l'image de ces bandes est de
taille importante, un objectif parfait les rendra parfaitement. Mais si
le sujet photographié s'éloigne, les bandes projetées
sur la pellicule deviennent de plus en plus étroites. L'objectif
parfait les tracera gris clair et gris foncé. Si le sujet photographié
s'éloigne encore, l'objectif parfait tracera des bandes de gris
de plus en plus proches en tonalité, jusqu'à tracer une zone
uniformément grise.
La courbe donnant le contraste des traits, en fonction de la fréquence
spatiale est nommée fonction de transfert de modulation.
L'objectif traçant une zone uniformément grise a atteint
les limites de sa résolution spatiale en traits par millimètre
(en fait l'œil humain verra une zone uniformément grise pour un
contraste de 10%). Par exemple, un très bon objectif 24 x 36 mm
est capable de tracer sur une pellicule haute résolution 120 traits
par mm, soit 120 traits blancs séparés par 120 traits noir.
Ce qui signifie que l'objectif donne nettement plus dans l'absolu.
Appelons i la largeur du trait (noir et blanc) le plus fin qu'un objectif
parfait puisse tracer ; c'est aussi la largeur occupée par 2 pixels
adjacents. Insistons : le contraste de ces traits est quasi nul, c'est
à dire qu'ils risquent fort d'être invisibles, sauf traitement
spécial. Soit D le diamètre de l'objectif, o son ouverture
numérique, f' sa distance focale, l la
longueur d'onde de la radiation lumineuse employée, 2 a
l'angle maximum séparant deux rayons lumineux frappant la pellicule
photographique ou le capteur (a est donc l'angle
formé par l'axe optique et le rayon le plus éloigné
angulairement de celui-ci, passant par le foyer image et issu de l'objectif,
donc d'un point à la périphérie de l'objectif). Les
2 rayons interfèrent sur la pellicule et donnent les franges d'interférence
les plus fines possibles.
Nous avons les relations :
sin a = l / (2
i). Cette relation donne dans le cas limite où a
= p / 2, i = l /
2 ; il s'agit alors d'ondes stationnaires, de même direction et de
sens opposé, qui seraient produites par un objectif de diamètre
infini, ou très grand par rapport à sa distance focale.
tan a = D/ (2 . f'). o = f' / D. D'où
tan a = 1 / (2 . o)
Comparons pour diverses ouvertures d'objectif tan a
= et sin a.
ouverture o | 1,0 | 1,4 | 2,0 | 2,8 | 4,0 | 5,6 | 8,0 | 11 |
tan a | 0,5 | 0,36 | 0,25 | 0,18 | 0,13 | 0,089 | 0,063 | 0,045 |
sin a | 0,45 | 0,34 | 0,24 | 0,18 | 0,12 | 0,089 | 0,062 | 0,045 |
ouverture o | 1,0 | 1,4 | 2,0 | 2,8 | 4,0 | 5,6 | 8,0 | 11 | 16 | 22 |
nombre de traits
maximum, par millimètre |
1600 | 1220 | 870 | 650 | 450 | 325 | 230 | 165 | 110 | 80 |
nombre de pixels
maximum, par millimètre |
3200 | 2440 | 1740 | 1300 | 900 | 650 | 460 | 330 | 220 | 160 |
taille minimale d'un pixel
en micron (contraste nul) |
0,31 | 0,42 | 0,57 | 0,77 | 1,11 | 1,54 | 2,17 | 3,03 | 4,55 | 6,25 |
taille raisonnable en micron
(contraste utilisable) |
0,62 | 0,84 | 1,14 | 1,54 | 2,22 | 3,08 | 4,34 | 6,06 | 9,10 | 12,5 |
Capteur, marque | dimension | diagonale utile | photosites utilisés | nombre total de photosites | taille d'un photosite | nombre de photosites par mm | limite d'ouverture imposée par la diffraction |
Sony | 1 / 1,8 " | 9 mm | 2592 x 1944 | 5 Mp | 2,8 mm de côté | 357 | f / 5,6 |
Sony | 2 / 3 " | 11 mm | 2560 x 1920 | 5 Mp | 3,4 mm de côté | 294 | f / 8 |
Sony | APS-C 6 Mp | 28,4 mm | 3008 x 2000 | 6,1 Mp | 8 mm de côté | 125 | f / 16 |
Panasonic | 1 / 2,5 " | 6,5 mm | 2304 x 1728 | 4 Mp | 2,25 mm de côté | 443 | f / 4 |
Quatre tendances se font jour et me semble-t-il vont continuer à
coexister :
Le capteur des compacts ou bridges est donc de petite taille, diagonale
de 6,5 mm pour le 1 / 2,5 " et 9 mm pour le 1 / 1,8 ", à comparer
aux 43 mm du film 24 x 36 mm soit 6,6 ou 4,8 fois moins.
Cela présente de nombreux avantages : Coût bien
moins élevé du capteur (mais ce critère évolue
dans l'intérêt du consommateur avec les progrès technologiques),
objectif de focales beaucoup plus courtes, donc appareil nettement moins
lourd et encombrant. Comparez un Panasonic FZ 10 équipé d'un
zoom 12 x, équivalent à 35 - 420 mm de focale en 24 x 36,
ouvert à f / 2,8, au même équipement en reflex 24 x
36 ! Et pourtant, le 24 x 36 est un petit format en argentique.
L'inconvénient est la profondeur de champ accrue, à
ouverture égale, de 6,6 ou 4,8 fois. Cela peut être agréable
en paysage, mais c'est un désastre en portrait.
Des logiciels de traitement d'image permettent cependant de donner
du flou aux arrière-plans. Et n'hésitez-pas à travailler
à grande ouverture, voire ouverture maximale, en longue focale.
D'où l'intérêt d'une réalisation optique irréprochable.
Par ailleurs, pour une qualité excellente, il faut des objectifs
de grande ouverture, 2,0 ou 2,8, afin de limiter les effets de la diffraction.
Nous avons évoqué le traitement numérique des images qui permet de renforcer le contraste local et la visibilité des fins détails. Ce traitement a un ennemi, le bruit du capteur. Ce bruit se traduit en numérique par des points (équivalents au grain des films argentiques de grande sensibilité), parfois de couleur discrète, mais parfois fortement colorés donc insupportables. Pour diminuer le bruit, le calculateur de l'appareil va lisser les pixels, ou effectuer une moyenne des mesures réalisées sur des pixels adjacents (voir travail pratique de MPI sur la mesure de températures pour comprendre cela). Ceci diminuera la résolution de l'image. Les constructeurs recherchent donc - et trouvent parfois - des compromis entre netteté et présence du bruit. Ce domaine est en plein progrès, des logiciels PC ou des logiciels embarqués sur des photoscopes récents étant capable de lisser le grain, tout en accentuant les fins détails.
Avion porteur
Déclenchement de l'appareil photographique par
Fournisseur éventuel :
Mathieu modélisme, RN 73 ZA Aux grands Champs 25410 Dannemarie
sur Crète
tel 03 81 58 36 69
Modèle Spiral, carlingue balsa 135,15 euros
moteur Mabushi 540
envergure 2 m, masse 1,150 kg
télécommande 2 axes
largeur intérieure 44 mm, le Nikon n'entre pas
Prévoir en plus :
variateur 60 euros
accus Ni MH 2400 mAh 15 euros
chargeur 40 à 200 euros
télécommande et servos
Modèle Wind Star carlingue fibre 134 euros
masse 1250 g
envergure 1,80 m
largeur intérieure 44 mm
Autre fournisseur
01 Modélisme
site Internet : www.01-modelisme.com
ZAE Cap Nord (en face d'Ikea)
1 rue aspirant Buffet 21000 Dijon
distributeur exclusif des modèles SDM Précision
DCM Précision SA
ZI 70190 Voray sur l'Ognon
Tél 03 81 56 96 00 Fax 03 81 56 96 10 www.dcmprecision.com
Reboul SA Parc Lafayette
25 rue Clément Marot 25000 Besançon
Tél 03 81 50 14 85 Fax 03 81 53 28 00
Kit Club Bisontin
44 chemin des journaux
25000 Besançon
Tél 03 81 51 41 08
03 81 51 51 92
http://kitclubbisontin.free.fr
Extraites du cours de l'école polytechnique, par Y. Bonnassieux,
mars 2006.
L'intensité lumineuse
Énergie rayonnée dans une direction donnée par
une source, à l'intérieur du spectre visible
Unité : la candela (cd) = énergie lumineuse de 1 / 683
watt par stéradian.
Le flux lumineux
Énergie lumineuse rayonnée dans un angle solide, par
une source ponctuelle située à son sommet et d'intensité
constante dans toutes les directions de l'angle solide.
Unité : le lumen (lm) = intensité constante de 1 cd dans
toutes les directions se situant à l'intérieur d'un angle
solide de 1 sr.
La luminance
Dans une direction déterminée, est le quotient de l ’intensité
d'une source non ponctuelle dans une direction déterminée
par sa surface apparente.
Unité : le candela par mètre carré (cd . m-2).
L'éclairement
Ensemble des flux lumineux intercepté par un objet, rapporté
à la surface réelle qui est éclairée.
Unité : le lux (lx) qui est égal à 1 lm . m-2
.
L'efficacité lumineuse
quotient du flux lumineux global d'une source qu'elle émet en
tous ses points par la puissance qu'elle absorbe.
Unité : le lumen / watt (lm . W-1).
En lumière jaune, au maximum de sensibilité de l'oeil
humain, à l = 555 nm, la valeur maximale
de l'efficacité lumineuse, rendement de la source égal à
100 %, est de 683 lm . W-1.
A titre de comparaison, voici les rendements de différentes sources
lumineuses, trouvées sur différents sites Internet :
Lampe à incandescence 100 W : 17 lm . W-1,
rendement 17 / 683 = 2,5 %.
Lampe fluorescente : 50 à 70 lm . W-1. Rendement
7,3 à 10 %.
Lampe compacte fluorescente dite lampe à économie d'énergie
70 lm . W-1.
Lampe à LED : 25 lm . W-1.
Lampe à vapeur de sodium basse pression, U = 58 V, I = 0,53
A, P = 31 W, flux lumineux = 4000 lm, efficacité 129 lm .
W-1, température de couleur 1800 K.
Voici les indications, à supposer qu'elles soient sincères,
trouvées sur les emballages de deux lampes à économie
d'énergie :
9 W équivalent 45 W, 405 lm, température de couleur 2
700 K, soit 45 lm . W-1.
16 W équivalent 75 W, 900 lm, soit 56 lm . W-1.
C'est moins que ce qui est indiqué plus haut, mais peut-être
cela est-il dû aux pertes liées à l'enveloppe de la
lampe et au culot ?
Une question intéressante est : Pourquoi ne pas tout mesurer en employant le watt comme unité de puissance ? Question à creuser.
Différents systèmes sont envisageables. Le plus simple
sera le mieux. Or le Nikon Coolpix 7900 possède un mode rafale continue.
Testons ce mode.
Avec une carte mémoire SD rapide, il prend 31 photos (7 Mpixels,
qualité JPEG normale) à la suite, en 19 s (soit 0,61 s par
photo), puis semble s'arrêter. Il lui faut 72,9 s au total pour être
à nouveau disponible, soit globalement 2,35 s par photo.
Avec une carte bon marché, il lui faut 91,7 s pour sauvegarder
35 photos (prises en 22 s, soit 0,63 s par photo), soit 2,62 s par photo.
Mais en laissant le déclencheur bloqué, nous constatons
qu'après avoir saturé sa mémoire tampon, il continue
à prendre des photos, à raison d'environ 1 photo toutes les
4,59 s. Cela avec la carte SD lente, et des images de 7 Mpixels en qualité
de compression JPEG normale. La carte 500 Mo peut stocker 286 images, ce
qui permet une durée de prise de vue en continu de 1152 s, soit
plus de 20 minutes.
En 7 Mpixels et haute qualité, il prend 1 photo toutes les 5,14
s, soit 10 minutes d'autonomie.
Donc, inutile de se casser la tête, puisque notre planeur motorisé
est prévu pour voler 10 à 20 minutes.