Sunteți pe pagina 1din 151

Simon BACHELIER

Sim.bachelier@gmail.com

N°étudiant : 10321810

Pratiques de l’image numérique en histoire


de l’art

Approche des mutations d’un support d’étude

Mémoire de Master 2
Soutenu le 10 juin 2009

Sous la direction de Michel Poivert


et Corinne Welger-Barboza

UFR 03 - Histoire de l’Art et Archéologie

1
TABLE DES MATIÈRES

2
Avant-propos p.5

Introduction p.8

1ère partie : Évolution et historicité du support d’étude en


histoire de l’art p.11

I – Diffusion et survivance des œuvres d’art au travers de la


gravure, ou la constitution d’une mémoire faussement
objective des images p.13

II – La photographie comme outil didactique en histoire de l’art p.17

III – Indispensable technologie ? Question posée à l’égard des


reproductions photographiques des œuvres d’art p.23

2ème partie : Technicité et théories des images numériques p.35

I – Technicité des images numérisées p.37

A. Définition et résolution : la numérisation des images p.37

B. La compression des images p.39

II – Technicité des images de synthèse p.43

A. Les images vectorielles et les formats multirésolutions p.43

B. Les images de synthèse en trois dimensions p.46

III – Théories et débats autour de la nature de l’image numérique p.50

A. De l’indicialité en photographie : prétexte pour une controverse


autour du médium numérique p.51

B. La structure informationnelle de l’image numérique p.55

3
3ème partie : Pratiques de l’imagerie numérique en histoire
de l’art p.60

I – Disponibilité et accès des images numériques sur le web p.62

II – L’image numérique comme outil : terrain d’expérimentations


et d’investigations p.70

III – HDRI et perspectives d’applications en histoire de l’art p.78

Conclusion p.82

Annexes p.86

Catalogue d’illustrations p.87

Bibliographie p.135

Webographie p.141

Lexique p.148

4
AVANT-PROPOS

« Il faut avoir une haute idée, non pas de ce qu’on fait, mais de ce qu’on
pourra faire un jour ; sans quoi ce n’est pas la peine de travailler. »

Edgar Degas
(cité par Paul Valéry, Degas. Danse. Dessin., Paris, Gallimard, 1938)

5
Le sujet de ce mémoire de Master 2 est la suite logique de réflexions amorcées lors de
mon Master 1 concernant les usages des outils numériques en histoire de l’art. Ayant abordé
succinctement la question des images numériques, de nombreuses interrogations ont été
soulevées sans que je sois en mesure d’approfondir véritablement le sujet. C’est pour cette
raison que j’ai décidé, suite à ma soutenance de mémoire de Master 1, de focaliser mes
recherches sur les questions complexes que soulève l’image numérique appliquée à la
discipline de l’histoire de l’art. Soucieux d’apporter un regard actuel et innovant autour des
nouvelles pratiques de l’historien de l’art à l’ère du numérique et de l’internet, j’ai rapidement
constaté que le terrain d’étude et d’analyse offert par le domaine de l’imagerie numérique
ouvrait un très large champ de recherche qu’il fallait impérativement développer, mais aussi
baliser, sous peine de se perdre dans les nombreux débats interdisciplinaires qui s’animent
autour du sujet. Une articulation en trois parties m’a paru être la meilleure approche pour
aborder cette matière, dans l’optique d’apporter un éclairage sur la nature historique et
technique de ce nouveau support d’étude, mais également d’en comprendre pleinement les
potentialités et les nouvelles applications qui pouvaient en découler.

Sensible à l’histoire et l’évolution de la discipline, il m’a semblé intéressant d’étudier


la transformation progressive des supports d’études visuels des historiens de l’art à l’aube du
XXIe siècle, en m’appuyant sur l’expérience historique des reproductions manuelles, puis
photographiques, jusqu’à l’imagerie numérique qui a totalement transformé notre rapport aux
œuvres d’art. Dans cette optique de recherche, j’en suis venu à soulever des indices qui
mettent en avant une évolution des pratiques via l’impact du numérique et d’internet sur notre
discipline. Travaillant à l’Institut National d’Histoire de l’Art pour la deuxième année
consécutive, j’ai pu bénéficier d’un regard général sur les pratiques, souvent hétérogènes, de
divers spécialistes de la discipline. Cette expérience m’a permis d’évaluer la pertinence et
l’importance d’un axe de recherche comme le mien, qui s’inscrit entre la méthodologie et
l’histoire de l’histoire de l’art.

Substantiellement, mes objectifs auront été de mettre en lumière l’intérêt et les


potentialités d’usages de l’imagerie numérique dans l’enseignement et la recherche en histoire
de l’art, et, en fond de trame, de mettre en évidence certains signes d’une mutation de ladite
discipline par le biais d’un usage croissant, de plus en plus immersif et quotidien, de l’outil
informatique et internet, qui enrichissent les approches méthodologiques et pratiques de
l’étude et de la recherche.

6
J’aimerais avant tout adresser mes remerciements à Michel Poivert pour la confiance
qu’il m’a accordée en acceptant de diriger ces travaux portant sur des aspects peu explorés du
travail de l’historien de l’art, mais également Corinne Welger-Barboza pour m’avoir suivi et
soutenu tout au long de l’année. Sa disponibilité et ses précieuses réflexions à l’égard de mes
recherches m’ont sans cesse permis d’enrichir mon travail universitaire. Je tiens aussi à
remercier Anne-Laure Brisac pour ses relectures et ses importantes corrections, ainsi
qu’Astrid Thibert dont l’attention et les innombrables conseils en méthodologie m’ont été des
plus précieux au cours de l’intégralité de ma rédaction.

7
INTRODUCTION

« Il aura parfois fallu l'apparition de nouveaux médiums pour qu'on prenne


enfin conscience de certaines propriétés des anciens médiums restées jusque
là inaperçues.»

Hans Belting
(Pour une anthropologie des images, Gallimard, coll. Le temps des images, 2004, p.68)

8
Un des sujets les plus discutés dans le domaine de l’histoire de l’art et qui a suscité la
multiplication des débats tout au long du XIXe et du XXe siècle est vraisemblablement celui
du regard et du rapport de l’historien de l’art à l’œuvre avec l’apparition et l’usage de la
photographie. Les ouvrages sur la question de l’image et de l’œuvre d’art sont légion. Parmi
eux se trouvent certains écrits incontournables comme ceux du philosophe Walter Benjamin
(1892-1940), mais également Print and Visual Communication de l’historien de l’art William
Mills Ivins (1881-1961) ou encore le Le Musée imaginaire de l’écrivain André Malraux
(1901-1976), traduit dans sa version anglaise sous le titre non moins explicite de Museum
Without Wall. Or, étudier l’évolution des pratiques en histoire de l’art débute par le constat et
l’analyse des techniques et méthodes employées par notre discipline au fil du temps. Si, dans
la pratique, le recours aux photographies comme support d’études des œuvres d’art est ancré
dans les méthodes des historiens de l’art, il persiste, encore aujourd’hui, des critiques
imputées à cette démarche. Indépendamment de la théorie, nous pouvons amplement constater
qu’à l’aube du XXIe siècle, le support d’étude des spécialistes tend à se dématérialiser par le
biais de son évolution numérique. Ainsi les images des objets d’art passent progressivement
par une dématérialisation de leur médium traditionnel pour se « réincarner » sur les
ordinateurs et, par extension, sur le réseau mondial du web. Se révélant à la lueur de nos
écrans, ces nouvelles images soulèvent en elles-mêmes de nombreuses questions relatives à
leur nature et concept, mais interrogent également l’observateur-utilisateur à propos de ses
propres usages et analyses de l’objet.

Si le débat autour des images numériques en sciences humaines commence à prendre


de l’ampleur, encore peu d’ouvrages et d’articles scientifiques se sont consacrés à la question
de l’impact de l’imagerie numérique sur la discipline de l’histoire de l’art. Bien que nous
puissions disposer d’une large gamme de sources françaises afin de comprendre l’aspect
technique du médium numérique, c’est à l’étranger, notamment en Angleterre et aux États-
Unis, qu’il faudra aller chercher l’actualité scientifique de telles recherches appliquées à notre
discipline. La réflexion et l’analyse de notre étude prendra principalement appui sur différents
travaux réalisés par des spécialistes issus de diverses disciplines au cours des quinze dernières
années.

Pour bien comprendre la pratique de l’image numérique en histoire de l’art, nous


diviserons notre approche en trois parties distinctes, dont l’articulation s’opérera au fil des
chapitres. Dans un premier temps, nous retracerons synthétiquement, sous un regard

9
historiographique, l’évolution du support d’étude en histoire de l’art, en abordant le passage
des reproductions manuelles des œuvres d’art depuis la Renaissance, aux reproductions
photographiques du XIXe siècle qui ont permis à l’histoire de l’art de renforcer la légitimité
scientifique de ses méthodes d’analyses. C’est en examinant le débat critique autour du
rapport distancié à l’œuvre par le biais des reproductions photographiques que nous
introduirons les premières notions d’usage des images numériques. Dans notre deuxième
partie, nous aborderons les aspects techniques de ce nouveau support d’étude en expliquant
clairement sa nature, ses différentes formes, ainsi que les concepts théoriques qui l’entourent
en confrontant un regard critique envers certaines théories actuelles qu’il suscite à son égard.
C’est en étudiant au plus près la nature numérique de ces nouvelles images que nous pourrons
mettre au jour les aspects inédits du support d’étude auxquels l’historien de l’art pourra être
confronté face à ce médium d’un nouveau genre. Enfin, notre dernière partie explorera les
pratiques de l’imagerie numérique en histoire de l’art en estimant son impact sur la discipline
depuis le développement du web, mais également en examinant des cas concrets
d’expérimentation de l’image dans lesquels l’interactivité des supports numériques prend tout
son sens. Nous terminerons également cette partie en ouvrant des questions autour d’un récent
procédé technologique de création d’images photographiques numériques à des fins d’études
des objets d’art. Le fil de notre pensée empruntera à la tradition historiographique de l’histoire
de l’art tout en bravant parfois les frontières de la pluridisciplinarité, en lui ralliant une
approche engagée et critique dans le modernisme du numérique.

10
1ère partie :

Évolution et historicité du support d’étude en


histoire de l’art

« Si nous nous interrogeons aujourd'hui sur nos propres actes d'historiens de


l'art, si nous nous demandons au fond - et nous devons le faire constamment
- à quel prix se constitue l'histoire de l'art que nous produisons, alors nous
devons interroger notre propre raison, ainsi que les conditions de son
émergence. »

Georges Didi-Huberman
(Devant l'image, Paris, Les éditions de minuit, 1990, p. 109)

11
Dans l’introduction de son ouvrage Prints and Visual Communication, William M.
Ivins annonce : « Les historiens de l’art et les théoriciens de l’esthétique sont passés outre le
fait que la majeure partie de leur réflexion s’est fondée sur des supports picturaux en tout
point reproductibles concernant les œuvres d’art, plutôt que sur des contacts directs avec
celles-ci.1 ». En effet, si l’étude d’une œuvre d’art implique théoriquement une approche
physique avec celle-ci, force est de constater que la pratique actuelle des historiens de l’art
consiste majoritairement à poser son regard sur une reproduction "papier" ou numérique de
l’objet en question. A la suite de son commentaire, Ivins ajoute également que « La
photographie et les procédés photographiques […] sont responsables de l’un des plus grands
changements jamais intervenu dans les habitudes et les connaissances visuelles, et ont conduit
à une réécriture quasi-complète de l’histoire de l’art ainsi qu’à une entière réévaluation des
arts du passé.2 ». Bien qu’il soit incontestable que la photographie ait profondément modifié
les pratiques de la discipline, ainsi que le regard porté sur les œuvres et les objets d’art, une
première étape historique et technique a joué un rôle important dans la diffusion des
représentations et des connaissances de l’art : celle de la gravure de reproduction, mise en
place à la fin du Bas Moyen-âge, puis couramment utilisée sous la Renaissance, par le biais
d’artistes soucieux d’accroitre le rayonnement de leur production artistique.

Nous étudierons dans un premier temps les différents usages de cette diffusion des
images d’art issue des gravures, au travers d’exemples historiques. Si le recours à l’outil
photographique n’intervient qu’en second lieu dans l’histoire des représentations des œuvres
d’art, son impact reste toutefois considérable quant au regard posé sur l’œuvre. Ce sont sur les
répercussions de la photographie que nous nous pencherons par la suite. Celles-ci furent
suffisamment importantes pour contribuer à la naissance progressive et officielle d’une jeune
discipline « scientifique » au sein des plus grandes institutions universitaires et/ou
académiques d’Allemagne, d’Angleterre, de France ou encore des États-Unis. Il s’agit de
l’histoire de l’art telle que nous la connaissons aujourd’hui, qui a pu se développer et naître
grâce à de nouvelles méthodes d’enseignement dérivées des technologies de la photographie
et de l’imprimerie. Néanmoins, en se fondant principalement sur les reproductions des images

1
William Mills Ivins, Prints and Visual Communication, MIT Press, 1969, p. 2 : « Historians of art and writers
on aesthetic theory have ignored the fact that most of their thought has been based on exactly repeatable pictorial
statements about works of art rather than upon firt-hand acquaintance with them. » (Traduction personnelle)
2
Ibidem : « Photography and photographic process,[…] have been responsible for one of the greatest changes in
visual habit and knowledge that has ever taken place, and have led to an almost complete rewriting of the history
of art as well as a most thoroughgoing revaluation of the arts of the past. » (Traduction personnelle)

12
des œuvres d’art plutôt que sur les œuvres d’art elles-mêmes, les historiens de l’art ont bâti
leur regard et leur compréhension du sujet de manière déterminante et orientée. C’est ce que
nous interrogerons et approfondirons dans un troisième point.

I - Diffusion et survivance des œuvres d’art au travers de la


gravure, ou la constitution d’une mémoire faussement objective
des images

Avant que la photographie ne naisse et se répande au XIXe siècle, les reproductions


d’œuvres d’art étaient principalement constituées de reproductions manuelles comme les
dessins et les estampes – nous entendons par "estampe", toute espèce d’image obtenue par un
procédé d’impression. La circulation des images d’art a été l’objet de préoccupation de
nombreux artistes dès la Renaissance. Le souci de la reproduction par gravure de leurs œuvres
originales était directement lié à leurs rayonnements, même si cette diffusion des exemplaires
se restreignait à un nombre limité d’amateurs et clients. Les techniques de gravures qui ont
facilité cette quête se sont développées à partir du XIVe siècle avec les procédés de "taille
d’épargne"3, puis dès le XVe avec la "taille-douce"4 qui progressivement supplanta la
première près d’un siècle plus tard. Les reproductions des œuvres visaient généralement à
amplifier le prestige et la notoriété des artistes, et en ce sens développer une demande
supplémentaire dans le commerce des arts. Ajoutons à cela que cette technique permettait aux
artistes de découvrir et d’étudier les œuvres de leurs pairs, sans avoir besoin de voyager
jusqu’à celles-ci.

Le biographe Giorgio Vasari (1511-1574) souligne dans son imposant ouvrage Les
Vies des meilleurs peintres, sculpteurs et architectes que la notoriété de l’œuvre du peintre
Andrea Mantegna (1431-1506) doit beaucoup à son investissement dans la gravure à des fins
de diffusion : « Il [Andrea Mantegna] aimait aussi, on l’a dit, graver sur cuivre ses figures,
procédé vraiment très original, par lequel le monde a pu connaître non seulement ses propres

3
La taille d’épargne consiste à creuser la matrice en laissant intacts les traits qui émergent en relief pour recevoir
l’encre. Il s’agit donc d’une impression en relief.
4
La taille-douce est, à l’opposé de la taille d’épargne, une impression en creux sur métal qui englobe les
techniques en taille directe (burin, pointe sèche, etc.) et de gravure à l’acide (eau forte).

13
œuvres […], mais aussi l’art de tous les autres maîtres5 ». La renommée artistique d’un objet
et de son créateur passait donc, à cette époque, par la diffusion de son image au travers les
estampes. Bien entendu, nous ne prétendons pas croire au seul facteur de la circulation
d’images d’arts dans le processus constituant la carrière de l’artiste. Le mécénat et les
témoignages écrits tels que celui de Vasari prouvent bien qu’il s’agit en réalité d’un ensemble
d’éléments. Néanmoins, nous pouvons constater l’importance accordée par les artistes eux-
mêmes à la reproduction de leurs travaux, à des fins de diffusion. Certains artistes se sont, par
ailleurs, voués à en faire leur principale production artistique, comme c’est le cas du réputé
graveur italien Marcantonio Raimondi, dit Marc-Antoine Raimondi (1480-1534), connu pour
ses nombreuses gravures des travaux de Raphaël (1483-1520), et que Vasari ne manque pas
de mentionner : « Marc-Antoine, réfléchissant à l’honneur et au profit qu’aurait pu tirer celui
qui eût pratiqué cette technique en Italie, décida d’y consacrer tous ses efforts6 ». L’auteur fait
par ailleurs mention d’un procès qui aurait été engagé par l’artiste Albrecht Dürer (1471-
1528) à l’encontre de Raimondi. Ce dernier aurait copié la « Passion en trente-six planches y
inscrivant le monogramme A.D.7 », signature originale de Dürer. Bien que ce procès soit
rapporté par Vasari dans son ouvrage, plusieurs faits historiques et matériels, dans lesquels
nous ne rentrerons pas dans le détail, semblent néanmoins contredire les propos du
biographe8. Si l’histoire du procès appartient à la légende, nous pouvons retenir une fois de
plus par l’intermédiaire de ce témoignage que le travail du graveur depuis la Renaissance joue
un rôle important dans la renommée des artistes et plus encore dans la circulation des images
d’art.

Indépendamment de l’usage fait par les artistes de la production de gravures, les


anciennes expéditions archéologiques produisaient également un grand nombre d’estampes
avant que ne soit développé le daguerréotype. Ainsi dessinateurs, savants et peintres
accompagnèrent les troupes napoléoniennes durant la campagne d’Égypte menée de 1798 à
1801, pour effectuer des relevés graphiques de paysages, monuments, sculptures, inscriptions,
peintures, ainsi que tout élément en rapport avec les diverses formes d’art issues de l’Égypte
ancienne. De cette campagne fut publié, par l’Imprimerie Impériale, un recueil savant intitulé

5
Giorgio Vasari, Les Vies des meilleurs peintres, sculpteurs et architectes, livre IV, Paris, Actes Sud, 2005,
p. 309.
6
Ibidem, livre VII, p. 66.
7
Ibid., livre VII, p. 66.
8
Christopher L. C. E. Witcombe, Copyright in the Renaissance: prints and the privilegio in sixteenth-century
Venice and Rome, Leiden, Brill, 2004, p. 81-85.

14
Description de l’Égypte regroupant plus de trois milles illustrations sous la forme de 837
planches gravées sur cuivre, en couleurs et en noir et blanc9. D’autres expéditions similaires
furent lancées dans l’objectif de créer et d’accumuler un savoir et une imagerie savante
pouvant servir aux spécialistes. Citons à titre d’exemple l’expédition franco-toscane de 1828 à
1829 dirigée par les égyptologues Jean-François Champollion (1790-1832) et Ippolito
Rosellini (1900-1843), dont les travaux furent publiés sous le titre de Monuments de l’Égypte
et de la Nubie. La réalisation de ce type d’estampes était destinée à une large diffusion
d’images savantes à des fins scientifiques, mais également artistiques lorsque les peintres et
les sculpteurs s’en emparaient. Véritables répertoires iconographiques de la mémoire
historique des arts, les gravures de reproduction n’en restent pas moins des modèles
interprétés d’œuvres originales. Si la fidélité aux règles de la composition est généralement
respectée, les détails iconographiques ou chromatiques ne peuvent pas toujours être
correctement restitués par le dessinateur ou peintre. Nous pouvons, par ailleurs, nous
demander si les graveurs cherchaient systématiquement à vouloir reproduire une œuvre dans
sa parfaite ressemblance, ou si plutôt, ils recherchaient une parfaite vraisemblance avec leur
modèle.

Dans sa Grammaire des arts du dessin, architecture, sculpture, peinture de 1867,


l’historien de l’art Charles Blanc (1813-1882) écrit au sujet du graveur Marc-Antoine
Raimondi : « Sous la surveillance de Raphaël, sous l’empire de ses conseils souverains, Marc-
Antoine conçoit la gravure comme il la faut concevoir quand on est aux prises avec les grands
maîtres. Il la conçoit comme une traduction concise qui met en lumière l’essentiel, qui sait
tout indiquer, sait tout dire et qui, privée du langage des couleurs, insiste sur la suprême
beauté des contours, accentue le caractère des têtes, les formes choisies, les fières tournures,
la force ou la finesse des attaches et des extrémités.10 ». Les mots de l’auteur désignent bien le
travail du graveur comme étant celui d’un interprète, qui « traduit » une réalité. Alors qu’il lui
manque la couleur, ce dernier contrebalance en accentuant les contrastes et les formes, ce qui
a pour effet de remodeler en partie l’objet référent. Nous ne pouvons toutefois pas soutenir
simplement que Raimondi déformait l’œuvre qui lui servait de modèle, d’autant plus que dans
cet exemple, le peintre Raphaël – tout comme les autres artistes pour lesquels le graveur
devait travailler – veillait à ce que la reproduction lui convienne. Cependant, nous pouvons
9
Jean-Claude Chirollet, L'art dématérialisé. Reproduction numérique et argentique, Wavre, éd. Mardaga, 2008,
p. 8.
10
Charles Blanc, Grammaire des arts du dessin, architecture, sculpture, peinture, Paris, Ve J. Renouard, 1867,
p. 666.

15
soulever l’hypothèse que la reproduction du graveur pouvait contenir des retouches ou des
altérations de la réalité qui n’existaient pas comme telles dans l’original afin d’obtenir,
volontairement ou non, un rendu plus esthétique, voire peut-être plus flatteur de l’objet d’art
une fois reproduite en estampe. Au demeurant, dès la Renaissance, l’origine des gravures de
reproduction visaient à diffuser des images porteuses d’un modèle, soit économique (faire
connaître les talents de l’artiste et générer une demande), soit "artistico-prosélytique" (diffuser
un modèle de goût et d’inspiration), et par conséquent pouvaient parfaitement représenter ce
qui devait être "juste" vis-à-vis du modèle, plutôt que ce qui était "juste". À l’image des
infographistes actuels, retouchant la moindre forme ou couleur sur une image pour en donner
une représentation de la réalité non pas "juste", mais dont l’aspect général confère cette
impression au regardeur.

L’historien de l’art Heinrich Wölfflin (1864-1945) compare à ce propos en 189711 une


gravure de Raimondi qu’il pense être une représentation de l’Apollon du Belvédère conservé
au musée du Vatican, avec un cliché photographique de l’original (ill.1). Si nous considérons
qu’il s’agit bien de la même œuvre, le constat est frappant. Le rapport des formes est
sensiblement faussé dans la gravure de Raimondi. Wölfflin accompagne cette confrontation
visuelle du commentaire suivant : « La différence entre les deux images n’est certes pas
insignifiante […] le torse y gagne une puissance insoupçonnée, à la fois verticale et
horizontale… »12. Sans vouloir donner de conclusion hâtive à notre hypothèse, nous pouvons
tout de même observer, par le biais de cette démonstration, que le degré d’interprétation
présent dans la réalisation d’une estampe peut aisément induire en erreur quant à la réalité
plastique et esthétique de l’œuvre originale. Comme le souligne avec pertinence le théoricien
Jean-Claude Chirollet : « les empreintes de la liberté artistique du graveur tenaient donc lieu
de mémoire "objective" et fidèle de l’œuvre originale. »13, et cela continua de l’être jusqu’au
XIXe, siècle où la photographie vint progressivement supplanter la reproduction manuelle des
œuvres d’art.

11
Heinrich Wölfflin, « Wie man Skulpturen aufnehmen soll (Teil II) », Zeitschrift für bildende Kunst, Neue
Folge 8/1897, Leipzig, ed. Seeman, p.295, In, Heinrich Wölfflin, Comment photographier les sculptures: 1896,
1897, 1915. Paris, Harmattan, 2008, p. 77.
12
Heinrich Wölfflin, Comment photographier les sculptures: 1896, 1897, 1915. Paris, Harmattan, 2008, p. 45.
13
Jean-Claude Chirollet, L'art dématérialisé. Reproduction numérique et argentique, op. cit., p. 12.

16
II - La photographie comme outil didactique en histoire de l’art

Si l’usage de photographies dans l’étude des œuvres d’art est une pratique banale et
quotidienne pour les historiens de l’art actuels, l’histoire de la discipline démontre que cela
n’a pas toujours été le cas et que cette pratique s’est introduite progressivement dans un
contexte qui ne lui a pas toujours été favorable. Le rapport sur le daguerréotype du savant
François Arago (1786-1853), lu à la Chambre des députés le 3 juillet 1839, puis à l’Académie
des sciences le 19 août de la même année, inscrit l’outil photographique dans un discours
persuasif qui tend à légitimer son développement et ses recours. Soutenu de près par le peintre
Paul Delaroche (1797-1856), il tente de convaincre les assemblées savantes de l’excellente
fiabilité scientifique avec laquelle l’héliographie est capable de reproduire les formes
« réelles » des objets en tous leurs détails. Quelques mois après ces discours, le peintre
Horace Vernet (1789-1863), en compagnie de ses neveux Charles Burton (1813–1889),
officier du génie, et Frédéric Goupil-Fesquet (1817–1878) peintre de genre, font partie des
premiers voyageurs à emporter des appareils daguerréotypes en Égypte. Leur mission reprend
le pas sur les traces des premières expéditions archéologiques menées quelques décennies
plus tôt lors des campagnes napoléoniennes et celle de Champollion. Leur voyage sera
l’amorce, pour de nombreux artistes et connaisseurs, de projets pour daguerréotyper l’Orient.

La création de la « mission héliographique »14 par la Commission des monuments


historiques en 1851, constitue très certainement l’une des premières reconnaissances
institutionnelles de l’outil photographique à des fins scientifiques. Cette dernière chargea la
Société héliographique, composée de cinq photographes (Édouard Baldus, Hippolyte Bayard,
Gustave Le Gray, Henri Le Secq et Auguste Mestral), de « recueillir des dessins
photographiques d’un certain nombre d’édifices historiques »15. Indépendamment de
l’avancée technique (l’adoption du daguerréotype), cette commande publique marque un point
historique important dans l’acceptation des images photographiques, et leur apporte une
certaine crédibilité. Il est intéressant de relever l’emploi du terme de « dessins
photographique » par la Commission, pour qualifier le daguerréotype. L’état d’esprit dans

14
Selon les propos de l’historienne de la photographie Anne de Mondenard, le terme de « mission
héliographique » ne serait apparu qu’à partir de 1979 par les écrits du conservateur Bernard Marbot. A l’origine,
cette commande de l’État mentionnait seulement : « missions pour dessins photographiques ».
15
Procès-verbaux de la Commission des monuments historiques, séance du 9 mai 1851, archives du Patrimoine,
80/15/7. In, Anne de Mondenard, « La Mission héliographique : mythe et histoire », Études photographiques,
n°2, Mai 1997, p. 61.

17
lequel s’intègre cette nouvelle technologie est encore foncièrement marqué par une tradition
du dessin "artistico-scientifique" où le rôle du relevé architectural ou graphique était du
ressort du dessinateur ou du peintre, fût-il archéologue ou savant. Cette tradition du dessin
scientifique se trouve, par la suite, supplantée progressivement par la photographie
scientifique, bien que une fois de plus, cette transition ne se soit pas faite sans controverses.
Alors que les défenseurs du dessin soutenaient ses qualités pédagogiques, notamment lors de
sa réalisation où il est possible de souligner intentionnellement des détails qui doivent être
"révélés", les partisans de la photographie mettaient l’accent sur son pouvoir de refléter
l’exactitude de la réalité observée. Substantiellement, le dessin rendait un objet lisible, de par
les intentions de son auteur à mettre en valeur un aspect donné de l’élément étudié, tandis que
la photographie rendait l’objet visible dans son ensemble. Le botaniste Gaston Bonnier (1853-
1922) expérimente même, à la fin du XIXe siècle, un compromis étonnant en combinant les
deux procédés dans une vaste publication intitulée Flore complète en couleurs, de France,
Suisse, Belgique 16. Le contour des photographies est redessiné à la main pour faire valoir les
détails jugés importants. Malgré tout, l’usage du dessin scientifique sera peu à peu mis de côté
étant donné que, malgré sa rigueur d’exécution, ce dernier ne peut donner à voir que ce qui est
préalablement connu. C’est dans sa fonction heuristique, au-delà de son état documentaire,
que la photographie s’imposera parmi les sciences comme outil d’étude et de recherche
privilégié des savants.

Abandonnons cependant l’Académie des sciences, pour revenir à l’usage de l’outil


photographique en histoire de l’art. En 1894, soit plus d’un demi-siècle après le discours
d’Arago en faveur du daguerréotype, l’historien de l’art français Émile Mâle (1862-1954)
écrit : « On peut dire que l’histoire de l’art, qui était jusque-là la passion de quelques curieux,
n’est devenue une science que depuis que la photographie existe. […] La photographie a
affranchi en partie l’œuvre d’art des fatalités qui pèsent sur elle, de la distance, de
l’immobilité. La photographie a permis de comparer, c’est-à-dire de faire une
science…17 ». En effet, le recours à l’outil photographique a profondément contribué à la
transformation de l’histoire de l’art en une discipline scientifique. Encore impensable au début
du XIXe siècle, la possibilité de comparer une peinture conservée au musée du Louvre avec
une autre provenant du palais Medici était désormais possible par la confrontation des deux
16
Pierre Barboza, Du photographique au numérique. La parenthèse indicielle dans l'histoire des images, Paris,
L’Harmatttan, coll. champs visuels, 1996, p. 194-195.
17
Emile Mâle, L’Enseignement de l’histoire de l’art dans l’université, Revue universitaire, 1894, T. I, p. 19. In
Lyne Therrien, op. cit., p. 398.

18
reproductions photographiques. Auparavant, pour étudier et observer une œuvre d’art,
l’historien ou le connaisseur n’avait nul autre choix que celui de se rendre sur le lieu de
conservation de l’objet ou se contenter d’une reproduction de type estampe, dessin ou
gravure. En opposition aux images « automatiques » apportées par l’appareil photographique,
les reproductions manuelles constituaient des interprétations subjectives, ce qui créait
généralement des reproductions faussées de la réalité. Dans son ouvrage L’Art et l’illusion,
l’historien de l’art Ernst H. Gombrich (1909-2001) exprime clairement cette notion
d’interprétation inconsciente que développe le graveur durant son travail de retranscription. Il
compare ainsi une lithographie de la cathédrale de Chartres réalisée en 1836 par Robert
Garland avec un cliché photographique du XXe siècle, et montre comment l’artiste, malgré
une grande habilité et une finesse importante des détails, transforme la réalité observée :
« Mais en fin de compte, il ne parvient pas lui non plus à s’affranchir des servitudes imposées
par ses préférences personnelles et par le point de vue de son époque. […] Ainsi, considère-t-
il Chartres comme un ensemble gothique, avec des arcs en ogive, et il déforme les baies
romanes de plein cintre de la façade ouest…18 ».

Malgré ce constat moderne qui nous apparaît aujourd’hui comme une évidence, il ne
faut pas oublier que l’utilisation de photographies en lieu et place des gravures de
reproduction a fait l’objet de débats entre les spécialistes du XIXe siècle. En Angleterre par
exemple, dans les années 1870, les spécialistes utilisaient les reproductions photographiques
comme « aide-mémoire » à l’étude, mais illustraient encore leur catalogue de traditionnelles
gravures19. C’est l’apparition d’un nouvel outil qui va contribuer à développer le recours aux
photographies dans l’enseignement des arts. La lanterne magique, ancêtre des appareils de
projection à diapositives, apparaît dans le courant du XVIe siècle20 à des fins de
divertissement. Elle est alors détournée des théâtres pour trouver place dans les salles de
conférence dès le milieu du XIXe siècle. Les premières versions "détournées" de cette
invention projetaient des images au moyen de plaques de verre peintes à la main. Il faut
attendre 1849-50, date à laquelle les frères William (1807-1874) et Frederick Langenheim
(1809-1879) trouvent le moyen de fixer des images positives sur des plaques de verre via le
procédé de l’albumine qu’ils baptisent « hyalotype », pour pouvoir projeter des photographies

18
Ernst Hans Gombrich, L’Art et l’illusion, Paris, Gallimard, 1996, p. 62.
19
Frederick N. Bohrer, « Photographic perspectives: photography and the institutional formation of art history »,
Art history and its institutions, Elizabeth Mansfield (dir.), Londres, Routledge, 2002, p. 247.
20
Aucune description ou illustration de lanterne magique n’a été retrouvée avant la publication de l’ouvrage Ars
Magna Lucis et Umbrae en 1646, du scientifique et jésuite allemand Athanasius Kircher (1602-1680).

19
à tout un public de classe. En France, cet outil est adopté de manière très disparate selon les
lieux d’études. De nombreuses conférences avaient lieu, jusque dans les premières décennies
du XXe, sans projection, et les professeurs faisaient simplement circuler des photographies et
des gravures dans les salles. Cela s’explique peut être par une pratique de l’enseignement qui
se voulait avant tout historique, et mettait donc l’accent sur les faits, les récits et les
témoignages, plutôt que d’illustrer les propos par des images. Nous savons toutefois qu’un
appareil de projection installé à la Sorbonne était très utilisé avant la fin du XIX e siècle et ce,
par diverses disciplines universitaires. « […] nous n’avons pas hésité à introduire, dans
l’enseignement de la Sorbonne, un procédé réservé jusque-là à l’archéologie et à l’histoire de
l’art : les projections à la lumière électrique.21 ». Au États-Unis cependant, la mise en place de
nouveaux cycles d’études supérieures en arts plastiques commence en 1885 à Harvard, puis
l’année suivante à Yale, où des appareils de projection avaient déjà été mis en place quelques
années auparavant, pour enseigner d’autres matières scientifiques. Leur emploi est donc
immédiatement appliqué à l’enseignement des arts. L’historien de l’art Frederick N. Bohrer
précise qu’à la même époque, l’Angleterre et l’Allemagne ont bénéficié de ces outils
photographiques pour instaurer et mettre en avant l’histoire de l’art comme discipline
scientifique et « intellectuellement respectable »22.

Un des premiers historiens de l’art européens à avoir couramment recours aux plaques
photographiques durant ses cours et ses conférences est le professeur allemand Herman
Grimm (1828-1901) de l’université de Berlin. Grandement intéressé par l’usage de ces
nouveaux outils visuels, il publie des articles dans la presse où il envisage l’importance de
leur impact sur l’enseignement et l’étude en histoire de l’art23. Grimm n’a pas seulement
amorcé la pratique des projections photographiques en salle de cours, il a entièrement institué
un style d’enseignement propre à la discipline : celui du professeur d’art ou d’archéologie, qui
enseigne à des étudiants dans une pièce sombre, à la seule lueur de l’appareil qui enchaîne
solennellement les plaques ou, plus tardivement, les diapositives.

21
Achille Luchaire, « L’Enseignement de l’histoire du Moyen Âge à la Sorbonne », Revue internationale de
l’enseignement, T. XXXVIII, 1899, p. 485. In Lyne Therrien, op. cit., p. 403.
22
Frederick N. Bohrer, « Photographic perspectives: photography and the institutional formation of art history. »
Art history and its institutions, Elizabeth Mansfield (dir.), Londres, Routledge, 2002, p. 249-250.
23
Wolfgang M. Freitag, « La servante et la séductrice. Histoire de la photographie et histoire de l’art », Histoire
de l’histoire de l’art, cycles de conférences organisés par le musée du Louvre, T.2, Paris, Klincksieck, 1997,
p. 274.

20
Son successeur à la chaire d’histoire de l’art de Berlin, Heinrich Wölfflin, fait partie
des spécialistes du domaine dont le positionnement à l’égard de l’utilisation du médium
photographique est sensiblement partagé. À la fois concerné et critique, Wölfflin est persuadé
que la photographie peut être utile à l’étude de l’architecture et de la sculpture. Il publie
successivement en 1896, 1897, puis 1915, trois articles précurseurs intitulés Comment
photographier les sculptures24 dans lesquels il tente d’expliquer l’art et la manière dont une
sculpture devrait être représentée sous l’œil de l’objectif, et dénonce les mauvais usages de
l’outil photographique faits par la plupart des photographes « amateurs » de son temps. Dans
son article de 1915, il écrit : « Il existe déjà des différences entre telle ou telle vue : certaines
offrent peu, d’autres davantage ; en général il y a une vue qui, par sa beauté et sa clarté,
s’avère dominante. »25. Selon lui, une photographie peut servir à comprendre une œuvre d’art,
si certaines conditions, tels que les angles de prises de vue et l’éclairage, sont respectées, sans
quoi l’image obtenue fausse la vision de l’œuvre et trahit le « vouloir artistique » de son
auteur. Ces trois articles sont une invitation morale et professionnelle à prendre conscience de
l’intérêt scientifique et pédagogique qu’une telle rigueur peut apporter au regard des
sculptures et, le cas échéant, à mettre en garde contre les mauvaises utilisations de l’appareil
photographique.

L’intérêt de Wölfflin pour l’enseignement de l’histoire de l’art l’amène à expérimenter


un nouveau modèle de présentation et d’étude des plaques photographiques durant ses
conférences. Selon l’historien de l’art Trevor Fawcett 26, il aurait très certainement été le
premier à avoir recouru à la double projection en salle de cours. L’usage simultané de deux
appareils de projection lui permet de confronter deux reproductions photographiques
d’œuvres d’art, et de faciliter ainsi les comparaisons de style entre deux artistes ou entre deux
œuvres d’un même auteur. Wölfflin poursuit la méthode que Grimm avait instaurée en
donnant ses conférences d’histoire de l’art dans le noir. Selon lui, le format imposant des
images projetées dans une salle sombre renforce la légitimité et la figure d’autorité du
professeur face à ses élèves qui se noient et s’éclipsent dans les ténèbres. Une anecdote
rapporte qu’il interrompait ses cours en quittant la salle si, par malheur, l’appareil de

24
Titre original en allemand : «Wie man Skulpturen aufnehmen soll ».
25
Heinrich Wölfflin, Comment photographier les sculptures : 1896, 1897, 1915, op. cit., p. 53.
26
Trevor Fawcett, « Visual Facts and the Nineteenth-Century Art Lecture », Art History VI, 1983, p. 456. In
Wolfgang M. Freitag, « La servante et la séductrice. Histoire de la photographie et histoire de l’art », op. cit.,
p. 275.

21
projection venait à ne pas fonctionner correctement27. Que cela appartienne à la légende du
personnage ou à la réalité, l’intérêt et l’importance de l’appareil à projection sont une fois de
plus soulevés.

A ses débuts, la photographie s’introduit timidement dans la discipline comme aide-


mémoire, puis progressivement, s’impose à la fois comme ressource et outil indispensable du
spécialiste, au point de devenir aussi importante que l’œuvre d’art elle-même. L’historien de
l’art américain Bernard Berenson (1865-1959) admit à la fin de sa carrière qu’il s’était plus
souvent trompé ou perdu dans l’étude directement in situ d’œuvre d’art, plutôt qu’en
s’appuyant seulement sur des reproductions photographiques28. À l’aube du XXIe siècle, où
dans les amphithéâtres et salles de cours la photographie numérique tend peu à peu à
supplanter la diapositive, exercer un cours d’histoire de l’art sans avoir recours à un support
visuel (devenu) aussi basique que la projection paraîtrait impensable. L’enseignement de
l’histoire de l’art a donc contribué, au XIXe siècle, à légitimer l’usage des photographies dans
le cadre d’études savantes et, inversement, les nouveaux outils technologiques dans lesquels
la photographie s’est déclinée (daguerréotype, calotype, hyalotype, photogravure, etc.) ont
permis de donner un cachet « intellectuellement respectable » à la discipline et d’en faire une
« science », comme le rappelait Emile Mâle. Des plaques de verres illuminées par la lanterne
magique aux images numériques affichées sur écran d’ordinateur, l’évolution de la discipline
semble logiquement suivre un parallèle avec celle des nouvelles technologies de son époque.
Cela résume brièvement que l’histoire de l’art, au XIXe siècle, est une jeune discipline qui
évolue parallèlement avec son temps. Néanmoins, pour mieux comprendre les pratiques qui se
sont instaurées autour de cette science, nous allons nous risquer à la question que soulève
notre discipline depuis près d’un siècle : peut-il y avoir une histoire de l’art sans
photographie ?

27
Adolf Max Vogt, « Der Kunsthistoriker im Halbdunkel, Der Übergang von der Zeichnung zur Projektion in
der Vorlesung », Zeitschrift für Schweizerische Archälogie und Kunstgeschichte, Vol. 51, 1994, n°2, p. 101 :
« Er [Heinrich Wölfflin] fühlte sic hunter den summenden Bildwurfmaschinen so wohl, dass er sich bei
technischen Defekten jeweils weigerte weiterzusprechen und den Saal verliess. » In, Lyne Therrien, op. cit.,
p. 398.
28
Bernard Berenson, Aesthetics and History in the Visual Arts, New York, Pantheon, 1948, p. 204 : « I am not
ashamed to confess that I have more often gone astray when I have seen the work of art by itself and alone, than
when I have known its reproductions only. »

22
III - Indispensable technologie ? Question posée à l’égard des
reproductions photographiques des œuvres d’art

Étudier les œuvres d’art par le biais de leurs reproductions photographiques est, nous
l’avons vu, une pratique solidement ancrée chez les historiens de l’art, que cela soit pour
l’enseignement ou pour la recherche. André Malraux pensait justement que l’histoire de l’art
est depuis près d’un siècle « l'histoire de ce qui est photographiable »29, or ce que la
photographie a rendu possible – l’étude des œuvres d’art du monde entier –, elle l’a également
façonné. L’adoption de l’outil photographique dans la discipline s’explique historiquement
comme nous l’avons montré, grâce notamment à sa fonction heuristique, mais également par
son aspect usuel et pratique. Étudier de près une œuvre originale est, dans bien des cas, une
quête ardue et épineuse. Lorsque celle-ci n’est pas conservée dans un lieu ou un pays éloigné
du nôtre, il faut parfois surmonter la foule qui s’amasse autour des objets d’art lors de visite
au musée, ou bien encore faire abstraction d’un mauvais positionnement ou éclairage de
l’œuvre étudiée. Tant de facteurs nuisibles qui empêchent parfois d’observer le sujet dans de
bonnes conditions. En revanche, le recours à une reproduction photographique de l’œuvre,
que celle-ci soit dans un livre ou sur écran d’ordinateur, permet de l’observer dans des
conditions relativement favorables à son étude. Les historiens de l’art, comme bien d’autres
spécialistes, y construisent leurs premières impressions avant de s’en servir comme support
d’étude. La visite in situ se résume d’ailleurs bien souvent à venir confirmer une analyse ou
une observation faite à partir de photographies, et rarement l’inverse.

Dans un article paru en 1993, Looking at Art Through Photographs, puis partiellement
remanié en 2000 dans l’ouvrage Transforming images: How Photography Complicates the
Picture30, la théoricienne de l’esthétique Barbara E. Savedoff expose en huit points les effets
et les conséquences du recours aux reproductions photographiques auprès des spécialistes de
l’art. Ce recensement est plutôt représentatif des critiques généralement recueillies autour du
médium photographique, et par analogie du médium numérique, dans le cadre de leur usage
pour l’étude des œuvres d’art. Nous allons présenter chacune de ces huit remarques, et tenter
de les éclairer et de les analyser au regard des pratiques actuelles de la discipline de l’histoire

29
André Malraux, Le musée imaginaire, Gallimard, coll. Folio Essais, Paris, 1965, p. 123.
30
Barbara E. Savedoff, Transforming images: how photography complicates the picture, Ithaca, NY, Cornell
University Press, 2000, p. 160-166.

23
de l’art, et ce en incluant partiellement les nouveaux outils du numérique qui s’offrent à notre
domaine.

La première critique qui se pose à l’égard de ces reproductions aborde la non-fidélité


des couleurs capturées par l’appareil photographique. En effet, la vérité chromatique est une
notion relativement instable dans ce domaine des images. Une reproduction de tableau dans
un catalogue pourra avoir des couleurs sensiblement différentes d’un autre ouvrage, ou de
celle imprimée sur les cartes postales et affiches vendues par un musée, et bien souvent de
celle proposée sur la base d’images en ligne du site de l’institution muséale. Savedoff
souligne la difficulté de percevoir les variations de couleurs selon les conditions d’éclairage et
d’angle de prise de vue au sein desquels l’œuvre est capturée par le photographe. À l’inverse,
elle ajoute que toute tentative pour reproduire avec précision la justesse des couleurs peut
trahir l’esprit d’une peinture31. Pour illustrer cette critique, l’auteur cite les peintures
minimalistes de l’artiste américain Ad Reinhardt (1913-1967), et notamment les toiles qu’il a
réalisées à la fin de sa vie, avec la série des Ultimate Paintings. Ces œuvres sont
principalement composées d’aplats monochromes, avec parfois de légères variations de
tonalité pour faire ressortir une ou plusieurs formes géométriques. L’expérience du regardeur
peut ainsi être trompée au premier coup d’œil, puisqu’il peut ne pas déceler les subtiles
nuances de tons qui composent la toile. Si nous tirons un exemple de la collection en ligne du
Centre Georges Pompidou avec l’image de l’œuvre Ultimate Painting n°6 de 1960 (ill.2),
nous rencontrons, en effet, une difficulté flagrante à percevoir les différentes nuances
chromatiques des aplats qui se divisent en 9 surfaces carrées distinctes. Pour une œuvre se
voulant expérimenter les limites de la visibilité, nous pourrions dire que l’objectif de l’artiste
est atteint et reste intact au travers de cette reproduction.
Néanmoins, nous pouvons étendre l’illustration de ce propos à bien d’autres œuvres, et
ce indépendamment de leur style ou de leur époque. En cherchant des exemples sur internet
en contraignant notre investigation à de grandes bases d’images en ligne, les cas de
dissemblances se multiplient rapidement. Sur trois images téléchargées sur le web de
l’Autoportrait d’Albrecht Dürer, peint en 1498, celle numérisée en haute définition par
l’institution qui la conserve, le musée du Prado à Madrid, devrait apparaître comme la

31
Barbara E. Savedoff, « Looking at Art Through Photographs », The Journal of Aesthetics and Art Criticism,
vol. 51, n°3, Blackwell Publishing, 1993, p. 457 : « Reproductions do not capture the colors of the original. […]
Furthermore, the goal of reproducing accurate color can conflict with the presentation of the subtle or ephemeral
character of a painting. »

24
référence à côté de deux autres échantillons trouvés sur la base hongroise et sur le site
Wikipédia, pour lequel l’image semble avoir été retouchée au vue des couleurs "folles" qui en
ressortent (ill.3). Pourtant, l’image proposée par le musée du Prado affiche des couleurs
ternes, probablement assombries par la teinte vieillissante du vernis. Ce détail en soulève
d’ailleurs un autre relatif à la restauration des tableaux anciens. Dans quelle mesure pouvons-
nous nous fier aux couleurs d’une toile dont les couleurs sont délavées ou dénaturées par le
temps ? En la matière, le travail des restaurateurs nous démontre sans cesse à quel point il est
difficile de se prononcer dans le domaine des couleurs au sujet d’œuvres n’ayant pas été
nettoyées, voir restaurées (ill.4). Nous pouvons même pousser plus loin la comparaison
d’œuvres en confrontant deux reproductions photographiques inégales de la photographie
Milk, réalisée par l’artiste Jeff Wall en 1984 (ill.5). Une fois encore, celle proposée par
l’institution qui expose et conserve l’original ne semble pas fournir le meilleur échantillon
pour l’étudier.
La capture des couleurs par un appareil photographique est principalement le résultat
de la source et du type d’éclairage dont il dispose lors de la prise de vue. La lumière incidente,
artificielle ou naturelle reflète des nuances chromatiques différentes qui peuvent produire des
résultats d’images aux couleurs sensiblement dissemblables. Les quelques échantillons
d’images issus du web nous démontrent à quel point les versions d’une même œuvre peuvent
être déclinées en autant de couleurs variées. Toutefois, cette critique de la non-fidélité
chromatique soulevée par Savedoff n’est pas suffisante en soi pour remettre en cause l’intérêt
d’une étude d’œuvre d’art par le biais de sa reproduction photographique. La notion de
couleur n’est pas, rappelons-le, une caractéristique propre d’un objet, car elle dépend
principalement de la source et de la qualité de lumière qui l’éclaire. Ainsi, un musée qui
exposerait la toile de Reinhardt à la lueur des néons ne donnera pas à voir le même aspect
chromatique que si elle avait été présentée sous une verrière en pleine lumière du jour.
Comme le précise le théoricien Jean-Claude Chirollet : « La notion de fidélité absolue est une
revendication utopique, un faux problème, car une image d’art est à sa façon une
interprétation de son modèle32 ». À défaut qu’il existe une unique vérité des couleurs, nous
pouvons parler d’interprétations mixtes du modèle (l’original) servies par les reproductions
photographiques, que celles-ci soient numériques ou non, et qui conduisent « le regard vers
une vérité "croisée" à plusieurs visages »33. Si les images photographiques des œuvres ne sont

32
Jean-Claude Chirollet, L'art dématérialisé. Reproduction numérique et argentique, op. cit., p. 153.
33
Ibidem, p. 155.

25
pas garantes d’une fidélité chromatique absolue, au moins guident-elles l’historien de l’art
vers une vision parmi d’autres, que l’objet d’art étudié offre à voir.

Le deuxième point argué par Savedoff à l’encontre des reproductions photographiques


est la différence sensible entre la texture et la matière d’un tableau comparée à celle plate et
brillante du papier ou de l’écran d’ordinateur. Cette absence de rapport direct avec la
matérialité de l’œuvre empêcherait de percevoir la manière dont l’objet d’art est réalisé 34. La
mise à plat d’un objet tridimensionnel amène nécessairement à la construction d’une image
« plate » dont la notion illusoire de profondeur des objets est fonction de son angle de prise de
vue. Une simple photo frontale d’un tableau dont la composition serait faite de matériaux
amalgamés ne peut pas, en effet, rendre compte de la véritable nature matérielle de l’œuvre.
Cependant, quelques méthodes permettent de pallier à ce manque, comme par exemple un
angle de vue légèrement incliné permettant de mettre en valeur le relief de la surface d’un
tableau, ou bien encore l’usage d’une exposition en lumière rasante révélant avec force les
textures et les aspérités d’un tableau (ill.6). Bien que nous ne puissions pas substituer
l’expérience sensorielle directe, le potentiel offert par les images numériques acquises en très
haute définition permet de renouer partiellement le contact avec la surface d’un tableau. Grâce
à un simple outil d’agrandissement (zoom), un nouveau rapport se fait avec l’œuvre d’art :
celui du détail rapproché (ill.7). Ce rapprochement intime « enrichit la compréhension
intuitive du style esthétique, de la technique, du matériau et du sens de l'œuvre artistique »35.
Dévoilant la touche du pinceau, le spécialiste peut alors bénéficier de la reproduction
photographique numérique pour répondre à un besoin qu’il n’aurait pas pu satisfaire en face
de l’œuvre. En effet, comme le précisait l’historien de l’art Daniel Arasse (1944-
2003) : « pour être vu et, surtout, goûté, le détail doit être approché »36, or bon nombre
d’œuvre d’art ne sont pas suffisamment accessibles pour permettre un tel degré d’intimité
entre elle et son regardeur. Là où l’objet dans sa disposition physique et matériel peut montrer
ses limites, l’image numérique contribue à le dématérialiser et à le rendre interactif pour
faciliter son étude et rendre permanents et instantanés sa disponibilité et son accès.

34
Barbara E. Savedoff, « Looking at Art Through Photographs », op. cit., p. 458 : « In reproduction, the texture
and bulk of paint is exchanged for flat glossy paper or an iridescent screen. This not only leads to a loss of color
and spatial effects, it also prevents us from seeing the way a painting is constructed. »
35
Jean-Claude Chirollet, L'Art dématérialisé. Reproduction numérique et argentique, op. cit., p. 38.
36
Daniel Arasse, Le Détail. Pour une histoire rapprochée de la peinture. Paris, Flammarion, coll. Champs arts,
1996, p. 233.

26
Le troisième argument de l’auteur se rapproche du constat d’André Malraux dans Le
Musée imaginaire, puisqu’il souligne la perte d’échelle d’une œuvre d’art lorsque celle-ci est
reproduite dans les pages d’un livre, par exemple37. Tandis que Malraux appréciait cette
transformation au profit des arts dits « mineurs », qui leur donnait un nouveau statut visuel
comparable à celui des arts majeurs38, Savedoff inverse le point de vue en insistant sur la perte
d’impact des objets d’art de grande taille sur le regardeur. En effet, une peinture telle que Les
Noces de Cana (1563) de Véronèse (1528-1588) mesurant 6,77 × 9,94 m, ou encore celle
mentionnée par l’auteur, Vir Heroicus Sublimis (1951) du peintre expressionniste abstrait
Barnett Newman (1905-1970) et de dimensions 2,42 × 5,41 m, ne peuvent pas faire valoir leur
taille gigantesque lorsqu’elles sont réduites à la surface des pages d’un livre, d’une revue ou
d’un catalogue d’exposition. Lorsque certains artistes jouent volontairement sur cette valeur
des grandeurs comme expérience sensorielle de l’œuvre, le problème de l’échelle n’est que
secondaire, puisque ce type d’œuvre impose avant tout une présence et un regard in situ à
l’œuvre qui se veulent impératifs (ill.8). Dès lors qu’elle est reproduite dans un tout autre
format, celle-ci n’est là qu’à titre d’information ou de référence, comme c’est le cas de la
mention des dimensions dans la plupart des catalogues ou livres spécialisés.
L’étude de l’objet d’art peut tout de même être effective, notamment grâce à cette
remise à l’échelle. Un tableau aussi large et imposant que Les Noces de Cana, ne peut être
convenablement étudié dans les dispositions offertes présentement par le musée du Louvre.
Une peinture d’un si grand format est toujours difficile à cerner intégralement par notre regard
qui se pose sans cesse sur des détails de la scène, mais ne parvient pas immédiatement à saisir
une vue d’ensemble. La reproduction photographique de grandes œuvres permet justement de
compacter l’information visuelle, ce qui a pour effet de faciliter l’appréciation générale de la
composition. La grande souplesse d’interaction offerte par l’imagerie numérique permet
également, nous l’avons mentionné, de passer d’une échelle à une autre en un instant. Un outil
mis en ligne sur internet depuis 2008, Actualsizer39, permet précisément de redimensionner
une image à ses dimensions physiques. Ainsi, en chargeant une reproduction numérique d’un
tableau, il est possible d’avoir une idée de la taille réelle de celui-ci. Même dans l’idéal, il est
peu probable que la taille d’un écran d’ordinateur personnel atteigne un jour les dimensions
d’un tableau de taille moyenne, mais l’outil Actualsizer permet de reconsidérer l’étendue

37
Barbara E. Savedoff, « Looking at Art Through Photographs », op. cit.,, p. 458 : « Reproductions do not
preserve the scale of the original. A painting which depends on its enormous size for impact […], may appear
trivial and uninteresting when reproduced on the page of a text book. »
38
André Malraux, Le musée imaginaire, op. cit., p. 96-106.
39
http://www.actualsizer.com/ (consulté le 16 mai 2009).

27
réelle de la surface des œuvres d’art, dans un environnement qui tend bien trop souvent à les
réduire au format de l’écran, telles de simples illustrations papier. Si l’impact de la taille est
partiellement perdu dans les reproductions photographiques (photographies numériques
comprises), celles-ci permettent néanmoins une meilleure étude de la composition
d’ensemble.
Comme le faisait déjà remarquer Malraux, les agrandissements des œuvres d’art
mineures permettent de réévaluer leur intérêt artistique, mais également historique, au regard
des œuvres d’art majeures. L’inverse, comme semble le soutenir les propos de Savedoff, n’est
pas nécessairement vrai. Si les grandes œuvres d’art perdent de leur impact majestueux, elles
n’en gagnent pas moins à être reproduite à plus petite échelle, puisque leur étude en est
grandement facilitée. Nous pourrions même aller plus loin en disant que leur étude exhaustive
n’est possible que depuis qu’elles ont été reproduites. Alors qu’auparavant, l’œuvre ne faisait
l’objet que d’une expérience sensorielle et émotionnelle, la photographie, qui réduit son
échelle, permet une approche plus distanciée du regard et donc aide particulièrement à son
étude scientifique. L’historien de l’art Charles S. Rhyne du Reed College, suite à une
expérience menée en 1997 avec plusieurs étudiants de premier cycle sur l’étude de très larges
panneaux en bois japonais, rapportait que ses élèves avaient particulièrement apprécié
l’intérêt d’un recours à l’image numérique sur le plan de l’étude des détails, par
agrandissement ou zoom, qui leur avait valu de repérer a posteriori, un grand nombre
d’éléments qu’ils n’avaient pas remarqués ou relevés lors de leur analyse de l’œuvre sur
place, au musée40. Ce type de témoignage renforce notre argument sur l’intérêt d’une
modification de l’échelle initiale d’une œuvre d’art par le biais d’agrandissement ou de
rapetissement de ses reproductions photographiques pour faciliter et approfondir son étude.

Le quatrième élément soulevé par la théoricienne de l’esthétique est la perte de la


présence physique de l’objet d’art. La reproduction de l’original n’est qu’une image, une
projection de l’œuvre qui réside quelque part en tant qu’objet et qui perd à ne pas être
présente lors de son analyse41. Cet argument rejoint globalement les précédents en ce que la
taille, les formes, les reliefs et les couleurs ne sont pas observés et expérimentés de manière

40
Charles S. Rhyne, « Student Evaluation of the Usefulness of Computer Images in Art History and Related
Disciplines », Visual Resources: An International Journal of Documentation, vol. XIII, n°1, 1997. [En ligne]
http://academic.reed.edu/art/faculty/rhyne/papers/student.html : « Nearly all students were astonished by the
clarity of the many details, which allowed them to make discoveries they had missed in front of the [pair of
japanese NamBan] screens themselves. »
41
Barbara E. Savedoff, « Looking at Art Through Photographs », op. cit., p. 458 : « In reproduction, the physical
presence of the painting is lost. […] The reproduction is an image of something which exists elsewhere. »

28
directe par le regardeur. Cette dialectique est parfois mentionnée par certains spécialistes,
toutes générations confondues, vis-à-vis de l’usage des reproductions numériques affichées
sur un écran. Au cours de l’expérience de Rhyne que nous avons citée précédemment, celui-ci
rapporta également que les étudiants jugeaient l’écran d’ordinateur comme étant un vecteur
troublant entre leur expérience personnelle de l’objet et l’image de l’œuvre d’art42.
Sans revenir sur les contre-arguments que nous avons proposés jusque-là avec les
supports numériques, il est important de rappeler que le cadre qui nous intéresse ici concerne
avant tout l’historien de l’art. Si la présence physique de l’œuvre peut venir à manquer dans
son aspect sensoriel, en somme l’expérience physique in situ, elle est généralement plus utile
au critique d’art ou au philosophe de l’esthétique, qu’elle ne l’est à l’historien de l’art dont le
travail s’appuie autant sur les traces écrites autour de l’œuvre et de son contexte historique et
social, que sur ses images et toutes autres formes de déclinaisons visuelles qui peuvent être
produites. L’étude des performances, telles que les happenings, les events, ou autres formes
d’actions artistiques illustre parfaitement cette pratique de l’historien de l’art. N’ayant
généralement, pour des raisons temporelles et logistiques, jamais assisté aux représentations
de cet art éphémère, il doit nécessairement s’appuyer sur des ensembles de traces issues de
ces performances passées pour construire son analyse : photographies, témoignages écrits,
vidéos, restes matériels de performances, etc. À l’image d’un archéologue contemporain, il est
amené à mettre au jour une réalité historique qui fait sens par le biais des images et des textes
issus des œuvres passées qu’il étudie. Toutefois, nous soutenons malgré tout que l’expérience
sensorielle d’une œuvre d’art fait partie intégrante, ou du moins contribue, à sa
compréhension et peut autant favoriser son étude que la complexifier. Quand il lui est donc
possible de le faire, l’historien de l’art gagne à "expérimenter" l’œuvre in situ, que celle-ci
soit, ou non, placée dans son contexte d’origine.

Le cinquième point évoqué par Savedoff concerne l’encadrement des tableaux. La


majorité des reproductions photographiques de peintures n’incluent pas l’élément du cadre qui
les orne. Selon l’auteur, ce détail est significatif du fait que nous nous intéressons plus aux

42
Charles S. Rhyne, « Student Evaluation of the Usefulness of Computer Images in Art History and Related
Disciplines », op. cit., [En ligne] http://academic.reed.edu/art/faculty/rhyne/papers/student.html : « I discussed
with them their impressions of the digital images in comparison with viewing the [pair of japanese NamBan]
screens themselves. Almost unanimously the students objected that the size of the computer monitors did not
allow them to experience the size of the screens, which are five and a half feet tall and each twelve feet long.
Many students also noted the odd substitution of a computer screen for the physical presence of the original
work of art. »

29
images qu’aux œuvres d’art elles-mêmes43. Un second argument intervient dans le fait que le
cadre, lorsqu’il ne fait pas originellement partie de la création artistique, est un médiateur
entre l’espace d’exposition (mur, pièce, etc.) et le tableau. Or, c’est de cet espace physique
que le spécialiste isole l’œuvre pour mieux l’étudier. Du point de vue des pratiques de
l’historien de l’art, les cadres constituent souvent des documents porteurs d’informations
historiques, mais rarement artistiques. En effet, retracer l’histoire de la manière dont une
peinture a été encadrée peut vraisemblablement apporter de nombreuses informations au sujet
du parcours historique de l’objet. Néanmoins, il est assez exceptionnel qu’un tableau conserve
son encadrement d’origine, et parfois le cadre peut même tromper l’observateur si ce dernier
ne possède pas suffisamment de connaissance et d’informations au sujet de l’oeuvre. Le
Portrait du doge Leonardo Loredan (1501-04) de Giovanni Bellini (1425-1516), exposé à la
National Gallery de Londres, s’est vu attribué un cadre tabernacle (ill.9), dont la conception
était destinée à orner des sujets religieux. Par ce biais, l’œuvre profane du portrait du doge est
élevé à celui de chef-d’œuvre religieux. « Le cadre est bien d’époque, mais le sens qu’il
donne à l’œuvre est celui du regard du XXe siècle », précise l’historien de l’art Adrien
Goetz44 au sujet de ce tableau.
La présence et l’intérêt portés au cadre est fonction de son appartenance originelle à
l’œuvre. Le cadre d’un tableau de la Renaissance qui a été maintes fois remplacé par souci
"décoratif" n’a pas d’intérêt direct dans l’établissement d’une étude iconographique. À
l’inverse, les œuvres d’un peintre comme Henri Matisse (1869-1954) qui a voulu renouer
avec la pratique de l’encadrement pour certaines de ses toiles – pratique devenue
progressivement désuète dans la peinture du XXe siècle –, constituent des objets qu’il faut
étudier dans son intégralité. Néanmoins dans la majorité des cas, les cadres actuels ne font pas
à l’origine partie intégrante de la trame des œuvres que nous pouvons admirer dans les
musées. La question de l’absence des cadres dans les reproductions photographiques n’est
donc qu’une préoccupation très secondaire, qui ne touche majoritairement que des cas
d’études particuliers.

Le sixième argument présenté par Savedoff s’inscrit dans la continuité du précédent,


puisqu’il reproche à l’image photographique d’occulter le rôle du mur porteur de l’œuvre

43
Ibidem, p. 458 : « …the absence of a frame means that we are less insistently aware that we are looking at a
reproduction rather than the artwork itself. »
44
Adrien Goetz, « Encadrement des œuvres », Encyclopædia Universalis, 2008, [En ligne],
http://www.universalis-edu.com/

30
d’art, ainsi que l’ensemble de l’architecture qui l’encadre45. Selon elle, cette absence
d’information aurait pour conséquence d’amoindrir l’effet des trompe-l’œil présents dans
certaines fresques, et de nuire à la compréhension des éléments constitutifs de ces œuvres. Si
les fresques s’inscrivent bien dans le cadre d’un contexte architectural et environnemental, les
tableaux, quant à eux, ne sont que très rarement appauvris par cette absence d’information.
Tout comme pour l’encadrement, le contexte physique de l’œuvre d’art n’a souvent d’intérêt
que dans celui où elle a été réalisée et prévue, et non dans celui où elle est actuellement
présentée. Des pans de fresques exposés au musée du Louvre, comme celles réalisées par
Sandro Botticelli (1445-1510) pour la Villa Lemmi entre 1483 et 1486, s’éloignent en toute
impunité de son environnement architectural d’origine. Encadrées d’une large bande en
pierre, dominées en hauteur par des tympans sculptés relativement anachroniques aux
fresques et séparées par un ensemble de quatre colonnes de marbre noir, les deux œuvres
dialoguent mal ensemble (ill.10). Dans ce type de situation, à moins d’étudier spécifiquement
la muséologie, les éléments contextuels parasitent davantage l’interprétation de l’objet d’art
qu’ils ne la facilitent. Son isolement est alors conseillé, ne serait-ce que pour pouvoir
concentrer son étude sur l’iconographie. Comme nous l’avons dit pour le cadre, la question de
la représentation de l’environnement contextuel de l’œuvre ne touche que certaines pièces qui
ne peuvent généralement pas en être dissociées. L’exemple extrême, en art contemporain, du
Land art est assez significatif de l’œuvre d’art ne pouvant être représentée sans son
environnement. Il convient alors d’insister sur le fait qu’une grande majorité des objets d’art
sont déjà extraits, voire "arrachés" de leur contexte d’origine, et par conséquent la question de
l’environnement contextuel de l’œuvre se pose peut-être davantage aux musées qui les
conservent et les réinterprètent qu’aux images qui les reproduisent.

L’avant-dernier argument allégué par l’auteur est la mauvaise orientation du regard


lorsque ce dernier est focalisé sur la lecture d’une reproduction dans un livre46. Ce point de
vue modifie l’impression normalement conférée par l’œuvre qui est généralement abordée de
front, quand elle ne surplombe pas son observateur par un accrochage surélevé. En prenant
appui sur l’exemple de la peinture de portrait qui domine son spectateur, Savedoff explique
que le rapport de force est inversé et donne l’avantage au lecteur du livre, en le mettant dans

45
Barbara E. Savedoff, « Looking at Art Through Photographs », op. cit., p. 458 : « The reproduction […] also
fails to convey the function of the surrounding wall […] The loss of architectural surroundings also has serious
consequences for our understanding of murals and frescoes which interact with their environment. »
46
Ibidem, p. 458-460 : « This change in orientation interferes with much more than our reading of a painting's
perspective. […] The book reproduction also reduces the physical sense of top and bottom. »

31
une position de contrôle (il tourne les pages) et de domination (il surplombe l’image de
l’œuvre). La question du rapport à l’orientation de l’œuvre peut partiellement être critiquée en
rappelant que les reproductions sont, dans l’enseignement de la discipline de l’histoire de
l’art, projetées sur un écran ou un mur, et qu’à l’heure du numérique, les images des œuvres
d’art sont de plus en plus abordées et étudiées par le biais des écrans d’ordinateur, qui sont
des supports de lecture majoritairement frontaux (du moins pour le moment). Néanmoins,
pour les besoins d’une analyse d’œuvre, il est parfois intéressant d’en modifier le sens de
lecture en inversant le haut par le bas, ou encore en jouant d’un effet miroir avec la
diapositive ou l’image numérique. Ce jeu de déconstruction des rapports à l’œuvre contribue à
alimenter un regard neuf et sans cesse renouvelé sur la composition d’un tableau ou les
formes d’une sculpture. Il n’est donc pas systématiquement néfaste pour la compréhension de
l’objet d’art.

Enfin, le huitième et dernier point défendu dans cet article de 1993 est la perte du
rapport entre la proximité et la distance de l’œuvre47. L’observateur ne pouvant se déplacer
physiquement pour apprécier pleinement les jeux de matières et l’illusion que confère la
composition, est de ce fait obligé de se contenter de la vue unique que lui impose la
reproduction photographique, immuable, dont il dispose. La où la photographie traditionnelle
se cristallisait sur un support fixe, le médium informatique la rend dynamique. L’image
numérique est par nature interactive et sa souplesse de traitement lui permet d’obtenir un
rapport d’intimité sans précédent. Nous l’avons montré lors de l’analyse du second point, avec
l’exemple du détail et du zoom, le médium numérique permet de manipuler l’image de l’objet
d’art et de "jouer" à volonté avec les rapports de distance proximité/éloignement.

Les huit arguments soulevés dans Looking at Art Through Photographs appartiennent
à une logique d’approche relativement ancrée dans une philosophie de l’esthétique – à
laquelle Barbara Savedoff appartient, entre autres. L’approche, bien qu’intéressante, se base
en grande partie sur le cas des peintures (couleurs, textures, cadre, environnement
d’accrochage, etc.), ce qui ne permet pas une assise suffisamment solide pour être appliquée à
l’ensemble des œuvres d’art, comme la sculpture ou encore, comme nous l’avons abordé, l’art
éphémère. De plus, la réflexion de l’auteur fait référence à l’excès à une étude des objets
d’art, tels qu’ils sont conservés et exposés dans les musées. Si la photographie donne à voir

47
Ibid., p. 460 : « We lose the ability to move closer and farther away. This prevents us from discovering the
tension between a painting's visual effect and the surface which allows that effect. »

32
une image qui isole souvent le sujet de son contexte pour lui en donner un nouveau, le musée
n’en reste pas moins un puissant interprète des œuvres d’art, en "re-contextualisant" celles-ci
dans son enceinte, en leur donnant une nouvelle vie, un nouveau sens. La revendication de
Savedoff au sujet du contexte physique et in situ de l’œuvre d’art est donc à appréhender avec
un certain recul. Les arguments défendus dans son texte doivent être analysés sous l’angle de
la discipline de l’histoire de l’art comme nous venons de le faire, en incluant également les
possibilités nouvellement offertes, depuis plus de quinze ans, par les supports numériques.

L’essayiste Susan Sontag (1933-2004) écrivait que « les photos sont une façon
d’emprisonner une réalité conçue comme récalcitrante, inaccessible ; une façon de la faire
tenir tranquille [sic].48 » Il semblerait que l’outil photographique permette exactement cela, à
savoir capturer les images des œuvres d’art, bien souvent disséminées partout dans le monde,
et de les "dompter" pour faciliter le regard que nous posons sur elles, afin de les étudier. La
discipline s’est développée par et grâce à la photographie, et il semble difficile, à l’aube du
XXIe siècle avec la grande circulation des images numérique sur le web, de nier cette
évidence. Que les reproductions photographiques soient qualifiées d’« illusions
photologiques », elles n’en restent pas moins « la matière et la base de notre savoir
esthétique »49 dans une société peuplée par les images et organisée autour d’elles. Néanmoins
malgré cela, il semble encore aujourd’hui difficile de rejeter l’argument qui soutient que les
rapports émotionnels et sensoriels établis aux contacts directs des œuvres d’art conserveront
toujours une place et une valeur importante chez l’historien de l’art en valorisant une partie de
son travail d’étude et d’analyse critique des objets d’art.

Bien que nous ayons nuancé les propos de Savedoff au sujet des changements apportés
par les reproductions photographiques sur la perception des œuvres d’art, il n’en reste pas
moins certain que cette pratique a conditionné, en grande partie, la connaissance des arts que
nous avons aujourd’hui. La théoricienne pose d’ailleurs l’hypothèse suivante qui tend à
expliquer la prévalence des approches sociopolitiques, psychanalytiques, ou encore
sémiotique en histoire de l’art, suite à l’usage répété des reproductions photographiques en
substitut des œuvres d’art. Ces champs d’analyses permettent à l’historien de l’art de se
concentrer sur des propriétés spécifiques de l’œuvre, telles que la représentation du contenu
ou la composition, qui peuvent être facilement retranscrits au travers les photographies. Ce

48
Susan Sontag, Sur la photographie, Paris, Christian Bourgois, 2008, p. 222.
49
Jean-Claude Chirollet, L'art dématérialisé. Reproduction numérique et argentique, op. cit., p. 61.

33
que nous avons abordé, au travers d’une courte synthèse historique et critique de l’évolution
du support d’étude visuel des historiens de l’art, nous éclaire davantage sur les raisons qui les
ont poussés à adopter l’outil photographique pour l’enseignement, mais aussi la recherche.
Actuellement et depuis plusieurs années, le recours aux images numériques élargit
grandement l’espace méthodologique de recherche et offre de nouveaux modes de pratiques
de l’image qui ne sont pas sans influencer également les techniques d’enseignements de
l’histoire de l’art.

34
2ème partie :

Technicité et théories des images numériques

« Comme l’eau, comme le gaz, comme le courant électrique viennent de loin,


dans nos demeures, répondre à nos besoins moyennant un effort quasi nul,
ainsi serons-nous alimentés d’images visuelles ou auditives, naissant et
s’évanouissant au moindre geste, presque à un signe. […] Je ne sais si jamais
philosophe a rêvé d’une société pour la distribution de Réalité Sensible à
domicile. »

Paul Valéry
(« La conquête de l’ubiquité », Pièces sur l’art, Paris, Gallimard, 1934, p.105)

35
Les images numériques se distinguent très simplement des images tangibles ou
traditionnelles – telles que la photographie ou encore la peinture – par le fait qu’elles ne sont
pas des "empreintes" laissées par des objets matériels sur un quelconque support physique,
mais le résultat d’un calcul effectué par un ordinateur. En somme, leurs processus de
fabrication ne sont « plus physiques mais computationnels, langagiers50 » pour reprendre les
termes des théoriciens Edmond Couchot et Norbert Hillaire. La nature de l’image numérique
est une série de codes binaires, composés de 0 et de 1, que seul l’ordinateur est capable de lire
et d’interpréter pour parvenir à lui donner une réalité virtuelle qui s’affichera par la suite sur
l’écran.

Il existe deux types d’images numériques qui se distinguent par leur mode de création.
En premier lieu, il y a l’image numérisée qui est obtenue à partir d’une image tangible
préexistante (photographie, peinture, dessins, vidéo, etc.) avant d’être transformée en nombres
par des outils d’acquisition appropriés, tels que les scanners ou les caméras numériques. En
second lieu, il y a l’image de synthèse qui a pour origine un ensemble de calculs, qui
donneront « vie » à une image. Ce dernier type d’image est produit ex nihilo à partir de
calculs intégralement réalisé par l’ordinateur et n’a donc par conséquent, aucun référent direct
avec une image tangible. Sa nature est purement computationnelle et fonctionnellement
virtuelle, c'est-à-dire qu’elle n’a d’existence que par le biais d’une interprétation ou
« lecture » par l’ordinateur et son dispositif.

La grande majorité des images qui servent à l’étude des œuvres d’art sont des images
numérisées, bien que les images de synthèse prennent progressivement une place dans l’étude
d’objets architecturaux ou sculpturaux. Pour bien comprendre la technicité de l’image
numérique, nous allons tout d’abord analyser la nature des images numérisées, en balisant leur
champ d’application en histoire de l’art, puis nous verrons ensuite le cas des images de
synthèse en expliquant simplement leur procédé de création et d’utilisation dans la discipline.

50
Edmond Couchot et Norbert Hillaire, L’Art Numérique : comment la technologie vient au monde de l’art,
Paris, Champs Flammarion, 2005, p. 23.

36
I - Technicité des images numérisées

Cette catégorie relève des images créées aux moyens d’outils d’acquisition numérique.
En prenant pour modèle un objet tangible, un appareil va représenter celui-ci sous la forme
d’un code qui sera ensuite lu et interprété par l’ordinateur, c’est à ce moment l’acte de
numérisation qui entre en jeu. Les appareils photographiques numériques ou encore les
scanners sont les outils créateurs des images numérisées. Ils sont garants de la transformation
d’une image tangible en une matrice de nombres qui formera par la suite un ensemble de
pixels. Pour comprendre la nature de l’image numérisée, il faut expliquer les données de
format, de résolution, de définition, et enfin, d’un point de vue des usages et de la pratique, la
compression des fichiers images.

A. Définiton et résolution : la numérisation des images

La composition d’une image numérique est une matrice de pixels (abréviation de la


locution anglaise « picture element »). Les pixels sont l’unité de base des images numérisées,
ils sont tous porteurs d’informations chromatiques. Il est possible de simplifier cette notion
par un quadrillage qui représenterait l’image, et dont chaque point serait un pixel (ill.11). En
langage informatique, on qualifie l’image numérisée par le terme anglais « bitmap » ou
« pixmap », signifiant littéralement « carte de bits » ou « carte de pixels », tandis qu’en
français nous employons le terme d’" image matricielle". Ce dernier est parfaitement adapté à
sa nature qui repose sur l’unité géométrique et matricielle qu’est le pixel.

Souvent mal compris ou employés à tort, les termes de "définition" et de "résolution"


désignent deux données sensiblement distinctes, tandis que la notion de "format" renvoie
directement aux dimensions physiques de l’image numérisée, comme celle d’un écran ou
d’une feuille de papier par exemple. Définition, format et résolution d’image sont trois valeurs
interdépendantes. La première correspond au nombre total de pixels qui composent la matrice
de l’image bitmap. Cette donnée numérique ne suffit pas à évaluer la taille de l’image sur un
quelconque support d’affichage (écran, papier, etc.). Elle reste un nombre brut indiquant la
quantité de pixels que comporte une surface dans sa hauteur et sa largeur. Ainsi une image
ayant une définition de 1280 × 1024 sera composée de 1310720 pixels, mais sans la notion de
résolution, il est impossible de lui attribuer une échelle de taille ou de format. En effet, si la

37
définition n’indique que la quantité de pixels présents dans une image, et par ce biais même,
le potentiel de qualité d’usage de celle-ci, la résolution exprime mathématiquement la
répartition des pixels sur une surface donnée, et permet ainsi d’établir le degré de finesse de
l’image. La résolution est une valeur qui exprime le nombre de pixels par unité de longueur de
référence. Il est communément admis dans la pratique que cette unité de longueur soit le
pouce (« inch » en anglais), équivalant à 2,54cm. On indique donc la résolution en pixels par
pouce (ppp en français, et plus généralement dpi en anglais pour « dot per inch »).

Le couple définition/résolution permet de renseigner sur le format de l’image numérisée.


Pour une photographie numérique de définition 2048 × 3072 (soit un cliché pris à l’aide d’un
appareil moyen d’environ 6 méga pixels) que nous souhaitons imprimer sur papier avec une
résolution de 300dpi, correspondant à un critère de qualité supérieure (tirage d’art), nous
aurons un format d’environ 6,8" × 10,24", soit 17,3 × 26 cm51. Les notions de format et de
résolution sont des valeurs qui entre en compte dès lors qu’il y a recours à un quelconque
traitement de l’image. Rappelons-le, la définition en tant que valeur brute ne donne aucun
renseignement quant à l’échelle de taille physique qu’une image matricielle aura sur un
support d’affichage. De plus, une fois numérisée, la définition d’une image reste fixe, à moins
d’avoir recours à un logiciel de retouche graphique en agissant directement sur le taux
d’échantillonnage de l’image.

Prenons l’exemple d’une image de faible définition (220 × 220), récupérée au hasard sur
internet : une reproduction de la photographie de Julia Margaret Cameron datée de 1864,
Ellen Terry at Age Sixteen. Le degré de précision de l’image sera extrêmement différent selon
la résolution qui lui sera attribuée. Réaliser une impression à 50dpi donnera une grande
surface dont les pixels seront prononcés et élargis, réduisant ainsi l’image à un piètre niveau
de qualité puisqu’il y aura une répartition d’environ 20 pixels par cm sur une surface totale de
11,18 × 11,18cm. Tandis qu’une impression à 150dpi aurait réparti un taux d’environ 59
pixels par cm sur une surface totale nettement plus condensée, mais réduite à une surface
totale de 3,72 × 3,72cm (ill.12). Plus la résolution augmente, plus petits et groupés sont les
pixels, augmentant ainsi la finesse de l’image. L’exemple du quadrillage que nous avions
mentionné précédemment illustre bien ce processus :

51
La formule mathématique effectuée correspond à : (définition/résolution) × valeur d’un pouce en centimètre =
format. Ceci donne les deux calculs suivant : (2048/300) × 2,54= 17,3 et (3072/300) × 2,54 = 26.

38
Faible résolution Moyenne résolution Forte résolution

Comprendre ce que représentent la définition, le format et la résolution d’une image


matricielle permet de mieux appréhender les enjeux relatifs à la qualité et à la précision des
détails, mais également des usages qui pourront en être faits. Néanmoins, le type de
compression employée pour encoder une image est tout aussi important à l’heure où les
images circulent abondamment sur internet. Selon l’encodage choisi, une image pourra être
visuellement altérée ou non, ou encore allégée en poids pour faciliter sa diffusion sur le
réseau.

B. La compression des images

Si l’image matricielle est un ensemble de pixels, elle est avant tout un fichier
numérique, et par conséquent, une suite d’informations chiffrée. Les très nombreux pixels qui
la composent sont rassemblés et compressés en un fichier grâce à un traitement mathématique
appelé « algorithme de compression ». Pour donner une vision très simplifiée du rôle et du
processus de compression, il suffit d’imaginer un exemple de 200 × 200 pixels uniquement
composé d’aplats de couleurs. En admettant qu’une ligne entière soit de couleur verte, il est
possible de coder directement cette information 200 fois à la suite, pour chacun des pixels :
« vert vert vert vert vert vert vert vert vert […] vert vert vert », ou bien de manière plus
économe : « 200 fois vert ». Tandis que le premier exemple d’encodage est plus long et plus
gourmand en taille de fichier, les usages du second pourront potentiellement être plus limités.

39
Le choix d’une compression doit généralement se faire en fonction de l’usage que l’on destine
à l’image numérisée.

Un fichier numérique, une fois compressé, existe sous une certaine forme que nous
appelons « format de fichier » et qui diffère du format de l’image dont nous avons vu
l’application précédemment dans le cadre du couple définition/résolution. Les formats de
fichiers sont identifiables par un suffixe de trois lettres52 précédées d’un point qui prolonge le
nom des fichiers images (« .JPG », « .GIF », « .TIF », etc.) et permettent à différentes
plateformes informatiques de les identifier immédiatement.

Les algorithmes de calcul et le résultat engendré lors d’une compression peuvent être
sensiblement différents selon le type d’encodage choisi. Il serait long, voire impossible, de
tenter d’exposer ici les spécificités techniques des multiples formats matriciels existants à ce
jour. Néanmoins, nous pouvons tout de même distinguer deux types de compressions bien
spécifiques : la compression conservative (« lossless » en anglais) et la compression non-
conservative ou destructive (« lossy » en anglais). Tandis que la première conserve intactes
les données contenues dans l’image, la seconde affecte irréversiblement les informations qui
la constituent. Le principal intérêt d’une compression avec perte d’information réside dans
l’allégement de la taille des fichiers images, favorisant ainsi leur circulation sur les réseaux,
mais également leur stockage sur les espaces disques.

Un des formats de compression avec perte le plus répandu sur internet et très usité
dans les pratiques non-spécialistes est le format JPEG53 (ou JPG). Ce format fut créé à
destination des images photographiques, permettant une perte partielle de qualité d'image sans
que l'apparence générale soit trop perturbée en proportion. Le degré de destruction engendré
par les algorithmes JPEG peut varier considérablement. Tandis qu’une compression allant
jusqu’à 50% de réduction du poids reste dans l’ensemble de bonne qualité et très appréciable
à l’œil nu, nous pouvons constater la présence d’artefacts à partir de 70%, voire même 60%
de réduction. Cette compression est parfois gradée sur une échelle de 1 à 100 ou de 1 à 12
suivant le type de logiciel utilisé. En partant du Chevalier à la main sur la poitrine du peintre
et sculpteur El Greco – qui a fait récemment l’objet d’une numérisation en très haute

52
Parfois, certains formats s’écrivent en quatre lettres (c’est le cas des extensions «.JPEG » ou « .TIFF » qui sont
tronquées à 3 lettres sous un système d’exploitation tel que Windows).
53
De l’anglais « Joint Photographic Experts Group ».

40
définition au musée du Prado de Madrid54 avant d’avoir été mis en ligne aux côtés de 15
autres grandes œuvres de l’institution –, nous allons recompresser le fichier en 4 taux
différents pour réduire sa taille, mais également sa qualité (ill.13).

Taux de compression Taille du fichier Aperçu de l’image Illustration


100% de qualité 1361 ko Excellente qualité de départ (a)
Très bonne qualité, sans
50% de qualité 980 ko (b)
distinction flagrante à l’œil nu
Dégradation légère des couleurs
25% de qualité 483 ko (c)
progressivement visible
Dégradation totale de l’intégrité
5% de qualité 76 ko (d)
des couleurs

L’usage de ce type de compression, quand il n’est pas abusif, peut être utilisé pour les
photographies, mais également pour les tableaux d’arts. Il n’est toutefois pas conseillé pour la
numérisation des textes qui demandent une grande précision d’image. Une compression JPEG
à faible conservation de qualité peut sévèrement altérer la lisibilité d’un texte sur une pleine
page de livre ou de journal numérisée. La présence des artefacts se repérant rapidement,
même avec un taux de compression de perte moyen à 50%, il est vivement recommandé de ne
pas avoir recours à un format de compression destructif si l’objectif est la lecture sur
ordinateur de textes numérisés ou le recours à des logiciels disposant de reconnaissance
optique de caractères (ill.14).

Les formats de compression conservative sont nombreux, mais nous pouvons toutefois
citer quelques-uns couramment usités en évitant d’entrer dans les détails techniques :

- Le TIFF est très adapté au traitement et à l’archivage des images en haute qualité, mais très
chargé en taille de fichier, ce qui nécessite un bon espace de stockage pour une large
collection.

- Le PNG est progressivement adopté sur le web pour diffuser des images de bonne qualité et
de poids de fichier raisonnable, et peut également servir à l’archivage.

54
http://www.museodelprado.es/fr/fr/bienvenue/15-chefs-doeuvre/ (consulté le 20 mai 2009)

41
- Le GIF permet une compression sans perte d’information, mais ne supporte qu’une palette
embarquée de 256 couleurs ou niveaux de gris, contre 16 millions en JPEG. Pour cette raison,
il n’est pas du tout adapté aux images photo-réalistes et se voit peu à peu délaissé sur internet
au profit du format PNG.

- Le PSD est un format propriétaire développé et possédé par l’entreprise Adobe Photoshop. Il
est universellement accepté par les logiciels d’infographie et est principalement employé lors
des phases de traitement des images, avant leur enregistrement dans un format d’échange
(JPEG) ou d’archivage plus adapté (PNG).

- Le format PDF permet des compressions avec ou sans perte de qualité. Il est très couramment
utilisé pour la diffusion et l’impression de document textuel ou pour des photographies en
haute définition (la résolution des fichiers PDF actuels peut atteindre des seuils de 2400dpi).

Si le couple définition/résolution avait son importance dans l’acquisition et


l’utilisation d’une image matricielle, le type de compression (ou de format d’image), est,
quant à lui, primordial dans sa conservation et sa diffusion sur les réseaux. Qu’il s’agisse d’un
format d’image conservatif ou destructif, l’algorithme de compression utilisé ne modifie
aucunement les paramètres de définition ou de résolution d’origine. Si une image numérique a
pour définition (X × Y) pixels, et une résolution de (N)dpi, alors celles-ci resteront inchangées
après compression. Les seules modifications apportées auront lieu au niveau des nuances de
teintes, informations embarquées dans le fichier image, allant d’une modification perceptuelle
indécelable à l’œil nu, à des modifications complètes de la trame bitmap (ill.15).

Bien que, parmi les différents types d’images numériques, les images matricielles
soient et restent en grande majorité les supports d’études des œuvres d’art pour les historiens
de l’art, ils existent les images vectorielles et les images de synthèse. Les premières sont d’un
intérêt usuel sensiblement limité pour l’étude et la recherche, tandis que sur le plan technique,
leur fonctionnement est à comparer avec les formats d’affichage multirésolution pour image
matricielle. Les images de synthèse en trois dimensions sont des technologies davantage
développées et utilisées dans le domaine des sciences de la nature ou encore de l’archéologie,
toutefois depuis quelques années, nous pouvons assister à un gain d’intérêt pour cette
technique dans l’étude de certains objets d’art.

42
II - Technicité des images de synthèse

Si nous reprenons la définition de l’image de synthèse telle que nous l’avons établi
précédemment, il s’agit d’une image dont l’origine est un ensemble de calculs et dont l’outil
de production est l’ordinateur. Il n’y a donc aucun référent direct avec une image tangible,
comme cela est le cas avec les images numérisées. La nature de l’image de synthèse est donc
purement computationnelle et n’existe qu’au travers l’ordinateur qui interprète et affiche son
produit. Il est possible d’en distinguer différents types. L’image de synthèse en trois
dimensions (3D) est certainement celui dont nous entendons communément parler depuis le
milieu des années 1990 avec la production de plus en plus importante de films d’animation
3D. Une autre catégorie concerne les images en deux dimensions et englobe des productions
matricielles (bitmap) comme nous avons pu l’étudier précédemment, à l’exception faite que
ces images ne sont pas numérisées, mais créées artificiellement à partir de logiciel de
graphisme ou de dessin. Les images vectorielles sont également en deux dimensions mais
possèdent un format d’image propre qui les distingue très clairement des images matricielles.

A. Les images vectorielles et les formats multirésolutions

Les images matricielles sont des tableaux de pixels formant la trame de l’image, tandis
que les images vectorielles sont composées d’entités géométriques élémentaires telles que des
points, des segments, des lignes courbes, des polygones, et autres formes plus ou moins
complexes auxquelles peuvent être appliquées différentes transformations spatiales (rotation,
écrasement, étirement, agrandissement, etc.). Ces figures sont représentées par des formules
mathématiques et non des ensembles de points. Prenons l’exemple d’un simple cercle, ce
dernier ne sera pas déterminé par un ensemble de pixels (bitmap) formant cette figure, mais
par une formule mathématique calculée directement par l’ordinateur déterminant sa taille, sa
forme et son emplacement. Cela offre comme avantage la possibilité d’agrandir l’image à
volonté sans qu’elle subisse de déformation ou de perte de qualité (effet de pixellisation) que
nous pouvons retrouver dans le traitement d’une image matricielle classique. En partant d’une
illustration simple d’un cercle dans un cercle de définition 50 × 50 pixels, avec pour première
méthode un "dessin matriciel", et pour seconde un traçage vectoriel, nous constatons
rapidement, au fil des agrandissements, la détérioration de l’image sur le premier modèle.

43
- Image matricielle -

50 × 50 pixels (x1) 100 × 100 pixels (x2) 200 × 200 pixels (x4)

- Image vectorielle -

50 × 50 pixels (x1) 100 × 100 pixels (x2) 200 × 200 pixels (x4)

Les formats EPS et SVG sont les plus utilisés pour le traitement des images
vectorielles, notamment dans les applications professionnelles de publication assistée par
ordinateur (PAO). Indépendamment de sa souplesse pratique, le format vectoriel produit des
fichiers de poids fixe, c'est-à-dire qu’une image de 50 × 50 pixels sera égale en poids à cette
même image agrandie en 100 × 100 pixels, 200 × 200 pixels, ou encore 10000 × 10000 pixels.

Il est possible de convertir une image matricielle, comme une photographie


numérique, en image vectorielle en passant par un logiciel spécialisé. Cette transformation,
dont le procédé se nomme « tracing », peut être réalisée à l’aide d’un outil en ligne – version

44
d’essai de Vector Magic55 – que nous allons utiliser pour convertir deux exemples d’images
matricielles. La première illustration est une photographie de 1930-32 de l’artiste dadaïste et
surréaliste Man Ray (1890-1976), Tears, conservée au Getty Museum de Los Angeles (ill.16).
Le choix de cette photographie tient au fait, d’une part, qu’elle n’est pas en couleurs, et
d’autre part que les variations de tonalités monochromatiques ne sont pas très importantes. Le
résultat obtenu après conversion donne à voir une image sensiblement proche de l’original
puisque l’ensemble des motifs ont été correctement conservés ainsi qu’une bonne partie des
couleurs. Le rendu perceptif est néanmoins très différent. En effet, nous avons l’impression
d’observer, non pas une photographie, mais un dessin à l’aquarelle (ill.17). Pour le second
exemple, nous "vectorisons" une reproduction numérique du tableau Portrait de Félix
Fénéon, opus 217, peint vers 1890-91 par le néo-impressionniste Paul Signac (1863-1935)
(ill.18). Le choix de ce deuxième cas d’étude est à l’opposé des critères que nous avions
recherchés pour la photographie noir et blanc de Man Ray. Ici, la technique néo-
impressionniste divise les touches en de multiples et minuscules aplats colorés, créant ainsi
une juxtaposition très variée des couleurs. Les variations de couleurs et de tons en font une
image difficile à "vectoriser" sans perdre une quantité importante de détails (ill.19). Malgré
une configuration drastique du convertisseur pour conserver un maximum de couleurs et de
motifs, nous pouvons constater une perte d’information importante dans la touche picturale.
Si l’ensemble de la toile donne à présent une impression de fluidité étonnante des couleurs, le
résultat démontre que ce type de transformation ne peut pas, comme telle, servir à l’étude de
l’œuvre (ill.20).

L’image vectorielle issue d’une image numérisée est toujours une approximation qui
ne peut pas satisfaire à l’étude d’œuvres d’art. Ce type d’image est d’ailleurs principalement
utilisée pour les dessins à faible complexité chromatique, les illustrations stylisées ou encore
les logos. Un rapprochement peut toutefois être fait entre le principe des images vectorielles et
les images matricielles multirésolution comme le format « PixelLive VFZ » développé par la
société japonaise Celartem Technology. Ce type de format utilise un procédé de vectorisation
pour compresser une image bitmap, permettant ainsi de recalculer et d’afficher, par une
fonction de zoom, des versions de la même image en différentes résolutions (jusqu’à 1200%
de la définition d’origine en conservant un résultat visuel quasi-intact). Le VFZ est
particulièrement intéressant pour présenter des images d’œuvres d’art en ligne, mais

55
http://vectormagic.com/ (consulté le 19 mai 2009)

45
également pour les agrandissements destinés à l’impression photographique en grand format.
Le Centre de Recherche et de Restauration des Musées de France a adopté ce format, au mois
d’octobre 200056, pour l’archivage numérique en raison de sa haute qualité colorimétrique,
mais également pour la compacité des fichiers images compressés57.

Le cas particulier du format VFZ utilisé pour les images matricielles, mais reposant
sur un procédé de vectorisation, souligne bien que les images numérisées des œuvres d’art ne
peuvent être correctement exploitées et étudiées par le biais des images vectorielles.
Inadaptées aux images "photoréalistes" par leur nature (assemblages d’entités géométriques et
non de pixels), elles ne peuvent pas servir de support d’étude pour le chercheur, et sont
difficilement exploitables pour l’enseignant dans un cadre pédagogique. Néanmoins, le cas
particulier de format, tel que le VFZ, permet d’obtenir des applications intéressantes et utiles
pour les images d’art, notamment lorsqu’il s’agit, sur internet, d’en offrir un aperçu
agrandissable. Nous pouvons citer l’outil Zoomify qui permet également d’obtenir un résultat
similaire à celui développé par Celartem Technology, mais qui semble s’être davantage
répandu auprès des musées américains dont le Fine Arts Museum de San Francisco et l’Art
Institue de Chicago (ill.21) qui l’utilisent pour « exposer » en ligne des images de bonne
qualité, qui pourront servir aussi bien au chercheur qu’à l’étudiant.

B. Les images de synthèse en trois dimensions

Les images de synthèses en trois dimensions sont communément appelées « images


3D » – ceci faisant référence aux trois axes (X, Y et Z) qui forment le repère orthonormé de la
géométrie dans l’espace. Dans son ouvrage La Production industrielle de l’image, le
théoricien et ingénieur en sciences techniques Michel Porchet propose cette définition : « Une
image de synthèse [en trois dimensions] est l’affichage, sur un support physique, d’un
ensemble numérisé de points lumineux (pixels) engendrés par le modèle mathématique des
objets de la scène, éclairés à l’aide d’un modèle mathématique de la lumière et observés par
l’intermédiaire du modèle mathématique de l’optique d’une caméra. C’est une simulation.»
En effet, le processus de création d’image 3D passe par deux étapes.

56
Source : http://www.celartem.com/en/celartem/histry.asp (consulté le 19 mai 2009)
57
Jean-Claude Chirollet, Numériser, reproduire, archiver les images d'art, Paris, L'Harmatttan, coll. champs
visuels, 2005, p. 235.

46
La première correspond à la modélisation d’un objet 3D appelé "mesh"58, qui passe
nécessairement par le recours à un logiciel spécialisé. Des surfaces et des volumes
géométriques sont tracés et "sculptés" pour obtenir une image en trois dimensions. Le résultat
de ce modelage est un ou plusieurs objets virtuels en trois dimensions (mesh) qui peuvent être
animés ou non. Durant ce stade de création, l’image est dynamique, on parle alors de "scène"
pour l’environnement qui sert de support à la fabrication de l’image, au même titre que la
feuille de papier pour un dessin, ou une toile en lin pour la peinture. La "scène" permet de
définir des caractéristiques primordiales dans la réalisation des meshs, telles que les angles de
vue ou caméra, les sources et l’importance de luminosité, la présence de texture, etc. Les
notions de définition et de résolution, comme nous l’avions vu précédemment pour les images
numérisées, ne rentrent pas encore en compte à ce stade du processus de création de l’image
3D.

La seconde étape est nommée le "rendu" (en l’anglais "rendering") et consiste à créer
une image bidimensionnelle à partir d’une scène réalisée dans un logiciel de modélisation. La
scène étant un ensemble d’objets en trois dimensions, elle contient des informations relatives
à la géométrie, la texture, l’éclairage, les caméras, etc. Ces données sont codées dans un
format et un langage propre aux logiciels qui les éditent. La phase de rendu permet de générer
des images matricielles en fonction des paramètres fixés dans une scène. Les images 2D
obtenus par ce biais sont ensuite régies par les mêmes lois que toute autre image bitmap.
Composées de pixels, elles ne sont que la capture d’objets virtuellement tridimensionnels
"mis à plat" pour former des images bidimensionnelles. Nous pouvons grossièrement
simplifier la notion de rendu, en disant qu’il permet une photographie numérique d’image 3D
préexistant dans un environnement physique virtuel.

Les images de synthèse en trois dimensions peuvent néanmoins être exploitées sous
certains formats de fichiers, tels que WRL ou X3DV, permettant ainsi de les observer aux
moyens de visionneurs 3D. Il faut pour cela enregistrer les meshs dans un langage de
description nommé VRML (abrégé de l’anglais "Virtual Reality Modeling Language"), puis
disposer d’un logiciel ou d’un plug-in dans son navigateur web qui permette de lire ce
langage, afin d’afficher les modèles 3D et pouvoir les étudier sous tous les angles possibles.

58
Le mot vient de l’anglais « polygon mesh » qui désigne l’objet tridimensionnel qui est modélisé.

47
Il existe d’autres moyens (moteur de rendu 3D) et d’autres méthodes logicielles pour
visualiser des images de synthèse en trois dimensions, mais nous n’entrerons pas davantage
dans ces détails techniques.

Illustrer l’application des images de synthèse dans un domaine touchant l’histoire de


l’art n’est pas aisé puisque les quelques exemples de projet qui ont été menés jusque-là ont
rarement été publiés sur internet. Cependant, l’un d’entre eux a fait l’objet de diverses
publications et est particulièrement visibles sur le web, il s’agit de la reconstitution virtuelle
du Parthénon réalisée entre les années 2003 et 2004 par l’Institute for Creative Technologies
de l’University of Southern California. Le projet a consisté en une modélisation complète de
l’édifice afin de produire un court métrage. Pour cela, une équipe d’experts menée par Paul
Debevec s’est rendue sur l’acropole d’Athènes pour acquérir « tridimensionnellement » les
formes des ruines et les aspects physiques et chromatiques des matériaux au moyen
d’appareils spécialisés. L’équipe s’est également déplacée au British Museum de Londres, au
Skulpturhalle Museum de Bâle et au musée du Louvre, pour y numériser, à l’aide
d’opérations similaires, des fragments originaux ou des copies du Parthénon qui y sont
exposés (ill.22). Des échantillons de ces modélisations 3D (frises et statues) en basse
résolution sont disponibles et téléchargeables sur le site de Debevec (ill.23)59. La finalité visée
a été de recomposer le bâtiment en rassemblant virtuellement l’intégralité de ses parties, ce
qui était logistiquement et techniquement impensable avec les originaux conservés en
différents lieux d’Europe. Contre toute attente, le résultat impressionnant offert par ces
travaux a contribué à la relance des discussions autour de l’intérêt pédagogique et scientifique
de la technologie de l’animation et de l’image de synthèse en histoire de l’art et archéologie.
La grande qualité visuelle du rendu de ces modélisations en trois dimensions a ouvert de
manière optimiste le débat sur les perspectives d’avenir des reconstitutions d’œuvres du passé.

Dans une optique différente, nous pouvons citer les travaux de l’université de Caen,
dont l’héritage du Plan de Rome60 a inspiré un vaste projet de modélisation en trois
dimensions des grands bâtiments de l’ancienne ville romaine (ill.24). Les objectifs de ces
travaux de reconstitution visent à expérimenter par le virtuel l’échelle et le rapport des
bâtiments de l’époque, ce qui parfois amène à découvrir « certaines invraisemblances qui ne
59
http://gl.ict.usc.edu/parthenongallery/ (consulté le 19 mai 2009)
60
Classé monument historique, le Plan de Rome, réalisé par Paul Bigot, est une maquette en plâtre d’environ
70m², réalisée à l’échelle 1/400, représentant les 3/5 de la ville de Rome sous Constantin, au début du IVe siècle
avant notre ère. Elle est actuellement conservée à l’université de Caen.

48
sont pas frappantes à l’écrit mais visibles à l’image »61. L’image de synthèse permet ici de
compléter la vision d’ensemble du chercheur lorsque celui-ci s’appuie sur des textes anciens.
Un grand nombre d’édifices a été reconstitué en trois dimensions par le groupe du projet, dont
images et vidéos sont disponibles en ligne sur le site de l’université de Caen dédié à ce
projet62. Le recours à l’image de synthèse semble être davantage accepté et employé auprès
des archéologues que des historiens de l’art en général. Nous pouvons d’ailleurs lire sur la
première page d’accueil du site web Archéovision, hébergé par le CNRS et dédié à la
discipline de l’archéologie et aux reconstitutions virtuelles en trois dimensions de monuments
antiques, les propos suivants : « La visualisation en 3D de site archéologique est une nouvelle
possibilité offerte aux chercheurs pour valider et vérifier les hypothèses de restitution des
espaces antiques disparus.63 »

En distinguant les images numérisées des images de synthèse, nous voulions mettre en
avant la différence de nature qui existe entre elles. Les images de synthèse sont des images
créées ex nihilo, à même l’ordinateur, tandis que les images numérisées sont acquises par des
outils adaptés (scanner, appareil photographique numérique) qui retranscrivent en nombres
des images qui ont une pré-existence physique et tangible. Ces deux grands types n’en restent
pas moins des images numériques, puisque comme le rappellent Edmond Couchot et Norbert
Hillaire à leur sujet : « Les deux types d’images cohabitent souvent sans qu’on puisse
habituellement distinguer leurs origines64 ». Bien qu’une image matricielle puisse
esthétiquement se différencier d’une image vectorielle, la progression constante des
technologies matérielles des ordinateurs et le développement du HDRI (de l’anglais "High
Dynamic Range Imaging") dans les rendus 3D photoréalistes renforcent la difficulté d’établir
une identification claire et précise quant à l’origine de l’image. Cette caractéristique propre de
l’image numérique est un point qui a été lié à divers débats mettant en cause son authenticité
face à un médium d’image plus ancien qu’est la photographie traditionnelle.

61
Philippe Fleury et Sophie Madeleine, « Problématique d’une restitution globale de la Rome antique. »,
colloque international Virtual Retrospect, Bordeaux, 16 novembre 2007.
62
http://www.unicaen.fr/services/cireve/rome/index.php (consulté le 20 mai 2009)
63
http://archeovision.cnrs.fr/ (consulté le 20 mai 2009)
64
Edmond Couchot et Norbert Hillaire, op. cit., p. 23.

49
III - Théories et débats autour de la nature de l’image numérique

S’il est (encore) possible de distinguer une image de synthèse d’une image numérisée,
les progressions technologiques matérielles et logicielles constantes tendent à amincir
progressivement la frontière qui les sépare. L’historien de l’art est, la majeure partie du temps,
amené dans ses pratiques à recourir aux images d’art numérisées. Celles-ci sont
principalement de nature matricielle puisqu’elles proviennent, soit directement d’appareils
photographiques numériques, soit de tirages papier qui ont été par la suite numérisés. Or,
indépendamment de la technicité de l’image numérique, il découle de cette récente forme de
support des images, de nombreuses questions théoriques qui font débat entre les spécialistes.

Parmi ces débats, l’un des premiers et des plus tumultueux est celui de l’empreinte
numérique et de la notion d’"index"en photographie initialement introduite par le sémiologue
Charles S. Peirce (1839-1914) et reprise par la critique d’art Rosalind E. Krauss à la fin des
années 1970. La thèse de l’"indicialité" a contribué à remettre en cause le caractère
heuristique de la photographie numérique par rapport à la photographie argentique. Depuis les
années 1990, de nombreux théoriciens se sont penchés sur la question pour parfaire ou défaire
cette approche. L’émergence et l’utilisation du support numérique pour les images n’est
pourtant plus une constatation, mais un fait à l’aube du XXIe siècle. Les images numériques
« n’étonne[nt] maintenant plus personne »65, elles se diffusent, voire se propagent, sur internet
pour être affichées sur des écrans toujours plus nombreux et disponibles en tous lieux. Nous
pouvons même dire que les images des œuvres d’art sont les "traces" des anciens médias
numériquement réincarnées. Ainsi, les touches des aplats de couleurs d’une toile néo-
impressionnistes deviennent des myriades colorées de pixels, tandis que les photographies aux
sels d’argent se révèlent dans un second tirage à la lueur de nos écrans. Bien que la question
de l’empreinte puisse être soulevée vis-à-vis du support numérique, il conviendra de se
pencher également sur une autre forme d’approche théorique capable de nous aider à mieux
comprendre les différences et les transformations apportées par la photographie digitale. Pour
cela, nous étudierons la structure informationnelle des images numériques, dans l’optique de
cerner davantage ce nouveau médium dont s’empare progressivement l’historien de l’art.

65
Edmond Couchot et Norbert Hillaire, op. cit., p. 22.

50
A. De l’indicialité en photographie : prétexte pour une controverse autour du
médium numérique

En partant du concept d’indice exposé par le sémiologue Charles Sanders Peirce (1839-
1914), la critique d’art contemporain Rosalind Krauss énonce pour la première fois en 1977 la
thèse de l’indicialité photographique : « Toute photographie est le résultat d’une empreinte
physique qui a été transférée sur une surface sensible par les réflexions de la lumière. La
photographie est donc le type d’icône ou de représentation visuelle qui a avec son objet une
relation indicielle.66 » En reprenant plus en détail la conception peircienne, nous constatons
que celle-ci définit trois types de signes : l’indice, l’icône et le symbole. Le premier est « un
signe qui renvoie à l’objet qu’il dénote parce qu’il est réellement affecté par cet objet67 »,
tandis que le second correspond à « n’importe quoi […] pourvu qu’il ressemble à cette chose
et soit utilisé comme signe de cette chose68 », enfin, le dernier est « un signe qui renvoie à
l’objet qu’il dénote en vertu d’une loi […] qui détermine l’interprétation du symbole par
référence à cet objet.69 » Relevons au passage que l’approche peircienne n’a aucunement été
pensée dans le cadre des images photographiques. Malgré cela, cette base théorique a servi de
point de départ à la thèse de l’indicialité qui met en avant l’aspect référentiel de l’image
photographique.
Le régime de vérité qui appartenait aux images obtenues par le biais des appareils
photographiques argentiques ne semble pas se transmettre à celles issues des appareils
photographiques numériques. En effet, « l’indice demeurera toujours étranger au virtuel et à la
transposition graphique d’une matrice de chiffres70 », souligne le théoricien Pierre Barboza.
L’historien de la photographie André Rouillé, pour sa part, précise que « les empreintes des
choses dans la matière argentique des clichés sont pratiquement immuables71 », tandis

66
« Every photograph is the result of a physical imprint transferred by light reflections onto a sensitive surface.
The photograph is thus a type of icon, or visual likeness, which bears an indexical relationship to its object. »
Rosalind Krauss, « Notes on the Index. Seventies Art in America. Part 1 », October, n° 3, 1977, p. 75. ; trad. de
l’anglais par J.-P. Criqui, « Notes sur l’index », dans R. Krauss, L’Originalité de l’avant-garde et autres mythes
modernistes, Paris, Macula, 1993, p. 69.
67
C.S. Peirce, Écrits sur le signe, Seuil, Paris, 1978, p.140. In Pierre Barboza, Du photographique au
numérique. La parenthèse indicielle dans l'histoire des images, Paris, L'Harmatttan, coll. champs visuels, 1996,
p. 164.
68
Ibidem, p. 164-165.
69
Ibid, p. 165.
70
Ibid, p. 19.
71
André Rouillé, « Capter n’est pas fixer (sur la photo numérique) », Paris Art, éditorial du 20 novembre 2008.
[En ligne] http://www.paris-art.com/art/a_editos/d_edito/tracking_newsHebdo_edito/150/Capter-n-est-pas-fixer-
(sur-la-photo-numerique)-259.html

51
qu’avec le numérique, « le rapport quasi-immuable entre l'objet et l'image disparaît72 ».
Devant ces constats, il semblerait que la nature des images numériques entraîne la disparition
de l’indicialité, et par ce biais même, celle de la vérité des images en tant qu’empreinte
authentique du réel. Ceci reviendrait à dire que la photographie numérique est trompeuse et
porteuse de faux-semblant, puisqu’elle ne véhiculerait plus en elle-même, comme sa cousine
argentique, d’empreinte cristallisée du référent. Or pouvons-nous réellement continuer à
penser, à l’ère du numérique, que le concept d’indicialité soit toujours pertinent lorsque nous
parlons de photographie ? Devons-nous considérer le processus de réalisation de l’image, la
fameuse empreinte lumineuse sur une surface photosensible, comme ultime caractère de la
nature "véridique" de la photographie ? Pourquoi, dès lors que nous attribuons une relation
indicielle entre le cliché argentique et son objet, retirons-nous tout rapport d’indice à un
fichier numérique ?

L’encodage numérique propre à tout fichier informatique serait, selon la terminologie


de Peirce, d’ordre « symbolique » et évincerait tout contact indiciel entre l’objet et son image.
Bien que l’objet de la prise de vue soit bien présent au moment de l’enregistrement et que la
récupération de sa "trace" se produise via le contact des rayons lumineux sur un capteur de
manière assez analogue au dispositif argentique avec la surface photosensible (pellicule), c’est
l’étape de transcription de l’image en une série de codes numériques qui semble détruire toute
empreinte avec le réel. La remise en cause de la trace dans le médium numérique s’appuierait-
il donc sur le postulat de la « continuité de matière entre les choses et les images »73 sur lequel
la photographie argentique reposerait ? Or, cette "continuité" de la matière est une aberration
dans le cadre de la photographie. Si nous partons du principe que l’appareil traditionnel capte
une trace lumineuse d’un corps qu’il fixe sur une surface, il est possible d’en dire autant du
dispositif numérique. La lumière est récupérée par un capteur qui, au lieu de déclencher une
réaction chimique sur une surface photosensible, envoie de l’information à un processeur qui
enregistre en code binaire l’empreinte lumineuse et la stocke en mémoire. Bien que le
processus de fabrication soit technologiquement différent, cela serait se précipiter de
prétendre que, parce qu’une matrice de nombres ne ressemble ni à une photographie papier, ni

72
Rym Nassef, « Quelles images pour quelle réalité. » Entretien avec André Rouillé. [En ligne]
http://www.revoirfoto.com/p/index.php?lg=&c=7&pg=30
73
André Rouillé, La Photographie. Entre document et art contemporain, Paris, Gallimard, 2005, p. 615. In,
André Gunthert, « L’empreinte digitale. Théorie et pratique de la photographie à l’ère numérique », Giovanni
Careri, Bernhard Rüdiger (dir), Face au réel. Éthique de la forme dans l’art contemporain, Paris, Archibooks,
2008, p. 89.

52
au sujet qu’elle représente, elle n’aurait aucune valeur indicielle. Les photographies
argentiques et numériques captent le référent, le spectrum, et inscrivent sa trace sous la forme
d’un nouveau médium qui leur est propre à chacune.

L’historien du cinéma Tom Gunning rappelle justement qu’« un indice n’a nul besoin
(et se passe le plus souvent) de ressembler à ce qu’il représente. », avant d’ajouter que « l’idée
que seul le numérique transformerait ses données en une forme intermédiaire encourage le
mythe que la photographie impliquerait un processus transparent, un transfert direct de l’objet
à l’image photographique.74 » En effet, il semblerait que l’apparition du medium numérique
ait permis un déplacement controversé de la question de l’authenticité des images
photographiques. Nous assistons, dans le débat autour de l’indicialité, à un discours opposant
une prétendue vérité fixée chimiquement sur papier à une potentielle illusion mensongère
numériquement rendue. En clair, le processus photographique traditionnel reprend sa figure
de messager du réel et de la vérité face à son évolution numérique dont la nature inconsistante
et interactive instaure le doute.

Dans un article intitulé « L’empreinte digitale », l’historien visuel André Gunthert


affirme que le « caractère [d’empreinte] ne se déduit pas d’une quelconque contiguïté spatiale
ou sémiotique. Il est établi par le protocole d’enregistrement, défini comme un stockage
d’informations dans des conditions contrôlables.75 » Soutenu par des exemples issus du
photojournalisme, André Gunthert illustre bien que le principe de manipulation par l’image et
de l’image n’a pas attendu le numérique pour exister et œuvrer à plein régime. L’historien a
d’ailleurs soutenu la même année dans un article intitulé « Histoire d’un mythe
photographique »76 que le concept et la pratique de la "retouche" en photographie
traditionnelle était répandue dès le milieu du XIXe siècle. Il reprend ainsi, en partie, la théorie
critique de Tom Gunning au sujet de l’indicialité : « Quiconque connaît les péripéties qui ont
été nécessaires pour accorder aux photographies leur statut de preuves juridiques, ou même
les examens et argumentations auxquels il faut encore les soumettre au cours des procès
actuels, sait bien que pour dire la vérité, la photographie doit s’intégrer dans un plaidoyer et

74
Tom gunning, « La retouche numérique à l’index », Études photographiques, 19, décembre 2006. [En ligne] :
http://etudesphotographiques.revues.org/index1322.html
75
André Gunthert, « L’empreinte digitale. Théorie et pratique de la photographie à l’ère numérique », Giovanni
Careri, Bernhard Rüdiger (dir), Face au réel. Éthique de la forme dans l’art contemporain, Paris, Archibooks,
2008, p. 90.
76
André Gunthert, « Histoire d’un mythe photographique », Études photographiques, 22, octobre 2008. [En
ligne] http://etudesphotographiques.revues.org/index1004.html

53
s’assujettir aux règles complexes du discours, qu’il soit légal, rhétorique ou scientifique.77 »
Assurément, pour revendiquer une quelconque forme de "vérité", il est nécessaire de
s’appuyer sur des règles discursives propres au contexte auquel elle s’applique.

La relation établie entre l’indice et la photographie argentique par Rosalind Krauss en


1977, puis reprise par d’autres théoriciens à sa suite, semble ne plus être d’actualité. Pierre
Barboza résume parfaitement la situation en employant le terme de « parenthèse indicielle »
dans le sous-titre de son ouvrage Du photographique au numérique. C’est par son passage au
support numérique que la nature de la photographie a démenti toute revendication à la théorie
de l’indicialité, et non l’inverse. Si la notion d’indice issue du domaine de la sémiologie a pu
faire valoir les intérêts de Rosalind Krauss à la fin des années 1970 et contribuer à alimenter
le questionnement et le regard autour de la fascination de la photographie, la voilà devenue
obsolète à l’heure du médium digital.

Il reste un point à éclaircir concernant la nature numérique de la photographie. C’est en


examinant au plus près le médium de la photographie digitale que nous pourrons davantage
comprendre le substrat de cette transformation qui passe de l’image analogique vers l’image
numérique. Pour cela, il convient d’approfondir le sujet en mettant de côté l’étude de l’objet
même de la photographie, pour développer une analyse relative à sa structure
informationnelle. En partant d’une définition de la photographie digitale proposée par Patrick
Pecatte dans un article intitulé « Notes sur la structure informationnelle de la
photographie »78, nous allons tenter d’analyser et d’appliquer une partie des nouvelles
caractéristiques du numérique sur ces images.

77
Tom gunning, op. cit.
78
Patrick Pecatte, « Notes sur la structure informationnelle de la photographie », Du bruit au signal (et
inversement), article de blog, publié le 5 août 2008. [En ligne]
http://blog.tuquoque.com/post/2008/08/05/Notes-sur-la-structure-informationnelle-de-la-photographie

54
B. La structure informationnelle de l’image numérique

Considérons la définition suivante : « Une photographie numérique est une structure


d'informations typées dont une des composantes (l'image) peut être restituée visuellement à
l'aide d'un dispositif banalisé. L'image et une partie des autres composantes de la structure
enregistrent directement et automatiquement certains paramètres caractéristiques d'un
événement tandis que les autres composantes générées indirectement décrivent l'événement
ou l'image elle-même.79 » Dans cette approche, nous envisageons la « composante image »
comme étant une des multiples données qui forme la structure informationnelle de l’image
numérique, et non pas l’unique. Ainsi, du point de vue de la génération des données, l’image
n’est pas l’unique composante de la photographie, et cela est vrai également pour toute image
numérique hors photographie. Cela peut sembler aberrant d’aborder de cette façon un objet
dont la nature traditionnelle et originelle vise à représenter visuellement une image, et
pourtant, au travers du médium numérique, la composante graphique peut ne pas être visible
ou présente, et malgré tout contribuer à générer du sens, de l’information. L’exemple de
fonds d’archives iconographiques dont certaines images ont été perdues ou détruites, mais
dont les notices documentaires survivent indépendamment d’elles, est une illustration de la
structure informationnelle qui persiste malgré l’absence ou la perte de la composante image,
pourtant fondamentale dans l’étude d’une œuvre d’art. Quelques bases d’images en ligne
issues de collections de musées d’art contemporain, pour des raisons relatives aux droits
d’auteur, n’affichent pas les images de certaines œuvres (ou les « masquent ») à côté des
fiches descriptives censées les représenter80. Malgré tout, la présence de documentation liée à
l’image peut permettre une première identification et approche des œuvres, au même titre que
le serait une reproduction photographique avec peu ou pas de documents la renseignant.

Un deuxième type d’informations appartenant à la structure informationnelle de


l’image numérique existe aux côtés de la composante image lors de sa création. Ces données,
désignées par l’abréviation Exif (de l’anglais « Exchangeable image file format »), sont
relatives au dispositif et aux conditions de prise de vue. Les spécificités Exif ne sont
néanmoins compatibles qu’avec des formats de fichiers images de type JPEG et TIFF, et ne

79
Ididem, p. 3
80
Ce type de cas est très présent dans les collections en ligne des FRAC, comme par exemple au FRAC du
Limousin où les œuvres de l’artiste conceptuel Bas Jan Ader (1942-1975) n’apparaissent pas autrement que sous
la mention « reproduction non autorisée », ou sur le site des Abattoirs (FRAC Midi-Pyrénées) où les œuvres du
photographe Robert Mapplethorpe (1946-1989) ou celles de Joël-Peter Witkin sont « en attente d’autorisation ».

55
sont pas supportées par d’autres, tels que PNG ou GIF. Ces informations ne décrivent pas
l’image comme le ferait un cartel d’œuvre dans un musée, (auteur, titre, sujet, etc.), en
revanche elles peuvent renseigner sur certaines conditions métrologiques grâce à l’emploi de
certains appareils photographiques disposant de technologies GPS (de plus en plus répandus
depuis 2008). Pour illustrer partiellement le contenu d’un fichier Exif, appuyons-nous sur une
photographie numérique quelconque (ill.25) :

- Nom de fichier : Alpes_2008.jpg


- Taille de l’image issue de l’appareil : 5242877 bytes, soit environ 5Mo
- Définition de l’image : 2,448 × 3,264 pixels
- Constructeur et le modèle de l’appareil photographique utilisé : Olympus E-500
- Vitesse d’obturation : 1/160 sec
- Ouverture du diaphragme : f/8
- Sensibilité : 100 ISO
- Longueur de focale : 18mm
- Orientation de l’image : horizontale
- Date et heure précise (sans fuseau horaire toutefois) : 2008:08:24 15:32:45
- Type de compression de l’image : JPEG
- Etc…81

Toutes ces informations sont fabriquées in situ par l’appareil photographique, lors de la
prise de vue. Sur le plan de la structure informationnelle de la photographie numérique, la
composante image et le contenu du format Exif (dont les informations GPS des nouveaux
appareils) sont des données dites « automatiques », puisqu’elles sont produites par l’appareil
et non l’utilisateur. Il existe cependant des données indirectes, qui peuvent être générées à
posteriori de la capture de l’image. Des informations simples, telles que l’attribution d’un
nom de fichier (dans notre exemple ci-dessus : « Alpes_2008 »), ou son emplacement dans
une structure hiérarchisée de données, comme un classement ordonné de dossier sur un
ordinateur de type : C:/Images/photographies/montagnes, nous permet indirectement de
donner du sens à ce fichier-image. Tout classement répond théoriquement à une logique, et
telle une photographie traditionnelle collée dans un album, l’image numérique récupère de
l’information et du sens dès qu’elle est liée ou mise en relation avec d’autres données.

81
Cette liste est loin d’être exhaustive, mais se veut néanmoins illustrer partiellement le type de données que
peut recouvrir le format Exif.

56
Comme nous l’avons mentionné précédemment, certaines collections en ligne de musées
n’affichent pas systématiquement les reproductions numériques des œuvres qu’elles
présentent, mais le simple fait de préciser le titre de l’œuvre, de l’inclure dans une catégorie
ou auprès d’un autre corpus d’images offre une première source d’information pour identifier
partiellement l’image. Par exemple, l’œuvre Dreikland de l’artiste suisse Dieter Roth (1930-
1998) présente dans la base d’image du FRAC d’Alsace n’est pas illustrée d’une
photographie, cependant la présence de cette « non-image » dans la catégorie sculpture
apporte une information importante dans l’identification "aveugle" de l’objet. Ce type
d’information n’est qu’un premier exemple de données indirectes propre à la structure
informationnelle de l’image numérique.

D’autres catégories de données générées a posteriori sont celles émanant de pratiques


professionnelles ou sociales récentes autour des images. L’une d’elles est l’utilisation de
format IPTC/IMM82, et plus récemment encore IPTC/XMP83, qui s’est imposé comme un
standard informatique pour le stockage de métadonnées84 propres aux images de presse, bien
que leur utilisation ne se cantonne pas à ce domaine unique. Similaire au format Exif par son
intégration au fichier-image, le standard IPTC s’en distingue par le fait que l’information
incorporée à l’image est éditée et incorporée manuellement, et non pas générée par l’appareil
photographique. Sans citer la totalité des champs descriptifs contenus dans ces métadonnées,
nous pouvons mentionner la possibilité d’inclure une légende détaillée de l’image, des mots-
clefs pour définir son contenu graphique, l’auteur de la photographie, l’agence qui en possède
les droits, des informations géographiques, etc. (ill.26).

La pratique sociale récente de la « folksonomie »85 développée sous l’impulsion du


phénomène du Web2.086, est source de création d’informations autour des images. Le concept
du « tagging », dont découle la folksonomie, réside dans la possibilité d’inclure des mots-
clefs, nommés « tags », autour des images pour en identifier le contenu et lui donner un sens,
parfois différent de celui institué par leur auteur. L’expérience en ligne du Steve Museum a

82
International Press Telecommunications Council / Information Interchange Model
83
International Press Telecommunications Council / Extensible Metadata Platform
84
Donnée servant à définir ou décrire une autre donnée quel que soit son support.
85
Système de classification collaborative libre exercé par des internautes sur un site web, généralement construit
autour d’une base de données collaborative.
86
Désigne l’évolution et la situation actuelle d’internet, à savoir un ensemble de réseaux aux interfaces
interactives permettant aux usagers de participer directement aux contenus des pages, mais également de
communiquer entre eux sous diverses formes (blogs, wikis, réseaux sociaux, etc.).

57
permis de tester la participation d’un public mixte dans la définition de contenu d’images
d’œuvres d’art en provenance de différentes collections de musées tels que le Guggenheim
Museum, le Metropolitan Museum of Art ou encore le San Francisco Museum of Modern
Art87. Toutes sortes d’objets d’art ont été proposées aux internautes, afin qu’ils inscrivent en
ligne des mots-clefs qui leur semblaient être les plus adéquats pour décrire et retrouver ces
images. Ainsi, un tableau du peintre Pierre-Auguste Renoir (1841-1919), Danse à Bougival
(1883), a été « tagué » par les internautes des mots-clefs suivants : Renoir, fête, bal populaire,
bière, célébration, discussion, couple, danseurs, danse, boisson, français, regard, chapeaux,
impressionnisme, impressionniste, lumière, mouvement, musique, jeu de lumière, extérieur,
robe rose, romance, printemps, bonnet rouge, chapeau de paille, robe blanche88 (ill.27). Les
informations apportées ici par le « tagging » permettent aux conservateurs et aux
professionnels des musées d’appréhender la manière dont le public perçoit les œuvres d’art.
Ces termes pourront être amenés par la suite à enrichir les catalogue en ligne des bases
d’images afin d’améliorer l’indexation de leur contenu. Générées par des individus, les
données sociales indirectes créent du sens et de l’information qui viennent se greffer à la
structure informationnelle de l’image numérique. Elles permettent généralement d’identifier
les images à partir de connaissances ou de points de vue extérieurs à celui de l’auteur. Elles
sont tout simplement des interprétations de l’image forgées à partir de différents regards,
tantôt issus de la culture populaire (le cas de la folksonomie), ou parfois de milieux
professionnels plus spécialisés (le domaine de la presse par exemple).

Enfin, il est possible de distinguer un dernier type d’information relatif à la structure


informationnelle de l’image numérique, soulevé par Patrick Pecatte dans son article sous la
notion de « données automatiques ou indirectes issues de computations ex situ. »89 En effet,
certaines données issues de pratiques spécialisées peuvent émerger à partir, par exemple, de la
composante image, telles que la reconnaissance automatique de formes, de scènes,
d’expressions du visage, de symboles, etc. De base, la composante image ne fait pas sens pour
l’ordinateur lorsque ce dernier la traite. Cela implique qu’un paysage de montagne sera traité
de la même façon qu’une photographie de sculpture. Mais depuis plusieurs années, certains
logiciels sont capables de générer des informations à partir de l’image et de leurs autres

87
www.steve.museum/ (consulté le 18 mai 2009)
88
Traduit de l’anglais : « Party, Renoir, bal populaire, beer, celebration, conversation, couple, dance, dancers,
dancing,, drinking, french, gaze, hats, impressionism, impressionist, light, movement, music, outdoor, pink dress,
play of light, red bonnet, romance, spring, straw hat, white dress »
89
Patrick Pecatte, op. cit., p. 4.

58
données (Exif, IPTC, etc.) pour leur attribuer du sens. Une application en ligne telle que
Tineye90 permet justement de retrouver des images numériques à partir d’autres images.
L’information présente dans la composante image est traitée de telle manière qu’une
empreinte est générée à partir de l’image modèle soumise au moteur de recherche, qui tentera
de retrouver sur une partie du web, toute représentation qui lui ressemble. L’information
apportée par ce type de logiciel donne, une fois de plus, un nouveau sens à l’image.

Face à cette structure informationnelle de l’image numérique, nous constatons que


celle-ci n’existe pas uniquement par la seule composante image, et que bien d’autres données
s’articulent, se modulent et se complètent pour lui donner un sens global. Dans cette
approche, il est donc moins troublant de trouver en ligne des notices d’œuvres d’art non-
accompagnées d’illustrations, mais non moins riche en informations à leur sujet. Bien que
pour l’histoire de l’art, les notions de la structure informationnelle de l’image numérique
puissent pousser la théorie de l’image hors de ses frontières, il n’est pas inintéressant de
constater que l’image numérique, tout comme la photographie à son époque, suscite des
regards croisés qui enrichissent les débats autour de ses pratiques et usages. Pour l’historien
de l’art, le recours à la reproduction photographique n’est plus une interrogation, mais une
méthodologie appliquée depuis plus d’un siècle qui a permis de développer sa discipline dans
des conditions d’études favorables et pertinentes. À présent, l’usage d’images numériques est
un nouveau moyen d’asseoir et de favoriser ses pratiques, en contribuant grandement à
faciliter l’étude des œuvres d’art, notamment grâce à la souplesse et à l’interactivité du
support numérique, et qui plus est de nos jours avec internet. Il reste cependant à savoir si les
spécialistes préfèrent débattre de l’intérêt et du potentiel heuristique d’un tel médium, sans se
soucier directement de ce que son utilisation peut offrir, ou s’ils décident d’en expérimenter
les fonctions et les perspectives d’application, en acceptant, d’un côté les inconvénients
relatifs à sa forme, et de l’autre ses nombreux et précieux atouts.

90
http://tineye.com/ (consulté le 18 mai 2009)

59
3ème partie :

Pratiques de l’imagerie numérique en histoire


de l’art

« …in 1994 there were perhaps 20 sites offering art historical images... »

Matthew Greenhalgh
(« The Classroom of the Future», Digital Art History: A Subject in Transition, 2001)

60
De l’œuvre à sa reproduction photographique, l’étude de l’art et de son histoire s’est
transformée, mais également structurée par des méthodes toujours plus techniques. Le passage
au médium numérique avec le développement de l’outil informatique, et plus récemment du
web, prépare nécessairement les spécialistes à de nouvelles approches et regards sur leurs
sujets. Que l’image numérique soit une photographie numérisée ou une image de synthèse, le
dispositif dans lequel elle s’insère ne se contente pas simplement de restituer son visuel à
l’écran. Par l’interactivité et la modularité de ce nouveau médium, l’image qui s’offre au
regardeur n’est plus seulement une reproduction, mais une projection idéelle de l’œuvre d’art,
que l’on peut manipuler et manier à volonté. Si nous n’assistons qu’aux prémices de l’effet
cognitif du numérique sur les sciences humaines, et principalement dans la discipline de
l’histoire de l’art, les « symptômes » d’une nouvelle pratique se ressentent particulièrement
auprès des étudiants, mais aussi chez les spécialistes ayant de plus en plus recours aux
nouvelles technologies.

Une anecdote rapportée par Lev Manovich dans un article de 1992 intitulé
« Assembling Reality : Myths of Computer Graphics » souligne bien cette mutation de l’état
d’esprit des jeunes étudiants vis-à-vis des référents linguistiques. Prenant appui sur l’ouvrage
de l’historien de l’art Frederick Hartt (1914-1991), Art : A History of Painting, Sculpture,
Architecture des étudiants ont passé un examen dans lequel il leur était demandé de comparer
l’œuvre de Giotto (1267-1337) à celle de Cimabue (1240-1302). Tandis que l’ouvrage de
référence expliquait que Giotto avait, pour la première fois dans l’histoire de la peinture
depuis l’Antiquité, produit des « formes tridimensionnelles sur une surface plane » et
« véritablement conquis les formes solides »91, plusieurs d’entre eux ont rédigé des
commentaires dans un langage référentiel sensiblement différent : « Giotto parvint le premier
à produire un fort effet de 3D » ou encore « Cimabue est en 2D plate, tandis que Giotto est
bien plus en 3D »92. Lev Manovich suppose, à juste titre, que les rapprochements établis par
les étudiants trouvent leur origine dans l’image de synthèse en trois dimensions. La
comparaison des schémas visuels se fait alors par de nouveaux référents dont l’image
numérique fait pleinement partie.

91
Lev Manovich, « Assembling Reality: Myths of Computer Graphics », site de Lev Manovich, 1992, [En ligne],
http://www.manovich.net/TEXT/assembling.html : « Giotto's miracle lay in being able to produce for the first
time on a flat surface three-dimensional forms, which the French could achieve only in sculpture. […] For the
first time since antiquity a painter has truly conquered solid form (p.504). »
92
Ibidem : « "Giotto first achieves strong 3D effect"; "Cimabue is still 2D, while Giotto has much more of 3D."
»

61
L’histoire de l’évolution du support d’étude de l’historien de l’art nous a permis de
comprendre comment et en quoi ses pratiques ont bâti une discipline scientifique grâce à
l’usage de la photographie, qui fait écho à présent à l’usage des reproductions numériques des
œuvres d’art. Notre deuxième partie portant sur la technicité de l’image numérique a introduit
des notions techniques pour mieux en comprendre sa nature, mais également tenter de
l’analyser pour mieux saisir ses champs d’application dans notre domaine. Dans cette
troisième partie, nous aborderons les pratiques de l’image numérique et son impact en histoire
de l’art en nous appuyant sur des exemples de cas. En premier lieu, il conviendra d’étudier la
place et l’importance accordées aux images numérisées dans les pratiques des spécialistes,
avant d’aborder dans un deuxième temps des applications concrètes et parfois expérimentales
des ressources multiples qu’offre ce nouveau médium à l’étude des œuvres d’art. Enfin dans
une dernière partie, nous questionnerons l’intérêt de la technologie HDRI pour la
photographie des objets d’art.

I - Disponibilité et accès des images numériques sur le web

Peu d’enquêtes ont été réalisées auprès des historiens de l’art pour connaître leur usage
et leur avis au sujet des images numériques. Or, ce type d’information permettrait de constater
statistiquement la part accordée à ces nouvelles ressources au sein de la discipline. L’un des
rares documents à ce sujet est le résultat d’un projet portant le nom de « Compare and
Contrast: measuring the impact of digital imaging on the discipline of art history », fruit d’une
enquête réalisée sur deux ans entre 1999 et 2000 par le professeur Christopher Bailey du
département des études critiques et historiques de l’University of Northumbria93. Les objectifs
de cette entreprise visaient à comprendre en quoi la disponibilité croissante des images
numériques sur le web pouvait modifier les pratiques des historiens de l’art, tant au niveau de
leurs recherches que dans leur enseignement. Pour ce faire, un questionnaire fut envoyé par
courrier à 255 spécialistes anglais de la discipline, et un second fut mis en ligne pour des
participants ne résidant pas au Royaume-Uni (il s’agissait majoritairement d’historiens de l’art
établis aux États-Unis). Le sondage par lettre ne reçut que 56 réponses complètes et

93
Christopher Bailey et Margaret E. Graham, « The Corpus and the Art Historian », Thirtieth International
Congress of the History of Art. [En ligne], http://www.unites.uqam.ca/AHWA/Meetings/2000.CIHA/Bailey.html

62
exploitables, soit 22% des envois initiaux, tandis que le sondage sur internet permit d’en
rassembler 65. Au sujet de cette enquête, nous ne retiendrons que les réponses à ces deux
questions :

- L’accès et le recours aux images numériques affecte-t-il vos méthodes de travail, et


dans un second temps, vos intérêts de recherche ?
- Quel domaine (parmi ceux proposés) décrit le mieux votre champ d’étude principal ?

Les chiffres issus de ces sondages ont été publiés sous la forme de tableaux que nous allons
traduire et retranscrire ci-dessous94 :

L’accès et le recours aux images


Réponses par Réponses en
numériques affecte-t-il vos Total
lettre ligne
méthodes de travail ?
Oui 17 (30,4%) 40 (61,5%) 57 (47,1%)

Non 31 (55,4%) 18 (27,7%) 49 (40,5%)

Incertain 5 (8,9%) 7 (10,8%) 12 (9,9%)

L’accès et le recours aux images


Réponses par Réponses en
numériques affecte-t-il vos intérêts Total
lettre ligne
de recherche ?
Oui 7 (12,5%) 23 (35,4%) 30 (24,8%)

Non 42 (75%) 36 (55,4%) 78 (64,5%)

Incertain 3 (5,4%) 6 (9,2%) 9 (7,4%)

Pas de réponse 1 (1,8%) 0 (0%) 1 (0,8%)

Ces deux premiers tableaux mettent en évidence le fait que les spécialistes ayant
répondu au questionnaire en ligne considèrent davantage leurs méthodes de travail comme
étant affectées par les images numériques. Cela peut s’expliquer par le fait que ce groupe
correspond davantage à un profil d’historien de l’art ayant déjà une pratique relative de l’outil
numérique et de l’internet, et que par conséquent, celle-ci influence directement leur façon de
faire au quotidien. Néanmoins, si nous nous penchons sur les réponses totales, nous pouvons

94
Les sources du sondage proviennent de « The Corpus and the Art Historian » cité précédemment.

63
constater que, malgré une modification des méthodes de travail auprès des spécialistes,
l’image numérique ne semble pas nécessairement avoir un impact direct sur l’orientation de
leur recherche. Le phénomène sous-jacent à ces chiffres manifeste peut-être le fait que les
historiens de l’art se servent grandement de sources textuelles pour analyser les œuvres d’art
et que parfois, les sources visuelles ne viennent qu’en second lieu. Les images, numériques ou
non, sont alors des supports d’études non-exclusifs qui viennent s’ajouter aux livres,
manuscrits, lettres et autres témoignages historiques qui seront réunis autour du corpus
d’étude qui servira de base au chercheur. Cette réflexion autour du corpus d’étude de
l’historien de l’art est confirmée lorsque nous constatons les multiples approches analytiques
que peuvent avoir des spécialistes d’une même discipline (histoire sociale, iconographie,
analyses formelles et stylistiques des œuvres d’art, histoire culturelle, théorie artistique,
95
esthétique, etc.) . L’histoire de l’art n’est pas une discipline qui se cristallise dans une
généralisation des méthodes d’analyses, c’est ce qui fait d’ailleurs sa richesse, mais qui prête
également à nombreuses équivoques puisque son cadre de définition n’est jamais
exclusivement établi.

Un troisième tableau concernant la période chronologique étudiée par les personnes


interrogées révèle également quelques indices symptomatiques de l’écart existant dans les
pratiques numériques entre les différents spécialistes de l’histoire de l’art :

Quel domaine décrit le mieux Réponses par Réponses en


Total
votre champ d’étude principal ? lettre ligne

Antiquité et médiéval 5 (8,9%) 17 (26,2%) 22 (18,2%)


De la Renaissance au XVIIIe s. 16 (28,6%) 10 (15,4%) 26 (21,5%)
Art moderne 30 (53,6%) 23 (35,4%) 53 (43,8%)
Architecture et design moderne 7 (12,5%) 20 (30,8%) 27 (22,3%)
Cinéma et photographie 2 (3,6%) 8 (12,3%) 10 (8,3%)
Art non-occidental 4 (7,1%) 11 (16,9%) 15 (12,4%)
Pas de réponse 3 (5,4%) 1 (1,5%) 4 (3,3%)

95
Ibidem : « Of the mainstream approaches, connoisseurship, psychoanalysis and structuralism are the least
popular, while most respondents say they use social and cultural history. Slightly more respondents to the online
survey cited formalist or iconographic techniques than was the case with the AAH survey. »

64
Sans surprise, les médiévistes et les historiens de l’art antique, ainsi que de l’art "non-
occidental" – souvent assimilés aux archéologues, tant dans leur méthode que pour leur axe
d’étude chronologique – répondent davantage aux questionnaires en ligne que par lettre. Ce
phénomène est très souvent constaté lorsque l’on compare les pratiques numériques des
archéologues avec celles des historiens de l’art. Les médiévistes sont par ailleurs à cheval
entre l’historien et l’archéologue, et sont bien souvent parvenus à des compromis entre les
deux disciplines, les encourageant également à développer des compétences en relation avec
l’informatique96. Ce genre de remarque peut également être soutenu, en France, par la faible
implication des historiens de l’art dans la publication libre sur internet d’articles ou de travaux
scientifiques. À l’heure actuelle, sur le site des archives ouvertes des hyper articles en ligne
(HAL97) hébergés par le Centre pour la Communication Scientifique Directe du CNRS, nous
pouvons recenser les chiffres suivants :

Nombre de documents Nombre de documents


Domaines recensés recensés
au 4 mai 2009 au 13 août 200898
Archéologie et Préhistoire 693 511
Architecture, aménagement de
509 -
l'espace
Art et histoire de l'art 186 189
Héritage culturel et muséologie 114 -

Si nous comparons l’évolution des domaines « Archéologie et Préhistoire » et « Art et


histoire de l'art » en une année, nous pouvons constater que l’implication sur le "web
institutionnel" des historiens de l’art n’a pas vraiment évolué par rapport à leurs confrères
archéologues. Ce constat est indirectement lié à la pratique de l’image numérique en histoire
de l’art, mais il rejoint un mouvement d’ensemble qui s’associe aux nouvelles pratiques de
l’historien de l’art. Si nous pouvons signaler la faible publication en ligne des travaux de
spécialistes dans la discipline, nous pouvons penser que l’implication des étudiants et
enseignants-chercheurs augmente en parallèle, avec l’accroissement du nombre de bases

96
La revue française de l’Institut de Recherche et d’Histoire des Textes (IRHT) intitulée Le Médiéviste et
l’ordinateur fondée en 1979, et uniquement électronique depuis 2004 (http://lemo.irht.cnrs.fr/), est un bon
exemple de cet intérêt pour le numérique depuis l’apparition et l’usage des premiers ordinateurs personnels.
97
Centre pour la Communication Scientifique Directe. Site des HAL. http://hal.archives-ouvertes.fr/
98
Simon Bachelier, « Une Typologie des outils numériques en histoire de l’art sur internet », mémoire de Master
1 sous la direction de Corinne Welger-Barboza, 2008, p. 75. [En ligne],
http://www.scribd.com/doc/14545201/Typologie-des-outils-numeriques-en-histoire-de-lart-Simon-Bachelier

65
d’images sur le web qui facilite l’accès et favorise le recours aux reproductions numériques
pour la recherche et l’enseignement de l’histoire de l’art. Cela sans oublier, bien entendu, un
pré-requis essentiel qui se joue au niveau local des universités, à savoir la mise à la
disposition des enseignants et étudiants de matériels numériques capables d’exploiter ces
nouvelles ressources (ex : rétroprojecteur numérique, ordinateur portable, etc.). À Paris, la
fondation en 2001 de l’Institut national d’histoire de l’art (INHA) est un parfait exemple de
mise à disposition de matériel informatique pour la tenue des cours, séminaires et autres
journées d’études caractéristiques de l’université. En se voyant imposer la présence de
rétroprojecteurs numériques dans chaque salle de l’institut, les enseignants se sont vus obligés
de passer d’un usage courant de la diapositive traditionnelle à une mise en pratique des
images numériques. Perçu de primes abords comme une contrainte (besoin de numériser
d’anciennes images, en rechercher de nouvelles, etc.), ce passage à l’image numérique à
pousser plusieurs enseignants-chercheurs à revoir l’intégralité de leur corpus iconographiques
pour l’adapter à ce nouveau support. Après quelques années de pratique, le recours à
l’imagerie numérique (images et vidéos comprises) a été adopté par la plupart des enseignants
qui y ont trouvé à l’usage une certaine commodité.

Si cette enquête menée en 1999-2000 permettait de faire un premier point sur les
usages et l’impact de l’image numérique sur les historiens de l’art, il n’en serait que plus
intéressant, et peut être même plus pertinent, de réitérer l’expérience aujourd’hui, soit près de
dix ans plus tard, avec le développement de l’accès internet haut-débit et l’apparition de bases
d’images en ligne toujours plus riches et nombreuses. Bien que les images numériques n’aient
pas attendus le développement du web 2.0 pour être employées, ce dernier a permis
d’accroitre sensiblement leur disponibilité et leur circulation au travers le réseau mondial. À
l’époque où le sondage de Christopher Bailey a été réalisé, peu de bases d’images était
vraiment disponible en ligne. L’un des précurseurs dans ce domaine fut Nicolas Pioch, à
l’époque jeune diplômé de l’École Polytechnique, qui dès 1994, a entrepris la création du
Weblouvre, qui continuera par la suite sous le nom de Webmuseum99. Hybride entre une petite
encyclopédie de l’art et une base d’images, le site proposait déjà à l’époque quelques images
pouvant atteindre une définition supérieure à 800 pixels de large, ce qui était très ambitieux
puisque le haut débit n’existait pas encore et que la plupart des écrans étaient configurés dans
une résolution de 640 × 480, ou au mieux 800 × 600.

99
http://www.ibiblio.org/wm/ (consulté le 20 mai 2009)

66
Toujours en France, l’exemple de la base Joconde100 créée par le Ministère de la
Culture en 1975 et mise en ligne à partir de 1995 ne permet pas à sa création d’accéder aux
images, mais en ajoutera progressivement au fil des années. À l’étranger, nous pouvons citer
l’initiative de l’historien de l’art Michael Greenhalgh de l’Australian National University qui
a fondé en 1994 la base Artserv101. Toujours d’actualité, le site proposait à sa création
plusieurs milliers de photographies numérisées, et en recense aujourd’hui plus de 450000
(représentant un stockage de presque 550Go d’après l’auteur). La forme adoptée par cette
base est un classement réparti en différentes catégories (pays, objets, artiste, médium, etc.),
dont l’organisation n’a pas été systématiquement respectée. L’absence de légende ou
d’information concernant les images souligne le fait que la base s’adresse à un public
spécialiste et averti, généralement des professeurs ou étudiants désireux d’illustrer leurs cours
ou travaux. La majorité des clichés ont été faits par le professeur Greenhalgh lors de ses
études de terrain ou tout simplement, lors de voyages. Un autre exemple visant les mêmes
objectifs est le site du professeur d’anglais et d’histoire de l’art Mary Ann Sullivan du Bluffon
College aux États-Unis : Digital Imaging Project102. En ligne depuis 1997, le site héberge
environ 16000 images provenant de photographies personnelles réalisées in situ par l’auteur.
À l’origine, les images hébergées par ces sites étaient systématiquement numérisées au moyen
de scanner, mais progressivement, l’usage d’appareils photographiques numériques a permis
de faciliter l’alimentation de ces fonds en supprimant cette tâche laborieuse et souvent trop
gourmande en temps.

Comme le relève Corinne Welger-Barboza dans son ouvrage Le Patrimoine à l’ère du


document numérique, ces initiatives furent « parmi les premières, avant que les institutions
muséales se résolvent à ouvrir des sites sur l’Internet »103. En effet, bien que souvent
soutenues à l’étranger par les universités, ces réalisations individuelles furent les premières à
permettre sur le web dans les années 1990, un accès alternatif, libre et gratuit aux images
numériques à des fins de recherche et d’enseignement en histoire de l’art. Il faudra attendre
les premières années de la décennie suivante, pour que des musées d’art mettent en ligne à
leur tour des bases d’image issues de leur catalogue et/ou collection. Nous retrouvons

100
http://www.culture.gouv.fr/documentation/joconde (consulté le 16 mai 2009)
101
http://rubens.anu.edu.au/ (consulté le 16 mai 2009)
102
http://www.bluffton.edu/~sullivanm/ (consulté le 16 mai 2009)
103
Corinne Welger-Barboza, Le Patrimoine à l’ère du document numérique. Du musée virtuel au musée
médiathèque, Paris, L’Harmattan, coll. Patrimoines et sociétés, 2001, p.99.

67
généralement sous le nom de « collection en ligne » des images d’œuvres d’art classées selon
les départements couverts par les musées ou parfois selon la disposition de leurs salles
d’expositions. L’apparition de ces « catalogues numériques » a engendré des contenus et des
modes d’accès à l’image très hétérogènes d’une institution muséale à l’autre. Tandis que
certains sites de musées ne laissent pas la possibilité de télécharger librement les images de
leur collection en ligne (ill.28), d’autres proposent à l’inverse de fournir différentes vues d’un
même objet (ill.29), des outils de visualisation tels que des zooms (ill.30) et bien d’autres
fonctionnalités pouvant servir à une meilleure analyse de l’œuvre d’art et favoriser sa
spatialisation (notamment pour les sculptures). Le manque de modèle de ces collections en
ligne découle d’une absence de directions proprement établies par les acteurs des musées vis-
à-vis de la destination et des usages de leur base d’images. Si dans la majeure partie des cas il
s’agit prétendument de satisfaire une demande venant du « public », les historiens de l’art
s’approprient, quand ils le peuvent, ces nouvelles ressources offertes par les musées en ligne.

Bien que les images proposées par les sites de musées ne soient pas toujours de bonne
qualité, un tournant semble toutefois s’être opéré quelques années après le développement de
plateforme web2.0 tels que les réseaux sociaux (Facebook, Myspace, réseaux Ning, etc.) et
autres sites de partage (Flickr, Youtube, etc.). Devant une offre toujours plus grande de
photographies numériques mises en ligne librement et gratuitement par des particuliers sur
des sites de partage d’images, les sites précurseurs que nous avons présentés plus haut, ainsi
que les collections de musées en ligne se voient en quelque sorte concurrencées ou, de
manière moins frontale, complétées. Nous entendons par ces termes le fait que la disponibilité
des reproductions numériques des œuvres d’art se fait de plus en plus l’objet de production du
particulier qui, équipé d’appareils numériques toujours plus performants à un moindre coût,
diffuse à son tour très facilement, par le biais de plateformes comme Flickr, des ressources
visuelles qui s’avèrent être de même qualité, voire parfois supérieure, à celles proposées par
les bases d’images des musées en ligne. Pour une photographie d’un objet d’art donné
disponible sur le site d’un musée, il est possible d’en trouver sur le web des dizaines d’autres
proposant des définitions d’images, des points de vue et des éclairages sensiblement
différents. Nous pouvons supposer que devant une telle « offre » de l’image – qui rappelons-
le, s’avère parfois être de meilleure qualité ou intérêt que celle proposée par les bases
muséales en ligne –, les musées en ligne ont décidé d’adopter différents comportements vis-à-
vis de leur collection. Certains proposent une documentation riche autour des images, d’autres
permettent d’étudier les œuvres d’art au moyen d’images en très haute définition par

68
l’intermédiaire d’outils de zoom (mais dans bien souvent des cas, elles ne sont alors pas
téléchargeables), quelques-uns d’entre eux tentent également d’investir certaines plateformes
du web2.0 tels que Flickr pour y déposer leurs images ou récupérer celles des internautes dont
les clichés sont manifestement de bonne qualité. C’est ce qu’a expérimenté avec succès le
Brooklyn Museum au début de l’année 2006 en fondant une communauté sur Flickr104 visant
à rassembler les meilleures photographies de ses visiteurs portant sur le musée et ses œuvres.
La page d’accueil du groupe Flickr rappelle l’état d’esprit dans lequel l’institution s’introduit :
« La mission du musée de Brooklyn est d’agir comme une passerelle entre le riche patrimoine
artistique des cultures du monde, comme ses collections le reflètent, et l’unique expérience de
chaque visiteur.105 » Alors que cette institution faisait figure isolée d’avant-garde dans le
domaine de l’investissement du web2.0 par les musées, plusieurs autres commencent à suivre
son exemple tant sur Flickr que sur Youtube, ou encore Facebook.

En matière d’images disponibles sur internet, nous pouvons donc avancer l’hypothèse
que le développement du web2.0 et de sa philosophie de l’utilisateur/producteur de contenu a
poussé les musées à reconsidérer la fonction de leur collection en ligne, notamment au sujet
de la place de l’image numérique. Il est probable que les institutions muséales envisagent à
l’avenir, de fournir des images de grande qualité, ainsi qu’une gamme de services dédiés à
leur étude (outils de visualisation), au fur et à mesure des moyens dont elles disposeront pour
numériser en très haute définition chaque objet de leurs collections, et ce dans l’optique de
conserver leur rôle de premier référent en matière de culture autour des œuvres d’art qu’elles
conservent et exposent au public. L’autre comportement envisageable des musées à l’égard de
cette évolution de l’internet et des nouveaux partages de l’image (citons également les récents
Commons sur Flickr qui rassemblent pour l’heure 27 établissements publics106 dont une partie
des fonds photographiques a été mise en ligne sans contrainte juridique pour l’enseignement
et la recherche) serait de les voir abandonner la primauté des reproductions de référence des
œuvres d’art qu’ils semblaient vouloir conserver en investissant le web, et se concentrer sur
de nouvelles formes de productions culturelles autour de leurs fonds et des évènements
culturels qu’ils organisent.

104
http://www.flickr.com/groups/brooklynmuseum (consulté le 20 mai 2009)
105
Ibidem, texte de la page d’accueil : « The mission of the Brooklyn Museum is to act as a bridge between the
rich artistic heritage of world cultures, as embodied in its collections, and the unique experience of each visitor. »
106
Citons parmi ces 27 établissements publics : The Library of Congress, Powerhouse Museum Collection,
Brooklyn Museum, Smithsonian Institution, Bibliothèque de Toulouse, Georges Eastman House, Getty Research
Institute, National Galleries of Scotland, etc. (http://www.flickr.com/commons consulté le 22 mai 2009).

69
Quoiqu’il advienne, l’historien de l’art dispose, au fil du temps, d’un nombre toujours
plus important de ressources documentaires et visuelles de qualité mises à sa disposition en
ligne pour l’étude, l’enseignement et la recherche. L’appropriation des images numériques par
le spécialiste procède néanmoins « d’une capacité de repérage » sur le web, mais également
d’une certaine « compétence d’évaluation de leur qualité (qualité de l’image mais aussi
fiabilité de l’information qui la documente) »107, pour reprendre les termes de Corinne
Welger-Barboza. Sans ces quelques notions de bases, le spécialiste risque ne pas arriver à
trouver les bonnes ressources pour ses travaux et abandonner un terrain d’une richesse sans
limite, dont la fertilité des productions scientifiques s’accroit d’année en année.

II - L’image numérique comme outil : terrain d’expérimentations


et d’investigations

Bien qu’elle soit qualifiée de ressources (visuelles) pour l’historien de l’art, l’image
numérique est avant tout un outil d’étude à privilégier pour sa nature interactive. Véritable
terrain d’expérimentations et d’investigations, l’image numérisée ou de synthèse permet
d’accroître le potentiel d’exploration des objets. D’autres disciplines scientifiques ont déjà su
profiter de leurs avantages que cela soit en physique, biologie ou astronomie, ou encore sur le
plan de la pratique avec la médecine qui a de plus en plus recours à l’image de synthèse
comme support dérivé de diagnostique. L’imagerie numérique s’est progressivement
introduite dans divers champs d’application spécialisée, et même si son entrée dans la
discipline de l’histoire de l’art a pris un léger retard par rapport à d’autres, il est possible de
recenser quelques cas d’études intéressants où l’exploitation de l’image numérique dépasse le
cadre du simple référent documentaire comme l’était une photographie traditionnelle.

Le premier exemple choisi est une parfaite illustration d’interdisciplinarité entre les
sciences de l’informatique, les mathématiques et l’histoire de l’art. Il s’agit d’un projet exposé
en 2002 par trois spécialistes : Antonio Criminisi du département de recherche de Microsoft,
l’historien de l’art Martin Kemp et le professeur en sciences de l’ingénierie Andrew

107
Corinne Welger-Barboza, « Vers un nouveau partage de l’image », site de l’Observatoire Critique.
http://www.observatoire-critique.org/article.php3?id_article=26

70
Zisserman, tous deux de l’université d’Oxford en Grande-Bretagne108. En utilisant différents
algorithmes de calculs, ils ont mis au point plusieurs méthodes pour analyser et estimer la
géométrie bidimensionnelle et spatiale dans la composition picturale de tableaux de la
Renaissance. Reposant sur le concept qu’une peinture, à partir du moment où elle est
composée dans le respect des règles de la perspective linéaire, puisse être traitée comme une
photographie d’un même sujet, les trois chercheurs proposent d’appliquer des algorithmes de
vision afin de :

- analyser les formes et les proportions des sujets et objets représentés

- générer de nouveaux angles de vue à l’intérieur de la composition d’un tableau

- recomposer des éléments partiellement masqués

- reconstituer des parties manquantes de motifs dans la composition

- réaliser une construction en trois dimensions de la scène peinte

Même dans les compositions artistiques les plus rigoureuses, les rapports de taille
entre les différents sujets et objets peuvent varier selon les statuts des protagonistes
représentés. Un mécène ou un commanditaire d’une œuvre d’art se voit généralement
attribuer une taille légèrement différente des autres personnages qui (hormis les figures
saintes). Bien que les règles de perspectives soient soigneusement appliquées par les grands
artistes de la Renaissance, certains manquements volontaires à la règle peuvent être observés
du point de vue de ce raisonnement (statut, rôle, valeur sacrée, etc.). L’étude du rapport de
taille des personnages dans une composition picturale peut s’avérer éclairante, tant sur le plan
de la maîtrise technique du peintre pour s’assurer de la cohérence des proportions
géométriques et spatiales, que vis-à-vis du contexte historique et social qui entoure l’œuvre
d’art en découvrant des disproportions intentionnelles de taille entre certains figurants,
découlant d’une hiérarchie des statuts.

108
Antonio Criminisi, Martin Kemp, Andrew Zisserman, « Bringing Pictorial Space to Life: Computer
Techniques for the Analysis of Paintings », Microsoft Research Cambridge, novembre 2002.
http://research.microsoft.com/pubs/67260/criminisi_chart2002.pdf

71
Afin d’expliquer comment il est possible de calculer directement par ordinateur la
taille des personnages dans une image, nous allons reproduire, traduire et commenter les deux
schémas proposés par les auteurs109 :

Représentation schématique pour calculer, en fonction de la construction linéaire de la


perspective, la taille d’une figure par rapport à un autre élément de la scène d’un tableau.

Étant théoriquement dans l’impossibilité de définir la taille réelle d’une figure dans un
tableau, sauf cas particulier où l’on possèderait une échelle de référence, il n’est possible
d’établir un rapport de taille que vis-à-vis d’un élément de référence donné. Dans le précédent
schéma, si nous ne pouvons connaître la taille du personnage sans connaître la taille de la
colonne (objet référentiel), nous pouvons toujours calculer le rapport de taille entre l’objet du
premier plan et la figure du second, et établir une taille relative de l’un par rapport à l’autre.

109
Ibidem, p. 9.

72
Calcul du rapport de taille de la figure humaine par rapport à un objet de référence (colonne).

La droite qui rejoint la base de la colonne (point rb) avec celle de l’homme (point xb)
se prolonge jusqu’à la ligne d’horizon au point V. La droite partant du sommet de la colonne
(point rt) jusqu’au point V de la ligne d’horizon coupe l’axe (en vert sur le schéma) du point

de fuite vertical de l’homme au point i. Les deux droites (rt , V) et (rb , V) sont, dans l’image,

parallèles entre elles, et par rapport à la perspective linéaire le point i et le point rt sont à la
même hauteur dans l’espace fictif de la composition de la scène. Le rapport de taille entre le
personnage et l’objet référentiel se calcule selon cette formule :

La mise en pratique d’une telle équation a été faite sur plusieurs tableaux, dont la
Flagellation du Christ (1444-60) de Piero della Francesca (1416-1492), afin d’étudier dans le
détail la maîtrise technique attribuée à l’artiste et souvent qualifiée d’obsessionnelle.
L’algorithme décrit précédemment a été appliqué à l’œuvre, mais en l’absence d’échelle
absolue des objets et personnages, la taille des figures a été calculée en fonction de celle du

73
Christ qui sert ici de référent (ill.31). À première vue, sans une telle approche, il n’est pas
évident de déterminer la cohérence des rapports de tailles entre les sujets de l’arrière-plan et
ceux du premier. Néanmoins, par le biais de cette méthode assistée par ordinateur, les
résultats démontrent et affirment l’habilité et l’extrême précision de la composition pour
laquelle Piero della Francesca a été célébré au fil des siècles.

Cette même peinture présente un sol dallé à l’endroit où se trouve le Christ dont le
motif est visuellement déformé par la perspective de la composition. Les trois chercheurs se
proposent de reconstituer automatiquement le dallage à partir d’un autre algorithme de calcul,
dont nous ne présenterons pas les détails ici afin de nous focaliser essentiellement sur le
résultat d’une telle expérience. De manière à pouvoir estimer l’image obtenue par cette
méthode, Martin Kemp propose de la comparer à une reconstitution manuelle d’après l’œuvre
originale qu’il avait déjà publiée dans son ouvrage The Science of Art : Optical Themes in
Western Art from Brunelleschi to Seurat (1989). L’image obtenue par ordinateur semble
suffisamment convaincante et encourageante dans le recours à ce type d’outil, puisqu’elle
bénéficie de certains avantages, à savoir la rapidité d’exécution, le respect de la précision des
formes originales et la conservation des caractéristiques visuelles de la composition
puisqu’elles sont réutilisées par le programme pour réaliser cette transformation (ill.32). Un
second exemple est présenté de la même manière à partir d’une étude d’un détail du Retable
de Sainte Lucie (1444-1445) (ill.33) de Domenico Veneziano (1400-1461). La recomposition
par ordinateur confrontée au dessin d’étude de Martin Kemp (ill.34) montre à quel point un tel
outil peut, quand les circonstances le permettent (image numérique de qualité, détail non
obstrué par des figures de la composition, etc.), servir l’historien de l’art dans l’étude
iconographique et technique d’une peinture.

À partir d’une combinaison entre les techniques présentées précédemment et d’autres


algorithmes, il est possible de composer des objets en trois dimensions à partir de la
composition bidimensionnelle d’un tableau. Cette méthode de reconstitution peut être utilisée
comme outil pour révéler d’éventuelles imperfections dans la composition géométrique de la
scène. Elle peut également servir à vérifier des hypothèses comme celle qui a été proposée par
Kemp au sujet du motif noir et blanc du sol dans la Flagellation de Piero della Francesca qui
prétendait que celui-ci était carré. En naviguant dans la reconstitution tridimensionnelle de la
scène, on constate que la proposition de l’auteur se justifie (ill.35). Toutefois pour ce cas,
l’intérêt de la reconstruction en 3d du tableau est mince. Parmi les cas présentés dans ce

74
projet, l’un d’entre eux est particulièrement intéressant dans ce qu’il révèle, après
transformation, une légère erreur de composition géométrique dans un tableau de l’artiste
hollandais Hendrick van Steenwick (1580-1649) représentant saint Jérôme. Le peintre fut l’un
des pionniers en Hollande à adopter la perspective intérieure dans ses sujets. La rigueur et la
précision de ses compositions en font donc un parfait sujet d’analyse pour expérimenter le
procédé de spatialisation mis au point par les trois chercheurs (Saint Jérôme comporte un
grand nombre de lignes de fuites et de surfaces planes qui peuvent être facilement transposées
en 3d). En observant le tableau, il est difficile de détecter des anomalies de construction tant
le travail préparatoire de Steenwick est précis. La spatialisation en trois dimensions de la
scène se fait en soustrayant les figures de Saint Jérôme et du chien, ainsi que les espaces
visibles par le couloir sur la droite et l’escalier du premier plan à gauche (ill.36). En
examinant la reconstitution de la scène, Antonio Criminisi a découvert une asymétrie au
niveau du sommet de l’arche de la fenêtre qu’il commente, à la défense du peintre hollandais,
comme n’étant pas une maladresse, mais probablement un choix d’adopter un artifice visuel
pour cette courbe difficile à réaliser selon l’angle qu’il avait choisi, plutôt que d’investir un
effort supplémentaire dans un détail qui ne devait théoriquement pas être remarqué110 (ill.37).
Malgré toute la rigueur de la composition de Steenwick, ce dernier use de trompe-l’œil avec
parcimonie, certainement dans le but de donner à voir un ensemble qui paraissait "juste",
plutôt que "réel". Le débat sur la question rejoint sans aucun doute celui évoqué vis-à-vis des
gravures de reproductions de la Renaissance, qui donnaient souvent à voir ce qui devait être
vu dans leur modèle, au détriment de la réalité physique de l’objet même.

Ce type d’expérimentation exploite la nature computationnelle de l’image numérique


afin d’en développer ses possibilités. Une fois numérisée, la photographie d’une œuvre d’art
peut être simplement consultée en tant que document, au même titre qu’une photographie
traditionnelle, ou bien être interrogée de différentes façons en utilisant sa nature interactive.
Ainsi, la spatialisation en trois dimensions d’œuvres picturales réalisée dans le projet de
Criminisi, Kemp et Zisserman interroge directement le médium bidimensionnel de la toile au
moyen d’algorithmes informatiques, pour l’étudier sous une forme virtuelle et
tridimensionnelle, qui tend à approfondir son étude scientifique. En tant qu’outil numérique,
cette approche permet de répondre à des questions relatives à la rigueur apportée à la

110
Ibid, p.22 : « This geometrical imperfection is probably due to the fact that the artist has painted a somehow
complicated curve at a grazing angle by eye and without undertaking a precise projection, which would have
promised a degree of effort disproportionate to the visual benefits »

75
construction de la perspective dans une peinture telle que Saint Jérôme, ou encore de mettre
au jour des motifs géométriques et décoratifs peints dans des œuvres comme le retable de
Sainte Lucie. La possibilité de naviguer dans les œuvres reproduites peut également être, pour
les étudiants en histoire de l’art, un moyen novateur pour expérimenter autrement une
peinture et mieux comprendre les bases de la perspective linéaire dans les tableaux de la
Renaissance.

Un autre projet exploitant de nombreux atouts et potentiels de l’image numérique et


dédié spécifiquement aux étudiants en histoire de l’art est le Romanesque Churches of the
Bourbonnais, mis en ligne depuis 2003 par le "Visual Media Center for Art History,
Archeology and Historic Preservation" (VMC) de l’université de Columbia. Le fondateur du
projet, Stephen Murray, souhaite rétablir un lien et une expérience de mise en situation des
édifices étudiés pour les étudiants qui n’ont pas la possibilité d’étudier leur sujet in situ111.
Dans le but de fournir aux étudiants un support de cours et un corpus d’étude aussi précis
qu’exhaustif, le VMC a réalisé un site entièrement dédié à l’architecture religieuse du
Bourbonnais du XIe et XIIe siècles112. La base de données comprend actuellement 122
édifices religieux classés selon de multiples catégories : villes, formes et compositions
architecturales, nom d’églises, etc. La grande particularité de cette base est de centrer son
contenu sur l’imagerie numérique en épurant presque intégralement le contenu de textes
documentaires. Voulant mettre l’accent sur l’exploration visuelle des bâtiments et
l’immersion totale de l’étudiant dans une plongée virtuelle au cœur des édifices, l’image
numérique devient une ressource documentaire à part entière, voir quasi-exclusive.

La base de données qui constitue le fond du site est vêtue d’une interface claire et
intuitive permettant à l’utilisateur de se familiariser avec ses modes d’interrogations et de
navigations. Dès l’entrée sur le site, une carte nous situe immédiatement la position
géographique des églises (ill.38) aux côtés d’un texte d’introduction au projet. Une fois
"plongé" à l’intérieur de l’interface, il est possible d’atteindre les différents édifices en passant
le curseur de la souris sur les marqueurs symbolisant leur emplacement géographique. Ce

111
Propos de Stephen Murray rapporté par James Devitt In « Bourbon Chateau Site of Program on Art,
Architecture of Medieval France », Columbia University Record, 8 Mars 2008, p. 4.
http://www.columbia.edu/cu/record/archives/vol27/vol27_iss11/Pg4-2711.pdf
« In order to understand the great monuments of medieval Europe, you must go there. It is possible to bring
images of the monument to the classroom, but these images cannot replace the experience of visiting and
studying the buildings themselves, rooted as they still are in the landscape in which they were first built. »
112
http://www.learn.columbia.edu/bourbonnais

76
dernier révèle alors une petit bulle d’informations qui décrit très succinctement l’église et
laisse apparaître dans un bandeau supérieur différentes photographies extérieures et
intérieures du bâtiment, et, dans un second bandeau inférieur, les différentes ressources
disponibles à son sujet (plan architecturaux, vue en coupe transversale, plan interactif avec
outil de mesure, reconstitution 3D, etc.) (ill.39). Un autre mode de recherche permet de
sélectionner des plans orthogonaux types pour trier les bâtiments selon la forme de leur
fondation. Un tel système d’interrogation de la base de données dépasse la conception
traditionnelle d’index et enrichit considérablement la recherche d’église au sein du corpus.

En sélectionnant d’un clic un des édifices, davantage de photographies s’affichent à


l’écran afin de le resituer dans son environnement. Un éventail d’outils est alors proposé pour
"expérimenter" virtuellement l’approche in situ, analyser avec précision l’architecture et
étudier l’aménagement intérieur de l’église. L’application Quicktime VR (Virtual Reality) est
utilisée et proposée pour observer l’intérieur de bon nombre d’églises issues dans la base.
Sous forme de panoramas, l’étudiant peut ainsi s’immerger au cœur de l’édifice en simulant la
vision qu’il en aurait s’il le visitait de l’intérieur (ill.40). Longtemps considérée comme un
gadget par les institutions muséales, cette technologie trouve ici un intérêt certain, puisqu’elle
facilite l’immersion en permettant à l’étudiant américain de Columbia de voyager fictivement
jusqu’en France pour s’imprégner pleinement de son sujet d’étude. Des reconstitutions en
perspectives axonométriques des bâtiments sont proposées afin de pouvoir visualiser l’aspect
global des architectures en dévoilant l’ensemble de leurs façades et toitures, en faisant tourner
l’image à 360° (ill.41).

Indépendamment des photographies numériques, des plans architecturaux des lieux


sont disponibles en deux versions distinctes. Pour chacune des 122 constructions recensées,
une reproduction noir et blanc des plans de l’architecte français Marcel Génermont (1891-
1983), publiés en 1938 dans son ouvrage Les Églises de France, est présente aux côtés de
plans plus récents réalisés par le VMC. La possibilité de superposer les deux versions l’une
sur l’autre permet également d’observer d’éventuelles modifications qui auraient été faites à
l’édifice au fil du siècle. Des outils de mesure ainsi que des échelles de valeurs accompagnent
chaque plan afin de permettre une évaluation minutieuse des distances et longueurs des
structures (narthex, chapiteaux, nef, chœur, etc.) (ill.42). Les informations relatives aux
dimensions du narthex, de la nef, du chœur ou encore du transept sont affichés dans un
tableau se trouvant sous le plan, dans un souci pratique afin que l’utilisateur ne soit pas perdu

77
lors de l’étude du plan. Une fonction permet également d’afficher l’ensemble des chapiteaux
recensés au sein du bâtiment. Les éléments apparaissent alors sur le tracé du plan sous la
forme de petites vignettes qui s’agrandissent dans une nouvelle fenêtre au simple passage du
curseur de la souris (ill.43).

Ce corpus instrumenté, dont le cœur s’anime autour d’une parfaite exploitation de la


base de données et de l’imagerie numérique (photographie, usage de calque pour les plans,
image dynamique, reconstitution en trois dimensions, etc.), semble donc répondre aux
objectifs fixés par son fondateur. Le premier étant d’offrir un corpus d’étude instrumenté
accessible librement par internet à tous les étudiants pour faciliter l’étude, et le second de
privilégier une approche immersive qui combine les atouts des anciennes reproductions
technique (photographie, dessin, etc.) en ajoutant ceux des nouvelles technologies, et plus
particulièrement ceux de l’image numérique. L’apport de l’interactivité du numérique et
l’ouverture à internet ne cherche pas à déjouer les présences pour usurper la place du réel ou
l’étude in situ, mais bien à s’en imprégner pour offrir une autre vision et permettre une
compréhension plus vaste et plus exhaustive des objets d’art, au sens large du terme.

III – HDRI et perspectives d’applications en histoire de l’art

La technologie de l’imagerie à grande gamme dynamique, que nous abrègerons par


l’abréviation anglaise « HDRI » (High Dynamic Range Imaging), a été conçue par le
physicien-informaticien américain Gregory Ward Larson, puis développée en 1997 par
l’Institute for Creative Technologies de l’University of California mené par Paul Debevec.
Elle concerne l’ensemble des techniques visant à augmenter la dynamique des images
numériques, soit leur capacité à restituer les vraies échelles d’intensité lumineuse de
l’environnement photographié, allant des basses jusqu’au hautes lumières (ill.44). À l’heure
actuelle, les images que nous rencontrons sur le web et affichons sur nos écrans d’ordinateurs
sont encodées en 8 bits par canal RVB (abréviation du trio Rouge, Vert et Bleu), ce qui
signifie que chacun des pixels contenus dans la trame peut avoir une intensité lumineuse
variant entre 0 et 255 (soit une dynamique maximum de [255 :1])113. Or dans la réalité,

113
Cela est le cas avec le format JPEG extrêmement répandu sur internet, que cela soit pour illustrer les sites
web ou comme ressource visuelle sur les bases d’images.

78
l’étendue de cette intensité est souvent bien plus grande selon les environnements (que cela
soit un paysage de plein air au soleil, une cave souterraine éclairée à la bougie, ou autres lieux
et situations). Le HDRI permet d’augmenter la plage dynamique des photographies
numériques en augmentant considérablement le nombre de bits par pixel (allant jusqu’à 96
bits par pixel, soit 32 bit par canal), notamment par le biais de la fusion de plusieurs
photographies prises sous différentes expositions. Cette technique est facilitée par celle du
bracketing (parfois nommée en français « fourchette d’exposition ») qui consiste à réaliser
successivement plusieurs prises de vue d'un même cadre, en modifiant ses paramètres
d'exposition. La nécessité de disposer de tels échantillons multiples s’explique simplement par
le fait que les capteurs photosensibles présents dans la plupart des appareils photographiques
restent limités en gamme dynamique.

Pour réaliser une photographie à grande gamme dynamique correcte, il faut donc
disposer d’au moins trois images prises sous différentes expositions, dont l’une aura été
exposée en hautes lumières et une autre en basses lumières. Or, un fichier image HDR
(extension de type .exr ou .rgbe) n’est pas lisible par un écran standard. En effet, la plupart
des périphériques numériques courants (imprimantes, écran, carte graphique) sont en 8 bits
par canal, il est donc impossible d’imprimer ou d’afficher un tel fichier puisque sa gamme
dynamique dépasse largement celle de nos dispositifs informatiques habituels. Tant que cette
limite technologique et matérielle s’impose, il faut recourir à un artifice par le biais de
logiciels spécialisés pour convertir ces images en 16 bits par canal pour la retouche, puis 8
bits par canal pour un usage commun à l’écran ou des impressions sur papier. Pour ramener la
dynamique d’un fichier HDRI à un fichier image exploitable, il faut avoir recours à des
algorithmes baptisés tone mapper. Ces derniers permettent de manière plus ou moins
complexe selon les versions de diminuer la dynamique d’une image tout en conservant un
certain contrôle sur les transformations qui s’opèrent durant ce traitement (saturation,
luminosité, adoucissement du bruit, etc.). Nous obtenons donc par ce procédé l’illusion d’une
image HDR, puisque celle-ci sera rendue en 8 bits par canal au lieu de 32 bits par canal
initialement composés. La maîtrise de cette étape est essentielle pour obtenir un résultat
réaliste et ne pas avoir une image finale comportant des couleurs totalement artificielles, voire
des effets d’halo lumineux surréalistes, comme cela est souvent pratiqué (volontairement ou
non) par bon nombre d’amateurs de HDRI sur internet114 (ill.45).

114
Il existe néanmoins deux courants dans la production d’images HDR qui se différencie par leur approche.
L’une s’appuie sur cette technique pour produire des photographies réalistes en maitrisant les nuances de tons,

79
Il existe également des techniques visant à mimer le procédé du HDRI pour obtenir
des résultats ressemblant aux images produites par cette technique. A partir d’une seule image
numérique, il est possible d’en créer différentes versions dont les contrastes auront été
modifiés au moyen d’un logiciel de retouche photographique. Ainsi, à partir d’une seule
image, plusieurs autres (2, 4 voire 8) en sont dérivées afin de créer un fichier en 32 bit par
canal, toutefois la plage dynamique de l’image finale ne sera en aucun cas accrue. Si cette
technique peut avoir un réel intérêt pour faire ressurgir des détails présents dans les fortes
zones d’ombres et les hautes lumières, le rendu, bien qu’illusoirement similaire, reste
toutefois sensiblement différent des images LDR (Low Dynamic Range) obtenu par
reconversion 8 bit à partir de véritables images HDR (ill.46). Pour ce type de méthode altérée,
nous pouvons dire qu’il s’agit d’une mise en valeur forcée qui n’est à employer que dans le
cas où il n’est pas possible de disposer d’images photographiques obtenues par bracketing.

Si, pour l’heure, le traitement HDR des images numériques ne peut être envisagé qu’à
titre d’artifice, puisque la plupart des périphériques informatiques reste à ce jour incapables de
les afficher, nous pouvons légitimement nous interroger quant à leur application dans le
champ d’étude des objets d’art. Jean-Claude Chirollet, un des rares spécialistes français à
soulever la question pour la discipline, avance que « la technologie HDR se réduit à un
instrument pédagogique de "démonstration" »115, avant d’ajouter qu’elle peut engendrer « un
point de vue esthétique plus complexe, lié à une meilleure lisibilité des détails formels. »116
Nous pouvons ajouter que l’intérêt d’une image LDR issue d’un traitement HDR repose
grandement sur le niveau de maîtrise du tone mapping du "retoucheur" (photographe,
infographiste, chercheur, etc.) durant le traitement. Il est curieux de constater le manque
d’intérêt et de pratique en la matière dans le domaine des études des arts, où une telle
technique pourrait trouver des débouchés importants, notamment en vue de fournir des images
toujours plus précises et enrichies en détails. Malgré un développement important des
logiciels et des appareils numériques permettant de faciliter la réalisation des images HDR,
ainsi qu’un croissant intérêt porté par certaines communautés de photographes amateurs et
professionnels117 sur cette pratique depuis quelques années, rien ne semble avoir encore

tandis que l’autre cherche à créer des images à visée artistique en dénaturant totalement les rendus via une
utilisation créative des tones mappers.
115
Jean-Claude Chirollet, L'art dématérialisé. Reproduction numérique et argentique, op. cit., p. 151.
116
Ibidem, p. 152.
117
Sur le site de partage d’image Flickr, nous pouvons citer le groupe « TTHDR (True Tone High Dynamic
Range) » avec actuellement près de 13785 images publiées (http://www.flickr.com/groups/truetonehdr), ou

80
atteint le domaine des historiens de l’art en la matière. Ni les musées, ni les universités, ne
semblent s’être vraiment intéressées au sujet malgré le riche potentiel du HDRI. Ce constat
peut éventuellement s’expliquer par un besoin de maîtrise important de l’imagerie numérique
qui n’est pas toujours dans les considérations premières ou les compétences requises des
acteurs institutionnels. Nous pouvons poser l’hypothèse que les pratiques de la photographie
numérique chez les historiens de l’art amèneront progressivement ces derniers à recourir à
cette technologie, ou bien peut-être faudra-t-il attendre encore plusieurs années qu’un
développement novateur et économique permettent de mettre en place des périphériques
numériques (écrans, cartes graphiques, imprimantes, etc.) capables d’afficher et de lire
intégralement l’information comprise dans les fichiers images HDR codées en 96 bit par
pixel. Quoiqu’il en soit, le spécialiste ne perdra rien à se pencher sur la question dès à présent,
afin de constater par lui-même les intérêts qu’une telle technique peut apporter à l’étude des
œuvres d’art.

encore le groupe « HDR » avec actuellement 271754 images publiées en ligne


(http://www.flickr.com/groups/hdr). (consulté le 12 mai 2009)

81
CONCLUSION

« So the Commons [on Flickr] is forcing the museum to reconsider the value
of these photographic collections and the potential interest in them. This is
really exciting but also challenging — it takes a lot of courage for museums
and their staff to admit that “we don’t know much about this collection or
object”. »

Sebastian Chan
("Interview with Sebastian Chan, Manager of the Web Service Unit at
Powerhouse Museum", le 8 avril 2009, article du blog Indicommons )

82
Comprendre les nouvelles pratiques de l’historien de l’art à l’ère du numérique en
réseau revient non seulement à analyser son implication historique et méthodologique dans les
outils numériques, mais également à étudier l’évolution de ses pratiques au cours du siècle
dernier qui ont permis de façonner progressivement la discipline telle qu’elle est enseignée et
menée aujourd’hui. Depuis l’apparition de la photographie ainsi que le développement de ses
dérivés, les spécialistes ont débattu sans relâche autour du rapport entre l’œuvre et son image.
La photographie est alors apparue comme étant à la fois un nouveau support d’étude,
libérateur des entraves physiques et géographiques liées aux objets d’art, mais aussi comme
un médium aliénant qui détournait l’historien de l’art de son rapport fusionnel à l’œuvre. Or,
les images n’ont pas attendu le papier albuminé pour se fixer et circuler sur des supports.
L’économie des images s’est fortement développée à la Renaissance, bien qu’elle remonte au
moins au Moyen Âge, si ce n’est des siècles plus tôt durant l’Antiquité. Néanmoins, avant
l’apparition de la photographie, aucun spécialiste ne remettait en doute l’intérêt et
l’authenticité d’une étude d’œuvre d’art basée sur des reproductions manuelles. Avant
l’apparition de la photographie, l’estampe de reproduction servait de référence objective et
contribuait à alimenter la mémoire collective. Les libres transpositions subjectives du graveur
qui démarquaient la production de celui-ci par rapport au modèle original n’auront été perçues
comme telles qu’avec le développement et l’utilisation de l’outil photographique. L’histoire
des techniques révèle bien souvent ces situations où il faut parfois que de nouvelles
technologies apparaissent pour que l’on puisse prendre conscience de certaines propriétés
d’anciennes techniques restées jusqu’alors invisibles. Ce phénomène n’est pas récent, il a
toujours opéré au fil du temps et continuera sans cesse de nous surprendre.

À l’ère du numérique en réseaux, le support d’étude de l’historien de l’art est devenu


immatériel et quasi-omniprésent grâce au web. Contribuant à offrir de nouveaux accès aux
images, certains acteurs institutionnels proposent même la possibilité d’exploiter pleinement
leur contenu afin d’en faciliter l’étude. D’autres expérimentent la nature interactive de
l’imagerie numérique dans la recherche d’informations toujours plus exhaustives pour servir
les bases savantes de la discipline. Cette transformation du support d’étude en histoire de l’art
amène avec elle un large éventail d’instruments servant le spécialiste, et ouvre également la
voie à de nouvelles sources de savoir et de compréhension en histoire de l’art. De la
reconstitution d’édifices en images de synthèse en passant par l’étude de photographie haute
définition à grande gamme dynamique, les potentiels du médium numérique sont
considérables. Tandis que certains spécialistes ont déjà ressenti une influence de ce dernier

83
sur leur pratique de la discipline, d’autres, en faisant preuve d’un conservatisme prudent et
parfois suspicieux à l’égard des nouvelles technologies, tardent encore à l’adopter
véritablement. Néanmoins, certains n’hésitent pas à tenter l’expérience en renouvelant autant
que possible leur corpus personnel d’images, en se servant d’internet qui permet d’accéder
quasi-instantanément à tous types de ressources ainsi qu’à des outils permettant leur analyse.
Ceux-là même, souvent pionniers en matière d’investissements et de productions scientifiques
sur le web, indiquent de plus en plus une direction "à suivre" dans laquelle les autres
spécialistes s’avancent timidement, mais progressivement.

Le développement des ressources en ligne, et principalement des images, en


provenance de différents acteurs (institutions muséales, universitaires, professionnels, etc.)
s’ajoute d’années en années, voire de jour en jour, sur l’immense toile mondial du web. Bien
que certaines initiatives dispersées tentent de proposer des solutions pour recenser et indexer
l’ensemble de ces contenus, généralement très dissemblables, aucune solution viable à moyen
terme n’a encore été trouvée. Si les bases d’images s’additionnent sur internet, leur contenu se
multiplie sans cesse sans pour autant trouver de nouveau mode d’accès et de classement des
images. Cette question de l’indexation des ressources, et particulièrement des images, n’aura
jamais été aussi importante qu’à l’aube du XXIe siècle où, institutions muséales,
universitaires, mais également agences photographiques et autres producteurs d’images, ont
investi le web de leur fonds iconographiques. En 1999, Charles Rhyne interrogeait déjà les
acteurs de l’histoire de l’art sur ces questions essentielles en mettant en avant la nécessité de
développer, non seulement des solutions alternatives concernant l’éternel problème des droits
d’auteurs sur les images, mais également et surtout, sur le besoin impératif de développer des
solutions standards sur le stockage, la diffusion, la capture et la description des images 118. Dix
ans plus tard, en 2009, nous réaffirmons avec intérêt ces besoins en histoire de l’art, en
ajoutant néanmoins qu’il est nécessaire, voire primordial que des acteurs de la discipline
s’intéressent et s’investissent dans les questions relatives à l’imagerie numérique, et
notamment à l’indexation des images. Sans la participation active et le regard spécialisé de

118
Charles S. Rhyne, « Computer Images for Research, Teaching, and Publication in Art History and Related
Disciplines », Visual Resources, An International Journal of Documentation, vol. XIL, 1996 [En ligne] :
« Those of us in art history and related disciplines, who recognize the need for image standards far above those
acceptable in other fields, need to involve ourselves in the resolution of two key issues: the development of
international standards for the capture, storage, transmission and description of images; and the resolution of the
complex issues of copyright and fair use. »

84
l’historien de l’art, comment établir une sémantique cohérente et pertinente à l’ensemble des
images des objets d’art ?

85
Simon BACHELIER

Sim.bachelier@gmail.com

N°étudiant : 10321810

Pratiques de l’image numérique en histoire


de l’art

Approche des mutations d’un support d’étude

- - - Annexes - - -

Mémoire de Master 2
Soutenu le 10 juin 2009

Sous la direction de Michel Poivert


et Corinne Welger-Barboza

UFR 03 - Histoire de l’Art et Archéologie

86
CATALOGUE D’ILLUSTRATIONS

87
ill. 1 – Comparaison d’une photographie de l’Apollon du Belvédère conservé au Vatican avec une gravure de Marc-Antoine Raimondi
In Heinrich Wölfflin, Comment photographier les sculptures : 1896, 1897, 1915, Paris, L’Harmattan, 2008, p.77

88
ill.2 – Image issue de la collection en ligne du Centre G. Pompidou ne rendant pas correctement les différentes nuances chromatiques.
Ultimate Painting n°6, Ad Reinhardt (1960) – Centre G. Pompidou, Paris

89
Wikipedia Site du musée du Prado Web Gallery of Art

ill.3 – Comparaison de trois reproductions photographiques dont les aspects chromatiques sont tous différents.
Autoportrait, Albrecht Dürer (1498) – Musée du Prado, Madrid

90
Détail du tableau sous vernis jauni fortement et irrégulièrement Détail du tableau après allégement et en cours de réintégration

ill.4 – Comparaison des couleurs sur un détail de La Charité d’Andrea del Sarto avant restauration (gauche) et pendant (droite).
In, Gilberte Émile-Mâle, Pour une histoire de la restauration des peintures en France, Paris, Somogy, INP 2008, p.240-241

91
Site de la Tate Online Collection en ligne du FRAC Champagne-Ardenne

ill.5 – Comparaison de deux images dont l’acquisition n’a pas été réalisée de la même manière (scan à gauche, photographie à droite).
Milk, Jeff Wall (1984) – FRAC Champagne-Ardenne, Reims

92
Photographie en lumière directe réfléchie Photographie en lumière rasante

ill.6 – Images en noir et blanc issues de la base Narcisse comparant la révélation de matière grâce à l’usage d’une lumière rasante.
Ecce Homo, Guido Reni (1639-40) – Musée du Louvre, Paris

93
ill.7 – Détail d’une image haute définition issue des « 15 chefs d’œuvres du Prado », qui donne une idée de la matérialité de l’œuvre.
Le 3 mai 1808 à Madrid, Francisco de Goya (1814) – Musée du Prado, Madrid

94
ill.8 – Photographie de Daveybot publiée sur Flickr mettant en avant un rapport d’échelle entre le visiteur et l’œuvre de Newman.
Vir Heroicus Sublimis, Barnett Newman (1951) – Museum of Modern Art, New York

95
ill.9 – Reproduction photographique de peinture prenant en compte le cadre de type tabernacle qui l’orne.
Portrait du doge Leonardo Loredan, Giovanni Bellini (1501-04) – National Gallery, Londres

96
ill.10 – Photographies montrant l’environnement anachronique dans lequel les fresques de Botticelli sont exposées au musée du Louvre.
Vénus et les Grâces et Le Jeune Homme et les Arts, Sandro Botticelli (1483-86) – Musée du Louvre, Paris

97
ill.11 – Illustration de la trame de pixels qui compose une image matricielle
Maude Adams in Joan of Arc, Alphonse Mucha (1909) – Metropolitan Museum of Art, New York

98
50 dpi

100 dpi

150 dpi
300 dpi

ill.12 – Illustration de quatre résolutions différentes pour une même image de définition 220 × 220 pixels.
Ellen Terry at Age Sixteen, Julia Margaret Cameron (1864) – Getty Museum, Los Angeles

99
(a) - 100% de qualité (b) - 50% de qualité

ill.13(a) et (b) – Image compressée successivement en 4 exemplaires JPEG au taux de qualité 100% et 50%.
Chevalier à la main sur la poitrine, El Greco (1580) – Musée du Prado, Madrid

100
(c) - 25% de qualité (d) - 5% de qualité

ill.13(c) et (d) – Image compressée successivement en 4 exemplaires JPEG au taux de qualité 25% et 5%.
Chevalier à la main sur la poitrine, El Greco (1580) – Musée du Prado, Madrid

101
JPEG - 100% de qualité JPEG - 25% de qualité

ill.14 – Texte numérisé puis compressé successivement en 2 exemplaires JPEG à taux de qualité 100% et 25%.
Daniel Arasse, Le détail, Paris, Flammarion, coll. Champs arts, 1996, p.196

102
Image JPEG Image GIF

ill.15 – Comparaison d’une même image compressée au format JPEG et GIF.


Huny Dory, Glenn Brown (2005) – Collection privée

103
ill.16 – Image matricielle avant vectorisation.
Tears, Man Ray (1930-32) – Getty Museum, Los Angeles

104
ill.17 – Image vectorielle réalisée à partir de la précédente image matricielle.
Tears, Man Ray (1930-32) – Getty Museum, Los Angeles

105
ill.18 – Image matricielle avant vectorisation.
Opus 217. Portrait de Félix Fénéon, Paul Signac (1890-91) – Metropolitan Museum of Art, New York

106
ill.19 – Image vectorielle réalisée à partir de la précédente image matricielle.
Opus 217. Portrait de Félix Fénéon, Paul Signac (1890-91) – Metropolitan Museum of Art, New York

107
Détail de l’image matricielle Détail de l’image vectorielle

ill.20 – Comparaison de détail entre la version matricielle et vectorielle d’une même image.
Opus 217. Portrait de Félix Fénéon, Paul Signac (1890-91) – Metropolitan Museum of Art, New York

108
ill.21 – Utilisation de l’outil Zoomify sur une œuvre de la collection en ligne du Fine Arts Museums of San Francisco.
Chez La Modiste, Edouard Manet (1881) – Fine Arts Museums, San Francisco

109
ill.22 – Photographie d’un des morceaux de la frise originale du Parthénon de l’acropole d’Athènes.
Scène centrale de la frise-est du Parthénon, (env. 438-432 av. JC) – British Museum, Londres

110
ill.23 – Reconstitutions 3D de la frise-est du Parthénon par l’Institute for Creative Technologies de l’University of Southern California.
Scène centrale de la frise-est du Parthénon, (env. 438-432 av. J.-C.) – British Museum, Londres

111
ill.24 – Reconstitution 3D du forum d’Auguste par l’université de Caen.
Temple de Mars Vitor, (env. 42-2 av. J.-C.) – Forum d’Auguste, Rome

112
ill.25 – Photographie servant de modèle à l’étude des champs Exif.
Scène de paysage alpin, photographie personnelle (2008)

113
ill.26 – Capture d’écran du logiciel XnView montrant les champs d’édition des données IPTC d’une photographie.
XnView (logiciel libre) : http://www.xnview.com

114
ill.27 – Capture d’écran du site Steve Museum montrant un exemple de « tagging » sur une toile du peintre Renoir.
Steve Museum : http://www.steve.museum

115
Téléchargement de l’image à partir
du site web du musée d’Orsay

ill.28 – Exemple d’image numérique estampillée (à droite) par le musée d’Orsay lors du téléchargement à partir de sa collection en ligne.
Berthe Morisot au bouquet de violettes, Edouard Manet (1872) – Musée d’Orsay, Paris

116
ill.29 – Exemple de vues multiples proposées pour une sculpture sur la collection en ligne de la National Gallery of Art de Washington
Aquamanile en forme de cavalier, XIIIe siècle – National Gallery of Art, Washington (DC)

117
ill.30 – Exemple d’un outil de visualisation (zoom) fourni par la collection en ligne du Metropolitan Museum pour étudier un objet.
Masque d’Iyoba, XVIe siècle – Metropolitan Museum, New York

118
ill.31 – Calcul des rapports de taille des personnages par rapport à la figure du Christ dans la Flagellation, de Piero della Francesca
In A. Criminisi, M. Kemp, A. Zisserman, « Bringing Pictorial Space to Life: Computer Techniques for the Analysis of Paintings », Microsoft Research
Cambridge, novembre 2002, p.10

119
Reconstitution manuelle du motif par Martin Kemp,
publiée dans The Science of Art. Yale University
Press, New Haven and London, 1989

ill.32 – Reconstitution manuelle (à gauche) et par ordinateur (à droite) du motif de pavement au pied du Christ dans le Flagellation.
In A. Criminisi, M. Kemp, A. Zisserman, « Bringing Pictorial Space to Life: Computer Techniques for the Analysis of Paintings », Microsoft Research
Cambridge, novembre 2002, p.13

120
ill.33 – Motif du sol du Retable de Sainte Lucie avant reconstitution.
Retable de Sainte Lucie, Domenico Veneziano (1444-45) – Musée de Offices, Florence

121
Reconstitution assistée par ordinateur du motif

Reconstitutionmanuelle
Reconstitution manuelledudu motif
motif par
par Martin
MartinKemp,
Kemp
publiéedans
publiée dansThe
TheScience
Scienceof
of Art.
Art. Yale
Yale University
Université
Press,New
Press, NewHaven
Havenand
and London,
London, 1989
1989

ill.34 – Reconstitution manuelle (à gauche) et par ordinateur (à droite) du motif du sol du Retable de Sainte Lucie.
In A. Criminisi, M. Kemp, A. Zisserman, « Bringing Pictorial Space to Life: Computer Techniques for the Analysis of Paintings », Microsoft Research
Cambridge, novembre 2002, p.14

122
ill.35 – Vues multiples de la reconstitution en trois dimensions des éléments de la Flagellation. (Logiciel utilisé : Corona 3D)
http://www.robots.ox.ac.uk/~vgg/projects/SingleView/example_flagellazione.html

123
a c

Image originale du tableau Saint Jérôme de Hendrick van Steenwick

b d
ill.36 – Vues multiples de la reconstitution (a, b, c, d) en trois dimensions de Saint Jérôme.
In A. Criminisi, M. Kemp, A. Zisserman, « Bringing Pictorial Space to Life: Computer Techniques for the Analysis of Paintings », Microsoft Research
Cambridge, novembre 2002, p.23

124
ill.37 – Séquence de rotation d’un détail de Saint Jérôme reconstitué, révélant l’asymétrie de l’arche de la fenêtre (la 1ère en partant de la
gauche est issue d’un détail de l’image originale, tandis que les trois autres font partie du modèle reconstituée par ordinateur).
In A. Criminisi, M. Kemp, A. Zisserman, « Bringing Pictorial Space to Life: Computer Techniques for the Analysis of Paintings », Microsoft Research
Cambridge, novembre 2002, p.24

125
ill.38 – Page d’accueil du site Romanesque Churches of the Bourbonnais du Visual Media Center (Columbia University).
Capture d’écran faite à partir du site Romanesque Churches of the Bourbonnais : www.learn.columbia.edu/bourbonnais

126
ill.39 – Interface principale de navigation du corpus et d’interrogation de la base de données.
Capture d’écran faite à partir du site Romanesque Churches of the Bourbonnais : www.learn.columbia.edu/bourbonnais

127
ill.40 – Vues panoramiques de l’intérieur de l’Église Notre-Dame de Huriel via l’application Quicktime VR.
Capture d’écran faite à partir du site Romanesque Churches of the Bourbonnais : www.learn.columbia.edu/bourbonnais

128
ill.41 – Reconstitutions 3d en vue axonométrique de l’Église Saint-Patrocle de Colombier.
Capture d’écran faite à partir du site Romanesque Churches of the Bourbonnais : www.learn.columbia.edu/bourbonnais

129
ill.42 – Plan interactif de l’Église Notre-Dame de Huriel avec utilisation des outils de mesure (en orangé sur le plan).
Capture d’écran faite à partir du site Romanesque Churches of the Bourbonnais : www.learn.columbia.edu/bourbonnais

130
ill.43 – Plan interactif de l’Église Notre-Dame d’Agonges affichant les chapiteaux au simple passage du curseur de la souris.
Capture d’écran faite à partir du site Romanesque Churches of the Bourbonnais : www.learn.columbia.edu/bourbonnais

131
ill.44 – Comparaison d’une photographie LDR standard (gauche) du Stanford Memorial Church avec une image traitée en HDR (droite).
In, Paul E. Debevec, Jitendra Malik « Recovering High Dynamic Range Radiance Maps from Photographs », SIGGRAPH 97, Août 1997

132
ill.45 – Image traitée en HDR dont l’aspect surréel est dû à un traitement particulier des tone mapper, par SaZeOd, publiée sur Flickr.
Arc de Triomphe du Carrousel – Jardin des Tuileries, Paris

133
Photographie originale, non traité Photographie simulant le procédé HDR

ill.46 – Image LDR simulant par retouche logiciel le procédé de traitement HDR à partir d’un seul échantillon photographique.
Sans titre, issu du Blog Cuk.ch : http://www.cuk.ch/articles/2778

134
BIBLIOGRAPHIE

135
Ouvrages :

ARASSE, 1992. Daniel Arasse, Le Détail. Pour une histoire rapprochée de la peinture. Paris,
Flammarion, coll. Champs arts, 1996, 459 p.
ISBN-13 : 9782081220645

BARBOZA, 1996. Pierre Barboza, Du photographique au numérique. La parenthèse


indicielle dans l'histoire des images, Paris, L'Harmatttan, coll. champs visuels, 1996, 269 p.
ISBN-10 : 273844685X. ISBN-13 : 9782738446855

BARTHES, 1980. Roland Barthes, La chambre claire. Note sur la photographie, Paris,
Gallimard Seuil, coll. cahiers du cinéma, 1980, 192 p.
ISBN-13 : 9782070205417

BENJAMIN, 1936. Benjamin Walter, L’Oeuvre d’art à l’époque de sa reproductibilité technique,


Paris, Ed. Allia, 2003, 78 p. (1ère éd. originale : Das Kunstwerk im Zeitalter seiner technischen
Reproduzierbarkeit, Frankfurt am Main, Suhrkamp Verlag, 1972).
ISBN-10 : 284485107X. ISBN-13 : 9782844851079

BELTING, 1983. Hans Belting, L’Histoire de l’art est-elle finie ?, Gallimard, coll. folio essais, 2007,
240 p. (1ère éd. originale : Das Ende der Kunstgeschichte ?, Munich, Deutscher Kunstverlag, 1983. 1ère
trad. française : Nîmes, Ed. Jacqueline Chambon, 1989).
ISBN-10 : 207031832X. ISBN-13 : 9782070318322

BELTING, 2004. Hans Belting, Pour une anthropologie des images, Gallimard, coll. Le
temps des images, 2004, 346 p. (1ère éd. originale : Entwürfe für eine Bildwissenschaft,
München, Wilhelm Fink Verlag, 2001).
ISBN-10 : 207076799X. ISBN-13 : 9782070767991

CHIROLLET, 2005. Jean-Claude Chirollet, Numériser, reproduire, archiver les images


d’art, Paris, L’Harmattan, coll. champs visuel, 2005, 285 p.
ISBN-10 : 274758724X. ISBN-13 : 9782747587242

136
CHIROLLET, 2008. Jean-Claude Chirollet, L'Art dématérialisé. Reproduction numérique et
argentique, Wavre, éd. Mardaga, 2008, 203 p.
ISBN-13 : 9782870099858

COUCHOT, 1998. Edmond Couchot, La Technologie dans l’art : de la photographie à la réalité


virtuelle, Nîmes, Ed. Jacqueline Chambon, 1998, 269 p.
ISBN-10: 2877111881. ISBN-13 : 9782877111881

COUCHOT et HILLAIRE, 2003. Edmond Couchot et Norbert Hillaire, L’Art Numérique : comment
la technologie vient au monde de l’art, Paris, Champs Flammarion, 2005, 260 p. (1ère éd. : Paris,
Flammarion, 2003).
ISBN-10 : 2080801112. ISBN-13 : 9782080801111

DELOCHE, 2007. Bernard Deloche, La Nouvelle Culture. La mutation des pratiques


sociales ordinaires et l'avenir des institutions culturelles, Paris, L'Harmatttan, coll.
patrimoines & sociétés, 2007, 292 p.
ISBN-13 : 9782296029880

DIDI-HUBERMAN, 1990. Georges Didi-Huberman, Devant l'image. Questions posée aux


fins d'une histoire de l'art, Paris, Les éditions de minuit, 1990, 332 p.
ISBN-13 : 9782707313362

ÉMILE-MÂLE,2008. Gilberte Émile-Mâle, Pour une histoire de la restauration des peintures en


France, études réunies par S. Bergeon Langle Paris, Somogy, INP 2008, 373 p.
ISBN-10 : 9782757202326

FLUSSER, 1993. Vilém Flusser, Pour une philosophie de la photographie, Belval, Les
éditions Circé, 1996, 87 p. (1ère éd. originale : European photography, 1993).
ISBN-10 : 284242171X. ISBN-13 : 9782842421717

GOMBRICH, 1971. Ernst Hans Gombrich, L’Art et l’illusion, Paris, Gallimard, 1996, 385 p. (1ère
éd. : Paris, Gallimard, 1971).
ISBN-10 : 2070115399. ISBN-13 : 9782070115396

137
IVINS, 1969. William Mills Ivins, Prints and visual communication, New York, Da Capo Press,
1996, 190 p. (1ère éd. : Cambridge, MIT Press, 1969).
ISBN-10 : 0262590026. ISBN-13 : 9780262590020

LEVY, 1998. Pierre Levy, Qu’est-ce que le virtuel ?, Paris, La découverte/Poche, coll. Essais, 1998,
153 p.
ISBN-10 : 270712835X. ISBN-13 : 9782707128355

LINARD, 1990. Monique Linard, Des machines et des hommes : apprendre avec les nouvelles
technologies, Paris, L’Harmattan, coll. savoir et formation, 1996, 3e éd., 288 p. (1ère éd. : Paris,
L’Harmattan, 1990).
ISBN-10 : 2738442919. ISBN-13 : 9782738442918

MALRAUX, 1965. André Malraux, Le Musée imaginaire, Paris, Gallimard, coll. folio essais, 2006,
286 p. (1ère éd. : Paris, Gallimard, 1965).
ISBN-10 : 2070329488. ISBN-13 : 9782070329489

MC LUHAN, 1964. Marshall Mc Luhan, Pour comprendre les médias, Paris, Seuil, coll.
points essais, 1977, 404 p. (1ère éd. Originale : Understanding Media, New York, McGraw-
Hill Book Company, 1964. 1ère trad. française : éd. HMH, 1968.)
ISBN-10 : 202004594X. ISBN-13 : 9782020045940

PORCHET, 2002. Michel Porchet, La Production industrielle de l'image. Critique de l'image


de synthèses, Paris, L'Harmatttan, coll. esthétiques, 2002, 188 p.
ISBN-10 : 2747528286. ISBN-13 : 9782747528283

SAVEDOFF, 2000. Barbara E. Savedoff, Transforming images: how photography complicates the
picture, Ithaca, NY, Cornell University Press, 2000, 233 p.
ISBN-10 : 0801433754. ISBN-13 : 9780801433757

SONTAG, 1977. Susan Sontag, Sur la photographie, Paris, Christian Bourgois, 2008, 280 p. (1ère éd.
Originale : On photography, New York, Farrar, Straus and Giroux, 1977. 1ère trad. française : Le Seuil,
1989)
ISBN-13 : 9782267020038

THERRIEN, 1998. Lyne Therrien, L’histoire de l’art en France. Genèse d’une discipline
universitaire, Paris, Ed. du C.T.H.S., 1998, 623 p.
138
ISBN-10 : 2735503828. ISBN-13 : 9782735503711

WELGER-BARBOZA, 2001. Corinne Welger-Barboza, Le Patrimoine à l’ère du document


numérique. Du musée virtuel au musée médiathèque, Paris, L’Harmattan, coll. Patrimoines et sociétés,
2001, 313 p.
ISBN-10 : 274751725X. ISBN-13 : 9782747517256

WITCOMBE, 2004. Christopher L. C. E. Witcombe, Copyright in the Renaissance: prints and the
privilegio in sixteenth-century Venice and Rome. Studies in Medieval and Reformation Traditions,
100. Leiden, Brill, 2004, 414 p.
ISBN-10 : 9004137483. ISBN-13 : 9789004137486

WÖLFFLIN, 1915. Heinrich Wölfflin, Comment photographier les sculptures : 1896, 1897, 1915.
Paris, L’Harmattan, 2008, 93 p.
ISBN-13 : 9782296055230

WÖLFFLIN, 1941. Heinrich Wölfflin, Réflexions sur l'histoire de l'art, Paris, Flammarion, 1997, 210
p. (1ère éd. originale : Gedanken zur Kunstgeschichte : Gedrucktes und ungedrucktes, B. Schwabe,
1941).
ISBN-10 : 2080816322. ISBN-13 : 9782080816320

Contributions à des ouvrages collectifs :

BESSER, 2004. Howard Besser, « The Past, present, and Future of Digital Libraries », A Companion
to digital humanities. Études réunies par S. Schreibman, R. Siemens et J. Unsworth, Padstow,
Blackwell Publishing, 2004, p. 557-575.
ISBN-10 : 1405103213. ISBN-13 : 9781405168069

BOHRER, 2002. Frederick N. Bohrer, « Photographic perspectives: photography and the institutional
formation of art history », Art History and Its Institutions. Foundations of a discipline, Elizabeth
Mansfield (dir.), Londres, Routledge, 2002, p. 246-259.
ISBN-10 : 0415228697. ISBN-13 : 9780415228695

139
CRIMINISI, KEMP et ZISSERMAN, 2005. Antonio Criminisi, Martin Kemp et Andrew
Zisserman, « Bringing Pictorial Space to Life: Computer Tecnhiques for the Analysis of Paintings »,
Digital Art History : a subject in transition, Computers And The History Of Art, vol.1. Études réunies
par A. Bentkowska-Kafel, T. Cashen et H. Gardiner, Bristol, Intellect Ltd., 2005, p. 77-99.
ISBN-10: 1841501166. ISBN-13: 9781841501161

FREITAG, 1995. Wolfgang M. Freitag, « La Servante et la séductrice. Histoire de la photographie et


histoire de l’art », Histoire de l’histoire de l’art, XVIIIe et XIXe siècle, tome 2, sous la direction d’E.
Pommier, Paris, Klincksieck, 1997, p. 257-291.
ISBN-10 : 2252031425. ISBN-13 : 9782252031421

GUNTHERT, 2008. André Gunthert, « L’empreinte digitale. Théorie et pratique de la photographie à


l’ère numérique », Face au réel. Éthique de la forme dans l’art contemporain, sous la direction de
Giovanni Careri, Bernhard Rüdiger, Paris, Archibooks, 2008, p. 85-95.
ISBN-10 : 2357330252. ISBN-13 : 9782357330252

MASON, 2007. Catherine Mason, « A Computer in the Art Room », Futures Past: Thirty Years of
Arts Computing. Études réunies par A. Bentkowska-Kafel, T. Cashen et H. Gardiner, Bristol, Intellect
Ltd., Computers And The History Of Art, vol.2, 2007, p. 31-41.
ISBN-10 : 1841501689. ISBN-13 : 9781841501680

VAUGHAN, 2003. William Vaughan, « History of Art in the Digital Age: Problems and Possibilities
», Digital Art History: A Subject in Transition, Computers And The History Of Art, vol.1. Études
réunies par A. Bentkowska-Kafel, T. Cashen et H. Gardiner, Bristol, Intellect Ltd., 2005, p. 3-13.
ISBN-10: 1841501166. ISBN-13: 9781841501161

VINZENT, 2007. Jutta Vinzent, « Learning Resources for Teaching History of Art in Higher
Education », Futures Past: Thirty Years of Arts Computing, Computers And The History Of Art, vol.2.
Études réunies par A. Bentkowska-Kafel, T. Cashen et H. Gardiner, Bristol, Intellect Ltd., 2007, p. 43-
54.
ISBN-10 : 1841501689. ISBN-13 : 9781841501680

140
WEBOGRAPHIE
(Dernière date de vérification des liens html : le 23 mai 2009)

141
Publications de travaux scientifiques en ligne :

BACHELIER, 2008. Simon Bachelier, « Une Typologie des outils numériques en histoire de l’art sur
internet », mémoire de master 1, sous la direction de Corinne Welger-Barboza, soutenu le 9 septembre
2008 à l’Université de Paris 1, mis en ligne sur le site Scribd.
http://www.scribd.com/doc/14545201/Typologie-des-outils-numeriques-en-histoire-de-lart-Simon-Bachelier

BAILEY et GRAHAM, 2000. Christopher Bailey et Margaret E. Graham, « The Corpus and the Art
Historian », Thirtieth International Congress of the History of Art, Site de l’Université du Québec à
Montreal.
http://www.unites.uqam.ca/AHWA/Meetings/2000.CIHA/Bailey.html

CRIMINISI, KEMP et ZISSERMAN, 2002. Antonio Criminisi, Martin Kemp, Andrew Zisserman,
« Bringing Pictorial Space to Life: Computer Techniques for the Analysis of Paintings », Microsoft
Research Cambridge, novembre 2002.
http://research.microsoft.com/apps/pubs/default.aspx?id=67260

DEBEVEC, 2005. Paul E. Debevec, « Making the Parthenon », in 6th International Symposium on
Virtual Reality, Archaeology and Cultural Heritage, Pise, décembre 2005.
http://www.debevec.org/Parthenon/debevec-vast2005-parthenon.pdf

DEBEVEC, MALIK 1997. Paul E. Debevec, Jitendra Malik « Recovering High Dynamic Range
Radiance Maps from Photographs », SIGGRAPH 97, Août 1997.
http://www.debevec.org/Research/HDR/debevec-siggraph97.pdf

DE MONDENARD, 1997. Anne de Mondenard, « La Mission héliographique : mythe et histoire »,


Études photographiques (1ère éd. : Études photographiques, n°2, mai 1997).
http://etudesphotographiques.revues.org/index127.html

DEVITT, 2002. James Devitt, « Bourbon Chateau Site of Program on Art, Architecture of Medieval
France », Columbia University Record, Vol. 27, 8 Mars 2008.
http://www.columbia.edu/cu/record/archives/vol27/vol27_iss11/Pg4-2711.pdf

142
DURRAN, 1997. Jennifer Durran, « Art History, Scholarship and Image Libraries: Realising the
Potential of the Digital Age », Scribd (1ère éd. : LASIE, vol. 28, n°2, 1997, p.14-27).
http://www.scribd.com/doc/3799275/Art-History-Scholarship-and-Image-Libraries-Realising-the-Potential-of-
the-Digital-Age

FLEURY et MADELEINE, 2007. Philippe Fleury et Sophie Madeleine, « Problématique d’une


restitution globale de la Rome antique. Une visite interactive avec accès dynamique aux sources
anciennes », colloque international Virtual Retrospect, Bordeaux, 16 novembre 2007.
http://www.unicaen.fr/rome/pdf/article.pdf

FREITAG, 1979. Wolfgang M. Freitag, « Early Uses of Photography in the History of Art », Art
Journal, vol. 39, n°2 (Winter, 1979-1980), p.117-123.
http://www.jstor.org/stable/776397 (édité en ligne par JSTOR)

GREENHALGH, 2001. Michael Greenhalgh, « The Classroom of the future », in Digital Art History
- A subject in Transition, 2001, site CHArt.
http://www.chart.ac.uk/chart2001/papers/noframes/greenhalgh.html

GUNNING, 2006. Tom Gunning, « La retouche numérique à l’index », Études photographiques, (1ère
éd. : Études photographiques, n°19, décembre 2006).
http://etudesphotographiques.revues.org/index1322.html

GUNTHERT, 2000. André Gunthert, « La rétine du savant », Études photographiques, (1ère éd. :
Études photographiques, n°7, mai 2000).
http://etudesphotographiques.revues.org/index205.html

GUNTHERT, 2004. André Gunthert, « L’image numérique s’en va-t’en guerre », Études
photographiques, (1ère éd. : Études photographiques, n°15, novembre 2004).
http://etudesphotographiques.revues.org/index398.html

GUNTHERT, 2008. André Gunthert, « “Sans retouche” », Études photographiques, (1ère éd. : Études
photographiques, n°22, septembre 2008.
http://etudesphotographiques.revues.org/index1004.html

MANOVICH, 1992. Lev Manovich, « Assembling Reality: Myths of Computer Graphics », Site de
Lev Manovich, 1992.
http://www.manovich.net/TEXT/assembling.html

143
MANOVICH, 1994. Lev Manovich, « The paradoxes of digital photography », Site de Lev Manovich,
1994.
http://www.manovich.net/TEXT/digital_photo.html

MANOVICH, 1996. Lev Manovich, « Computer as a Filter to Culture », Site de Lev Manovich, 1996.
http://www.manovich.net/TEXT/filter.html

PECATTE, 2008. Patrick Pecatte, « Notes sur la structure informationnelle de la photographie », Du


bruit au signal (et inversement), article de blog, publié le 5 août 2008.
http://blog.tuquoque.com/post/2008/08/05/Notes-sur-la-structure-informationnelle-de-la-photographie

PECATTE, 2008. Patrick Pecatte, « Une plate-forme sociale pour la redocumentarisation d'un fonds
iconographique », Traitements et pratiques documentaires: Vers un changement de paradigme, actes
de la deuxième conférence document numérique et société, Paris, CNAM, 17-18 novembre 2008.
http://peccatte.karefil.com/DocSoc08/DocSoc08_Peccatte.pdf

PORCHET, 2008. Michel Porchet, « L'appareil numérique et la perspective ou le retour des espaces
projectifs en art », Revue Appareil, Varia.
http://revues.mshparisnord.org/appareil/index.php?id=303

RHYNE, 1996. Charles S. Rhyne, « Computer Images for Research, Teaching, and Publication in Art
History and Related Disciplines », Visual Resources, An International Journal of Documentation, vol.
XIL, 1996, p.19-51.
http://academic.reed.edu/art/faculty/rhyne/papers/computer.html

RHYNE, 1997. Charles S. Rhyne, « Student Evaluation of the Usefulness of Computer Images in Art
History and Related Disciplines », Visual Resources: An International Journal of Documentation, vol.
XIII, n°1, 1997, p.67-81.
http://academic.reed.edu/art/faculty/rhyne/papers/student.html
RHYNE, 1998. Charles S. Rhyne, « Images as Evidence in Art History and Related Disciplines »,
VRA Bulletin, vol. 25, n°1, 1998, p.58-66.
http://academic.reed.edu/art/faculty/rhyne/papers/images.html

RHYNE, 2005. Charles S. Rhyne, « Direct Digital Image Capture: Current Practices and Problems »,
Visual Resources: An International Journal of Documentation, vol. XXI, 2005, p.214-219.
http://academic.reed.edu/art/faculty/rhyne/papers/direct.html

144
SAVEDOFF, 1993. « Looking at Art Through Photographs », The Journal of Aesthetics and Art
Criticism, vol. 51, n°3, Blackwell Publishing, 1993, p.455-462.
http://www.jstor.org/stable/431517 (édité en ligne par JSTOR)

SCHNELLER, 2007. Katia Schneller, « Sur les traces de Rosalind Krauss », Études photographiques,
(1ère éd. : Études photographiques, n°21, décembre 2007).
http://etudesphotographiques.revues.org/index2483.html

SERRA, 2004. Marianne Serra, « Evaluation de l’utilisation du numérique dans l’enseignement de


l’histoire de l’art », monographie pour l’École du Louvre sous la direction de Xavier Perrot, 2004. Site
de Marianne Serra.
http://etudeedl.free.fr

TRANT, 2006. Jennifer Trant, « Exploring the potential for social tagging and folksonomy in art
museums: proof of concept », pre-print (1ère éd. : New Review of Hypermedia and Multimedia, vol. 12,
n°1, juin 2006, p.83-105).
http://www.archimuse.com/papers/steve-nrhm-0605preprint.pdf

VANDRIES, 2007. Joëlle Vandries, « Romanesque Churches Of The Bourbonnais », site de


l’Observatoire Critique.
http://www.observatoire-critique.org/article.php3?id_article=146

WARD, 2005. Greg Ward Larson, « High Dynamic Range Image Encodings », site Anyhere Software.
http://www.anyhere.com/gward/hdrenc/Encodings.pdf

WELGER-BARBOZA, 2006. Corinne Welger-Barboza, « De la façon d’exploiter le web », site de


l’Observatoire Critique.
http://www.observatoire-critique.org/article.php3?id_article=12

WELGER-BARBOZA, 2006. Corinne Welger-Barboza, « Vers un nouveau partage de l’image », site


de l’Observatoire Critique.
http://www.observatoire-critique.org/article.php3?id_article=26

WELGER-BARBOZA, 2008. Corinne Welger-Barboza, « Digital Humanities à l’université de


Virginie, premières esquisses », site de l’Observatoire Critique.
http://www.observatoire-critique.org/article.php3?id_article=186

145
WELGER-BARBOZA, 2008. Corinne Welger-Barboza, «Le Maryland Institute for Technologies in
the Humanities en Portraits », site de l’Observatoire Critique. http://www.observatoire-
critique.org/article.php3?id_article=192

Collectif, 2003. « Digital Reunification of the Parthenon and its Sculptures », 4th International
Symposium on Virtual Reality, Archaeology and Intelligent Cultural Heritage.
http://gl.ict.usc.edu/parthenongallery/vast2003_parthenon_sculptures_final.pdf

Ouvrages numérisés en ligne :

BLANC, 1867. Charles Blanc, Grammaire des arts du dessin, architecture, sculpture, peinture…
Paris, Ve J. Renouard, 1867, 720p. (1ère éd. : Paris, Impr. Claye, 1860). [En Ligne]
http://books.google.fr/books?id=PdAWAAAAQAAJ

Collectif, 2004. A Companion to Digital Humanities, Études réunies par S. Schreibman, R. Siemens et
J. Unsworth, Padstow, Blackwell Publishing, 2004, 611p.
www.digitalhumanities.org/companion

VALÉRY, 1928. Paul Valéry, « La conquête de l’ubiquité », Œuvres, tome II, Gallimard, Bibl. de la
Pléiade, 1960, p. 1283-1287.
http://classiques.uqac.ca/classiques/Valery_paul/conquete_ubiguite/conquete_ubiquite.html

Autres documents divers :

FYSH, 2009. Stephanie Fysh, « Interview: Paula Bray and Sebastian Chan, Powerhouse Museum »,
entretien publié sur le blog Indicommons, 8 avril 2009.
http://www.indicommons.org/2009/04/08/interview-paula-bray-and-sebastian-chan-powerhouse-museum/

GOETZ, 2008. « Encadrement des œuvres », Encyclopædia Universalis.


http://www.universalis-edu.com

146
GRAF, 2009. Anna Graf, « Interview: Shelley Bernstein, Chief of Technology, Brooklyn Museum »,
entretien publié sur le blog Indicommons, 6 janvier 2009.
http://www.indicommons.org/2009/01/06/interview-shelley_berstein/

NASSEF, s.d. « Quelles images pour quelle réalité. » Entretien avec André Rouillé à propos de son
ouvrage La Photographie.
http://www.revoirfoto.com/p/index.php?lg=&c=7&pg=30

RHYNE, 1999. Charles S. Rhyne « Digital Images and the Technical Study of Art. A Transformation
in Research and Teaching », a paper presented in the session Technical Examination and the Practice
of Art History, Annual Meeting of the College Art Association (11th February 1999).
http://academic.reed.edu/art/faculty/rhyne/papers/digital.html

ROUILLÉ, 2008. André Rouillé, « Capter n’est pas fixer (sur la photo numérique) », Paris Art,
éditorial du 20 novembre 2008.
http://www.paris-art.com/art/a_editos/d_edito/tracking_newsHebdo_edito/150/Capter-n-est-pas-fixer-(sur-la-
photo-numerique)-259.html

STAM, 2009. Jos Stam, « Photography changes what we think “reality” looks like », site Click!
Photography Changes Everything, 2009.
http://click.si.edu/Story.aspx?story=465

Collectif, 2005. « HDRI pour les nuls », article publié sur le blog Cuk.ch, 1 novembre 2005.
http://www.cuk.ch/articles/2778

147
LEXIQUE

148
Bitmap (ou image matricielle) : Image numérique composée d’un ensemble de pixels appelé
également trame bitmap pour désigner le tableau de point qui la compose.

Blog : Site web constitué d’articles publiés chronologiquement dont la forme la plus
généralement adoptée est celle d’un journal de bord.

Bracketing : Parfois appelé « fourchette d’exposition » en français, il s’agit d’une technique


en photographie permettant de réaliser automatiquement et successivement une série de vues
(généralement 3, 5 ou 9) sous différentes expositions.

Fichier (informatique) : Lot d'informations portant un nom souvent attribué par l’utilisateur
ou prédéfini par la machine et conservé en mémoire dans l’ordinateur.

Folksonomie : Néologisme emprunté à l’anglais réunissant les mots folk (les gens) et
taxonomy (la taxinomie). Il représente un système de classification collaborative libre exercé
par des internautes sur un site web, généralement construit sur une base de données
collaborative.

HAL (Hyper Article en Ligne) : Outil de communication scientifique directe entre


chercheurs. Un texte déposé sur HAL doit décrire un travail achevé de recherche, conforme
aux usages scientifiques dans la discipline ; le contenu doit être comparable en qualité et
précision avec les manuscrits que les chercheurs soumettent pour publication aux comités de
lecture de revues scientifiques, ouvrages collectifs, etc.

HDRI (High Dynamic Range Imaging) : L’imagerie à grande gamme dynamique concerne
l’ensemble des techniques visant à augmenter la dynamique des images numériques. En
photographie numérique cette pratique se manifeste par l’augmentation du nombre de bits par
pixel (allant jusqu’à 96 bits par pixel, soit 32 bit par canal).

Logiciel libre : Logiciel dont la licence s’acquiert librement et gratuitement sans contrepartie
aucune.

149
Logiciel propriétaire : En opposition avec la notion de logiciel libre, le droit d’utilisation de
ces logiciels s’acquiert par l’achat d’une licence utilisateur, comme cela est le cas pour des
logiciels de la gamme Office de Microsoft : Word, Excel, Powerpoint, Access, etc.

Métadonnée : Donnée servant à définir ou décrire une autre donnée quel que soit son support
(papier ou électronique).

Mesh : Raccourci employé des mots anglais "polygon mesh" désignant un objet
tridimensionnel, souvent en cours de modélisation ou de traitement.

Pixel : Unité de surface des images numérisées porteur d’informations chromatiques.

Plug-in : Programme qui interagit avec un logiciel-mère, afin de lui apporter de nouvelles
fonctionnalités. Les plug-ins sont très répandus pour les navigateurs internet.

Overlays : Zone de calque utilisée pour couvrir (généralement) une image en vue de lui
ajouter un élément visuel ou textuel supplémentaire, sans pour autant altérer ou fusionner
avec son intégrité d’origine.

Rendering : Appelé « rendu » en français, il s’agit de créer une image bidimensionnelle à


partir d’objet tridimensionnel réalisé au moyen d’un logiciel de modélisation.

Tag : Issu des pratiques de la folksonomie, les tags sont un marqueur sémantique ou lexical
utilisés sur les sites de types collaboratifs ou réseaux sociaux pour baliser des données. Ils se
résument généralement aux mots-clefs.

Tone Mapping : Technique de traitement de l’image recourant à un algorithme qui permet de


transformer une gamme de couleurs d’une image en une autre. Elle est souvent employé en
HDRI pour modifier la gamme dynamique très élevée en une gamme plus restreinte afin d’en
permettre l’affichage sur un écran d’ordinateur.

URL : De l’anglais Uniform Resource Location, elle correspond à l’adresse web d’un site.

150
Quicktime VR : Quicktime Virtual Reality est un format d’image permettant la création et la
visualisation de panorama à partir d’images, généralement photographiques, prises à angles
multiples.

Web 2.0 : Désigne l’évolution et la situation actuelle d’internet, à savoir un ensemble de


réseaux aux interfaces interactives permettant aux usagers de participer directement aux
contenus des pages, mais également de communiquer entre eux sous diverses formes (blogs,
wikis, réseaux sociaux, etc.).

Wiki : Système de gestion de contenu de site web, rendant l’accès aux pages libre et
modifiable par l’ensemble des internautes y ayant un accès autorisé.

151

S-ar putea să vă placă și