Mon mémoire " Les processus de politisation à Yaoundé à travers ses réseaux 1944-1962" a été soutenu à Lyon 2 en juin 2013. Il a obtenu la note de 18/20 ce qui évidemment est une belle reconnaissance pour le travail accompli et prometteur pour la thèse à venir. Beaucoup reste à faire cependant. Aussi mes courageux lecteurs (ils sont peu nombreux mais très connaisseurs) sont invités à poster leurs commentaires critiques ici ainsi que leurs encouragements. De même, tous les contributeurs susceptibles de m'apporter des éclaircissements autant au niveau de la méthodologie (ce qui est l'objet de ce blog) et des informations sur mon sujet d'étude, sont invités à me contacter et à publier ici même.
Ce blog se propose de montrer l'histoire en train de se faire. Il entend rassembler une série de réflexions concernant les outils et la méthodologie propres à l'historien et aux chercheurs en sciences sociales à l'ère du numérique. De nombreux rapprochements sont faits avec mes recherches actuelles sur le Cameroun colonial.
dimanche 25 août 2013
samedi 11 mai 2013
Comment construire un programme de lecture sur Zotéro ?
Il y a du neuf sur Zotéro ! La dernière version permet d'afficher dans la fenêtre centrale n'importe quel champ. le champ "extra" va nous être particulièrement utile car nous allons pouvoir classer les documents en leur attribuant un statut pour la lecture. Ces "statuts" permettent de définir un programme de travail en mettant en exergue ce qui doit être lue (avec des priorités voire un échéancier) de ce qui a déjà été consulté.
Ce qui suit ne sont évidemment que quelques propositions qui me semblent pertinentes. Chacun pourra définir les siennes. Cette souplesse fait la force de Zotéro .
c = consulté (le document a été parcouru et fait l'objet d'une lecture transversale)
lp = lecture partielle
li = lecture intégrale
lpa = lecture partielle annotée
lpt = lecture partielle taguée
lia = lecture intégrale annotée
lit = lecture intégrale taguée
Enfin pour les documents à lire, je propose:
1: lecture centrale au sujet (priorité haute)
2: lecture périphérique au sujet
3: lecture annexe
nd: non disponible (A rechercher donc , le site SUDOC est très utile pour ça ! La colonne "archive" indique où il se trouve)
Deux remarques.
Personnellement je n'aime pas les échéanciers. Le plaisir de la lecture doit être préservé aussi je me refuse à établir un programme prédéfini et rigide. De même j'aime avoir plusieurs lectures en cours: de une à trois avec toujours au moins une version papier. Le plaisir de lire garantit l'attention donc l'efficacité. C'est pourquoi je me contente de trois codes (1;2;3).
Le système de tagging m'est personnel et renvoie à mon système de gestion des notes dans The Brain. C'est à dire que chaque passage tagué est relié à une idée intégré dans mon système de cartographie mentale. Ainsi il peut être retrouvé en un clic pour les versions numériques ou en feuilletant le livre.
L'avantage du système des statuts permet de savoir exactement quelle attention et traitement a été donné au document. Et changer de statut se fait en un clic, le système est donc évolutif.
Ce qui suit ne sont évidemment que quelques propositions qui me semblent pertinentes. Chacun pourra définir les siennes. Cette souplesse fait la force de Zotéro .
c = consulté (le document a été parcouru et fait l'objet d'une lecture transversale)
lp = lecture partielle
li = lecture intégrale
lpa = lecture partielle annotée
lpt = lecture partielle taguée
lia = lecture intégrale annotée
lit = lecture intégrale taguée
Enfin pour les documents à lire, je propose:
1: lecture centrale au sujet (priorité haute)
2: lecture périphérique au sujet
3: lecture annexe
nd: non disponible (A rechercher donc , le site SUDOC est très utile pour ça ! La colonne "archive" indique où il se trouve)
Deux remarques.
Personnellement je n'aime pas les échéanciers. Le plaisir de la lecture doit être préservé aussi je me refuse à établir un programme prédéfini et rigide. De même j'aime avoir plusieurs lectures en cours: de une à trois avec toujours au moins une version papier. Le plaisir de lire garantit l'attention donc l'efficacité. C'est pourquoi je me contente de trois codes (1;2;3).
Le système de tagging m'est personnel et renvoie à mon système de gestion des notes dans The Brain. C'est à dire que chaque passage tagué est relié à une idée intégré dans mon système de cartographie mentale. Ainsi il peut être retrouvé en un clic pour les versions numériques ou en feuilletant le livre.
L'avantage du système des statuts permet de savoir exactement quelle attention et traitement a été donné au document. Et changer de statut se fait en un clic, le système est donc évolutif.
vendredi 29 mars 2013
Du bon usage du powerpoint pour présenter un sujet de mémoire
De cet essai, il ne sera pas question de technique.
Powerpoint est un logiciel suffisamment intuitif pour se passer de mode
d’emploi. En revanche, Ici comme ailleurs c’est en forgeant que l’on devient
forgeron. Il me parait indispensable de jouer avec toutes les
fonctionnalités qui se présentent dans les onglets. Il est très simple
par exemple d’habiller les diapos avec des styles prédéfinis.
De mon point de vue, un bon Powerpoint doit rimer avec … counterpoint.
Je m’explique. Dans un exposé il y a toujours un discours oral calé sur un
diaporama qui défile. En aucun cas le premier ne doit être le décalque du
deuxième. Si le discours est très didactique, à mon sens, le diaporama doit
faire vibrer d’autres cordes tout en restant évidemment solidement arrimé au
premier. Et vice versa. Les deux zones du cerveau doivent fonctionner !
Les relations qui lient le visuel avec l’auditif se font sur le mode de la
complémentarité voire du … contrepoint. Le diaporama ne doit pas être une
simple illustration. Un bon Powerpoint est une mise en scène de la
pensée. Elle articule le discours oralisé, la voix et la gestuelle du
conférencier, et le visuel. Visuel qui lui-même utilise de l’écrit, des images,
et on l’oublie trop souvent, des animations, des effets de transition, des
couleurs, des styles de police, du son, des effets d’accentuation, de zoom,
bref de tout ce qui constitue une scénographie. Et de ce point de vue, il ne
faut pas avoir peur de faire montre d’une certaine sensibilité artistique.
Cette dialectique entre son, images, audio, écrit, se doit certes de
produire du sens mais pas forcément de manière univoque. Un effet (Type
désintégration de l’image ou fondu enchainé) ne doit jamais être gratuit. La
forme doit épouser le fond. On peut aisément faire l’analogie avec le
cinéma et réfléchir au rapport fécond entre ce qui est montré dans le champ
visuel et suggéré par la bande son (dialogue, bruitage et musique). En matière
de B.O, êtes-vous plutôt Max Steiner ou Bernard Hermann ? Je suggère à
tous ceux qui veulent produire des powerpoints captivants de lire le livre
d’entretien de Truffaut avec Hitchcock. On pourrait faire les mêmes analogies
pour la bande dessinée et la musique. L’art du contrepoint selon Bach consiste
à croiser des lignes mélodiques complètement indépendantes qui suggèrent
une trame harmonique précise. On peut dire la même chose des voicings en
jazz …
D’autres écueils nous guettent. Il faut bien sûr éviter
d’obscurcir le propos ou de provoquer une surcharge cognitive chez
l’auditeur. Il s’agit de doser la densité d’informations ainsi que les
effets utilisés. Même si personnellement j’ai peu de goût pour les powerpoint
trop didactiques (genre petit a alinéa 3..), il est toujours bon de poser des
jalons dans un powerpoint qui agit alors comme une superstructure ou la colonne
vertébrale du discours (surtout quand ce dernier est confus !). C’est
d’ailleurs souvent comme cela qu’il est utilisé. Mais bon après tout, tout
dépend des intentions et de l’expérience du conférencier. En ce qui concerne
l’exercice de présentation demandé en Master2, je
pense que nous n’avons rien à démontrer. Ce n’est pas un mémoire version
réduite. Exit donc les références précises qui attesteront de la scientificité
de notre travail dans le mémoire. Le format court de 20 mn nous l’interdit et
de toute façon nous ne sommes ni en soutenance ni au colloque. En
revanche il s’agit bien d’une présentation destinée à initier, informer,
questionner, titiller la curiosité, intriguer le public bref rendre accessible
et sexy ce qui ne l’est pas pour un non-initié. C’est toute la
difficulté !
vendredi 8 mars 2013
Cartographie mentale : quoi de neuf ?
Devant
la profusion des sources numérisées, il fallait revoir ma façon de les
archiver, de les consulter et de les exploiter. Le séminaire « l’histoire
à l’ère du numérique » de Christian Henriot m’a énormément apporté. L’ampleur
de mon sujet nécessite une réflexion méthodologique avancée. Le logiciel de
cartographie mentale (mind-mapping) « the brain » est devenue en
quelques mois le centre névralgique de tout mon projet de recherche. J’ai le
sentiment de tenir une méthode réellement innovante pour la recherche en
sciences humaines. Grâce à ce logiciel je suis monté en puissance car la
possibilité de référencer, stocker l’information et surtout d’analyser est
grandement facilitée. « The
brain » me permet de cartographier mes idées de façon visuelle, non
linéaire, en tissant des liens (1500 aujourd’hui) entre les idées (550).
Exemple
pour l’idée active « Ethos indigène »
Le fait qu’on ne se perde jamais dans cette
complexité est remarquable car on peut constamment en un clic déplacer
le regard et jongler avec les modes
d’affichages et les filtres. Les idées sont classées en plusieurs types : concepts
et idées, réseaux (9 sous types), pratiques sociales, pratiques du pouvoir,
évènements (seulement les plus importants…) et groupes d’acteurs. Les individus
eux sont des simples « tags » associés aux idées. Les liens sont
paramétrables à l’infini (affiliation, soutien, lien souterrain, ect…). Je peux faire apparaitre en quelques clics
les relations entre réseaux, individus et les pratiques et concepts associés.
Tout se cartographie ! Bref c’est les réseaux par … le réseau, ce qui me
permet d’associer étroitement le fond et la forme.
Voici
deux exemples pour illustrer: un parcours individuel à partir du
personnage Rubben Um Nyobe et un exemple des connections de l’UPC sous
maquis : on repère d’emblée les liens souterrains (en vert) et la
prééminence des réseaux internationaux (marron).
Mais
il y a plus fort ! Toutes mes notes et mes sources sont reliées aux
« idées » (430 notes …). Du coup j’ai repensé ma façon d’annoter
les sources en PDF. Maintenant je tague en fonction des dénominations utilisées
et cartographiées dans le « brain ». Les avantages sont énormes. Mes
remarques qualitatives se font directement dans « the brain » et non
dans les PDF. Le puissant moteur de recherche peut ainsi retrouver n’importe
quelle information (lieux, dates, personnes, ect…) et la croiser avec d’autres.
Et les résultats affichés sont
contextualisés. Exemple pour BDC + USC deux partis concurrents de l’UPC :
Dans
le plex, les idées adjacentes permettent des éclairages qui démultiplient les
angles d’analyse. L’autre avantage est qu’on est au plus près de la source
(accessible en un clic) et du texte original (facilement mobilisable grâce au
tag qui correspond à l’idée active du Brain !). S’il faut beaucoup de
rigueur dans le tagging, le mode de lecture des sources est devenu plus
souple : diagonale quand il s’agit de repérer l’idée générale (donc le
tag) et plus précise quand des remarques qualitatives s’imposent. De nouvelles
idées apparaissent constamment et sont reliées aux autres.
Ainsi
je gagne un temps considérable et ce système est adapté à la lecture de
quelques 4500 pages d’archives. Mais il me faut maintenant revisiter mes anciens
PDFs et les taguer correctement.
Aussi
j’ai abandonné l’idée naïve de relier les sources et les notes à mon plan de
mémoire « linéaire » et en évolution constante. Pour le chercheur
« the brain » est au plus près d’une réflexion par nature non
linéaire, complexe mais organisée et hiérarchisable et fondamentalement
dynamique. Les liens et les idées sont constamment modifiables en temps réel. C’est souple et dynamique. Et toutes les sources et notes sont agrégées
aux idées donc facilement mobilisables.
La
rupture épistémologique qu’apporte le numérique pour le coup est palpable. L’idée
de génie de « the Brain » est de coller au plus près du
fonctionnement réel de la pensée qui n’est pas « linéaire » mais
plutôt « fractale » et qui fonctionne par association d’idées. Lors
du passage à l’écrit, (nécessité académique !) la mise en intrigue, en
récit est facilitée. Il y a même une fonction tout à fait stupéfiante du
« plex » : on peut le faire apparaître comme un transparent
directement superposable au traitement de texte. J’écris et j’ai les idées sous
les yeux. De plus elles apparaissent instantanément car dès lors que je tape
MPA (Mission presbytérienne américaine) par exemple, la synchronisation ESP par
le clavier fait apparaître l’idée
active, les liens et les notes. Cependant je trouve plus commode de fonctionner
avec deux écrans.
L’architecture du Brain a été construite de
la façon suivante. J’ai répertorié les angles d’attaque autour de l’idée
principale « les processus de politisation » et ensuite j’ai
développé à la manière d’un brainstorming.
Les
approches sont multiples et peuvent constituer autant de fil rouge:
·
Histoire politique et sociale, conjonctures et
évènements (fait militaire, histoire urbaine)
·
Economie.
·
Histoire des institutions, approche structurelle (réseaux
formels)
·
Approches spatiales : circulation des hommes (Projet
SIG)
·
Anthropologie, faits culturels, économie morale
·
Histoire religieuse et politique
·
Sociologie des acteurs, approche micro-historique à
partir des parcours individuels
Voici la
nébuleuse des idées tournant autour de mon sujet . Je peux générer des rapports
statistiques sur « l’activité » de mes idées et repérer celles tombées
en désuétude et générer un historique de ma réflexion.
Et de façon plus
linéaire voici ce que cela donne en affichage gradué pour « société
coloniale englobante » avec un déroulé sur « scène politique ».
Je me donne un
mois et demi pour finir d’explorer les documents et taguer. Sans oublier les 40
h d’enregistrements… que je ne retranscrirai pas de façon précise (de toute
façon c’est 6h de boulot pour 1h d’entretiens : impensable !!). Je
tague, j’annote et je note le minutage. Toujours l’accès directe à la
source ! Quelques secondes suffisent pour retrouver un passage intéressant
sans rien perdre du contexte d’énonciation.
Soyons clair, la
méthode développée est prometteuse mais au stade de l’expérimentation. Des
limites apparaissent clairement. A un certain niveau de complexité la visualisation devient peu lisible. J’ai
répertorié 200 réseaux au jour
d’aujourd’hui. Impossible de les représenter tous et cela ne représente que peu
d’intérêt. Les filtres sont essentiels. D’autre part et c’est une limite
importante, la gestion des évènements
est peu adaptée notamment dans sa dimension diachronique. Rappelons que ce
logiciel a été développé par des ingénieurs américains pour le research
and development. Il nous faut donc
des outils plus fins s’il s’agit de mettre en réseaux des individus à partir
d’une base de donnée, ce que je compte faire l’année prochaine. Pour la
constituer, je m’appuierai sur les notes de renseignements de la sureté et pour
chaque réunion je recenserai les individus et leurs caractéristiques
sociologiques, les lieux fréquentés (Utilisation des SIGs), les dates, des
éléments contextuels et qualitatifs et surtout les liens présumés avec
différents réseaux. Un gros boulot dont je ne sais si « The brain »
sera adapté. Je lorgne sur le logiciel sociométrique du professeur Dudieu
(LARHRA).
vendredi 1 février 2013
Quelle recherche en Histoire à l'ère du numérique?
Le bilan du séminaire « l’histoire
à l’ère du numérique » est pour ma part, disons-le d’emblée, très positif.
C’est toutefois un exercice difficile car il impose de sortir du bois. Aussi je
commencerai à répondre à la dernière question. Si les conditions d’exercice du
métier d’historien changent avec le temps, ce qui nous anime à la base reste
inchangé. Je ne pense pas que l’on puisse devenir historien tout à fait par
hasard. Faire des sciences humaines et « toucher de la matière
humaine » nous engage dans un temps
vécu (celui d’aujourd’hui) et un temps reconstruit (l’objet de nos recherches).
Il y a toujours interférence entre la nécessaire objectivité scientifique et
une subjectivité jamais complètement mise à l’écart. Je pense que l’on ne peut
être historien en 2012 comme nous l’étions en 1980 ou comme nous le serons en
2030. Aussi la question de savoir quel historien sommes nous est peut-être un
peu vaine. Difficile d’échapper à l’air du temps. L’essentiel il me semble, est
d’avoir une claire conscience de ce qui
nous anime dans notre projet de recherche. Par honnêteté certes mais aussi dans
l’objectif non de supprimer, mais de maitriser les fameux « biais »
qui rendent la neutralité de l’historien souvent illusoire et qui obstruent
parfois cette objectivité requise à tout
travail scientifique.
En ce qui me concerne je ne suis
pas venu à m’intéresser à l’histoire de l’Afrique par simple curiosité
intellectuelle. L’histoire de l’Afrique
est venue à moi à travers une série d’expériences marquantes et qui ont coïncidé
avec le désir de m’engager dans un cursus en sciences humaines et de me
repositionner professionnellement. Aussi j’assume pleinement la part de naïveté
dans ma démarche originelle qui était d’explorer une page obscure et occultée de notre
histoire. Cette vision que j’avais d’une histoire en quelque sorte
« pionnière » (pire « exotique ») est heureusement aujourd’hui
largement dépassée, l’historiographie actuelle du Cameroun l’atteste. Outre que
des pans entiers de cette histoire restent à explorer, il demeure toujours ce
frisson originel qui est de se frotter au terrain, d’enquêter, lire et faire le
deuil de ses certitudes. Fouiner dans une masse de documents jamais classés,
partir à moto en brousse sur des pistes boueuses, un enregistreur numérique
dans le sac, pour interviewer les derniers témoins d’une époque révolue a
quelque chose d’éminemment excitant. Mais « barouder » de la sorte
n’est jamais découplé avec la réflexion. Les interactions dont je me nourris en
Afrique sont autant de matériaux à exploiter que les froides données numériques
dont je peux me repaître devant l’ordinateur. Ce que qui me plait clairement
dans le travail d’historien est précisément de faire feu de tout bois afin de
construire mes arguments. Aussi histoire
qualitative ne s’oppose pas à histoire quantitative, les deux doivent se
compléter. Multiplier les approches est
le sel du métier: sociologie, géographie, économie, anthropologie etc… Le tout
étant d’articuler les choses avec cohérence et pertinence. Aussi l’étude des
réseaux au Cameroun colonial et ma quête
des témoins passent par … les réseaux d’aujourd’hui, les milieux
d’interconnaissance (famille, village, quartier, tribu, professions, réseaux
académiques, associatifs …) que je suis amené à fréquenter.
Aussi j’adhère pleinement à la
vision de Donald Schon qui décrit un processus dans l’action : "Dans
chaque cas, le praticien s'autorise l'expérience de la surprise, de la
perplexité ou de la confusion dans une situation qu'il estime incertaine ou
unique. Il réfléchit sur les phénomènes qui sont face à lui et sur sa
compréhension antérieure qui était implicitement présente dans son
comportement. Il mène une expérience qui sert à créer une nouvelle
compréhension de ces phénomènes et un changement dans la situation ... Il ne
sépare pas la fin et les moyens, mais il les définit de manière interactive à
mesure qu'il circonscrit une situation problématique. Il ne sépare pas
pensée et action... parce que son expérience est une sorte d'action, la mise en
œuvre est intégrée dans son enquête. " (The Reflective Practitioner,
London: Temple Smith 1983, 68-69.). Nous verrons plus loin à quel point j’y
souscris.
Cette expérience du terrain qui
inclue bien évidemment le côtoiement assidu et patient des différentes sources
écrites constitue donc une aventure autant humaine qu’intellectuelle. Mais pour
s’attaquer à la complexité des choses, une fois les matériaux premiers
rassemblés, je ne conçois pas le métier d’historien sans un minimum d’outils. Faut-il
continuer à ignorer le monde du numérique en 2013 comme un grand nombre de
nos professeurs et éminents chercheurs? Nulle critique dans ce constat, ne
sommes-nous pas tous à des degrés divers en déphasage avec l’évolution de la
société? En d’autres termes, s’il est encore possible de faire de la recherche
à l’ancienne avec ses cahiers raturés, des tonnes de livres amassés sur des bibliothèques
branlantes et des heures passées en archive crayon en main, les conditions d’exercice
de l’historien ont changé ou plus précisément se sont démultipliées. Je me suis
beaucoup plaint en L3 et M1 de cette absence d’outillage qui permet de progresser
sur le plan méthodologique. L’efficience en matière de recherche, qui requiert toujours
patience et apprentissage du doute, ne doit pas être nécessairement un gros
mot. Comment accepter aujourd’hui de perdre des heures en copiant méticuleusement
des références bibliographiques en notes infra-paginales alors que le logiciel
Zotéro permet de le faire en un clic ? Comment ne pas chercher à s’approprier
des outils comme Quantum GIS, gratuit et accessible, dès lors qu’on souhaite
intégrer une approche spatiale dans ses recherches ? Les nouvelles
technologies permettent aujourd’hui en matière de simple cartographie ou d’analyse
spatiale une autonomisation de l’historien impensable il y a encore 15 ans. Même
s’il reste souhaitable d’avoir l’expertise d’un géographe, pourquoi s’en priver ?
De plus, confronté aux archives de l’infini, à la numérisation croissante des
sources écrites, le développement d’outils spécifiques de recherche et d’analyse est devenu
nécessaire. Par exemple en matière d’analyse textuelle, des simples outils de « word
clouding » peuvent rendre bien des services et sont à la portée de tous.
En ce qui me concerne le plus
grand apport de ce séminaire est qu’il m’a permis de repenser complètement mes
méthodes de travail. En termes d’archivage, le système des PDF reste
incontournable pour classer par côte et alléger les lourds JPEGs. Mais comment alors
accéder rapidement à la bonne information dans cette masse de données (4500
pages d’archives numérisés et 40 h d’enregistrement à ce jour) ? Je ne
peux plus tout lire de façon linéaire tout en annotant de façon qualitative comme
à mes débuts. Je partais ainsi un peu dans tous les sens. Je préfère aujourd’hui
opter pour une méthode de lecture plus transversale, plus rapide donc, mais
avec dans les commentaires un système de tagging qui permet de retrouver
rapidement l’info par mots clés. Mais où exporter et comment classer les notes ?
Utiliser un classeur type One-note ne me parait plus pertinent.
Je me permets ici un détour. Un
des grands enseignements de ce séminaire est de nous faire prendre conscience que
les contraintes académiques nous obligent à restituer sous format papier, donc
de façon linéaire, un réalité construite qui elle ne l’est pas. L’exercice de
rédaction est bien sûr incontournable car toute construction intellectuelle se
doit d’être organisée, hiérarchisée et orientée, mais le monde du numérique
nous donne la possibilité à travers son hypertextualité, la pluralité de ses
médias de rompre avec cette linéarité et de proposer à la communauté
scientifique, ceux qui jugeront de la pertinence et de la qualité de nos
travaux, une façon inédite de faire de l’histoire laissant au lecteur la possibilité de s’orienter par lui-même. Un
certain nombre de ces expériences sur le net ont été présentées et critiquées
sur ce blog. Cela m’incite à poser la question des annexes en ligne qui
pourraient venir compléter mes
recherches. Ma réflexion est encore peu avancée dans ce domaine mais il est
évident que les approches spatiales développées y trouveront leur place ainsi
qu’un certain nombre de méta-sources (schémas, diagrammes, tableaux...)
présentées peut-être de façon interactive. Sons, images, textes, liens soigneusement
sélectionnés pourront évidemment y figurer. L’accessibilité par les pairs de ces travaux
devra être pensée en amont et en aval de la soutenance. Et quelle partie réserver
au grand public ? La connaissance scientifique doit-elle rester confinée dans
le microcosme académique ? Il s’agit de démêler les objectifs
contradictoires de visibilité, de partage, de collaboration mais aussi de
protection.
Revenons aux questions méthodologiques.
Il est nécessaire selon moi de trouver un bon système qui permet d’agréger les
notes et informations éparses et de les retrouver rapidement. Mais quand ces mêmes
notes sont intégrées à l’architecture même de notre réflexion en constante
évolution c’est encore mieux ! Pour moi, les logiciels de mind-mapping tel
que « the brain » constituent une révolution dans la manière de
penser l’histoire puisqu’en rompant avec toute linéarité, ils nous mettent face
à un véritable état des lieux de notre pensée en mouvement qui se trouve ainsi « cartographiée ».
Je renvoie à mes billets précédents sur la question. Tirer les fils et déplacer
le regard sont les maîtres mots de cette démarche innovante. Ainsi chaque fait
historique repéré, toute remarque qualitative peuvent être aisément reliés aux faisceaux
d’idées et concepts qui forment l’ensemble d’une réflexion. La linéarité, la « mise
en intrigue » se construit après coup avec plus de facilité car nous nous
trouvons en face de l’ensemble des fils rouges possibles. C’est du moins le
pari que je fais. Soyons honnête, ce n’est qu’avec le temps et l’expérimentation
que je serai en mesure d’apprécier l’intérêt
de cette démarche. Un certain nombre de limites apparaissent déjà dans la
mesure où ce logiciel a été conçu à la base pour des ingénieurs et des
directeurs de projets. L’aspect diachronique est en particulier à revoir, ce
qui le rend difficilement utilisable pour l’analyse propre des réseaux, des « places
mobiles » rattachées à l’approche configurationnelle de Norbert Elias. D’autres
outils sont à rechercher.
Cette possibilité de ne pas
séparer le fond de la forme est particulièrement séduisante dans cette approche.
L’objet de mes recherches, les réseaux, s’aborde ainsi par … les réseaux !
Sur le terrain, nous l’avons souligné, mais aussi devant l’écran avec « the
brain ». La boucle est bouclée !
Le moins que l’on puisse dire est
que ce séminaire aura été stimulant. J’en remercie M. Christian Henriot.
lundi 21 janvier 2013
L’histoire à l’ère du numérique: “Valley of the Shadow”, “The History Channel”, “Do History”
“Do history” se propose de mettre
à la disposition de l’internaute un ensemble de matériaux historiques numérisés
autour de la vie de Maria Ballard, une sage-femme qui vivait au Massachussetts
au XVIII siècle. La pièce maîtresse de l’ensemble est son diary que l’on peut lire en l’état (manuscrit) et dactylographié.
Un certain nombre de documents annexes sont proposés et visent à contextualiser
la vie et l’œuvre de Martha. Comme pour
tous les sites à prétention historique, reprenons le questionnement de simple
bon sens proposé par Kelly Schrum : Qui est à l’origine du site ? Dans
quel but a-t-il été créé (A qui est-il destiné ?) ? Quel est sa crédibilité (A quels autres sites
est-il lié?) ?
En bas de la page d’accueil il est noté : “Created
by Film Study Center, Harvard University and hosted by Roy Rosenzweig Center
for History and New Media, George Mason University”. Le couple Havard + Rosenzweig (dont nous avons pu apprécier les
contributions à l’histoire numérique dans ce séminaire) est plutôt rassurant et
le site a même reçu le « 2000 American Association for History and
Computing Multimedia Prize ». La présence d’une importante bibliographie
atteste encore du sérieux et de la crédibilité de l’entreprise. A l’évidence,
le site est surtout destiné aux étudiants en histoire et aux professeurs (un guide
pédagogique leur est d’ailleurs proposé). Mais les soins apportés aux effets
visuels (les « magic lens ») et l’ergonomie attrayante du site le destine aussi
à un public plus large de passionnés d’histoire. Derrière il y a la volonté de
proposer à l’internaute une réelle confrontation avec des documents d’époque
peu accessibles de prime abord. Ici la calligraphie est un obstacle majeur mais
un certain nombre d’outil sont proposés pour s’en dépêtrer. Le principal inconvénient
me semble-t-il est la navigation entre les différents documents et outils qui n’est
pas commode. Il faut ouvrir plusieurs fenêtres et même en faisant cela, la
confrontation est difficile. Il faudrait naviguer entre plusieurs écrans. Bref
le travail est assez fastidieux.
Pour l’aspect innovant de ce type
d’histoire numérique, on se rapproche de « The valley of the shadows »
qui rompt avec l’aspect linéaire des travaux historiques sous forme papier. L’hypertexte
donne au lecteur la liberté de construire son propre parcours de recherche. Aussi
« the valley » et « do history » se présentent comme un
recueil d’archives (« a library ») et non comme un simple récit, donnant ainsi la
possibilité à de multiples interprétations, pour peu que le lecteur s’empare
des données, ce qui on l’a vu, est loin d’être facile. Effectivement, pour qu’une
recherche soit bien menée, une fois le fil rouge trouvé, il faut réorganiser
les matériaux et les mettre en relation et pour cela il est nécessaire me semble-t-il
de sortir du cadre du site. La recherche historique exclusivement en ligne me
semble un leurre.
A l’inverse de ce genre de
démarche, « The history channel » reste très traditionnelle dans son
approche et ne propose que des « narratives », des récits souvent édifiants
qui ne sont de surcroit choisi que pour attirer le chaland. Le site est à
vocation commerciale et se rapproche des revues d’histoire souvent mal vulgarisées
que l’on peut trouver en kiosque, l’aspect multimédia en plus. Le site est le
prolongement d’ailleurs du magazine « History ». La politique
éditoriale est sensationnaliste et propose comme toujours de déboulonner les « mythes »
et autres « idées reçues » et ne contribue en fait qu’à les remplacer
par d’autres … ”Myths debunked, truths revealed and your most burning
history questions answered.”, voila clairement le programme. Nous sommes dans
de l’infotainment. Les articles ne sont pas “signés”, cela va sans dire. La
vérification scientifique est à l’avenant puisque l’internaute est invité à
corriger lui-même d’éventuelles erreurs (« Fact
Check: we strive for accuracy and fairness. But if you see something that doesn't look right … »). A bon
entendeur…
Inscription à :
Articles (Atom)