dimanche 25 août 2013

Mon mémoire " Les processus de politisation à Yaoundé à travers ses réseaux 1944-1962" a été soutenu à Lyon 2 en juin 2013. Il a obtenu la note de 18/20 ce qui évidemment est une belle reconnaissance pour le travail accompli et prometteur pour la thèse à venir. Beaucoup reste à faire cependant. Aussi mes courageux lecteurs (ils sont peu nombreux mais très connaisseurs) sont invités à poster leurs commentaires critiques ici ainsi que leurs encouragements. De même, tous les contributeurs susceptibles de m'apporter des éclaircissements autant au niveau de la méthodologie (ce qui est l'objet de ce blog) et des informations sur mon sujet d'étude, sont invités à me contacter et à publier ici même. 


samedi 11 mai 2013

Comment construire un programme de lecture sur Zotéro ?

Il y a du neuf sur Zotéro ! La dernière version permet d'afficher dans la fenêtre centrale n'importe quel champ. le champ "extra" va nous être particulièrement utile car nous allons pouvoir classer les documents en leur attribuant un statut pour la lecture. Ces "statuts" permettent de définir un programme de travail en mettant en exergue ce qui doit être lue (avec des priorités voire un échéancier) de ce qui a déjà été consulté.

Ce qui suit ne sont évidemment que quelques propositions qui me semblent pertinentes. Chacun pourra définir les siennes. Cette souplesse  fait la force de Zotéro .

c = consulté (le document a été parcouru et fait l'objet d'une lecture transversale)
lp = lecture partielle
li = lecture intégrale
lpa = lecture partielle annotée
lpt = lecture partielle taguée
lia = lecture intégrale annotée
lit = lecture intégrale taguée

Enfin pour les documents à lire, je propose:

1: lecture centrale au sujet (priorité haute)
2: lecture périphérique au sujet
3: lecture annexe
nd: non disponible (A rechercher donc , le site SUDOC est très utile pour ça ! La colonne "archive" indique où il se trouve)




Deux remarques.
Personnellement je n'aime pas les échéanciers. Le plaisir de la lecture doit être préservé aussi je me refuse à établir un programme prédéfini et rigide. De même j'aime avoir plusieurs lectures en cours: de une  à trois avec toujours au moins une version papier. Le plaisir de lire  garantit l'attention donc l'efficacité. C'est pourquoi je me contente de trois codes (1;2;3).

Le système de tagging m'est personnel et renvoie à mon système de gestion des notes dans The Brain. C'est à dire que chaque passage tagué est relié à une idée intégré dans mon système de cartographie mentale. Ainsi il peut être retrouvé en un clic pour les versions numériques ou en feuilletant le livre.

L'avantage du système des statuts permet de savoir exactement quelle attention et traitement a été donné au document. Et changer de statut se fait en un clic, le système est donc évolutif.




vendredi 29 mars 2013

Du bon usage du powerpoint pour présenter un sujet de mémoire



De cet essai, il ne sera pas question de technique. Powerpoint est un logiciel suffisamment intuitif pour se passer de mode d’emploi. En revanche, Ici comme ailleurs c’est en forgeant que l’on devient forgeron.  Il me parait indispensable de jouer avec toutes les fonctionnalités qui se présentent dans les onglets.  Il est très simple par exemple d’habiller les diapos avec des styles prédéfinis.
De mon point de vue, un bon Powerpoint doit rimer avec … counterpoint.  Je m’explique. Dans un exposé il y a toujours un discours oral calé sur un diaporama qui défile. En aucun cas le premier ne doit être le décalque du deuxième. Si le discours est très didactique, à mon sens, le diaporama doit faire vibrer d’autres cordes tout en restant évidemment solidement arrimé au premier. Et vice versa. Les deux zones du cerveau doivent fonctionner ! Les relations qui lient le visuel avec l’auditif se font sur le mode de la complémentarité voire du … contrepoint. Le diaporama ne doit pas être une simple illustration. Un bon Powerpoint est une mise en scène de la pensée.  Elle articule le discours oralisé, la voix et la gestuelle du conférencier, et le visuel. Visuel qui lui-même utilise de l’écrit, des images, et on l’oublie trop souvent, des animations, des effets de transition, des couleurs, des styles de police, du son, des effets d’accentuation, de zoom, bref de tout ce qui constitue une scénographie. Et de ce point de vue, il ne faut pas avoir peur de faire montre d’une certaine sensibilité artistique. Cette dialectique entre son, images, audio, écrit,  se doit certes de produire du sens mais pas forcément de manière univoque. Un effet (Type désintégration de l’image ou fondu enchainé) ne doit jamais être gratuit. La forme doit épouser le fond. On peut aisément faire l’analogie avec le  cinéma et réfléchir au rapport fécond entre ce qui est montré dans le champ visuel et suggéré par la bande son (dialogue, bruitage et musique). En matière de B.O, êtes-vous plutôt Max Steiner ou Bernard Hermann ? Je suggère à tous ceux qui veulent produire des powerpoints captivants de lire le livre d’entretien de Truffaut avec Hitchcock. On pourrait faire les mêmes analogies pour la bande dessinée et la musique. L’art du contrepoint selon Bach consiste à croiser des lignes mélodiques complètement indépendantes qui suggèrent une  trame harmonique précise. On peut dire la même chose des voicings en jazz …  
D’autres écueils nous guettent. Il faut bien sûr éviter d’obscurcir le propos ou de provoquer une surcharge cognitive chez l’auditeur.  Il s’agit de doser la densité d’informations ainsi que les effets utilisés. Même si personnellement j’ai peu de goût pour les powerpoint trop didactiques (genre petit a alinéa 3..), il est toujours bon de poser des jalons dans un powerpoint qui agit alors comme une superstructure ou la colonne vertébrale du discours (surtout quand ce dernier est confus !). C’est d’ailleurs souvent comme cela qu’il est utilisé. Mais bon après tout, tout dépend des intentions et de l’expérience du conférencier. En ce qui concerne l’exercice de présentation demandé en Master2, je pense que nous n’avons rien à démontrer. Ce n’est pas un mémoire version réduite. Exit donc les références précises qui attesteront de la scientificité de notre travail dans le mémoire. Le format court de 20 mn nous l’interdit et de toute façon nous ne sommes ni en soutenance ni au colloque.  En revanche il s’agit bien d’une présentation destinée à initier, informer, questionner, titiller la curiosité, intriguer le public bref rendre accessible et sexy ce qui ne l’est pas pour un non-initié. C’est toute la difficulté !

vendredi 8 mars 2013

Cartographie mentale : quoi de neuf ?



Devant la profusion des sources numérisées, il fallait revoir ma façon de les archiver, de les consulter et de les exploiter. Le séminaire « l’histoire à l’ère du numérique » de Christian Henriot m’a énormément apporté. L’ampleur de mon sujet nécessite une réflexion méthodologique avancée. Le logiciel de cartographie mentale (mind-mapping) « the brain » est devenue en quelques mois le centre névralgique de tout mon projet de recherche. J’ai le sentiment de tenir une méthode réellement innovante pour la recherche en sciences humaines. Grâce à ce logiciel je suis monté en puissance car la possibilité de référencer, stocker l’information et surtout d’analyser est grandement facilitée.  « The brain » me permet de cartographier mes idées de façon visuelle, non linéaire, en tissant des liens (1500 aujourd’hui) entre les idées (550).
Exemple pour l’idée active « Ethos indigène »


 Le fait qu’on ne se perde jamais dans cette complexité  est remarquable  car on peut constamment en un clic déplacer le regard  et jongler avec les modes d’affichages et les filtres. Les idées sont classées en plusieurs types : concepts et idées, réseaux (9 sous types), pratiques sociales, pratiques du pouvoir, évènements (seulement les plus importants…) et groupes d’acteurs. Les individus eux sont des simples « tags » associés aux idées. Les liens sont paramétrables à l’infini (affiliation, soutien, lien souterrain, ect…).  Je peux faire apparaitre en quelques clics les relations entre réseaux, individus et les pratiques et concepts associés. Tout se cartographie ! Bref c’est les réseaux par … le réseau, ce qui me permet d’associer étroitement le fond et la forme.
Voici deux exemples pour illustrer: un parcours individuel à partir du personnage Rubben Um Nyobe et un exemple des connections de l’UPC sous maquis : on repère d’emblée les liens souterrains (en vert) et la prééminence des réseaux internationaux (marron). 





Mais il y a plus fort ! Toutes mes notes et mes sources sont reliées aux « idées » (430 notes …). Du coup j’ai repensé ma façon d’annoter les sources en PDF. Maintenant je tague en fonction des dénominations utilisées et cartographiées dans le « brain ». Les avantages sont énormes. Mes remarques qualitatives se font directement dans « the brain » et non dans les PDF. Le puissant moteur de recherche peut ainsi retrouver n’importe quelle information (lieux, dates, personnes, ect…) et la croiser avec d’autres.  Et les résultats affichés sont contextualisés. Exemple pour BDC + USC deux partis concurrents de l’UPC :




Dans le plex, les idées adjacentes permettent des éclairages qui démultiplient les angles d’analyse. L’autre avantage est qu’on est au plus près de la source (accessible en un clic) et du texte original (facilement mobilisable grâce au tag qui correspond à l’idée active du Brain !). S’il faut beaucoup de rigueur dans le tagging, le mode de lecture des sources est devenu plus souple : diagonale quand il s’agit de repérer l’idée générale (donc le tag) et plus précise quand des remarques qualitatives s’imposent. De nouvelles idées apparaissent constamment et sont reliées aux autres.
Ainsi je gagne un temps considérable et ce système est adapté à la lecture de quelques 4500 pages d’archives. Mais il me faut maintenant revisiter mes anciens PDFs et les taguer correctement.
Aussi j’ai abandonné l’idée naïve de relier les sources et les notes à mon plan de mémoire « linéaire » et en évolution constante. Pour le chercheur « the brain » est au plus près d’une réflexion par nature non linéaire, complexe mais organisée et hiérarchisable et fondamentalement dynamique. Les liens et les idées sont constamment  modifiables en temps réel.  C’est souple et dynamique.  Et toutes les sources et notes sont agrégées aux idées donc facilement mobilisables.
La rupture épistémologique qu’apporte le numérique pour le coup est palpable. L’idée de génie de « the Brain » est de coller au plus près du fonctionnement réel de la pensée qui n’est pas « linéaire » mais plutôt « fractale » et qui fonctionne par association d’idées. Lors du passage à l’écrit, (nécessité académique !) la mise en intrigue, en récit est facilitée. Il y a même une fonction tout à fait stupéfiante du « plex » : on peut le faire apparaître comme un transparent directement superposable au traitement de texte. J’écris et j’ai les idées sous les yeux. De plus elles apparaissent instantanément car dès lors que je tape MPA (Mission presbytérienne américaine) par exemple, la synchronisation ESP par le clavier fait apparaître  l’idée active, les liens et les notes. Cependant je trouve plus commode de fonctionner avec deux écrans.

L’architecture du Brain a été construite de la façon suivante. J’ai répertorié les angles d’attaque autour de l’idée principale « les processus de politisation » et ensuite j’ai développé à la manière d’un brainstorming.
Les approches sont multiples et peuvent constituer autant de fil rouge:
·         Histoire politique et sociale, conjonctures et évènements (fait militaire, histoire urbaine)


·         Economie. 
·         Histoire des institutions, approche structurelle (réseaux formels)
·         Approches spatiales : circulation des hommes (Projet SIG)
·         Anthropologie, faits culturels, économie morale
·         Histoire religieuse et politique
·         Sociologie des acteurs, approche micro-historique à partir des parcours individuels

Voici la nébuleuse des idées tournant autour de mon sujet . Je peux générer des rapports statistiques sur « l’activité » de mes idées et repérer celles tombées en désuétude et générer un historique de ma réflexion.  



Et de façon plus linéaire voici ce que cela donne en affichage gradué pour « société coloniale englobante » avec un déroulé sur « scène politique ».



Je me donne un mois et demi pour finir d’explorer les documents et taguer. Sans oublier les 40 h d’enregistrements… que je ne retranscrirai pas de façon précise (de toute façon c’est 6h de boulot pour 1h d’entretiens : impensable !!). Je tague, j’annote et je note le minutage. Toujours l’accès directe à la source ! Quelques secondes suffisent pour retrouver un passage intéressant sans rien perdre du contexte d’énonciation.  

Soyons clair, la méthode développée est prometteuse mais au stade de l’expérimentation. Des limites apparaissent clairement. A un certain niveau de complexité  la visualisation devient peu lisible. J’ai répertorié 200 réseaux  au jour d’aujourd’hui. Impossible de les représenter tous et cela ne représente que peu d’intérêt. Les filtres sont essentiels. D’autre part et c’est une limite importante,  la gestion des évènements est peu adaptée notamment dans sa dimension diachronique. Rappelons que ce logiciel a été développé par des ingénieurs américains  pour le research and development.  Il nous faut donc des outils plus fins s’il s’agit de mettre en réseaux des individus à partir d’une base de donnée, ce que je compte faire l’année prochaine. Pour la constituer, je m’appuierai sur les notes de renseignements de la sureté et pour chaque réunion je recenserai les individus et leurs caractéristiques sociologiques, les lieux fréquentés (Utilisation des SIGs), les dates, des éléments contextuels et qualitatifs et surtout les liens présumés avec différents réseaux. Un gros boulot dont je ne sais si « The brain » sera adapté. Je lorgne sur le logiciel sociométrique du professeur Dudieu (LARHRA).

vendredi 1 février 2013

Quelle recherche en Histoire à l'ère du numérique?


Le bilan du séminaire « l’histoire à l’ère du numérique » est pour ma part, disons-le d’emblée, très positif. C’est toutefois un exercice difficile car il impose de sortir du bois. Aussi je commencerai à répondre à la dernière question. Si les conditions d’exercice du métier d’historien changent avec le temps, ce qui nous anime à la base reste inchangé. Je ne pense pas que l’on puisse devenir historien tout à fait par hasard. Faire des sciences humaines et « toucher de la matière humaine » nous  engage dans un temps vécu (celui d’aujourd’hui) et un temps reconstruit (l’objet de nos recherches). Il y a toujours interférence entre la nécessaire objectivité scientifique et une subjectivité jamais complètement mise à l’écart. Je pense que l’on ne peut être historien en 2012 comme nous l’étions en 1980 ou comme nous le serons en 2030. Aussi la question de savoir quel historien sommes nous est peut-être un peu vaine. Difficile d’échapper à l’air du temps. L’essentiel il me semble, est d’avoir une claire conscience  de ce qui nous anime dans notre projet de recherche. Par honnêteté certes mais aussi dans l’objectif non de supprimer, mais de maitriser les fameux « biais » qui rendent la neutralité de l’historien souvent illusoire et qui obstruent parfois  cette objectivité requise à tout travail scientifique.
En ce qui me concerne je ne suis pas venu à m’intéresser à l’histoire de l’Afrique par simple curiosité intellectuelle.  L’histoire de l’Afrique est venue à moi à travers une série d’expériences marquantes et qui ont coïncidé avec le désir de m’engager dans un cursus en sciences humaines et de me repositionner professionnellement. Aussi j’assume pleinement la part de naïveté dans ma démarche originelle qui était d’explorer  une page obscure et occultée de notre histoire. Cette vision que j’avais d’une histoire en quelque sorte « pionnière » (pire « exotique ») est heureusement aujourd’hui largement dépassée, l’historiographie actuelle du Cameroun l’atteste. Outre que des pans entiers de cette histoire restent à explorer, il demeure toujours ce frisson originel qui est de se frotter au terrain, d’enquêter, lire et faire le deuil de ses certitudes. Fouiner dans une masse de documents jamais classés, partir à moto en brousse sur des pistes boueuses, un enregistreur numérique dans le sac, pour interviewer les derniers témoins d’une époque révolue a quelque chose d’éminemment excitant. Mais « barouder » de la sorte n’est jamais découplé avec la réflexion. Les interactions dont je me nourris en Afrique sont autant de matériaux à exploiter que les froides données numériques dont je peux me repaître devant l’ordinateur. Ce que qui me plait clairement dans le travail d’historien est précisément de faire feu de tout bois afin de construire mes arguments.  Aussi histoire qualitative ne s’oppose pas à histoire quantitative, les deux doivent se compléter. Multiplier les approches  est le sel du métier: sociologie, géographie, économie, anthropologie etc… Le tout étant d’articuler les choses avec cohérence et pertinence. Aussi l’étude des réseaux au Cameroun  colonial et ma quête des témoins passent par … les réseaux d’aujourd’hui, les milieux d’interconnaissance (famille, village, quartier, tribu, professions, réseaux académiques, associatifs …) que je suis amené à fréquenter.
Aussi j’adhère pleinement à la vision de Donald Schon qui décrit un processus dans l’action : "Dans chaque cas, le praticien s'autorise l'expérience de la surprise, de la perplexité ou de la confusion dans une situation qu'il estime incertaine ou unique. Il réfléchit sur les phénomènes qui sont face à lui et sur sa compréhension antérieure qui était implicitement présente dans son comportement. Il mène une expérience qui sert à créer une nouvelle compréhension de ces phénomènes et un changement dans la situation ... Il ne sépare pas la fin et les moyens, mais il les définit de manière interactive à mesure qu'il circonscrit une situation problématique. Il ne sépare pas pensée et action... parce que son expérience est une sorte d'action, la mise en œuvre est intégrée dans son enquête. " (The Reflective Practitioner, London: Temple Smith 1983, 68-69.). Nous verrons plus loin à quel point j’y souscris.

Cette expérience du terrain qui inclue bien évidemment le côtoiement assidu et patient des différentes sources écrites constitue donc une aventure autant humaine qu’intellectuelle. Mais pour s’attaquer à la complexité des choses, une fois les matériaux premiers rassemblés, je ne conçois pas le métier d’historien sans un minimum d’outils. Faut-il continuer à ignorer le monde du numérique en 2013 comme un grand nombre de nos professeurs et éminents chercheurs? Nulle critique dans ce constat, ne sommes-nous pas tous à des degrés divers en déphasage avec l’évolution de la société? En d’autres termes, s’il est encore possible de faire de la recherche à l’ancienne avec ses cahiers raturés, des tonnes de livres amassés sur des bibliothèques branlantes et des heures passées en archive crayon en main, les conditions d’exercice de l’historien ont changé ou plus précisément se sont démultipliées. Je me suis beaucoup plaint en L3 et M1 de cette absence d’outillage qui permet de progresser sur le plan méthodologique. L’efficience en matière de recherche, qui requiert toujours patience et apprentissage du doute, ne doit pas être nécessairement un gros mot. Comment accepter aujourd’hui de perdre des heures en copiant méticuleusement des références bibliographiques en notes infra-paginales alors que le logiciel Zotéro permet de le faire en un clic ? Comment ne pas chercher à s’approprier des outils comme Quantum GIS, gratuit et accessible, dès lors qu’on souhaite intégrer une approche spatiale dans ses recherches ? Les nouvelles technologies permettent aujourd’hui en matière de simple cartographie ou d’analyse spatiale une autonomisation de l’historien impensable il y a encore 15 ans. Même s’il reste souhaitable d’avoir l’expertise d’un géographe, pourquoi s’en priver ? De plus, confronté aux archives de l’infini, à la numérisation croissante des sources écrites, le développement d’outils spécifiques  de recherche et d’analyse est devenu nécessaire. Par exemple en matière d’analyse textuelle, des simples outils de « word clouding » peuvent rendre bien des services et sont à la portée de tous.
En ce qui me concerne le plus grand apport de ce séminaire est qu’il m’a permis de repenser complètement mes méthodes de travail. En termes d’archivage, le système des PDF reste incontournable pour classer par côte et alléger les lourds JPEGs. Mais comment alors accéder rapidement à la bonne information dans cette masse de données (4500 pages d’archives numérisés et 40 h d’enregistrement à ce jour) ? Je ne peux plus tout lire de façon linéaire tout en annotant de façon qualitative comme à mes débuts. Je partais ainsi un peu dans tous les sens. Je préfère aujourd’hui opter pour une méthode de lecture plus transversale, plus rapide donc, mais avec dans les commentaires un système de tagging qui permet de retrouver rapidement l’info par mots clés. Mais où exporter et comment classer les notes ? Utiliser un classeur type One-note ne me parait plus pertinent.

Je me permets ici un détour. Un des grands enseignements de ce séminaire est de nous faire prendre conscience que les contraintes académiques nous obligent à restituer sous format papier, donc de façon linéaire, un réalité construite qui elle ne l’est pas. L’exercice de rédaction est bien sûr incontournable car toute construction intellectuelle se doit d’être organisée, hiérarchisée et orientée, mais le monde du numérique nous donne la possibilité à travers son hypertextualité, la pluralité de ses médias de rompre avec cette linéarité et de proposer à la communauté scientifique, ceux qui jugeront de la pertinence et de la qualité de nos travaux, une façon inédite de faire de l’histoire laissant au lecteur  la possibilité de s’orienter par lui-même. Un certain nombre de ces expériences sur le net ont été présentées et critiquées sur ce blog. Cela m’incite à poser la question des annexes en ligne qui pourraient venir compléter  mes recherches. Ma réflexion est encore peu avancée dans ce domaine mais il est évident que les approches spatiales développées y trouveront leur place ainsi qu’un certain nombre de méta-sources (schémas, diagrammes, tableaux...) présentées peut-être de façon interactive. Sons, images, textes, liens soigneusement sélectionnés pourront évidemment y figurer.  L’accessibilité par les pairs de ces travaux devra être pensée en amont et en aval de la soutenance. Et quelle partie réserver au grand public ? La connaissance scientifique doit-elle rester confinée dans le microcosme académique ? Il s’agit de démêler les objectifs contradictoires de visibilité, de partage, de collaboration mais aussi de protection.

Revenons aux questions méthodologiques. Il est nécessaire selon moi de trouver un bon système qui permet d’agréger les notes et informations éparses et de les retrouver rapidement. Mais quand ces mêmes notes sont intégrées à l’architecture même de notre réflexion en constante évolution c’est encore mieux ! Pour moi, les logiciels de mind-mapping tel que « the brain » constituent une révolution dans la manière de penser l’histoire puisqu’en rompant avec toute linéarité, ils nous mettent face à un véritable état des lieux de notre pensée en mouvement qui se trouve ainsi « cartographiée ». Je renvoie à mes billets précédents sur la question. Tirer les fils et déplacer le regard sont les maîtres mots de cette démarche innovante. Ainsi chaque fait historique repéré, toute remarque qualitative peuvent être aisément reliés aux faisceaux d’idées et concepts qui forment l’ensemble d’une réflexion. La linéarité, la « mise en intrigue » se construit après coup avec plus de facilité car nous nous trouvons en face de l’ensemble des fils rouges possibles. C’est du moins le pari que je fais. Soyons honnête, ce n’est qu’avec le temps et l’expérimentation que  je serai en mesure d’apprécier l’intérêt de cette démarche. Un certain nombre de limites apparaissent déjà dans la mesure où ce logiciel a été conçu à la base pour des ingénieurs et des directeurs de projets. L’aspect diachronique est en particulier à revoir, ce qui le rend difficilement utilisable pour l’analyse propre des réseaux, des « places mobiles » rattachées à l’approche configurationnelle de Norbert Elias. D’autres outils sont à rechercher.

Cette possibilité de ne pas séparer le fond de la forme est particulièrement séduisante dans cette approche. L’objet de mes recherches, les réseaux, s’aborde ainsi par … les réseaux ! Sur le terrain, nous l’avons souligné, mais aussi devant l’écran avec « the brain ». La boucle est bouclée !
Le moins que l’on puisse dire est que ce séminaire aura été stimulant. J’en remercie M. Christian Henriot.

lundi 21 janvier 2013

L’histoire à l’ère du numérique: “Valley of the Shadow”, “The History Channel”, “Do History”


“Do history” se propose de mettre à la disposition de l’internaute un ensemble de matériaux historiques numérisés autour de la vie de Maria Ballard, une sage-femme qui vivait au Massachussetts au XVIII siècle. La pièce maîtresse de l’ensemble est son diary que l’on peut lire en l’état (manuscrit) et dactylographié. Un certain nombre de documents annexes sont proposés et visent à contextualiser la vie et l’œuvre de Martha.  Comme pour tous les sites à prétention historique, reprenons le questionnement de simple bon sens proposé par Kelly Schrum : Qui est à l’origine du site ? Dans quel but a-t-il été créé (A qui est-il destiné ?) ?  Quel est sa crédibilité (A quels autres sites est-il lié?) ?  

En bas de la page d’accueil il est noté : “Created by Film Study Center, Harvard University and hosted by Roy Rosenzweig Center for History and New Media, George Mason University”. Le couple Havard +  Rosenzweig (dont nous avons pu apprécier les contributions à l’histoire numérique dans ce séminaire) est plutôt rassurant et le site a même reçu le « 2000 American Association for History and Computing Multimedia Prize ». La présence d’une importante bibliographie atteste encore du sérieux et de la crédibilité de l’entreprise. A l’évidence, le site est surtout destiné aux étudiants en histoire et aux professeurs (un guide pédagogique leur est d’ailleurs proposé). Mais les soins apportés aux effets visuels (les « magic lens ») et l’ergonomie attrayante du site le destine aussi à un public plus large de passionnés d’histoire. Derrière il y a la volonté de proposer à l’internaute une réelle confrontation avec des documents d’époque peu accessibles de prime abord. Ici la calligraphie est un obstacle majeur mais un certain nombre d’outil sont proposés pour s’en dépêtrer. Le principal inconvénient me semble-t-il est la navigation entre les différents documents et outils qui n’est pas commode. Il faut ouvrir plusieurs fenêtres et même en faisant cela, la confrontation est difficile. Il faudrait naviguer entre plusieurs écrans. Bref le travail est assez fastidieux.      


Pour l’aspect innovant de ce type d’histoire numérique, on se rapproche de « The valley of the shadows » qui rompt avec l’aspect linéaire des travaux historiques sous forme papier. L’hypertexte donne au lecteur la liberté de construire son propre parcours de recherche. Aussi « the valley » et « do history » se présentent comme un recueil d’archives (« a library ») et non  comme un simple récit, donnant ainsi la possibilité à de multiples interprétations, pour peu que le lecteur s’empare des données, ce qui on l’a vu, est loin d’être facile. Effectivement, pour qu’une recherche soit bien menée, une fois le fil rouge trouvé, il faut réorganiser les matériaux et les mettre en relation et pour cela il est nécessaire me semble-t-il de sortir du cadre du site. La recherche historique exclusivement en ligne me semble un leurre.   

A l’inverse de ce genre de démarche, « The history channel » reste très traditionnelle dans son approche et ne propose que des « narratives », des récits souvent édifiants qui ne sont de surcroit choisi que pour attirer le chaland. Le site est à vocation commerciale et se rapproche des revues d’histoire souvent mal vulgarisées que l’on peut trouver en kiosque, l’aspect multimédia en plus. Le site est le prolongement d’ailleurs du magazine « History ». La politique éditoriale est sensationnaliste et propose comme toujours de déboulonner les « mythes » et autres « idées reçues » et ne contribue en fait qu’à les remplacer par d’autres …  ”Myths debunked, truths revealed and your most burning history questions answered.”, voila clairement le programme. Nous sommes dans de l’infotainment. Les articles ne sont pas “signés”, cela va sans dire. La vérification scientifique est à l’avenant puisque l’internaute est invité à corriger lui-même d’éventuelles erreurs  (« Fact Check: we strive for accuracy and fairness. But if you see something that doesn't look right … »). A bon entendeur…