mardi 11 juillet 2017

« The ways to politics in Cameroon » About Fichoz, a relational database

Invited to the international multi-disciplinary conference The connected past: The Future of Past Networks? at Bournemouth University (UK) on August 24-25th 2017, I had to produce a scientific poster that aims to explore the use of network research in the study of the human past. This is a good opportunity to present methods I developed over the past three years. This is what this blog is all about for that matter.

Why Fichoz? Coping with complexity and fragmented material 

The historiography of decolonization in Cameroon is particularly fragmented and polarized. Consequently, the endeavor has failed, with very few exceptions, to go beyond the classical oppositions of ethnicity/social classes, urban/rural, resistance/cooperation, youth/seniority and educated/non-educated people. While some scholars have unveiled the complexity of the ways to politics in contemporary Africa, Cameroon remains strikingly undocumented when it comes to shedding light on embedded social activities and ambivalent postures of various actors. The goal of my study is to cross point of views and highlight cases of politicizing masses in an African colonial setting – not only amongst the elites – with a special effort on taking into account the mix of multiple cultural layers and reticular social activities. In this respect, the project is clearly multi-disciplinary.

This overwhelming complexity conducted me to develop different strategies in order not to get lost. It means stay focused about my point, be able to plan my work efficiently and – yes! - still have a lot of fun while working.
 First of all, I digitize every bit of archives. Secondly, I use under Zotero a specific status has been given to each document .


« litf » here means the record has been fully read, tagged (TheBrain ) and spit into actions under Filemaker (Fichoz). These codes allow me to plan my work and retrieve every piece of documentatio and the treatment applied to it.
Thirdly, I mindmapped all my ideas and concepts in Thebrain, a terrific tool allowing me to link any ideas with documents ad hoc via a tag system. Therefore, I can access any piece of information needed within a few clicks .
Lastly, I still needed a powerful tool allowing me to thoroughly analyse the relationships and interplay between a large spectrum of social actors.  

Presenting Fichoz

Fichoz was originally developed by a group of French, Spanish and Chilean historians as part of a research project on the political and administrative structures of the Spanish Monarchy (PAPE group). It was later extended to other historical fields as part of the research programs of the LARHRA's Pole Méthode (CNRS / University of Lyon, France) . I’m very glad and lucky to collaborate with its main developer Jean Pierre Dedieu, without whom my project would have been quite different and certainly less ambitious.

Fichoz is a database system for the global storage of social history data. Social must be understood in its broadest meaning: all kind of data referring to or bearing over interactions between persons, between persons and corporations, between corporations, between persons and the artefacts they produce, between persons and their natural surroundings, between artefacts and artefacts. In my case, the relational matrix is simplified for I do not use artefacts in storing data. My main concern is about men and networks, even though the use of cultural objects is quite relevant in my study.

Transforming a source into data, storing and retrieving 

We split records into actions, so that each record should correspond to one action and each field to one descriptive dimension of the action. An action can be described under five dimensions: who (actor), what (predicate), when, where, and significantly with whom.



 1. Name of the first actor in a relationship pair (empty in case of non-relational actions): With whom? Martin Abega in the example whose biography can easily be accessed.
2. Id of the first actor: an actor can be named differently according to different sources.
3. Class of relationship between the first and the second actor. Here “opposition” is a generic relationship. It also can be more specific according to researchers needs.
4 Id of the second actor.
5. Name of the second actor in a relationship pair, or of the unique actor in non-relational actions: Who? Robert Maurage in the example. All kinds of actions, interactions, artefacts related to him can be displayed in a click.
6. Action or relationship: What?
7. Initial date and final date (When?)
8. Place of action (Where?) 9. Source: Every piece of digitized records can be retrieved to get the full information in its context if needed.
10. Remarks and contextual notes

Every piece of the split data must be self-sufficient, and must refer to one easy-to-identify concept. Historical matters demand that the implicit information carried by the fact that various information are mentioned within the same documentary set be preserved, as quite important a clue to reconstruct social reality from partial sources.

In order to be relevant, retrieving is all about flexibility. Because of the uncertainties inherent to any research, a researcher must be able to access the data he is handling from whatever angle he thinks fit, which means that starting from any part of the database, he must be able to reach any information stored in any other part.

Enhancing stored data 

Through permanent coding, the enhancement process is to make explicit an information which in the source remains sometimes implicit, embedded as it is in its context. In this example, all Chefs de canton and groupement can be accessed through the code CCISTA


 On-the-way" coding is quite different. It marks actors, actions, documents or places, that is anyone of the elements which compose the database, after criteria decided upon by the user in function of the demands of the research he is presently carrying on. It makes possible an easy access to complex sets of data, and provides markers to create classes which did not previously exist in the data.  In this example, we have pinned down some of the civil servants in Yaounde the vote of the Loi-cadre Deferre in December 1956. We have labelled the group as “FonctYa




Combining enhanced data and questioning the database         

Running under Filemaker, queries can be on natural language as well as on permanent coding  or “on-the-way coding”

Example of political ambivalence:
 We question political ambiguity amongst Cameroonian chiefs in Nyong and Sanaga. We look after all the chiefs who were close to the nationalist movement at one point but also signed in the BDC, a prebendary administrative political party. We get these names after crossing these three factors in the query : CCIS** as permanent coding, UPC and BDC as on-the-way coding.



A prosopographical and comparative approach can be undertaken at this point to see if there are others common factors. It appears that the three of them were once civil servants in Yaoundé (using On-the way coding “FonctYa<1957” as defined above). However, our hypothesis  these chiefs might belong to the same traditional association (The kolo beti to be named) proved to be invalid. Only Abega was a member.  Moreover, as we may predict, they were all close to the catholic circles of Louis Paul Aujoulat, a central political French figure in Cameroon with many ministerial portfolios in Paris.

 The next step is to trace down the very particular moment they got close to the UPC. At this point, individual trajectories differ. If we look closely at Belinga biography, for instance, it appears that he was a member in 1955 of the nationalist school teacher union just before the riots in May 1955. But he has distanced himself from the nationalist movement as soon as he has got close to the Union Tribale Bantou led by the bulu politician Charles Assalé, a former Upéciste who allied Ahmadou Ahidjo and became his prime minister in 1960.

Unsurprisingly, individual strategies for capital building led these chiefs to conservative political positions.  On the contrary, when it comes to their nationalist drift, environmental factors and structuring events (may 1955) - combined with the structure of personal networks (catholicism opposed to trade unioning) - seem to be prevalent over basic sociology and show cases of political ambivalence.

Processing the database

Processing the resulting data to extract scientific conclusions means rearranging them once more, in a way which cannot be the object of any previous agreement. This impossibility derives from an essential characteristic of research. No researcher knows beforehand which process will be the most efficient at extracting new knowledge from the data. He proceeds through attempts and failures. We conclude a research database must be equipped with all that is necessary to store, retrieve and enhance data. Not properly to process them. It must nevertheless be able to export them easily to any downstream processing package. A huge variety of packages for analyzing data are now at the researcher's disposal, from the most classical datasheets such as Excel® or OpenOffice®, up to more sophisticated tools such as Pajek® for network analysis, Orange canvas® for statistical analysis, Atlas.ti® for marking texts with beacons and for conceptual analysis, Arcgis® or Cartes&Données® for cartography.  Data can be transferred to any of them from the database in question of minutes. The researcher recovers a capacity of really exploring, really investigating the word he is studying without more limits than his own creativity. Computing makes "qualitative" studies possible[1]


In this example, crossing African zone of coffee farming with subversive activities of the Armée de libération nationale Kamerunaise in 1960 strongly suggests the issue of land was a major factor in the launching of the uprising in the Bamileke area years before. In this respect, it can be compared in some way to the Mau Mau movement in Kenya.



[1] A global introduction to Fichoz , Dedieu Jean-Pierre, <http://www.fichoz.org/>

 

dimanche 25 août 2013

Mon mémoire " Les processus de politisation à Yaoundé à travers ses réseaux 1944-1962" a été soutenu à Lyon 2 en juin 2013. Il a obtenu la note de 18/20 ce qui évidemment est une belle reconnaissance pour le travail accompli et prometteur pour la thèse à venir. Beaucoup reste à faire cependant. Aussi mes courageux lecteurs (ils sont peu nombreux mais très connaisseurs) sont invités à poster leurs commentaires critiques ici ainsi que leurs encouragements. De même, tous les contributeurs susceptibles de m'apporter des éclaircissements autant au niveau de la méthodologie (ce qui est l'objet de ce blog) et des informations sur mon sujet d'étude, sont invités à me contacter et à publier ici même. 


samedi 11 mai 2013

Comment construire un programme de lecture sur Zotéro ?

Il y a du neuf sur Zotéro ! La dernière version permet d'afficher dans la fenêtre centrale n'importe quel champ. le champ "extra" va nous être particulièrement utile car nous allons pouvoir classer les documents en leur attribuant un statut pour la lecture. Ces "statuts" permettent de définir un programme de travail en mettant en exergue ce qui doit être lue (avec des priorités voire un échéancier) de ce qui a déjà été consulté.

Ce qui suit ne sont évidemment que quelques propositions qui me semblent pertinentes. Chacun pourra définir les siennes. Cette souplesse  fait la force de Zotéro .

c = consulté (le document a été parcouru et fait l'objet d'une lecture transversale)
lp = lecture partielle
li = lecture intégrale
lpa = lecture partielle annotée
lpt = lecture partielle taguée
lia = lecture intégrale annotée
lit = lecture intégrale taguée

Enfin pour les documents à lire, je propose:

1: lecture centrale au sujet (priorité haute)
2: lecture périphérique au sujet
3: lecture annexe
nd: non disponible (A rechercher donc , le site SUDOC est très utile pour ça ! La colonne "archive" indique où il se trouve)




Deux remarques.
Personnellement je n'aime pas les échéanciers. Le plaisir de la lecture doit être préservé aussi je me refuse à établir un programme prédéfini et rigide. De même j'aime avoir plusieurs lectures en cours: de une  à trois avec toujours au moins une version papier. Le plaisir de lire  garantit l'attention donc l'efficacité. C'est pourquoi je me contente de trois codes (1;2;3).

Le système de tagging m'est personnel et renvoie à mon système de gestion des notes dans The Brain. C'est à dire que chaque passage tagué est relié à une idée intégré dans mon système de cartographie mentale. Ainsi il peut être retrouvé en un clic pour les versions numériques ou en feuilletant le livre.

L'avantage du système des statuts permet de savoir exactement quelle attention et traitement a été donné au document. Et changer de statut se fait en un clic, le système est donc évolutif.




vendredi 29 mars 2013

Du bon usage du powerpoint pour présenter un sujet de mémoire



De cet essai, il ne sera pas question de technique. Powerpoint est un logiciel suffisamment intuitif pour se passer de mode d’emploi. En revanche, Ici comme ailleurs c’est en forgeant que l’on devient forgeron.  Il me parait indispensable de jouer avec toutes les fonctionnalités qui se présentent dans les onglets.  Il est très simple par exemple d’habiller les diapos avec des styles prédéfinis.
De mon point de vue, un bon Powerpoint doit rimer avec … counterpoint.  Je m’explique. Dans un exposé il y a toujours un discours oral calé sur un diaporama qui défile. En aucun cas le premier ne doit être le décalque du deuxième. Si le discours est très didactique, à mon sens, le diaporama doit faire vibrer d’autres cordes tout en restant évidemment solidement arrimé au premier. Et vice versa. Les deux zones du cerveau doivent fonctionner ! Les relations qui lient le visuel avec l’auditif se font sur le mode de la complémentarité voire du … contrepoint. Le diaporama ne doit pas être une simple illustration. Un bon Powerpoint est une mise en scène de la pensée.  Elle articule le discours oralisé, la voix et la gestuelle du conférencier, et le visuel. Visuel qui lui-même utilise de l’écrit, des images, et on l’oublie trop souvent, des animations, des effets de transition, des couleurs, des styles de police, du son, des effets d’accentuation, de zoom, bref de tout ce qui constitue une scénographie. Et de ce point de vue, il ne faut pas avoir peur de faire montre d’une certaine sensibilité artistique. Cette dialectique entre son, images, audio, écrit,  se doit certes de produire du sens mais pas forcément de manière univoque. Un effet (Type désintégration de l’image ou fondu enchainé) ne doit jamais être gratuit. La forme doit épouser le fond. On peut aisément faire l’analogie avec le  cinéma et réfléchir au rapport fécond entre ce qui est montré dans le champ visuel et suggéré par la bande son (dialogue, bruitage et musique). En matière de B.O, êtes-vous plutôt Max Steiner ou Bernard Hermann ? Je suggère à tous ceux qui veulent produire des powerpoints captivants de lire le livre d’entretien de Truffaut avec Hitchcock. On pourrait faire les mêmes analogies pour la bande dessinée et la musique. L’art du contrepoint selon Bach consiste à croiser des lignes mélodiques complètement indépendantes qui suggèrent une  trame harmonique précise. On peut dire la même chose des voicings en jazz …  
D’autres écueils nous guettent. Il faut bien sûr éviter d’obscurcir le propos ou de provoquer une surcharge cognitive chez l’auditeur.  Il s’agit de doser la densité d’informations ainsi que les effets utilisés. Même si personnellement j’ai peu de goût pour les powerpoint trop didactiques (genre petit a alinéa 3..), il est toujours bon de poser des jalons dans un powerpoint qui agit alors comme une superstructure ou la colonne vertébrale du discours (surtout quand ce dernier est confus !). C’est d’ailleurs souvent comme cela qu’il est utilisé. Mais bon après tout, tout dépend des intentions et de l’expérience du conférencier. En ce qui concerne l’exercice de présentation demandé en Master2, je pense que nous n’avons rien à démontrer. Ce n’est pas un mémoire version réduite. Exit donc les références précises qui attesteront de la scientificité de notre travail dans le mémoire. Le format court de 20 mn nous l’interdit et de toute façon nous ne sommes ni en soutenance ni au colloque.  En revanche il s’agit bien d’une présentation destinée à initier, informer, questionner, titiller la curiosité, intriguer le public bref rendre accessible et sexy ce qui ne l’est pas pour un non-initié. C’est toute la difficulté !

vendredi 8 mars 2013

Cartographie mentale : quoi de neuf ?



Devant la profusion des sources numérisées, il fallait revoir ma façon de les archiver, de les consulter et de les exploiter. Le séminaire « l’histoire à l’ère du numérique » de Christian Henriot m’a énormément apporté. L’ampleur de mon sujet nécessite une réflexion méthodologique avancée. Le logiciel de cartographie mentale (mind-mapping) « the brain » est devenue en quelques mois le centre névralgique de tout mon projet de recherche. J’ai le sentiment de tenir une méthode réellement innovante pour la recherche en sciences humaines. Grâce à ce logiciel je suis monté en puissance car la possibilité de référencer, stocker l’information et surtout d’analyser est grandement facilitée.  « The brain » me permet de cartographier mes idées de façon visuelle, non linéaire, en tissant des liens (1500 aujourd’hui) entre les idées (550).
Exemple pour l’idée active « Ethos indigène »


 Le fait qu’on ne se perde jamais dans cette complexité  est remarquable  car on peut constamment en un clic déplacer le regard  et jongler avec les modes d’affichages et les filtres. Les idées sont classées en plusieurs types : concepts et idées, réseaux (9 sous types), pratiques sociales, pratiques du pouvoir, évènements (seulement les plus importants…) et groupes d’acteurs. Les individus eux sont des simples « tags » associés aux idées. Les liens sont paramétrables à l’infini (affiliation, soutien, lien souterrain, ect…).  Je peux faire apparaitre en quelques clics les relations entre réseaux, individus et les pratiques et concepts associés. Tout se cartographie ! Bref c’est les réseaux par … le réseau, ce qui me permet d’associer étroitement le fond et la forme.
Voici deux exemples pour illustrer: un parcours individuel à partir du personnage Rubben Um Nyobe et un exemple des connections de l’UPC sous maquis : on repère d’emblée les liens souterrains (en vert) et la prééminence des réseaux internationaux (marron). 





Mais il y a plus fort ! Toutes mes notes et mes sources sont reliées aux « idées » (430 notes …). Du coup j’ai repensé ma façon d’annoter les sources en PDF. Maintenant je tague en fonction des dénominations utilisées et cartographiées dans le « brain ». Les avantages sont énormes. Mes remarques qualitatives se font directement dans « the brain » et non dans les PDF. Le puissant moteur de recherche peut ainsi retrouver n’importe quelle information (lieux, dates, personnes, ect…) et la croiser avec d’autres.  Et les résultats affichés sont contextualisés. Exemple pour BDC + USC deux partis concurrents de l’UPC :




Dans le plex, les idées adjacentes permettent des éclairages qui démultiplient les angles d’analyse. L’autre avantage est qu’on est au plus près de la source (accessible en un clic) et du texte original (facilement mobilisable grâce au tag qui correspond à l’idée active du Brain !). S’il faut beaucoup de rigueur dans le tagging, le mode de lecture des sources est devenu plus souple : diagonale quand il s’agit de repérer l’idée générale (donc le tag) et plus précise quand des remarques qualitatives s’imposent. De nouvelles idées apparaissent constamment et sont reliées aux autres.
Ainsi je gagne un temps considérable et ce système est adapté à la lecture de quelques 4500 pages d’archives. Mais il me faut maintenant revisiter mes anciens PDFs et les taguer correctement.
Aussi j’ai abandonné l’idée naïve de relier les sources et les notes à mon plan de mémoire « linéaire » et en évolution constante. Pour le chercheur « the brain » est au plus près d’une réflexion par nature non linéaire, complexe mais organisée et hiérarchisable et fondamentalement dynamique. Les liens et les idées sont constamment  modifiables en temps réel.  C’est souple et dynamique.  Et toutes les sources et notes sont agrégées aux idées donc facilement mobilisables.
La rupture épistémologique qu’apporte le numérique pour le coup est palpable. L’idée de génie de « the Brain » est de coller au plus près du fonctionnement réel de la pensée qui n’est pas « linéaire » mais plutôt « fractale » et qui fonctionne par association d’idées. Lors du passage à l’écrit, (nécessité académique !) la mise en intrigue, en récit est facilitée. Il y a même une fonction tout à fait stupéfiante du « plex » : on peut le faire apparaître comme un transparent directement superposable au traitement de texte. J’écris et j’ai les idées sous les yeux. De plus elles apparaissent instantanément car dès lors que je tape MPA (Mission presbytérienne américaine) par exemple, la synchronisation ESP par le clavier fait apparaître  l’idée active, les liens et les notes. Cependant je trouve plus commode de fonctionner avec deux écrans.

L’architecture du Brain a été construite de la façon suivante. J’ai répertorié les angles d’attaque autour de l’idée principale « les processus de politisation » et ensuite j’ai développé à la manière d’un brainstorming.
Les approches sont multiples et peuvent constituer autant de fil rouge:
·         Histoire politique et sociale, conjonctures et évènements (fait militaire, histoire urbaine)


·         Economie. 
·         Histoire des institutions, approche structurelle (réseaux formels)
·         Approches spatiales : circulation des hommes (Projet SIG)
·         Anthropologie, faits culturels, économie morale
·         Histoire religieuse et politique
·         Sociologie des acteurs, approche micro-historique à partir des parcours individuels

Voici la nébuleuse des idées tournant autour de mon sujet . Je peux générer des rapports statistiques sur « l’activité » de mes idées et repérer celles tombées en désuétude et générer un historique de ma réflexion.  



Et de façon plus linéaire voici ce que cela donne en affichage gradué pour « société coloniale englobante » avec un déroulé sur « scène politique ».



Je me donne un mois et demi pour finir d’explorer les documents et taguer. Sans oublier les 40 h d’enregistrements… que je ne retranscrirai pas de façon précise (de toute façon c’est 6h de boulot pour 1h d’entretiens : impensable !!). Je tague, j’annote et je note le minutage. Toujours l’accès directe à la source ! Quelques secondes suffisent pour retrouver un passage intéressant sans rien perdre du contexte d’énonciation.  

Soyons clair, la méthode développée est prometteuse mais au stade de l’expérimentation. Des limites apparaissent clairement. A un certain niveau de complexité  la visualisation devient peu lisible. J’ai répertorié 200 réseaux  au jour d’aujourd’hui. Impossible de les représenter tous et cela ne représente que peu d’intérêt. Les filtres sont essentiels. D’autre part et c’est une limite importante,  la gestion des évènements est peu adaptée notamment dans sa dimension diachronique. Rappelons que ce logiciel a été développé par des ingénieurs américains  pour le research and development.  Il nous faut donc des outils plus fins s’il s’agit de mettre en réseaux des individus à partir d’une base de donnée, ce que je compte faire l’année prochaine. Pour la constituer, je m’appuierai sur les notes de renseignements de la sureté et pour chaque réunion je recenserai les individus et leurs caractéristiques sociologiques, les lieux fréquentés (Utilisation des SIGs), les dates, des éléments contextuels et qualitatifs et surtout les liens présumés avec différents réseaux. Un gros boulot dont je ne sais si « The brain » sera adapté. Je lorgne sur le logiciel sociométrique du professeur Dudieu (LARHRA).

vendredi 1 février 2013

Quelle recherche en Histoire à l'ère du numérique?


Le bilan du séminaire « l’histoire à l’ère du numérique » est pour ma part, disons-le d’emblée, très positif. C’est toutefois un exercice difficile car il impose de sortir du bois. Aussi je commencerai à répondre à la dernière question. Si les conditions d’exercice du métier d’historien changent avec le temps, ce qui nous anime à la base reste inchangé. Je ne pense pas que l’on puisse devenir historien tout à fait par hasard. Faire des sciences humaines et « toucher de la matière humaine » nous  engage dans un temps vécu (celui d’aujourd’hui) et un temps reconstruit (l’objet de nos recherches). Il y a toujours interférence entre la nécessaire objectivité scientifique et une subjectivité jamais complètement mise à l’écart. Je pense que l’on ne peut être historien en 2012 comme nous l’étions en 1980 ou comme nous le serons en 2030. Aussi la question de savoir quel historien sommes nous est peut-être un peu vaine. Difficile d’échapper à l’air du temps. L’essentiel il me semble, est d’avoir une claire conscience  de ce qui nous anime dans notre projet de recherche. Par honnêteté certes mais aussi dans l’objectif non de supprimer, mais de maitriser les fameux « biais » qui rendent la neutralité de l’historien souvent illusoire et qui obstruent parfois  cette objectivité requise à tout travail scientifique.
En ce qui me concerne je ne suis pas venu à m’intéresser à l’histoire de l’Afrique par simple curiosité intellectuelle.  L’histoire de l’Afrique est venue à moi à travers une série d’expériences marquantes et qui ont coïncidé avec le désir de m’engager dans un cursus en sciences humaines et de me repositionner professionnellement. Aussi j’assume pleinement la part de naïveté dans ma démarche originelle qui était d’explorer  une page obscure et occultée de notre histoire. Cette vision que j’avais d’une histoire en quelque sorte « pionnière » (pire « exotique ») est heureusement aujourd’hui largement dépassée, l’historiographie actuelle du Cameroun l’atteste. Outre que des pans entiers de cette histoire restent à explorer, il demeure toujours ce frisson originel qui est de se frotter au terrain, d’enquêter, lire et faire le deuil de ses certitudes. Fouiner dans une masse de documents jamais classés, partir à moto en brousse sur des pistes boueuses, un enregistreur numérique dans le sac, pour interviewer les derniers témoins d’une époque révolue a quelque chose d’éminemment excitant. Mais « barouder » de la sorte n’est jamais découplé avec la réflexion. Les interactions dont je me nourris en Afrique sont autant de matériaux à exploiter que les froides données numériques dont je peux me repaître devant l’ordinateur. Ce que qui me plait clairement dans le travail d’historien est précisément de faire feu de tout bois afin de construire mes arguments.  Aussi histoire qualitative ne s’oppose pas à histoire quantitative, les deux doivent se compléter. Multiplier les approches  est le sel du métier: sociologie, géographie, économie, anthropologie etc… Le tout étant d’articuler les choses avec cohérence et pertinence. Aussi l’étude des réseaux au Cameroun  colonial et ma quête des témoins passent par … les réseaux d’aujourd’hui, les milieux d’interconnaissance (famille, village, quartier, tribu, professions, réseaux académiques, associatifs …) que je suis amené à fréquenter.
Aussi j’adhère pleinement à la vision de Donald Schon qui décrit un processus dans l’action : "Dans chaque cas, le praticien s'autorise l'expérience de la surprise, de la perplexité ou de la confusion dans une situation qu'il estime incertaine ou unique. Il réfléchit sur les phénomènes qui sont face à lui et sur sa compréhension antérieure qui était implicitement présente dans son comportement. Il mène une expérience qui sert à créer une nouvelle compréhension de ces phénomènes et un changement dans la situation ... Il ne sépare pas la fin et les moyens, mais il les définit de manière interactive à mesure qu'il circonscrit une situation problématique. Il ne sépare pas pensée et action... parce que son expérience est une sorte d'action, la mise en œuvre est intégrée dans son enquête. " (The Reflective Practitioner, London: Temple Smith 1983, 68-69.). Nous verrons plus loin à quel point j’y souscris.

Cette expérience du terrain qui inclue bien évidemment le côtoiement assidu et patient des différentes sources écrites constitue donc une aventure autant humaine qu’intellectuelle. Mais pour s’attaquer à la complexité des choses, une fois les matériaux premiers rassemblés, je ne conçois pas le métier d’historien sans un minimum d’outils. Faut-il continuer à ignorer le monde du numérique en 2013 comme un grand nombre de nos professeurs et éminents chercheurs? Nulle critique dans ce constat, ne sommes-nous pas tous à des degrés divers en déphasage avec l’évolution de la société? En d’autres termes, s’il est encore possible de faire de la recherche à l’ancienne avec ses cahiers raturés, des tonnes de livres amassés sur des bibliothèques branlantes et des heures passées en archive crayon en main, les conditions d’exercice de l’historien ont changé ou plus précisément se sont démultipliées. Je me suis beaucoup plaint en L3 et M1 de cette absence d’outillage qui permet de progresser sur le plan méthodologique. L’efficience en matière de recherche, qui requiert toujours patience et apprentissage du doute, ne doit pas être nécessairement un gros mot. Comment accepter aujourd’hui de perdre des heures en copiant méticuleusement des références bibliographiques en notes infra-paginales alors que le logiciel Zotéro permet de le faire en un clic ? Comment ne pas chercher à s’approprier des outils comme Quantum GIS, gratuit et accessible, dès lors qu’on souhaite intégrer une approche spatiale dans ses recherches ? Les nouvelles technologies permettent aujourd’hui en matière de simple cartographie ou d’analyse spatiale une autonomisation de l’historien impensable il y a encore 15 ans. Même s’il reste souhaitable d’avoir l’expertise d’un géographe, pourquoi s’en priver ? De plus, confronté aux archives de l’infini, à la numérisation croissante des sources écrites, le développement d’outils spécifiques  de recherche et d’analyse est devenu nécessaire. Par exemple en matière d’analyse textuelle, des simples outils de « word clouding » peuvent rendre bien des services et sont à la portée de tous.
En ce qui me concerne le plus grand apport de ce séminaire est qu’il m’a permis de repenser complètement mes méthodes de travail. En termes d’archivage, le système des PDF reste incontournable pour classer par côte et alléger les lourds JPEGs. Mais comment alors accéder rapidement à la bonne information dans cette masse de données (4500 pages d’archives numérisés et 40 h d’enregistrement à ce jour) ? Je ne peux plus tout lire de façon linéaire tout en annotant de façon qualitative comme à mes débuts. Je partais ainsi un peu dans tous les sens. Je préfère aujourd’hui opter pour une méthode de lecture plus transversale, plus rapide donc, mais avec dans les commentaires un système de tagging qui permet de retrouver rapidement l’info par mots clés. Mais où exporter et comment classer les notes ? Utiliser un classeur type One-note ne me parait plus pertinent.

Je me permets ici un détour. Un des grands enseignements de ce séminaire est de nous faire prendre conscience que les contraintes académiques nous obligent à restituer sous format papier, donc de façon linéaire, un réalité construite qui elle ne l’est pas. L’exercice de rédaction est bien sûr incontournable car toute construction intellectuelle se doit d’être organisée, hiérarchisée et orientée, mais le monde du numérique nous donne la possibilité à travers son hypertextualité, la pluralité de ses médias de rompre avec cette linéarité et de proposer à la communauté scientifique, ceux qui jugeront de la pertinence et de la qualité de nos travaux, une façon inédite de faire de l’histoire laissant au lecteur  la possibilité de s’orienter par lui-même. Un certain nombre de ces expériences sur le net ont été présentées et critiquées sur ce blog. Cela m’incite à poser la question des annexes en ligne qui pourraient venir compléter  mes recherches. Ma réflexion est encore peu avancée dans ce domaine mais il est évident que les approches spatiales développées y trouveront leur place ainsi qu’un certain nombre de méta-sources (schémas, diagrammes, tableaux...) présentées peut-être de façon interactive. Sons, images, textes, liens soigneusement sélectionnés pourront évidemment y figurer.  L’accessibilité par les pairs de ces travaux devra être pensée en amont et en aval de la soutenance. Et quelle partie réserver au grand public ? La connaissance scientifique doit-elle rester confinée dans le microcosme académique ? Il s’agit de démêler les objectifs contradictoires de visibilité, de partage, de collaboration mais aussi de protection.

Revenons aux questions méthodologiques. Il est nécessaire selon moi de trouver un bon système qui permet d’agréger les notes et informations éparses et de les retrouver rapidement. Mais quand ces mêmes notes sont intégrées à l’architecture même de notre réflexion en constante évolution c’est encore mieux ! Pour moi, les logiciels de mind-mapping tel que « the brain » constituent une révolution dans la manière de penser l’histoire puisqu’en rompant avec toute linéarité, ils nous mettent face à un véritable état des lieux de notre pensée en mouvement qui se trouve ainsi « cartographiée ». Je renvoie à mes billets précédents sur la question. Tirer les fils et déplacer le regard sont les maîtres mots de cette démarche innovante. Ainsi chaque fait historique repéré, toute remarque qualitative peuvent être aisément reliés aux faisceaux d’idées et concepts qui forment l’ensemble d’une réflexion. La linéarité, la « mise en intrigue » se construit après coup avec plus de facilité car nous nous trouvons en face de l’ensemble des fils rouges possibles. C’est du moins le pari que je fais. Soyons honnête, ce n’est qu’avec le temps et l’expérimentation que  je serai en mesure d’apprécier l’intérêt de cette démarche. Un certain nombre de limites apparaissent déjà dans la mesure où ce logiciel a été conçu à la base pour des ingénieurs et des directeurs de projets. L’aspect diachronique est en particulier à revoir, ce qui le rend difficilement utilisable pour l’analyse propre des réseaux, des « places mobiles » rattachées à l’approche configurationnelle de Norbert Elias. D’autres outils sont à rechercher.

Cette possibilité de ne pas séparer le fond de la forme est particulièrement séduisante dans cette approche. L’objet de mes recherches, les réseaux, s’aborde ainsi par … les réseaux ! Sur le terrain, nous l’avons souligné, mais aussi devant l’écran avec « the brain ». La boucle est bouclée !
Le moins que l’on puisse dire est que ce séminaire aura été stimulant. J’en remercie M. Christian Henriot.