mardi 11 juillet 2017

« The ways to politics in Cameroon » About Fichoz, a relational database

Invited to the international multi-disciplinary conference The connected past: The Future of Past Networks? at Bournemouth University (UK) on August 24-25th 2017, I had to produce a scientific poster that aims to explore the use of network research in the study of the human past. This is a good opportunity to present methods I developed over the past three years. This is what this blog is all about for that matter.

Why Fichoz? Coping with complexity and fragmented material 

The historiography of decolonization in Cameroon is particularly fragmented and polarized. Consequently, the endeavor has failed, with very few exceptions, to go beyond the classical oppositions of ethnicity/social classes, urban/rural, resistance/cooperation, youth/seniority and educated/non-educated people. While some scholars have unveiled the complexity of the ways to politics in contemporary Africa, Cameroon remains strikingly undocumented when it comes to shedding light on embedded social activities and ambivalent postures of various actors. The goal of my study is to cross point of views and highlight cases of politicizing masses in an African colonial setting – not only amongst the elites – with a special effort on taking into account the mix of multiple cultural layers and reticular social activities. In this respect, the project is clearly multi-disciplinary.

This overwhelming complexity conducted me to develop different strategies in order not to get lost. It means stay focused about my point, be able to plan my work efficiently and – yes! - still have a lot of fun while working.
 First of all, I digitize every bit of archives. Secondly, I use under Zotero a specific status has been given to each document .


« litf » here means the record has been fully read, tagged (TheBrain ) and spit into actions under Filemaker (Fichoz). These codes allow me to plan my work and retrieve every piece of documentatio and the treatment applied to it.
Thirdly, I mindmapped all my ideas and concepts in Thebrain, a terrific tool allowing me to link any ideas with documents ad hoc via a tag system. Therefore, I can access any piece of information needed within a few clicks .
Lastly, I still needed a powerful tool allowing me to thoroughly analyse the relationships and interplay between a large spectrum of social actors.  

Presenting Fichoz

Fichoz was originally developed by a group of French, Spanish and Chilean historians as part of a research project on the political and administrative structures of the Spanish Monarchy (PAPE group). It was later extended to other historical fields as part of the research programs of the LARHRA's Pole Méthode (CNRS / University of Lyon, France) . I’m very glad and lucky to collaborate with its main developer Jean Pierre Dedieu, without whom my project would have been quite different and certainly less ambitious.

Fichoz is a database system for the global storage of social history data. Social must be understood in its broadest meaning: all kind of data referring to or bearing over interactions between persons, between persons and corporations, between corporations, between persons and the artefacts they produce, between persons and their natural surroundings, between artefacts and artefacts. In my case, the relational matrix is simplified for I do not use artefacts in storing data. My main concern is about men and networks, even though the use of cultural objects is quite relevant in my study.

Transforming a source into data, storing and retrieving 

We split records into actions, so that each record should correspond to one action and each field to one descriptive dimension of the action. An action can be described under five dimensions: who (actor), what (predicate), when, where, and significantly with whom.



 1. Name of the first actor in a relationship pair (empty in case of non-relational actions): With whom? Martin Abega in the example whose biography can easily be accessed.
2. Id of the first actor: an actor can be named differently according to different sources.
3. Class of relationship between the first and the second actor. Here “opposition” is a generic relationship. It also can be more specific according to researchers needs.
4 Id of the second actor.
5. Name of the second actor in a relationship pair, or of the unique actor in non-relational actions: Who? Robert Maurage in the example. All kinds of actions, interactions, artefacts related to him can be displayed in a click.
6. Action or relationship: What?
7. Initial date and final date (When?)
8. Place of action (Where?) 9. Source: Every piece of digitized records can be retrieved to get the full information in its context if needed.
10. Remarks and contextual notes

Every piece of the split data must be self-sufficient, and must refer to one easy-to-identify concept. Historical matters demand that the implicit information carried by the fact that various information are mentioned within the same documentary set be preserved, as quite important a clue to reconstruct social reality from partial sources.

In order to be relevant, retrieving is all about flexibility. Because of the uncertainties inherent to any research, a researcher must be able to access the data he is handling from whatever angle he thinks fit, which means that starting from any part of the database, he must be able to reach any information stored in any other part.

Enhancing stored data 

Through permanent coding, the enhancement process is to make explicit an information which in the source remains sometimes implicit, embedded as it is in its context. In this example, all Chefs de canton and groupement can be accessed through the code CCISTA


 On-the-way" coding is quite different. It marks actors, actions, documents or places, that is anyone of the elements which compose the database, after criteria decided upon by the user in function of the demands of the research he is presently carrying on. It makes possible an easy access to complex sets of data, and provides markers to create classes which did not previously exist in the data.  In this example, we have pinned down some of the civil servants in Yaounde the vote of the Loi-cadre Deferre in December 1956. We have labelled the group as “FonctYa




Combining enhanced data and questioning the database         

Running under Filemaker, queries can be on natural language as well as on permanent coding  or “on-the-way coding”

Example of political ambivalence:
 We question political ambiguity amongst Cameroonian chiefs in Nyong and Sanaga. We look after all the chiefs who were close to the nationalist movement at one point but also signed in the BDC, a prebendary administrative political party. We get these names after crossing these three factors in the query : CCIS** as permanent coding, UPC and BDC as on-the-way coding.



A prosopographical and comparative approach can be undertaken at this point to see if there are others common factors. It appears that the three of them were once civil servants in Yaoundé (using On-the way coding “FonctYa<1957” as defined above). However, our hypothesis  these chiefs might belong to the same traditional association (The kolo beti to be named) proved to be invalid. Only Abega was a member.  Moreover, as we may predict, they were all close to the catholic circles of Louis Paul Aujoulat, a central political French figure in Cameroon with many ministerial portfolios in Paris.

 The next step is to trace down the very particular moment they got close to the UPC. At this point, individual trajectories differ. If we look closely at Belinga biography, for instance, it appears that he was a member in 1955 of the nationalist school teacher union just before the riots in May 1955. But he has distanced himself from the nationalist movement as soon as he has got close to the Union Tribale Bantou led by the bulu politician Charles Assalé, a former Upéciste who allied Ahmadou Ahidjo and became his prime minister in 1960.

Unsurprisingly, individual strategies for capital building led these chiefs to conservative political positions.  On the contrary, when it comes to their nationalist drift, environmental factors and structuring events (may 1955) - combined with the structure of personal networks (catholicism opposed to trade unioning) - seem to be prevalent over basic sociology and show cases of political ambivalence.

Processing the database

Processing the resulting data to extract scientific conclusions means rearranging them once more, in a way which cannot be the object of any previous agreement. This impossibility derives from an essential characteristic of research. No researcher knows beforehand which process will be the most efficient at extracting new knowledge from the data. He proceeds through attempts and failures. We conclude a research database must be equipped with all that is necessary to store, retrieve and enhance data. Not properly to process them. It must nevertheless be able to export them easily to any downstream processing package. A huge variety of packages for analyzing data are now at the researcher's disposal, from the most classical datasheets such as Excel® or OpenOffice®, up to more sophisticated tools such as Pajek® for network analysis, Orange canvas® for statistical analysis, Atlas.ti® for marking texts with beacons and for conceptual analysis, Arcgis® or Cartes&Données® for cartography.  Data can be transferred to any of them from the database in question of minutes. The researcher recovers a capacity of really exploring, really investigating the word he is studying without more limits than his own creativity. Computing makes "qualitative" studies possible[1]


In this example, crossing African zone of coffee farming with subversive activities of the Armée de libération nationale Kamerunaise in 1960 strongly suggests the issue of land was a major factor in the launching of the uprising in the Bamileke area years before. In this respect, it can be compared in some way to the Mau Mau movement in Kenya.



[1] A global introduction to Fichoz , Dedieu Jean-Pierre, <http://www.fichoz.org/>

 

dimanche 25 août 2013

Mon mémoire " Les processus de politisation à Yaoundé à travers ses réseaux 1944-1962" a été soutenu à Lyon 2 en juin 2013. Il a obtenu la note de 18/20 ce qui évidemment est une belle reconnaissance pour le travail accompli et prometteur pour la thèse à venir. Beaucoup reste à faire cependant. Aussi mes courageux lecteurs (ils sont peu nombreux mais très connaisseurs) sont invités à poster leurs commentaires critiques ici ainsi que leurs encouragements. De même, tous les contributeurs susceptibles de m'apporter des éclaircissements autant au niveau de la méthodologie (ce qui est l'objet de ce blog) et des informations sur mon sujet d'étude, sont invités à me contacter et à publier ici même. 


samedi 11 mai 2013

Comment construire un programme de lecture sur Zotéro ?

Il y a du neuf sur Zotéro ! La dernière version permet d'afficher dans la fenêtre centrale n'importe quel champ. le champ "extra" va nous être particulièrement utile car nous allons pouvoir classer les documents en leur attribuant un statut pour la lecture. Ces "statuts" permettent de définir un programme de travail en mettant en exergue ce qui doit être lue (avec des priorités voire un échéancier) de ce qui a déjà été consulté.

Ce qui suit ne sont évidemment que quelques propositions qui me semblent pertinentes. Chacun pourra définir les siennes. Cette souplesse  fait la force de Zotéro .

c = consulté (le document a été parcouru et fait l'objet d'une lecture transversale)
lp = lecture partielle
li = lecture intégrale
lpa = lecture partielle annotée
lpt = lecture partielle taguée
lia = lecture intégrale annotée
lit = lecture intégrale taguée

Enfin pour les documents à lire, je propose:

1: lecture centrale au sujet (priorité haute)
2: lecture périphérique au sujet
3: lecture annexe
nd: non disponible (A rechercher donc , le site SUDOC est très utile pour ça ! La colonne "archive" indique où il se trouve)




Deux remarques.
Personnellement je n'aime pas les échéanciers. Le plaisir de la lecture doit être préservé aussi je me refuse à établir un programme prédéfini et rigide. De même j'aime avoir plusieurs lectures en cours: de une  à trois avec toujours au moins une version papier. Le plaisir de lire  garantit l'attention donc l'efficacité. C'est pourquoi je me contente de trois codes (1;2;3).

Le système de tagging m'est personnel et renvoie à mon système de gestion des notes dans The Brain. C'est à dire que chaque passage tagué est relié à une idée intégré dans mon système de cartographie mentale. Ainsi il peut être retrouvé en un clic pour les versions numériques ou en feuilletant le livre.

L'avantage du système des statuts permet de savoir exactement quelle attention et traitement a été donné au document. Et changer de statut se fait en un clic, le système est donc évolutif.




vendredi 29 mars 2013

Du bon usage du powerpoint pour présenter un sujet de mémoire



De cet essai, il ne sera pas question de technique. Powerpoint est un logiciel suffisamment intuitif pour se passer de mode d’emploi. En revanche, Ici comme ailleurs c’est en forgeant que l’on devient forgeron.  Il me parait indispensable de jouer avec toutes les fonctionnalités qui se présentent dans les onglets.  Il est très simple par exemple d’habiller les diapos avec des styles prédéfinis.
De mon point de vue, un bon Powerpoint doit rimer avec … counterpoint.  Je m’explique. Dans un exposé il y a toujours un discours oral calé sur un diaporama qui défile. En aucun cas le premier ne doit être le décalque du deuxième. Si le discours est très didactique, à mon sens, le diaporama doit faire vibrer d’autres cordes tout en restant évidemment solidement arrimé au premier. Et vice versa. Les deux zones du cerveau doivent fonctionner ! Les relations qui lient le visuel avec l’auditif se font sur le mode de la complémentarité voire du … contrepoint. Le diaporama ne doit pas être une simple illustration. Un bon Powerpoint est une mise en scène de la pensée.  Elle articule le discours oralisé, la voix et la gestuelle du conférencier, et le visuel. Visuel qui lui-même utilise de l’écrit, des images, et on l’oublie trop souvent, des animations, des effets de transition, des couleurs, des styles de police, du son, des effets d’accentuation, de zoom, bref de tout ce qui constitue une scénographie. Et de ce point de vue, il ne faut pas avoir peur de faire montre d’une certaine sensibilité artistique. Cette dialectique entre son, images, audio, écrit,  se doit certes de produire du sens mais pas forcément de manière univoque. Un effet (Type désintégration de l’image ou fondu enchainé) ne doit jamais être gratuit. La forme doit épouser le fond. On peut aisément faire l’analogie avec le  cinéma et réfléchir au rapport fécond entre ce qui est montré dans le champ visuel et suggéré par la bande son (dialogue, bruitage et musique). En matière de B.O, êtes-vous plutôt Max Steiner ou Bernard Hermann ? Je suggère à tous ceux qui veulent produire des powerpoints captivants de lire le livre d’entretien de Truffaut avec Hitchcock. On pourrait faire les mêmes analogies pour la bande dessinée et la musique. L’art du contrepoint selon Bach consiste à croiser des lignes mélodiques complètement indépendantes qui suggèrent une  trame harmonique précise. On peut dire la même chose des voicings en jazz …  
D’autres écueils nous guettent. Il faut bien sûr éviter d’obscurcir le propos ou de provoquer une surcharge cognitive chez l’auditeur.  Il s’agit de doser la densité d’informations ainsi que les effets utilisés. Même si personnellement j’ai peu de goût pour les powerpoint trop didactiques (genre petit a alinéa 3..), il est toujours bon de poser des jalons dans un powerpoint qui agit alors comme une superstructure ou la colonne vertébrale du discours (surtout quand ce dernier est confus !). C’est d’ailleurs souvent comme cela qu’il est utilisé. Mais bon après tout, tout dépend des intentions et de l’expérience du conférencier. En ce qui concerne l’exercice de présentation demandé en Master2, je pense que nous n’avons rien à démontrer. Ce n’est pas un mémoire version réduite. Exit donc les références précises qui attesteront de la scientificité de notre travail dans le mémoire. Le format court de 20 mn nous l’interdit et de toute façon nous ne sommes ni en soutenance ni au colloque.  En revanche il s’agit bien d’une présentation destinée à initier, informer, questionner, titiller la curiosité, intriguer le public bref rendre accessible et sexy ce qui ne l’est pas pour un non-initié. C’est toute la difficulté !

vendredi 8 mars 2013

Cartographie mentale : quoi de neuf ?



Devant la profusion des sources numérisées, il fallait revoir ma façon de les archiver, de les consulter et de les exploiter. Le séminaire « l’histoire à l’ère du numérique » de Christian Henriot m’a énormément apporté. L’ampleur de mon sujet nécessite une réflexion méthodologique avancée. Le logiciel de cartographie mentale (mind-mapping) « the brain » est devenue en quelques mois le centre névralgique de tout mon projet de recherche. J’ai le sentiment de tenir une méthode réellement innovante pour la recherche en sciences humaines. Grâce à ce logiciel je suis monté en puissance car la possibilité de référencer, stocker l’information et surtout d’analyser est grandement facilitée.  « The brain » me permet de cartographier mes idées de façon visuelle, non linéaire, en tissant des liens (1500 aujourd’hui) entre les idées (550).
Exemple pour l’idée active « Ethos indigène »


 Le fait qu’on ne se perde jamais dans cette complexité  est remarquable  car on peut constamment en un clic déplacer le regard  et jongler avec les modes d’affichages et les filtres. Les idées sont classées en plusieurs types : concepts et idées, réseaux (9 sous types), pratiques sociales, pratiques du pouvoir, évènements (seulement les plus importants…) et groupes d’acteurs. Les individus eux sont des simples « tags » associés aux idées. Les liens sont paramétrables à l’infini (affiliation, soutien, lien souterrain, ect…).  Je peux faire apparaitre en quelques clics les relations entre réseaux, individus et les pratiques et concepts associés. Tout se cartographie ! Bref c’est les réseaux par … le réseau, ce qui me permet d’associer étroitement le fond et la forme.
Voici deux exemples pour illustrer: un parcours individuel à partir du personnage Rubben Um Nyobe et un exemple des connections de l’UPC sous maquis : on repère d’emblée les liens souterrains (en vert) et la prééminence des réseaux internationaux (marron). 





Mais il y a plus fort ! Toutes mes notes et mes sources sont reliées aux « idées » (430 notes …). Du coup j’ai repensé ma façon d’annoter les sources en PDF. Maintenant je tague en fonction des dénominations utilisées et cartographiées dans le « brain ». Les avantages sont énormes. Mes remarques qualitatives se font directement dans « the brain » et non dans les PDF. Le puissant moteur de recherche peut ainsi retrouver n’importe quelle information (lieux, dates, personnes, ect…) et la croiser avec d’autres.  Et les résultats affichés sont contextualisés. Exemple pour BDC + USC deux partis concurrents de l’UPC :




Dans le plex, les idées adjacentes permettent des éclairages qui démultiplient les angles d’analyse. L’autre avantage est qu’on est au plus près de la source (accessible en un clic) et du texte original (facilement mobilisable grâce au tag qui correspond à l’idée active du Brain !). S’il faut beaucoup de rigueur dans le tagging, le mode de lecture des sources est devenu plus souple : diagonale quand il s’agit de repérer l’idée générale (donc le tag) et plus précise quand des remarques qualitatives s’imposent. De nouvelles idées apparaissent constamment et sont reliées aux autres.
Ainsi je gagne un temps considérable et ce système est adapté à la lecture de quelques 4500 pages d’archives. Mais il me faut maintenant revisiter mes anciens PDFs et les taguer correctement.
Aussi j’ai abandonné l’idée naïve de relier les sources et les notes à mon plan de mémoire « linéaire » et en évolution constante. Pour le chercheur « the brain » est au plus près d’une réflexion par nature non linéaire, complexe mais organisée et hiérarchisable et fondamentalement dynamique. Les liens et les idées sont constamment  modifiables en temps réel.  C’est souple et dynamique.  Et toutes les sources et notes sont agrégées aux idées donc facilement mobilisables.
La rupture épistémologique qu’apporte le numérique pour le coup est palpable. L’idée de génie de « the Brain » est de coller au plus près du fonctionnement réel de la pensée qui n’est pas « linéaire » mais plutôt « fractale » et qui fonctionne par association d’idées. Lors du passage à l’écrit, (nécessité académique !) la mise en intrigue, en récit est facilitée. Il y a même une fonction tout à fait stupéfiante du « plex » : on peut le faire apparaître comme un transparent directement superposable au traitement de texte. J’écris et j’ai les idées sous les yeux. De plus elles apparaissent instantanément car dès lors que je tape MPA (Mission presbytérienne américaine) par exemple, la synchronisation ESP par le clavier fait apparaître  l’idée active, les liens et les notes. Cependant je trouve plus commode de fonctionner avec deux écrans.

L’architecture du Brain a été construite de la façon suivante. J’ai répertorié les angles d’attaque autour de l’idée principale « les processus de politisation » et ensuite j’ai développé à la manière d’un brainstorming.
Les approches sont multiples et peuvent constituer autant de fil rouge:
·         Histoire politique et sociale, conjonctures et évènements (fait militaire, histoire urbaine)


·         Economie. 
·         Histoire des institutions, approche structurelle (réseaux formels)
·         Approches spatiales : circulation des hommes (Projet SIG)
·         Anthropologie, faits culturels, économie morale
·         Histoire religieuse et politique
·         Sociologie des acteurs, approche micro-historique à partir des parcours individuels

Voici la nébuleuse des idées tournant autour de mon sujet . Je peux générer des rapports statistiques sur « l’activité » de mes idées et repérer celles tombées en désuétude et générer un historique de ma réflexion.  



Et de façon plus linéaire voici ce que cela donne en affichage gradué pour « société coloniale englobante » avec un déroulé sur « scène politique ».



Je me donne un mois et demi pour finir d’explorer les documents et taguer. Sans oublier les 40 h d’enregistrements… que je ne retranscrirai pas de façon précise (de toute façon c’est 6h de boulot pour 1h d’entretiens : impensable !!). Je tague, j’annote et je note le minutage. Toujours l’accès directe à la source ! Quelques secondes suffisent pour retrouver un passage intéressant sans rien perdre du contexte d’énonciation.  

Soyons clair, la méthode développée est prometteuse mais au stade de l’expérimentation. Des limites apparaissent clairement. A un certain niveau de complexité  la visualisation devient peu lisible. J’ai répertorié 200 réseaux  au jour d’aujourd’hui. Impossible de les représenter tous et cela ne représente que peu d’intérêt. Les filtres sont essentiels. D’autre part et c’est une limite importante,  la gestion des évènements est peu adaptée notamment dans sa dimension diachronique. Rappelons que ce logiciel a été développé par des ingénieurs américains  pour le research and development.  Il nous faut donc des outils plus fins s’il s’agit de mettre en réseaux des individus à partir d’une base de donnée, ce que je compte faire l’année prochaine. Pour la constituer, je m’appuierai sur les notes de renseignements de la sureté et pour chaque réunion je recenserai les individus et leurs caractéristiques sociologiques, les lieux fréquentés (Utilisation des SIGs), les dates, des éléments contextuels et qualitatifs et surtout les liens présumés avec différents réseaux. Un gros boulot dont je ne sais si « The brain » sera adapté. Je lorgne sur le logiciel sociométrique du professeur Dudieu (LARHRA).