Communautés de création et communs numériques de connaissance

Introduction

Cet article s’intéresse aux pratiques collectives et volontaires de production de connaissance en ligne, appelées par les participants et les chercheurs «commun numérique de connaissance» , ou «communautés de création» [1]. Le terme de «commun» est directement emprunté des travaux d’E. Ostrom [2], consacrés à l’analyse des structures institutionnelles de gouvernance collective permettant maintenir durablement l’usage de biens renouvelables mais limités comme les ressources naturelles. Le «commun» est ici transposé à la connaissance, produite en ligne. L’utilisation de ce terme n’est pas anodine: elle souligne un renouveau dans la capacité d’acteurs individuels, non professionnels, à s’engager dans ces projets et à produire, organiser et gérer des actions collectives de production comparable en qualité et en volume aux productions des organisations traditionnelles, universitaires ou entreprises [3]. Ainsi, Wikipédia, qui fête ses vingt ans en 2021, a été capable de produire des encyclopédies en plus de 50 langues, et, pour les langues les plus diffusée, avec 10 à 40 fois plus d’articles disponibles que dans les encyclopédies traditionnelles, avec une qualité comparable. Mais est-ce que ce mot désigne alors la même chose? Si non, pourquoi cette analogie? Si oui, qu’ont en commun les communs de connaissance et les communs classiques étudiés par Ostrom?

Il y a d’abord une dimension politique, une volonté de trouver, dans ces différentes actions collectives un modèle social alternatif au modèles de l’État et du Marché [4]. Ainsi, P. Dardot et C. Laval [5] défendent l’idée que ces «nouveaux communs» sont des des communautés choisies (au sens de la «commune de Proudhon [6] et de l’opposition que fait Tonnies [7] entre Gemeinschaft et de la Gesellschaft), qui peuvent être libératrices et socle d’une action politique de construction de la société au delà du duopole État-Marché, et que c’est précisément leur intérêt, voire leur «révolution».

Mais il est difficile de comprendre si ces communs modernes et les anciens communs partagent plus qu’un nom, et peut-être des similitudes de fonctionnement dans la gouvernance soulignées par l’économie institutionnaliste [8], notamment dans les travaux d’E. Ostrom, sur les communs «traditionnelles»et sur leur extension aux communs de connaissance [9,10]. Comme le souligne Laval lui-même (fin du § 7 de [11]), le «geste analogique, qui a trouvé sa légitimité scientifique dans des travaux d’économistes, de juristes ou de politistes, dont la plus célèbre est sans conteste Elinor Ostrom» n’est pas expliqué.

Nous allons d’abord rappeler ce qu’est un commun classique et pourquoi cette définition s’applique a priori mal aux communautés de création (partie 2). Pour dépasser ce paradoxe, il est nécessaire de mieux définir ce qui «se trouve à l’origine de tout ce qui en découle de «commun»: la qualification des choses, la co-obligation entre les individus, la formation du collectif» ([12], §6). Autrement dit: les objectifs et les activités des projets et des participants (partie 3), pour comprendre qu’est la ressource rare et rivale qui est gérée par ces projets, en quoi on peut effectivement parler de commun numérique de connaissance (partie 4). Nous pourrons alors poser la question de la spécificité des communs de connaissance et de l’impact du numérique (partie 5). En conclusion, nous soulignerons que ces mécanismes de coordination, essentiellement virtuels, ou plus exactement logiciels, construisent la structure de gouvernance et les différents rôles, et donc les frontières entre ceux qui font partie du groupe, et ceux qui en sont exclus, autrement dit ce qu’est la «communauté»1.

Le commun comme gestion par un collectif de petite taille d’une ressource rare et rivale

Un commun classique est défini par: des arrangements institutionnels (basés sur les usages, les coutumes, en plus du droit), des ressources physiques ou matérielles (par exemple logicielle, des dispositifs techniques de surveillance), qui permettent de construire des mécanismes d’exclusion de l’accès et de l’exploitation d’une ressource rare, ou rivale [2]. Le projet est d’avoir une exploitation durable de cette ressource, donc de gérer collectivement les prélèvements sur la ressource.

Réussir à gérer collectivement une ressource est remarquable et c’est en cela que les communs attirent, en tant que modèle d’organisation. En effet l’intérêt individuel peut aller à l’encontre de l’intérêt collectif. Si un niveau de consommation d’une ressource est défini dans un groupe et que ce niveau est divisé par le nombre de membre du groupe, si enfin chacun respecte ce niveau, la consommation est soutenable. Mais même une faible augmentation individuelle peut avoir des conséquences collectives désastreuse. Et individuellement, on peut avoir intérêt à faire défaut, car, au moins à court terme, on gagne plus. C’est ce qui est illustré par le dilemme du prisonnier, où, si chacun respecte la règle, tous y gagnent, mais où si l’on est le seul à ne pas la respecter on peut gagner encore plus, au détriment des autres… S’il y a peu de «passagers clandestins», l’impact sur les autres peut être faible, mais si peu respectent la règle, tout le monde est perdant (Tableau 1).

MatriceContributeur 1
de gainRespecter le niveau de prélèvementPrélever un peu plus
ContributeurRespecter le niveau de prélèvement3/32/4
2Prélever un peu plus4/20/0
Tableau 1:Un exemple du dilemme du prisonnier dans la consommation d’une ressource rivale

Partant de là, M. Olson[13] a défendu l’idée qu’il était extrêmement difficile pour un collectif de réussir à gérer une ressource commune, et qu’il fallait que les participants puissent se surveiller, pour que la défection soit détectée et sanctionnée si rapidement qu’elle est inefficace. Il soutenait surtout que plus le groupe était important, plus la défection était tentante, car les individus étaient moins facilement observables (il est coûteux d’observer tout le monde et l’impact de cette défection, plus faible par rapport à la consommation totale, est moins facile à détecter).

Ce qu’a montré E. Ostrom, c’est qu’un groupe réduit était tout à fait capable d’organiser des mécanismes de coopération et de régulation. C’est cohérent avec ce que dit Olson, qui appelle ces petits groupes les groupes «privilégiés». Elle a surtout étudié les principes fondamentaux d’une telle régulation collective 2.

La majorité de la population est constituée de simples «utilisateurs», qui ont le droit de profiter de l’existence de la ressource (par exemple se promener dans un parc, une forêt), pas pas de la consommer, de l’exploiter, de la consommer (couper du bois), privilège réservé au petit groupe mentionné auparavant, les «consommateurs». Surveiller l’application des droits, et sanctionner sont des droits supplémentaires, accordés à une sous-partie seulement des consommateurs. L’articulation des droits et des pouvoirs qu’ont certains individus pour les faire respecter, ou «faisceaux de droits» [14] (et de devoirs), organise la gouvernance de ce groupe [15]. Ces pouvoirs sont issus de la loi (droit de propriété, par exemple), de l’usage, ou de la maîtrise de technologies (barrières, systèmes de surveillance). Finalement, autant le public des utilisateurs peut avoir des frontières faiblement définies et poreuses (n’importe qui peut être autorisé à traverser un parc naturel, ou une étendue maritime), autant les consommateurs sont précisés. La « communauté » (au sens étymologique, le groupe qui partage une chose) est donc le groupe de personne qui ont accès à la chose (les consommateurs), ou plus exatement le sous-groupe qui a des intérêts sur la chose, car ils peuvent en même temps l’exploiter (consommer la ressource rare) et la gérer (voir par exemple la définition de ce qu’est un « wikipédien » par Wikipédia). Ce dernier groupe de consommateur reste petit en taille.

À première vue, la communauté de création semble échapper à cette description: si on comprend bien pourquoi une ressource physique doit être préservée et pérennisée, cela reste plus délicat cela reste plus délicat quand il s’agit d’une connaissance qui a été «codifiée», c’est-à-dire explicitée dans un «code» transmissible car compris par d’autre (une description réalisée dans un discours écrit ou oral, un code informatique…). Celle-ci peut être partagée sans rivalité, et, avec le numérique, à coût faible. Non exclusivité et non rivalité définissent ce que les économiques appellent un «bien public», et avec cela une nouvelle difficulté: dans la théorie économique classique, les utilisateurs du bien (public) n’ont pas d’incitation individuelle à participer à la production de ce bien et on se retrouve dans une situation de dilemme du prisonnier aux conséquences équivalentes à la sur-exploitation disparition de ressouce), mais où personne ne va produire de connaissance, attendant que les autres fassent l’effort de production.

La réussite des communautés de création apparaît alors d’autant plus remarquable: les plus grands projets coordonnent des centaines (Linux), voire des milliers de contributeurs (Wikipédia), qui, en plus, ne sont pas forcément identifiés, ou seulement par un pseudonyme, qui peut être changé. On est a priori plus proche des groupes «latents» d’Olson, des très grand groupes où l’action individuelle, où la défection d’un n’affecte pas assez les autres pour les faire réagir.

Si l’on doit bien admettre le succès, on ne voit pas en quoi ces projets correspondraient à la définition classique d’un commun: un groupe qui organiserait collectivement la régulation de la consommation d’une ressource rare, rivale. Pour cela il faut d’abord lever le mythe du «passager clandestin», qui attendrait que d’autres produisent et surtout mettent à disposition des pièces de connaissance pour les utiliser.

La contribution à des projets de connaissance

Les communautés de création ont pour objet d’organiser la production (ou, plus précisément, ce que nous avons appelé la «codification») d’éléments de connaissance articulés entre eux. Plus le stock grossit, plus il est riche et intéressant pour les utilisateurs (plus de fonctionnalité pour un logiciel, plus de domaines couverts par une encyclopédie, plus de connaissances scientifiques diffusées). Mais comme l’ont montré les travaux sur l’économie de la connaissance [16], ce stock doit sans cesse être actualisé, parce que les besoins, les connaissances scientifiques, ou les technologies évoluent. La production de nouvelles connaissances (ce que nous appellerons le «flux») doit en permanence améliorer, actualiser, ou simplement entretenir le «stock». Dans le système classique de l’économie de la connaissance, et du droit de la propriété intellectuelle, on donne un droit de propriété aux producteurs du flux, qui peuvent contrôler l’accès au stock et se rémunèrent en facturant cet accès. C’est parce qu’ils anticipent qu’ils pourront tirer rémunération d’un péage sur l’accès au stock que les producteurs investissent dans la production du flux.

On peut reformuler le défi des communautés de création en se demandant pourquoi des contributeurs sont prêts à travailler pour entretenir le flux de connaissance sans tirer rémunération de l’accès. La recherche a montré, depuis une quinzaine d’année, qu’il y des bénéfices à contribuer à la production du flux [17].

Dans les projets de développement de logiciel, le défi intellectuel (résoudre un problème complexe, se comparer à ses pairs) et le besoin de modifier un logiciel pour qu’il réponde à ses besoins propres expliquent la contribution [18,19]. Les motivations à contribuer à Wikipédia sont, en plus du défi intellectuel, l’accès à des pairs pour approfondir ses connaissances, ou la possibilité de voir ses productions exposées sur une plate-forme si populaire [20,21]. Enfin, dans les forums en ligne l’accès à de l’expertise incite à poser des questions, quand l’usage d’une plateforme comme lieu d’organisation de ses connaissances (construire des réponses structurées), en plus du défi intellectuel, et, parfois, l’idée d’être visible dans une arène qui n’est pas sans lien avec un marché potentiel professionnel (communauté de pratiques professionnelles) expliquent que certains répondent [22,23]. Finalement, il semble que pour les participants les plus actifs, et les plus anciens, notamment ceux qui assurent des tâches de régulation des contributions, l’attachement au projet [23,24], et les interactions sociales qu’ils y trouvent [25] soient au c\oeur de la motivation à participer.

Autrement dit, et pour reprendre le modèle de Deci et Ryan [26], des motivations intrinsèques (être efficace dans ces tâches, faire des choses stimulantes, et être reconnu par ses pairs) suffisent à expliquer la contribution, même si les motivations diffèrent selon les tâches. Les contributeurs réguliers ont, semble-t-il un profil particulier [27,24], différent des simples utilisateurs, parce qu’il faut des compétences spécifiques (techniques, notamment, mais aussi par rapport à la capacité à produire une connaissance et à la formaliser, à connaître les «codes» de fonctionnement du projet, voir [28] pour le logiciel libre, [27] pour Wikipédia). Mais au delà de cela, il y aussi l’intérêt, le plaisir de contribuer, que nous avons rappelé plus haut et qui n’est pas partagé par l’ensemble des lecteurs-utilisateurs.

Si un projet qui débute peut avoir des difficultés à attirer des contributeurs, les projets qui ont du succès, au contraire, ont des difficultés à gérer les contributeurs qui proposent du contenu qui n’est pas aligné avec l’intérêt du projet, qui ne respecte pas les «règles» du projet. Il faut arbitrer entre des intérêts individuels parfois contradictoires [29]. Ainsi, l’histoire de Wikipedia est l’histoire d’un accroissement des règles, des critères définissant ce qu’est une bonne contribution [30]. Mais toutes les communautés de création ont des systèmes pour réguler la contribution [31,28,32].

En résumé, le problème n’est pas tant l’incitation à contribuer qu’à bien contribuer. Le passage le passager clandestin n’est pas celui qui ne contribue pas, mais qui, en n’agissant que dans son intérêt propre (chercher à tous pris à imposer sa vision de la connaissance), nuit à l’intérêt collective (proposer un stock de connaissance cohérent). C’est précisément cette volonté de contribuer qui correspond à la consommation de ressources rares et qu’il faut réguler…

Le commun des communautés de création

En effet, l’accès à l’écriture d’un article et à l’exposition de son travail, ses idées et l’accès au groupe de pair, à l’interaction qui produit de l’apprentissage, sont deux ressources rares et rivales [17]. Pour l’expliciter, on peut reprendre une expression célèbre dans l’économie des plateformes: à chaque instant, le temps de cerveau disponible des pairs n’est pas extensible. Dans les forums, il faut réguler les questions pour que les experts puissent se concentrer sur celles qui n’ont pas trouvé de réponse, souvent celles qui présentent le défi le plus important. De même, un thème, un nom d’article dans Wikipédia, ou un package, la mise en forme d’un logiciel dans Debian, sont uniques (il n’y a qu’un article pour le nom «seconde guerre mondiale», même si des articles plus spécialisés peuvent exister, ou qu’un package Firefox). Finalement, une revue scientifique ne produit qu’un certain nombre d’article par an, notamment parce que la ressource des évaluateurs est rare. Si l’on veut que sa contribution, répondant à sa vision de la connaissance, soit prise en compte, discutée et améliorée, il faut accéder à cette ressource unique. Il faut proposer quelque chose de nouveau, ou de meilleur que ce qui existe déjà dans le cadre de ce projet, de cette communautés de création.

L’exemple des revues scientifique permet d’illustrer que parfois plusieurs «communautés de création» ont le même but et que donc l’accès à la ressource rare peut être plus ou moins difficile. Mais aussi que le succès même d’un projet, parce qu’il le met davantage en visibilité, rend la contribution à cette communauté de création plus intéressante et renforce d’autant plus ce besoin de régulation de l’accès à la ressource rivale. La régulation de l’accès à ces ressources est bien au centre du fonctionnement de ces collectifs, de la «structure de gouvernance qui permet d’assurer la reproduction à long terme de la ressource et de la communauté qui la gouverne», pour reprendre les mots de B. Coriat [33]. Il s’agit, du point de vue du projet, de réguler les intérêts individuels basés sur des motivations intrinsèques pour leur faire accepter ses obligations, ses règles collectives [34].

Pour résumer, l’activité dans la production d’un commun de connaissance est la construction – l’écriture – d’un corpus commun partagé (le stock) par la négociation, où chaque membre essaie de mettre en avant sa vision des concepts et soumettant une codification de ceux-ci (la contribution, le flux de connaissance).

Les utilisateurs, définis par le fait qu’ils ont «le droit de profiter des bénéfices non-soustractifs» [35] du commun, sont alors ceux qui accèdent au stock de connaissances. Garantir son accès peut être coûteux ou nécessiter des régulations, pour des questions de congestion (il faut financer sa mise à disposition, les serveurs et les accès Internet), mais les consommateurs sont ceux qui accèdent au droit de participer à la production du flux de connaissance, d’accéder à différentes ressources rares (les espaces de publications, les retours de pairs). Comme dans un commun classique, il y a différents types de «consommateurs» qui ont différents pouvoirs sur ces ressources. Ici aussi, les pouvoirs sont issus de la loi (droit de propriété intellectuelle, notamment), de l’usage, ou de la maîtrise de technologies numériques: la plateforme qui gère les contributions, donc le système d’édition (le logiciel MediaWiki pour Wikipedia, par exemple, la plateforme GitHub pour beaucoup de projets de logiciel libre), mais aussi des outils de surveillance des contributeurs, comme les algorithmes d’analyse automatique des contributions [36]. Ils construisent des rôles hiérarchisés (Tableau 2).

Propriétaire
Responsable Projet / Administrateur
Modérateur/ Responsable article / Responsable package
Contributeur
Utilisateur
Capacité,Accès au stock de connaissancesXXXXX
droit de:Accès au dispositif de productionXXXX
Gestion des contributionsXXX
Exclusion de contributeurXX
Aliénation (code, marque, serveur, etc.)X
Tableau 2: Faisceaux de droits associés avec la position (le rôle), dans le cas des projets collectifs numériques. Adapté de [17].

Les communs de connaissance ne remettent donc pas en cause la définition classique des communs, celle d’Ostrom, ou des acteurs prônant les communs: «Les biens communs, ou tout simplement communs, sont des ressources, gérées collectivement par une communauté, celle-ci établit des règles et une gouvernance dans le but de préserver et pérenniser ces ressources.»3 Notons que cette définition est souvent reprise par la recherche [37,33,38]. Simplement, la régulation s’est déplacée car la consommation s’est déplacée, d’un droit de prélèvement à un droit de sollicitation (d’un espace de publication, d’un pair…)

Ce déplacement, mais aussi les spécificités du numérique, expliquent pourquoi les communautés de création ont été capables de dépasser les difficultés des groupes latents soulevées par Olson.

Les espaces numériques de contribution en connaissance

Il est sans plus facile d’initier de tels projets que des projets de communs classiques, pour deux raisons: leur aspect cumulatif, incrémental [39], et la plus grande facilité à atteindre des personnes très intéressées au projet, grâce à Internet [40].

Chaque incrément de Wikipédia, ou d’un forum (article, couple question-réponse), chaque article scientifique a une valeur en soi. Il n’y a pas d’impératif à atteindre un certain niveau de réalisation, à partir du moment où existe la plate-forme qui permet la contribution, le projet peut être initié. Il n’est donc pas nécessaire de convaincre a priori un certain nombre de contributeurs, ou de réunion une certaine somme, ni d’attendre que la réalisation soit terminée (commun un pont, par exemple). Les plus intéressés démarrent et, avec la croissance du projet, celui-ci gagne en intérêt pour de nouveaux contributeurs, générant ainsi un effet de rendement croissant d’adoption. La situation est un peu différente pour le logiciel, qui demande un niveau minimal de fonctionnalité pour être utilisable. Mais cela convient aux utilisateurs-développeurs à l’initiative des projets de logiciel libre, qui sont prêts à collaborer pour développer un nouveau produit, parce que mieux adapté à leurs besoins [41,42].

Et, c’est le deuxième point, la création d’espaces d’échanges spécialisées sur Internet [40], favorise le début de telles communautés. Il est plus aisé d’atteindre un groupe de potentiels contributeurs intéressés par le projet d’une plate-forme, comme a pu le faire Linus Torvalds en initiant Linux et en recrutant des contributeurs dans une liste du forum Usenet. En contrepartie, il peut être difficile de convaincre de nouveaux contributeurs au-delà du noyau des premiers adopteurs (ibid), qui peuvent avoir des préférences divergentes de celles d’autres contributeurs potentiels [43]. Il peut aussi exister une concurrence entre différents projets similaires sur les objectifs poursuivis (on est là dans une économie des plates-formes presque classique). Si le projet arrive à attirer ces premiers « adopteurs », et toujours en suivant le modèle de Marwell et Oliver (1993), il entre dans une phase d’expansion, qui va demander de mettre en place une organisation de régulation.

Mais la nature incrémentale et surtout modulaire de la production permet aussi de segmenter le projet général en différents sous-projets (différents articles, différents portails, différents fichiers logiciels, différents forums de discussion, etc.) Il se construit une « architecture de participation » [44], qui facilite aussi l’entrée de nouveaux contributeurs [45], car ceux-ci peuvent se concentrer sur la partie qui les intéresse. La régulation se fait d’abord dans ces espaces de contribution, au plus près de la tâche ([46,47] dans le cas de Wikipédia,[48] dans le cas du logiciel libre). Discuter de la tâche peut amener à discuter des règles régulant la tâche, et donc du projet, et faire avancer sa vision de la contribution, et du projet [49,50], à tel point que les contributeurs les plus investis, notamment les méta-contributeurs passent beaucoup plus de temps à gérer le projet, négocier et surveiller qu’à contribuer en connaissance [47,51]. Les contributeurs ont aussi tendance à se spécialiser sur des tâches, des rôles qui les intéressent et qui amènent à des positions diverses dans le projet [19,52,53].

Il y a une «carrière»(Au sens de Becker [54]), dans la contribution [49,23,1,24]: il faut d’abord faire ses preuves dans la tâche d’édition [55], qui va au delà de l’apport en connaissance, mais qui inclus la capacité de négocier la co-construction de cette connaissance avec des participants expérimentés, et notamment des méta-contributeurs [49,56], avant de pouvoir prendre des responsabilités de contrôle, autrement dit avant d’avoir des droits qui vont au delà du droit simple de contribuer.

Le numérique semble favoriser la régulation a posteriori de la consommation de la ressource rare car il faut contribuer pour être évaluer avoir un retour des pairs, alors que dans les communs classiques, les individus ayant le droit de consommer la ressource sont sélectionnés a priori. Ni les règles, ni les espaces de négociation ne sont d’emblée perçus par les individus [57,28], notamment parce qu’il n’y a pas forcément d’accompagnement humain aux premières contributions. Car grâce au numérique, et aux développement d’outils algorithmiques d’analyse des contributions et d’une infrastructure de gestion des collaboration [58,36], la surveillance des contributions, la coordination des différents sous-projets est fortement automatisée. C’est notamment cela qui permet d’assurer une cohérence à l’ensemble des sous-projets dans un projet global. Il est donc plus difficile d’obtenir le statut de consommateurs.

Mais, d’un autre côté, la régulation par les règles, gérée de façon plus ou moins automatique par des intelligences artificielles (bots), offre la possibilité d’apprendre ces règles, qui sont explicitées, et qui peuvent être testées plusieurs fois (essai-erreur). Il est donc possible d’apprendre, et personne n’est exclus a priori de ce rôle. Pour cette raison, la production de connaissance en ligne peut être plus accueillante à la diversité des profils que d’autres projets de communs, mais au prix d’un effort plus important pour devenir contributeur, mais aussi des projets plus classique de production de connaissance, où le statut joue un grand rôle dans le droit de produire ()Voir le travaux sur les communautés épistémiques, notamment: [59]).

Conclusion: régulation et communauté

La gouvernance du projet est basée sur différents espaces hiérarchiques, régis par des règles de fonctionnement, des conventions différentes, qui permettent de réguler les différents objectifs du projet et des sous-groupes. On peut parler de différentes «cités», au sens de l’économie de la grandeur [60] (dont on trouvera une rapide présentation du concept et des différentes «cités» ici).

Le contrôle et la sélection des contributions (de la partie «production» du projet) sont basés sur les principes de la cité industrielle (l’efficacité, la science), donc selon leur respect des règles (de fond et de forme). Le contrôle est procédural [47], et la supervision panoptique, au sens de Foucault [61], ce qui est fortement favorisé par le numérique qui permet de développer des outils automatiques, créant une organisation de contrôle, au sens de G. Deleuze [62]. Ce fonctionnement n’est pas très différente, de celui des plateformes privées (Pour une étude de la régulation dans ces plateformes: [63]). Les consommateurs (les contributeurs) qui restent dans le projet sont ceux qui ont fait l’effort individuel d’apprendre et d’intégrer ces usages, ces règles, ces normes du projet [34]. Néanmoins le contrôle est toujours contestable via des espaces de discussion, notamment si la règle a été mal appliquée, ou dans le cas d’un conflit de règle. Mais c’est toujours au contributeur de prouver sa bonne fois, de négocier la règle dans le cadre de la cité de projet. Il y a aussi des discussions de coordination sur des tâches de production (des auteurs d’un article, des contributeurs à un logiciel), qui peuvent, elles aussi, déboucher sur des discussions plus générales sur le projet global, mais pas toujours [64,65], notamment parce que les méta-contributeurs discutent entre eux des règles du projet, dans des espaces qui leur sont propres (Le Bistrot, par exemple, pour Wikipédia, les listes de discussion des contributeurs dans un projet de logiciel libre), et qui ne sont pas forcément connus des simples contributeurs (ibid). Ces espaces sont plus ou moins ouverts, dans certains projets on n’y accède que par invitation, mais dans tous les cas ne sont écoutés, ou acceptés, que ceux qui ont montré leur capacité à contribuer, et leur intérêt pour le projet, qui ont accepté et sont prêts à défendre l’intérêt commun. Autrement dit, les rôles de méta-contributeur, de «policy-maker» dirait Ostrom, ou de «commoners» [33] sont accordés par les actions des personnes, et sont toujours contestables si l’on sait où sont les espaces de discussion, et dans les espaces de discussion du projet. Ces espaces sont gérés comme des «cités de projet», dont le but est de proposer des idées pour développer le projet, pour faire évoluer ses règles, et où sont reconnues la créativité, la capacité à organiser le collectif via des discussions. On n’est plus dans le contrôle, le «pouvoir sur» de Deleuze, mais dans le «pouvoir avec», tel que décrit par [66] en s’appuyant sur les travaux de M. P. Follett[67]. C’est une différence majeure avec les plateformes privées, dont les propriétaires décident seuls des règles de fonctionnement.

Comme expliqué par M. P. Follett, ces activités de «pouvoir avec» développent les sentiments d’appartenance au projet et au groupe [23,24]. Les participants à la cité de projet forment ainsi une «communauté», c’est à dire un groupe fermé en interaction avec l’extérieur, avec une frontière entre ceux qui participent et y sont reconnus, et les autres[68], ici les simples contributeurs et surtout les utilisateurs. C’est une communauté choisie, par les nouveaux qui ont fait l’effort d’être acceptés, et par les anciens qui les ont acceptés. Ses frontières sont poreuse, sinon la communauté disparaît à plus ou moins long terme, mais à chaque instant les «membres» de la communauté sont capables d’identifier si un contributeur en fait partie, ou non.

Bibliographie

1 F. Rullani and S. Haefliger, “The periphery on stage: The intra-organizational dynamics in online communities of creation,” Research Policy, vol. 42, no. 4, pp. 941-953, 2013.

2 E. Ostrom, Governing the Commons: The Evolution of Institutions for Collective Action.
Cambridge: Cambridge University Press, 1990.

3 P. Flichy, Le Sacre de l’amateur. Sociologie des passions ordinaires à l’ère numérique.
Paris: Le Seuil, 2010.

4 S. Shulz, “Histoire sociologique d’un mouvement ambigu. ce que la critique de l’état nous apprend des formes de communs numériques,” Terminal. Technologie de l’information, culture & société, no. 130, 2021.

5 P. Dardot and C. Laval, Commun: essai sur la révolution au XXIe siècle.
La Découverte, 2014.

6 P.-J. Proudhon, De la capacité politique des classes ouvrières.
E. Dentu, 1865.

7 F. Tönnies, Communauté et société. Catégories fondamentales de la sociologie pure.
Presses universitaires de France, 1887 ed., 2010.

8 O. Weinstein, “Comment comprendre les «communs»: Elinor ostrom, la propriété et la nouvelle économie institutionnelle,” Revue de la régulation. Capitalisme, institutions, pouvoirs, no. 14, 2013.

9 C. Hess and E. Ostrom, “Introduction: An Overview of the Knowledge Commons,” in Understanding Knowledge as a Commons. From Theory to Practice ([69], ed.), pp. 3-26, 2007.

10 C. Hess and E. Ostrom, “A Framework for Analyzing the Knowledge Commons,” in Understanding Knowledge as a Commons. From Theory to Practice ([69], ed.), pp. 41-81, 2007.

11 C. Laval, “”commun” et ”communauté”: un essai de clarification sociologique,” SociologieS, vol. Dossiers: Des communs au commun: un nouvel horizon sociologique?, 2016.

12 S. Vibert, “L’institution de la communauté,” SociologieS, vol. Dossiers: Des communs au commun: un nouvel horizon sociologique?, 2016.

13 M. Olson, The logic of Collective Action.
Cambridge, Mass.: Harvard University Press, 1965.

14 E. Schlager and E. Ostrom, “Property-rights regimes and natural resources: a conceptual analysis,” Land economics, pp. 249-262, 1992.

15 F. Orsi, “Elinor ostrom et les faisceaux de droits: l’ouverture d’un nouvel espace pour penser la propriété commune,” Revue de la régulation, vol. 14, no. 2, 2013.

16 D. Foray, The Economics of Knowledge.
New York: MIT Press, 2004.

17 N. Jullien and K. Roudaut, “Commun numérique de connaissance: définition et conditions d’existence,” Innovations, vol. 3, no. 63, pp. 69-93, 2020.

18 G. Hertel, S. Niedner, and S. Herrmann, “Motivation of software developers in open source projects: an internet-based survey of contributors to the linux kernel,” Research Policy, vol. 32, pp. 1159-1177, 2003.

19 S. K. Shah, “Motivation, Governance, and the Viability of Hybrid Forms in Open Source Software Development,” Management Science, vol. 52, pp. 1000-1014, July 2006.

20 A. Forte and A. Bruckman, “Why do people write for Wikipedia? Incentives to contribute to open-content publishing,” in Proceedings of 41st Annual Hawaii International Conference on System Sciences (HICSS), pp. 1-11, 2008.

21 M. Kamata, D. Kato, K. Kunieda, and K. Yamada, “Web community contributor’s motivation: Japanese wikipedia case study,” in Proc. of the IADIS Int. Conf. Collaborative Technologies 2010, Proc. of the IADIS Int. Conf. Web Based Communities 2010, Part of the MCCSIS 2010, pp. 29-33, 2010.

22 P. J. Bateman, P. H. Gray, and B. S. Butler, “Research note – the impact of community commitment on participation in online communities,” Information Systems Research, vol. 22, no. 4, pp. 841-854, 2011.

23 N. Jullien, K. Roudaut, and S. le Squin, “L’engagement dans des collectifs de production de connaissance en ligne. Le cas GeoRezo,” Revue française de socio-économie, vol. 8, pp. 59-83, novembre-décembre 2011.

24 K. Crowston and I. Fagnot, “Stages of motivation for contributing user-generated content: A theory and empirical test,” International Journal of Human-Computer Studies, vol. 109, pp. 89 – 101, 2018.

25 B. Butler, L. Sproull, S. Kiesler, and R. Kraut, “Community effort in online groups: Who does the work and why?,” in Leadership at a distance: Research in Technologically Supported Work (S. Weisband, ed.), pp. 171-194, Mahwah, NJ: Lawrence Erlbaum, 2007.

26 E. L. Deci and R. M. Ryan, Handbook of self-determination research.
Rochester, NY: University Rochester Press, 2002.

27 S. Dejean and N. Jullien, “Big From the Beginning. Assessing Online Contributors’ Behavior by Their First Contribution.,” Research Policy, vol. 44, no. 6, pp. 1226 – 1239, 2015.

28 I. Steinmacher, T. Conte, M. A. Gerosa, and D. Redmiles, “Social barriers faced by newcomers placing their first contribution in open source software projects,” in Proceedings of the 18th ACM conference on Computer supported cooperative work & social computing, pp. 1379-1392, 2015.

29 S. Greenstein, Y. Gu, and F. Zhu, “Ideological segregation among online collaborators: Evidence from wikipedians,” Working Paper 22744, National Bureau of Economic Research, October 2016.

30 B. Butler, E. Joyce, and J. Pike, “Don’t look now, but we’ve created a bureaucracy: The nature and roles of policies and rules in Wikipedia,” in Proceeding of the twenty-sixth annual SIGCHI conference on Human factors in computing systems, CHI ’08, (New York, NY, USA), pp. 1101-1110, ACM, 2008.

31 A. Halfaker, R. S. Geiger, J. T. Morgan, and J. Riedl, “The rise and decline of an open collaboration system how Wikipedia’s reaction to popularity is causing its decline,” American Behavioral Scientist, vol. 57, no. 5, pp. 664-688, 2013.

32 K. Carillo, S. Huff, and B. Chawner, “What makes a good contributor? Understanding contributor behavior within large Free/Open Source Software projects-A socialization perspective,” The Journal of Strategic Information Systems, vol. 26, no. 4, pp. 322-359, 2017.

33 B. Coriat, “Le retour des communs,” Revue de la Régulation – Capitalisme, institutions, pouvoirs, vol. 14, 2013.

34 G. Dang Nguyen, S. Dejean, and N. Jullien, “Do open online projects create social norms?,” Journal of Institutional Economics, pp. 1-26, 2017.

35 E. Ostrom, “How types of goods and property rights jointly affect collective action,” Journal of theoretical politics, vol. 15, no. 3, pp. 239-270, 2003.

36 R. S. Geiger, “Bots, bespoke, code and the materiality of software platforms,” Information, Communication & Society, vol. 17, no. 3, pp. 342-356, 2014.

37 D. Bollier and S. Helfrich, eds., The Wealth of the Commons: A World beyond Market and State.
Amherst, Mass: Leveller Press, 2012.

38 J.-B. Zimmermann, Les communs Des jardins partagés à Wikipedia.
1000 Raisons, Libre & solidaire, 2020.

39 G. Marwell and P. Oliver, The Critical Mass in Collective Action: A Micro-Social Theory.
Cambridge University Press, Cambridge, 1993.

40 M. V. Alstyne and E. Brynjolfsson, “Electronic communities: Global village or cyberbalkanization?,” in Proceedings of the International Conference of Information System, 1996.

41 E. von Hippel and G. von Krogh, “Open source software and the « private-collective » innovation model: Issues for organization science,” Organization Science, vol. 14, pp. 209-223, March-April 2003.

42 N. Jullien and R. Viseur, “Une typologie des stratégies open-sources grâce au paradigme des modèles économiques,” Systèmes d’information et management, Sept. 2021.

43 J. Goldenberg, B. Libai, and E. Muller, “Riding the saddle: How cross-market communications can create a major slump in sales,” Journal of Marketing, vol. 66, no. 2, pp. 1-16, 2002.

44 A. MacCormack, J. Rusnak, and C. Y. Baldwin, “Exploring the structure of complex software designs: An empirical study of open source and proprietary code,” Management Science, vol. 52, no. 7, pp. 1015-1030, 2006.

45 J. Bessen, “Open Source Software: Free Provision of Complex Public Goods,” in The economics of open source software development, pp. 57-81, Elsevier, 2006.

46 A. Forte, V. Larco, and A. Bruckman, “Decentralization in Wikipedia Governance,” Journal of Management Information Systems, vol. 26, no. 1, pp. 49-72, 2009.

47 D. Cardon and J. Levrel, “La vigilance participative. une interprétation de la gouvernance de Wikipédia,” Réseaux, vol. 2, no. 154, pp. 9-12, 2009.

48 S. O’Mahony, “The governance of open source initiatives: what does it mean to be community managed?,” Journal of Management and Governance, vol. 11, pp. 139-150, May 2007.

49 N. Ducheneaut, “Socialization in an open source software community: A socio-technical analysis,” Computer Supported Cooperative Work (CSCW), vol. 14, no. 4, pp. 323-368, 2005.

50 F. Détienne, M. Baker, D. Fréard, F. Barcellini, A. Denis, and M. Quignard, “The descent of pluto: Interactive dynamics, specialisation and reciprocity of roles in a wikipedia debate,” International Journal of Human-Computer Studies, vol. 86, pp. 11-31, 2016.

51 Z. Wang, Y. Feng, Y. Wang, J. A. Jones, and D. Redmiles, “Unveiling elite developers’ activities in open source projects,” Transactions on Software Engineering and Methodology (TOSEM), vol. 29, no. 3, pp. 1-35, 2020.

52 F. Barcellini, F. Détienne, and J.-M. Burkhardt, “User and developer mediation in an open source software community: Boundary spanning through cross participation in online discussions,” International Journal of Human-Computer Studies, vol. 66, pp. 558-570, July 2008.

53 O. Arazy, F. Ortega, O. Nov, L. Yeo, and A. Balila, “Functional roles and career paths in wikipedia,” in Proceedings of the 18th ACM Conference on Computer Supported Cooperative Work & Social Computing, pp. 1092-1105, ACM, 2015.

54 H. S. Becker, Outsiders. Studies in the Sociology of Deviance.
Free Press, 1963.

55 V. S. Sinha, S. Mani, and S. Sinha, “Entering the circle of trust: developer initiation as committers in open-source projects,” in Proceedings of the 8th Working Conference on Mining Software Repositories, pp. 133-142, 2011.

56 M. Burke and R. Kraut, “Taking up the mop: Identifying future wikipedia administrators,” in Conference on Human Factors in Computing Systems – Proceedings, pp. 3441-3446, 2008.

57 A. Halfaker, A. Kittur, and J. Riedl, “Don’t bite the newbies: How reverts affect the quantity and quality of wikipedia work,” in Proceedings of the 7th International Symposium on Wikis and Open Collaboration, WikiSym ’11, (New York, NY, USA), ACM, Oct. 2011.

58 C. R. De Souza, D. Redmiles, and P. Dourish, “ »Breaking the code », moving between private and public work in collaborative software development,” in Proceedings of the 2003 International ACM SIGGROUP conference on Supporting group work, pp. 105-114, 2003.

59 P. Cohendet, F. Créplet, and O. Dupouet, “Interactions between epistemic communities and communities of practice as a mechanism of creation and diffusion of knowledge,” in Interaction and Market Structure (J.-B. Zimmermann and A. Kirman, eds.), Londres: Springer, 2001.

60 L. Boltanski and L. Thévenot, De la justification. Les économies de la grandeur.
Paris: Gallimard, 1991.

61 M. Foucault, “The subject and power,” Critical Inquiry, vol. 8, no. 4, pp. 777-795, 1982.

62 G. Deleuze, Foucault.
Les éditions de minuit, 1986.

63 T. Gegenhuber, M. Ellmer, and E. Schüßler, “Microphones, not megaphones: Functional crowdworker voice regimes on digital work platforms,” Human Relations, p. 0018726720915761, 2020.

64 C. Bird, D. Pattison, R. D’Souza, V. Filkov, and P. Devanbu, “Latent social structure in open source projects,” in Proceedings of the 16th International Symposium on Foundations of software engineering (SIGSOFT), pp. 24-35, ACM, 2008.

65 K. Panciera, A. Halfaker, and L. Terveen, “Wikipedians are born, not made: a study of power editors on Wikipedia,” in Proceedings of the ACM 2009 international conference on Supporting group work, GROUP ’09, (New York, NY, USA), pp. 51-60, ACM, 2009.

66 A. Carlsen, S. R. Clegg, T. S. Pitsis, and T. F. Mortensen, “From ideas of power to the powering of ideas in organizations: Reflections from follett and foucault,” European Management Journal, vol. 38, no. 6, pp. 829-835, 2020.

67 M. P. Follett, “Community is a process,” The Philosophical Review, vol. 28, no. 6, pp. 576-588, 1919.

68 S. Bowles and H. Gintis, “Social capital and community governance,” The economic journal, vol. 112, no. 483, pp. F419-F436, 2002.

69 C. Hess and E. Ostrom, eds., Understanding Knowledge as a Commons. From Theory to Practice.
Cambridge, MA: MIT Press, 2007.


Notes

1Cette présentation s’appuie fortement sur la lecture des communs de [8]

2Les 8 «règles» principales de gestion des communs sont présentées ici.

3 Définition issue du « Portail des communs », porté par «un collectif d’acteurs de l’économie des biens communs», mais qu’on retrouve, avec quelques nuances chez d’autres collectifs, comme la Coop des communs. Nous préciserons simplement que ces sont des ressources «rivales», ce qui est sous-entendu par les termes «préservation» et surtout «pérennisation», mais pas explicitement mentionné.

Sur les conditions d’existence d’un commun numérique de connaissance.

Le terme « commun numérique de connaissance » (digital knowledge common en anglais) s’est diffusé dans la recherche et chez les praticiens du numérique pour décrire les projets de production collective de connaissance en ligne.

Ce terme fait implicitement référence aux travaux d’Ostrom & Ostrom, soulignant la capacité de ces projets à organiser et gérer une action collective. Pourtant, la production de connaissance, ressource a priori non rivale, est assez éloignée des activités portées par les projets classiques de gestion de ressources rares (et surtout rivales), où la régulation de l’accès et de l’exploitation des ressources est au cœur du fonctionnement de ces collectifs.

En précisant mieux ce qu’est la ressource partagée, et en quoi cette ressource est limitée, à l’aide de trois exemples d’action collective en ligne (Debian (ou un autre groupe logiciel libre), Georezo, Wikipedia), nous montrons, Karine Roudaut et moi, d’abord pourquoi des mécanismes de régulation d’accès à la ressource sont utiles, et acceptés par les participants, comme condition nécessaire d’accès à la ressource partagée. En cela, les mécanismes de fonctionnement des actions collectives en ligne paraissent similaires à ceux analysés dans la gestion de l’accès à des ressources classiques, physiques, telles qu’étudiées par E. Ostrom. Nous soulignons ainsi que l’on peut en effet parler de « ressource commune numérique » et donc de « commun numérique de connaissance », et que le cœur de l’analyse de tels collectifs doit être, comme pour les communs classiques, les mécanismes de régulation de l’accès et de l’exploitation de cette ressource, pour comprendre comment, et pourquoi, ces collectifs fonctionnent.


Lien vers une version de l’article
accepté dans la revue Innovations

[:fr]Wikipédia en quelques mots[:]

[:fr]Wikipédia, sixième site le plus visité mondialement, est probablement le plus grand projet de création numérique en ligne actuellement. Il a été initié en 2001 comme un projet support du projet Nupédia (voir l’article «Histoire_de_Wikipédia» dans Wikipédia), une encyclopédie en ligne rédigée par des experts et lancée par Larry Sanger et Jimmy Wales. Basé sur un Wiki pour permettre la rédaction collaborative d’articles, ouvert aux contributions amateurs et annoncé notamment sur Slashdot.org, un site d’information sur le logiciel libre, Wikipédia se développe rapidement (20000 articles pour le Wikipédia en anglais en septembre 2001, création de projets dans d’autres langues, dont l’allemand et le français en mars 2001). En 2002, le logiciel MediaWiki est créé pour supporter le projet, qui est géré par une fondation de droit américain depuis 2003 et qui a dépassé les 500000 articles pour le Wikipédia en anglais début 2004.
En 2015, il y avait environ 4000 contributeurs actifs, chaque mois, sur le Wikipédia en français, c’est-à-dire 4000 personnes qui ont fait cinq modifications, ou « edits », ou plus, dans le mois. Depuis sa création, en 2001, plus de 700.000 personnes se sont enregistrées sur le Wikipédia en anglais pour contribuer. Du côté de l’usage, les sites gèrent plus de 20 milliards de pages vues par mois (917 millions pour le Wikipédia en français), avec un nombre croissant de photos et autres documents non textuels (les photos stockées sont passées de 12 à 26 millions entre 2014 et 2015), tout en permettant l’évolution permanent du contenu (12,5 millions d’édits). Le modèle économique du projet repose donc sur le volontariat pour la production du contenu (motivation et caractéristiques des contributeurs), et sur les dons des utilisateurs pour le financement de l’infrastructure permettant la production de ce contenu (le logiciel wiki « MediaWiki ») et la diffusion de ce contenu (les serveurs et la bande passante). La maintenance du logiciel de production, les serveurs, et la bande passante ont coûté, sur l’année 2014-2015, environ 21 millions de dollars à la Wikimédia Foundation, qui gère ce projet, sur un budget total de plus de 50 millions de dollars (d’après ses bilans financiers).
Il faut approfondir les caractéristiques des contributeurs (qui contribue, et pourquoi ?), de la connaissance produite et des caractéristiques des utilisateurs. Le lecteur intéressé par le processus de production pourra consulter l’article « Wiki » de l’encyclopédie étudiée, ou la revue de la littérature consacrée à Wikipédia réalisée par Jullien (2012).

Caractéristiques des contributeurs. Une des caractéristiques principales des communautés épistémiques en ligne* est que la participation est volontaire et qu’elle ne conditionne pas l’utilisation, qui est anonyme. Si l’on suit l’analyse de l’économie classique, ce sont des conditions favorisant les phénomènes de passager clandestin, car participer ou non n’apporte pas de changement à l’utilité que l’on retire de l’usage du bien. Comme dans les autres communautés épistémiques, les motivations à participer à Wikipédia sont d’abord intrinsèques, pour ne pas dire égoïstes (Jullien, 2012) : défi à relever, passion pour la documentation historique, côté amusant, auto-formation. Les motivations sociales (se faire connaître ou reconnaître, interagir avec d’autres) ou « morales » (participer à la création d’une base de connaissance, mettre la connaissance à portée de tous) ne semblent pas expliquer l’entrée dans la contribution, même si elles peuvent être importantes pour ceux qui finissent par beaucoup s’impliquer et expliquent l’alignement entre compétences « professionnelles » et responsabilité dans le projet, notamment au niveau de la direction du projet. Les personnes qui sont au bureau de la fondation Wikimédia (le «board of trustees»), et qui participent à la définition de la stratégie de l’association, qui gère la marque, le site et les nouveaux projets, ont aussi de fortes compétences en informatique, ou en classement de l’information (sciences de l’information, de la communication, documentaliste, journaliste, informaticien). Finalement, ce qui fait une partie du succès du projet n’est pas tant d’avoir créé un système d’incitation à la participation, qui semble assez classique, mais d’avoir construit des règles et des filtres permettant d’organiser la contribution.

Les règles de la participation et de l’organisation du travail S’il n’y a pas de barrière à l’entrée (ni à la sortie d’ailleurs), un premier filtre à la participation est le niveau de motivation: dans la société de l’abondance informationnelle, où les sollicitations sont nombreuses, ne viennent que ceux qui ont la capacité à s’intéresser au sujet traité, et, pour les communautés épistémiques comme Wikipédia, de faire des contributions originales au projet, c’est-à-dire proposant une pièce de connaissance nouvelle. Dans la pratique, on constate aussi de nombreuses barrières « invisibles », au delà des sujets : sans capacité en informatique (tant en termes de matériel qu’en termes de maîtrise de l’outil), sans aisance dans la lecture et l’écriture, la plupart des projets en ligne sont inaccessibles. Ainsi, pour Wikipédia, le contributeur type est, d’après les enquêtes, un homme, de formation supérieure (licence ou plus), âgé de plus de trente ans (Dejean & Jullien, 2015). Wikipédia est une agrégation d’articles, construits sur le même format, avec les mêmes règles de base dans l’écriture (dont la vérifiabilité des faits, la neutralité des points de vues, la publication sous une licence ouverte), qui forment les « cinq piliers du projet ». Mais au-delà, les articles sont indépendants, leur existence et leur qualité dépendent de l’implication, donc de l’intérêt des contributeurs. Cela explique, en partie, que des articles de qualité très variable puissent cohabiter, et que certains domaines soient moins bien couverts que d’autres.

Qualité de la production et utilisateurs. L’évaluation de la qualité d’une œuvre ne peut se faire indépendamment de la définition de l’utilisateur : interviennent notamment le degré d’expertise (de profane à expert), la situation de l’utilisateur, qui cherche à produire de la connaissance ou simplement à la comprendre, et son intention vis-à-vis de l’information reçue, qui peut largement varier d’une collecte de renseignements factuels à de l’information ou de la recherche des références de fond (Lewandowski & Spree 2011). S’ajoute à cela, pour les sites en lignes comme Wikipédia, qu’il est difficile de connaître les utilisateurs, car les consommations (téléchargement, fréquentation du site) sont, pour la plupart, anonymes. Il n’y a pas, malheureusement, d’étude permettant d’évaluer la diffusion de l’usage de Wikipedia dans la population, qui serait, par exemple, basée sur l’étude des usages d’Internet par pays. Enfin, la qualité d’un produit, ici les articles, ou d’un champ de connaissance (la médecine), peut être évaluée par des mesures externes (comparaison avec d’autres produits, analyse par des experts), ou des mesures internes (ce que le projet considère comme un bon article, et qu’il labellise comme tel « article de qualité » ou « bon article »).

Ceci étant, la plupart des études, et surtout les plus récentes montrent que Wikipédia est aussi pertinent et juste (pas plus d’erreurs dans les articles) que d’autres sources, et beaucoup plus complet (1,7 million d’articles dans le Wikipédia en français, contre 0,1 dans l’Encyclopédie Universalis, par exemple) et, ce, que l’on se restreigne à un champ particulier (la formation des infirmières), que l’on fasse évaluer l’information disponible par des experts, ou que l’on réalise des comparaisons avec des ouvrages de référence. Elles montrent aussi que, quelque soit le référentiel choisi, une mesure fiable de la qualité d’un article est sa taille (le nombre de caractères) et, en deuxième lieu, le nombre d’édits, c’est-à-dire de modifications de l’article (Jullien, 2012).

En partenariat avec l’association Wikimédia France, nous avons réalisé deux enquêtes (en 2011 et 2015) auprès des utilisateurs du Wikipédia en français, enquêtes qui permettent, cependant, de se faire une idée des usagers et des usages. Les personnes ayant répondu (environ 16000 à chaque fois), et qui étaient, à plus de 80 %, françaises, sont plus jeunes que la moyenne des internautes, et beaucoup plus nombreuses à avoir une « profession » où la recherche d’information tient une place importante : les lycéens et étudiants (on retrouve l’effet d’âge), mais aussi les cadres, avec une grosse sous-représentation des ouvriers et des employés. Il y a, cependant, des signes de diffusion de l’usage, puisque, entre 2011 et 2015, la population des retraités, et plus généralement des plus de trente ans qui a répondu, est en forte augmentation.

Si l’on s’intéresse à ce que les personnes vont chercher sur Wikipédia, on constate deux choses d’après cette enquête : il y a plus d’usages personnels que professionnels, et les rubriques les plus consultées sont celles qu’on consulte dans un dictionnaire encyclopédique classique (personnalités, histoire et géographie, et, dans une moindre mesure, art et littérature, technologies et sciences). L’utilisation de Wikipédia reste proche de celle du Quid (qui en a été d’ailleurs une de ses premières « victimes ») ou d’un dictionnaire encyclopédique étendu, plus que d’une encyclopédie scientifique pointue. Et, plus généralement, comme l’a souligné Fallis (2008), la qualité de Wikipedia ne doit pas être évaluée en comparaison avec une encyclopédie non accessible (ou seulement dans des bibliothèques, pas toujours ouvertes, ou pour un coût très supérieur qui peut exclure une partie de la population), mais en tenant compte de la façon dont les gens recherchent de l’information aujourd’hui (en ligne). Wikipédia, par son existence et aussi la qualité de la connaissance à laquelle on accède, a amélioré l’accès à la connaissance. Cela n’empêche pas de soulever les problèmes posés par un potentiel monopole de ce site sur la production de la connaissance.

Un exemple de «commun informationnel. Il peut sembler paradoxal d’appeler des projets comme Wikipédia, des « communs ». En effet, leur production est accessible sans barrière à l’entrée, alors que les communs traditionnels (le plus souvent fonciers) sont caractérisés par la co-gestion par les utilisateurs d’un bien avec, souvent, un mécanisme d’exclusion pour ceux qui ne sont pas membres du « commun. Le cadre de Hess et Ostrom (2006), permet de décrire ces collectifs et les biens qu’ils produisent, et de lever néanmoins cet apparent paradoxe. Il distingue les caractéristiques du collectif, ou les « inputs » (caractéristiques des participants, motivations, « règles d’usage et de contribution », dispositifs techniques), qui encadrent la façon dont les gens interagissent (« l’ère d’interaction », ou le processus de production), conduisant à des « résultats » (la production).
Dans le cas Wikipédia, comme dans tous les projets de production de connaissance en ligne, si les « résultats » sont effectivement accessibles à tous, les règles de production et les comportements d’interaction font que, si chacun peut théoriquement participer à la production, n’importe qui n’y a pas accès. Il y a alors une « communauté » de développeurs, qui s’auto-sélectionnent (par leur motivation et leur capacité à rédiger un texte de vulgarisation scientifique, notamment), et qui présente des caractéristiques proches d’une organisation de production d’un « bien commun » informationnel (ou encore d’une communauté épistémique en ligne), et des utilisateurs de la production, avec peu de liens entre eux. C’est, d’ailleurs, une différence avec le logiciel libre*, où, notamment parce que l’utilisation est plus compliquée, il y a deux communautés liées : une communauté épistémique de production et une communauté de pratique (les utilisateurs), qui sert souvent de bassin de recrutement de nouveaux contributeurs pour la première communauté.

Finalement, pour renvoyer à la discussion sur les communs, servir les utilisateurs n’est pas l’objectif principal de ces communautés. Ce qui est important est d’intégrer les contributeurs et de faire fonctionner la communauté (la production du commun), c’est-à-dire que les participants continuent à créer et à améliorer les articles, selon la politiques et les règles fixées par la Fondation Wikimedia et les administrateurs des sites. Que cela serve au-delà (utilisation du bien public produit) est intéressant (recrutement possible de nouveaux participants, importance de la base installé quand concurrence entre standards, ego des participants), mais ce n’est pas le principal.

Le modèle « économique » de cette communauté repose sur deux piliers. D’une part, la contribution volontaire des participants, qui ont des motivations non financières pour la plupart. L’objectif de l’organisation est d’augmenter, ou au moins de stabiliser le nombre de ces contributeurs, sachant que plus il y a d’articles et de contenu, plus il est difficile de proposer des contributions. L’usage est financé par le don, mais les sommes restent modestes (20 millions de dollars représentent moins de dix centimes par utilisateur et par an). D’autre part, la base d’information est copiable. Si la fondation ne parvenait plus à maintenir le projet, des copies locales pourraient émerger. Comme pour les projets de logiciel libre, et dans un phénomène de rendement croissant d’adoption classique, la dynamique du projet est sa meilleure garantie de survie : tant que les informations sont mises à jour, les utilisateurs et les contributeurs ont intérêt à continuer à utiliser cette plate-forme.
Un des effets pervers possible est que ce projet acquiert le monopole de mise à disposition de la connaissance, notamment en direction du grand public. Déjà, Google propose, dès que possible, la page Wikipédia correspondant au critère de recherche, concentrant encore plus les consultations sur cette seule plateforme. Ce risque-là, celui de la pluralité des idées, est sans doute plus important, au moins à moyen terme, que le risque de disparition de Wikipédia.

Pour conclure, on peut dire qu’en tant qu’exemple de commun informationnel, Wikipedia a un fonctionnement classique, même si sa taille, comme son impact sur l’accès à la connaissance, sont, eux, hors du commun.

Repères Bibliographiques

  • Dejean S. & Jullien N., Big from the beginning: Assessing online contributors’ behavior by their first contribution, Research Policy 44(6) · July 2015.
  • Fallis, D. (2008). Toward an epistemology of Wikipedia. Journal of the American Society for Information Science and Technology, 59(10), 1662-1674.
  • Hess C. & Ostrom E., « Introduction: An Overview of the Knowledge Commons », in Hess C. & Ostrom E. (ed.), Understanding Knowledge as a Commons. From Theory to Practice, 2006, pp. 3-26.
  • Jullien N., “What We Know About Wikipedia: A Review of the Literature Analyzing the Project(s)”, 2012, http://ssrn.com/abstract=2053597
  • Lewandowski, D., & Spree, U. (2011). Ranking of Wikipedia articles in search engines revisited: Fair ranking for reasonable quality?. Journal of the American Society for Information Science and technology, 62(1), 117-132.

[:]

[:fr]Qu’est-ce qu’un Wiki?[:]

[:fr]« Un wiki est une application web qui permet la création, la modification et l’illustration collaboratives de pages à l’intérieur d’un site web. Il utilise un langage de balisage et son contenu est modifiable au moyen d’un navigateur Web. C’est un outil de gestion de contenu […] » (article Wiki de Wikipédia ). Dans leur travail sur les communs de la connaissance (« Knowledge Commons »), comme pour les autres communs, Hess et Ostrom ont souligné l’importance des technologies utilisées dans l’organisation et la structuration de ces communs. Les logiciels wiki, dont MediaWiki — le logiciel qui organise la production collaborative de Wikipédia — sont des bons exemples de ce fait.

Caractéristiques et fonctionnement d’un wiki. Ce qui caractérise un système « wiki » par rapport à d’autres systèmes de gestion de contenu en ligne, ou Content Management System (« CMS »), tient en son objectif principal, à savoir la rédaction collaborative des pages, en vu de créer collectivement une base de connaissance. Celle-ci peut être accessible de façon publique ou privée, et sa création ouverte à tous ou non, selon la synthèse du schéma suivant :

Accès public Accès privé
Modification ouverte à tous Wikipédia, basé sur le wiki MediaWiki, ou site plus spécialisés, comme les sites d’utilisateurs de jeux en ligne (par exemple Minecraft)

Non pertinent

Modification restreinte et soumise à autorisation Sites web basés sur un moteur de Wiki. Exemple : site de e-commerce bestvente, basé sur le wiki Xwiki, un wiki open-source commercialisé par l’entreprise (française) éponyme Site intranet, système interne de gestion des connaissances. Par exemple, la NASA utilise des wikis pour coordonner le partage de connaissances d’équipes de taille moyenne (~50 personnes)

Le contrôle des accès en édition est fait par la gestion des comptes utilisateurs, comme dans la plupart des CMS.
Les wiki conservent un historique des modifications, ce qui permet de revenir facilement à une version antérieure, en cas d’erreur ou de modification intempestive par exemple. Enfin, le contenu est faiblement structuré, grâce à des mots-clefs et des liens (hypertextes) entre les pages.

L’avantage de cette organisation est que l’on peut développer des contenus spécifiques ou plus généraux, qui répondent aux besoins des créateurs, et éventuellement à la demande des utilisateurs, en récupérant par exemple une partie du contenu d’autres articles. L’inconvénient en est que l’information peut être dispersée dans différentes page et, surtout, qu’il est difficile d’avoir une vue sur l’information disponible et l’information manquante. L’usage d’un wiki semble se justifier particulièrement quand il s’agit de construire à plusieurs un contenu écrit, soit que plusieurs sous-parties, diverses entrées nécessitent d’être produites (encyclopédie), soit qu’il faille collaborer, se compléter ou se répondre dans la production d’un contenu (gestion de projet, ou article d’une encyclopédie) et, ce, que l’accès en production ou en lecture soit public ou restreint (par exemple limité au membres d’une organisation, Poole et Grudin. 2010). Je vais détailler un exemple de wiki, outil-support d’une production encyclopédique (Wikipédia) et un exemple de wiki outil-support de gestion de projet, qui me serviront à préciser le fonctionnement de la production d’un wiki.

L’exemple d’un outil-support d’une production encyclopédique : Wikipédia. Le système de gestion de contenu de Wikipédia, MediaWiki, a été développé par la fondation Wikimedia spécifiquement pour le projet. C’est un logiciel libre, qui est utilisé dans d’autres projets, de la fondation ou non. Toute personne peut contribuer, même de façon anonyme.
Le nombre de contribution par contributeur enregistré suit une loi de puissance (un noyau de contributeur réalise la majorité des édits ; une majorité ne fait que quelques contributions), comme dans la plupart des projets en ligne, et cela quelle que soit la langue étudiée.

Si les futurs gros contributeurs sont identifiables dès leur première contribution, plusieurs profils se dégagent : des « experts », qui se focalisent sur le contenu de certains types de page, et qui évoluent vers la coordination d’articles (ou de certain domaines du savoir) ; des contributeurs, moins nombreux, qui assurent la cohérence de l’ensemble du système, soit en faisant des liens entre les pages, soit en s’investissant dans les interactions sociales, la construction de la communauté. Ce sont ces derniers qui prennent des responsabilités d’« administrateur », ou « admin » (dans Wikipédia. L’« admin » est une personne élue par les « membres » de Wikipédia, c’est-à-dire que toutes les personnes enregistrées (et, en pratique, ayant fait plus de 50 contributions, ou « edits »), qui peuvent donner un avis (pendant une période d’environ deux semaines). La candidature est acceptée par les « bureaucrates », des admins aux pouvoirs étendus, s’il y a une forte majorité d’avis positifs. L’admin est chargé de faire respecter les règles de la plateforme, d’arbitrer les conflits, et qui peut exclure des contributeurs). Ce sont des rôles assez classiques dans les projets en ligne, qui renvoient aussi à l’organisation modulaire du projet, où chaque sous-groupe, chaque sous-projet (l’unité de projet étant ici l’article) fonctionne de façon relativement autonome des autres projets.
Ce système est géré par de nombreux programmes (les « robots », ou « bots »), qui permettent de « monitorer » les éditions pour traquer les attaques sur des articles (« vandalisme »), de corriger des fautes automatiquement, mais aussi de créer automatiquement des articles (notamment en géographie, en récupérant des listes de villes, ou en important des sujets d’articles d’une langue à l’autre). Ainsi, 95 % des edits du Wikipedia en vietnamien sont réalisés par des robots, contre 5% pour le Wikipedia en anglais (Steiner, 2014).

L’exemple d’un outil-support de gestion de projet : les wikis de la Nasa. La NASA maintient plusieurs espace wiki, ouverts ou non au public (pour la plupart fermés). Un exemple d’utilisation est particulièrement mis en avant, celui du wiki du groupe qui gère les activités extra-véhiculaires (sorties dans l’espace), ou EVA group. Ce groupe, relativement petit (50 personnes) et concentré sur une tâche assez spécifique, doit gérer l’ensemble des informations concernant les matériels utilisés dans ces missions, leur mise à jour et leur obsolescence. Comme pour l’exemple de Wikipédia, d’une part, la liste des contributeurs réguliers est beaucoup plus faible que celle des utilisateurs (807 utilisateurs annoncés, 207 actifs, 50 personnes dans le groupe de contributeurs, EVA group). D’autre part, de nombreux outils complémentaires de tri de l’information (des « bots »), sont nécessaires au bon fonctionnement de la gestion et de l’accès aux connaissances (outils d’analyse sémantique et outils de suivi des contributions). Depuis, d’autres équipes et d’autres services de la NASA ont souhaité créer leur wiki, et chaque demande a été traitée comme la création d’un projet propre de gestion de connaissance, même si les mêmes outils ont été utilisés.

Wiki et communs. L’organisation modulaire des projets wiki est un facteur-clé de succès dans les projets en ligne car il permet une très petite équipe de travailler sur le même fichier, en évitant les problèmes de congestion : trop de personnes intervenant en même temps, ou sur la même chose, générant des difficultés pour se répartir les tâches, ou pour converger vers un produit fini. Ce résultat est classique dans la programmation informatique (à un certain niveau, ajouter plus de gens à un projet ne peut que le ralentir, mais quand il y a beaucoup de fichiers sur lesquels travailler, on peut espérer que les gens se répartissent en conséquence), et on le retrouve dans Wikipédia et dans la diffusion des wiki au sein de la NASA. La coordination entre les modules (les articles de Wikipédia, intégrés dans des « catégories »), et l’organisation de cette coordination dépend du niveau d’interdépendance entre les modules. Ainsi, on est plutôt sur une coordination faible dans les « plateformes » du type wiki, qui sont une agrégation de modules autonomes ou faiblement reliés (Wikipedia, Debian, mais aussi les forums spécialisés) : la coordination se fait par la structure, au niveau des règles de « mise en page » ou de mise en forme, de la cohérence de l’ensemble, des règles d’acceptabilité d’un nouvel article, de l’outil d’édition (le wiki) et des outils d’automatisation des tâches de traitement de l’information (les « bots »).

Cela explique, en partie, que des articles de qualité très variable puissent cohabiter, puisque la qualité de l’un n’impacte pas la qualité de l’autre, et que cette qualité dépend de l’intérêt et des compétences d’un groupe pour le sujet. Cependant, globalement, il semble que, dans la ligné de ce qu’a montré Uzzi (2008) sur l’efficacité des équipes, produire un article de qualité, ou un projet de partage de connaissance qui fonctionne, demande un mélange équilibré de contributeurs expérimentés, avec quelques novices (pour la créativité, l’apport de nouvelles sources d’information), et de contributeurs spécialisés dans le contenus et dans le fonctionnement du site et l’administration (pour le respect des règles et la cohésion) (Arazy et al., 2011)

Repères bibliographiques

  • Arazy, O., Nov O., Patterson, R. & Yeo< L. (2011). « Information quality in Wikipedia: The effects of group composition and task conflict”, Journal of Management Information Systems<, 27(4), 2011, pp. 71-98
  • Erika Shehan Poole E. S. and Grudin J. (2010). “A taxonomy of Wiki genres in enterprise settings”, in Proceedings of the 6th International Symposium on Wikis and Open Collaboration (WikiSym ’10). ACM, New York, NY, USA, 2010
  • Hess C. and Ostrom E., « Introduction: An Overview of the Knowledge Commons », in Hess C. & Ostrom E., (ed.), Understanding Knowledge as a Commons. From Theory to Practice, 2006, pp. 3-26.
  • Jullien N., “What We Know About Wikipedia: A Review of the Literature Analyzing the Project(s)”, http://ssrn.com/abstract=2053597
  • Steiner, T. « Bots vs. wikipedians, anons vs. logged-ins (redux): A global study of edit activity on wikipedia and wikidata. » Proceedings of The International Symposium on Open Collaboration. ACM, 2014.
  • Uzzi B., « A social network’s changing statistical properties and the quality of human innovation », Journal of Physics A: Mathematical and Theoretical 41, 22, 2008, pp. 224023-224035

[:]