Dans les années 80, les professions “de l'information”, plus précisément les professions de toute la chaîne de traitement documentaire de l'information, des bibliothèques aux banques de données, pensaient que l'attribution d'une “valeur” à leur activité allait renforcer leur rôle et leur place. Les intermédiaires contribuaient à ajouter de la valeur à des documents, et l'ensemble de cette activité allait créer un nouveau secteur économique. La mesure de cette valeur, qui restait en débat, se retrouvait principalement dans les modes de financement des “recherches en ligne” (forfait au temps, au document ?), dans la mesure de l'apport d'information à l'innovation (les “facteurs critiques de succès” de Jakobiak), ou dans la marchandisation des activités d'intermédiation (la vente des “notices” documentaires ou bibliographiques plutôt que la coopération). Pour stabiliser cette industrie et donner tout son vernis à cette croyance que les “services informationnels” de l'ère “post-industrielle” seraient un marché porteur, on s'est tourné vers le “droit d'auteur” pour trouver un cadre juridique afin d'asseoir cette perspective économique. Jusqu'à justifier, au sein même du service public, le caractère auctorial des activités de clercs. Avec cet épitomé qui consiste à instaurer un “droit d'auteur” sur les notices bibliographiques produites par les institutions publiques.
Ne nous cachons pas derrière des boîtes d'allumettes,
cette “marchandisation de l'information” ne nous vient pas de quelque quartier général étranger. La France, et notamment à l'époque la DBMIST (Direction des Bibliothèques, des Musées et de l'Information Scientifique et Technique) au sein du Ministère de l'Education, est le pays qui a soutenu le plus profondément cette idée. Et qui dès 1992 a transformé ses diverses lois concernant la propriété “littéraire et artistique” et la propriété “industrielle” en un “code de la propriété intellectuelle”, justifiant par là-même la mise en place élargie d'un “droit de monopole” sur toutes les activités intellectuelles, indépendamment au bout du compte de leur place dans la chaîne de l'innovation, de la recherche, de la culture ou de la connaissance.
Cet attachement à la marchandisation des productions de l'esprit se retrouve aujourd'hui, quand la France est le seul pays européen à refuser de transcrire dans son droit national les exceptions prévues par l'Union Européenne dans la Directive EUCD [ Directive EUCD du 22 mai 2001 ], notamment les exceptions liées à l'éducation et à la lecture publique. Les Etats-Unis ont, pour leur part, connu durant toutes les années 90 des mouvements associatifs, menés notamment par par l'ALA (American Library Association) et les associations scientifiques (American Computing Machinery, et dix neuf autres associations) pour éviter qu'un “droit de propriété intellectuelle” ne soit apposé sur les “faits” et les “données” au travers d'un droit “sui generis” sur les bases de données. Dans le même temps, notre pays votait “à l'unanimité” un tel droit... au nom de la transcription d'une directive européenne dont la France et ses mêmes industriels de l'information avaient été les promoteurs.
Comment concilier cette pratique de marchandisation aggravée et l'idée générale que le “droit d'auteur” resterait en France un fondement moral et social du respect accordé par toute la société aux créateurs et aux innovateurs ? Alors que chacun s'esbaudit sur le “droit moral” sensé accorder une supériorité à notre droit d'auteur, nul ne remarque que de l'eau coule sous les ponts, et que le mythe de l'auteur romantique sert aujourd'hui bien plus à cacher la forêt d'une industrialisation de la culture et demain de la connaissance, qu'à protéger les auteurs, et plus largement ce qui relève de la “création”.
Mais les mythes ont la vie dure. Et Beaumarchais doit se retourner dans sa tombe quand on utilise son nom pour défendre des “zayant-droit” plus que des créateurs, et des entreprises transnationales parmi les plus riches de la planète plus que des innovateurs. Cependant, cette tradition bi-séculaire, et la prégnance intellectuelle des promoteurs de “l'industrie de l'information”, dont le “minitel”, et ses micro-paiements sur la facture téléphonique était un des symboles, a conduit notre pays à accueillir de manière frileuse l'irruption de l'internet, ce réseau dans lequel les documents circulaient “gratuitement” ; au sein duquel des enseignants, des chercheurs, puis très vite des bibliothécaires (1993 : fondation de BIBLIO-FR) et maintenant tout un chacun, créateur de blog ou de sites associatifs, peut proposer ses productions “à la cantonade”... et pire encore, le fait !
Que n'a-t-on entendu de mises en garde, de réticences, de blocages durant toutes les années 90 ? Ainsi du CNRS, aujourd'hui un des principaux supports du mouvement pour le libre-accès à la science, mais qui en 1996 encore demandait expressément à ses membres de ne pas mettre sur internet les articles scientifiques. Ainsi les critiques permanentes sur la validité des informations “gratuites” de l'internet. Ainsi la déqualification des activités d'échange et de coopération technico-créative qui émergent en permanence sur ce réseau (modèle P2P s'étendant de la technique à des pratiques sociales et économiques [P2P and human evolution : peer to peer as the premise of a new mode of civilization, Michel Bauwens – 1 mars 2005 ] ...
Car ce qu'annonce l'internet, et la diffusion volontaire de documents sur ce réseau, ce que Michel Vivant appelle le “domaine public consenti” [ droits d'auteur et droits voisins dans la société de l'information, rapport de synthèse par Michel Vivant ], c'est le retour d'un débat économique et philosophique fondamental : qu'est-ce qui est de l'ordre des biens communs, comment peut-on les gérer ? les défendre ? Et comment ces interrogations peuvent-elles se retrouver dans le domaine de l'immatériel, de l'information, de la connaissance et de la culture ? Le modèle d'une “industrie de l'information” est-il le meilleur moyen d'accroître le savoir global et de le partager équitablement sur toute la planète ?
Nous assistons à une volonté d'étendre la sphère de la marchandise par “endo-colonisation” : en suivant Christine Treguier (livre à paraître), qui reprend un terme de Paul Virillio, le marché ne pouvant plus s'étendre géographiquement (la fin de “l'impérialisme”, malgré les soubresauts guerriers actuels) en vient à coloniser ce qui fait le propre de la société globale des humains : le vivant et la connaissance.
Pour le secteur de la connaissance, ce sont les méthodes informatiques qui sont au coeur de ce phénomène de renouvellement de la sphère marchande :
- en favorisant le paquetage de micro-documents (par exemple une chanson plutôt qu'un album, une page plutôt qu'un livre, un article plutôt qu'un journal...) ;
- en permettant le traçage des usages (les “Mesures Techniques de Protection” comme les DRM – Digital Rights Managements systems), bientôt complétées par l'authentification systématique des personnes et des actes de lecture (le modèle du “Passport” de Microsoft). Ajoutons le financement publicitaire ciblé rendu possible par l'exploitation de masse des traces de lecture et la personnalisation des accès à l'information (la notion de “portail personnel”) ;
- en favorisant l'émergence de “micro-paiements”. Le fameux “gain de productivité introuvable” de l'informatisation et des réseaux pourrait bien enfin émerger dans ce phénomène, qui exploite la baisse radicale des coûts de transaction, en créant des opportunités nouvelles (l'économie de la longue traîne [ The Long Tail, Chris Anderson. 07 octobre 2004 , traduction française : La longue queue ) mais aussi des effets boomerang encore inconnus pour l'organisation sociale (par exemple l'usage des RFID pour les “paiements” indolores dans un monde de péages généralisés. cf l'expérience de Hanau, Allemagne, de paiement par téléphone muni de RFID pour les trajets de bus [ “A Hanau, le portable-ticket de bus joue au juste prix” Thomas Schnee (01net.) 02 05 2005 ).
Or cette expansion inédite dans l'étendue de la sphère marchande est en contradiction avec bien des méthodes que les sociétés ont trouvé au fil des siècles pour produire les ressources nécessaires dans les domaines liés à “l'information” et sa transmission :
- c'est un phénomène qui réduit les capacités des paysans à utiliser au mieux les plantes, et ne reconnaît pas le caractère global et historique de l'obtention végétale. Avec les OGM, par exemple, c'est le dernier maillon de la chaîne (celui qui intriduit un gène et le brevète) qui bénéficie de l'expérience cumulée des générations de paysans et la privatise pour lui-même [on trouvera de nombreux exemples et des explications dans “Pouvoir Savoir : le développement face aux biens communs de l'information et à la propriété intellectuelle”. http://cfeditions.com ) ;
- c'est un phénomène qui réduit les capacités d'innovation, à l'image des “buissons de brevets”, qui visent à bloquer l'émergence de technologies hors des grandes entreprises se partageant un secteur industriel : tout nouvel entrant se retrouvant inévitablement à marcher sur des plates-bandes déjà retournées, et les puissance du secteur se contrôlant mutuellement par l'échange de brevets. L'exemple de l'industrie électronique est particulièrement éclairant [ Economie de la propriété intellectuelle, par François Lévêque et Yann Ménière, Coll. Repères, éd. La Découverte, 2003, 124 p., 7,95 euros ] ... ce qui renforce toutes les craintes si les “brevets de logiciels et de méthodes” sont généralisés [ .Brevets logiciels : Lettre ouverte de Richard Stallman au Parlement italien, 19 mai 2005 – traduction française ] ;
- c'est un phénomène qui réduit les capacités de transmission de la culture et de la connaissance par l'éducation. En faisant du “marché éducatif” un eldorado mondial encore inexploré, les stratégies promues, tant par les entreprises que par les grands organismes intervenant sur ce secteur, comme la Banque mondiale, laissent se marginaliser les méthodes de contact direct propres à “l'éducation de masse”, qui malgré leurs défauts ont su porter, en un seul siècle, la richesse intellectuelle dans tous les endroits de la planète (mutatis mutandis, évidemment en fonction des niveaux de développement) ;
- c'est un phénomène qui réduit les capacités des créateurs à se nourrir des oeuvres précédentes, à “remixer” la(les) culture(s) [ “The People Own Ideas!”, Lawrence Lessig, MIT Technology Review juin 2005 ] dans un phénomène permanent dans lequel le lecteur et sa capacité interprétative devient le meilleur “passeur” de la culture (le prêt de livres et le conseil des amis restent par exemple le principal vecteur de la lecture) et le meilleur “interprète” de nouvelles versions (reprendre les idées pour les “remixer” dans ses propres productions)
C'est pour offrir une nouvelle perspective qui vise l'enrichissement global de la société à l'heure de “l'ère de l'information” que la théorie des “biens communs de l'information” a connu un véritable retour en force depuis la fin des années 90. Comme le dit David Bollier : “"The commons" is a metaphor that can help us understand the importance of the new kinds of "open social spaces" made possible by the Internet (and to a lesser extent, other digital media). To be sure, the commons is an unfamiliar term for many Americans, for whom it conjures up images of village pastures and university dining halls. But the very novelty of the term in American political culture has its own advantages. Instead of joining the specious and sterile ideological argument of "free markets" (good) versus "government regulation" (bad), or conjuring up the regulatory history of the New Deal and the Great Society, talking about the information commons re-positions the terms of debate in a new framework. It opens up a new vector of discussion. “ (in Why we must talk of the information common, David Bollier. publié en juin 2002)
Au tournant du siècle, plusieurs auteurs, venant de domaines différents, comme l'environnement, l'information et les réseaux ou l'étude du changement climatique global, ont remis au goût du jour la notion de “biens publics mondiaux”. Il s'agit de trouver une solution à des problèmes qui ne peuvent se limiter à des modèles de marché, car les biens concernés sont à la fois non-rivaux (que je m'en serve n'empêche pas quelqu'un d'autre de s'en servir) et non-exclusifs (je n'use pas le bien en m'en servant). L'exemple traditionnel est celui de la lumière des phares, dont la gestion repose sur la puissance publique et devient une dépense d'infrastucture non-finançable par un marché.
Cette problématique de biens économiques qui échapperaient au marché provient de la nécessité de résoudre deux questions :
- l'émergence de domaines dans laquelle règne l'abondance, comme celui de l'information (car le coût marginal de reproduction tend vers zéro)
- la prise en compte des externalités négatives du développement économique (la crise environnementale).
Dans ces deux cas, il existe bien sur des propositions pour créer des marchés spéculatifs de l'immatériel (les “droits à polluer” pour l'écologie, et les “droits de monopoles” perpétuellement étendus pour l'information). Mais elles restent sujettes à de nombreuses critiques quant à leur efficacité (en fonction du but global de la société) et leur capacité à générer de l'égalité (en utilisant la connaissance comme vecteur du développement par exemple, ou pour financer les médicaments contre les grandes pandémies). Depuis Keynes, la question des biens publics renvoie à la nécessité de bordurer le marché par des “règles communes” qui s'imposent à tous, et doivent bénéficier à l'ensemble.
Ce qui nous intéresse dans la capacité à considérer le caractère hautement collectif de la création et de la connaissance, c'est la nécessité complémentaire de proposer, à l'échelle mondiale, un nouveau mode de gestion et de protection de ce qui devient “patrimoine global de l'humanité”. Car la gestion collective de la culture et de la connaissance ne peut reposer sur la seule volonté des Etats, tant ces secteurs sont avant tout le produit du travail autonome des citoyens (la “culture d'état” est un oxymoron). C'est une “nouvelle alliance” qui peut émerger pour garantir la transmission à tous (notamment à l'échelle du monde vers les pays les plus pauvres), et pour toutes les générations, de biens communs en expansion permanente. Il s'agit de passer de la privation de la connaissance comme modèle de valorisation personnelle et de développement industriel vers un modèle où l'échange et le partage de la connaissance deviennent synonymes de la création de nouvelles richesses (au sens où la richesse elle-même peut être redéfinie par ce basculement sémantique. On lira sur cela les travaux de Dominique Méda [Qu'est-ce que la richesse, Dominique Méda, Aubier, 1997] ou Patrick Viveret [Pourquoi ça ne va pas plus mal, Patrick Viveret, Fayard, 2005]).
C'est le mouvement des logiciels libres qui le premier a soulevé ce renversement de perspective. Le logiciel a une nature très étrange : c'est une création intellectuelle, qui vise à offrir à ses utilisateurs des gains de productivité (par exemple la bureautique), et dans cette acception pourrait s'inspirer du marché des machines-outils. Et c'est aussi une infrastructure essentielle pour la société de l'information, que l'on retrouve dans tous les appareils de traitement symbolique et au coeur des réseaux. Et dès lors, la privatisation du logiciel, la capacité d'installer des droits de péages pour leur usage, instaure de facto un droit de regard sur toutes les informations, les culture et les connaissances qui empruntent le mode numérique. Autant dire aujourd'hui toute la connaissance et toutes les émotions.
C'est en prenant conscience de ce danger que Richard Stallman a créé en 1988 la Free Software Foundation et mis en avant la “licence GPL” qui vise justement à supprimer toute possibilité de privatisation de l'infrastructure logicielle. Cette licence utilise un artifice juridique s'appuyant sur le droit d'auteur : parce qu'il en est l'auteur, chaque programmeur qui participe à l'écriture d'un logiciel donne publiquement le droit pour chacun d'utiliser, modifier, décortiquer et adapter le code... à condition de le partager, c'est-à-dire de conserver au nouveau logiciel les mêmes libertés au services des programmeurs suivants. Ce modèle viral est à la fois totalement adapté à la nature du code logiciel (toujours en évolution) et à la mise en oeuvre d'une véritable philosophie du partage [ Essays on Licensing, selection of essays by Richard Stallman related to the topic of free software licensing ] .
Nous nous trouvons alors dans une situation différente de celle des infrastructures publiques (qui n'imposent pas aux utilisateurs de les rendre et les conserver dans l'état d'origine. Ainsi, les diplômés peuvent utiliser tout le savoir acquis à titre privé). C'est la “société civile” des programmeurs qui, en prenant en charge l'infrastructure logicielle, fait don de son travail à toute la société. Et en retrouve les fruits dans son activité : il devient possible de programmer sans entraves et d'adapter les logiciels des autres. La dynamique est en expansion. On touche ici, avec le mode de participation des acteurs même du logiciel, une différence entre le “service public” et les “biens communs”. Pour autant, toute activité de la société civile se heurte aux volontés d'expansion du marché. Et l'engagement des Etats et de leurs services publics devient aussi un enjeu dans la “nouvelle alliance” qui émerge. Ce besoin de l'intervention de la puissance publique se trouve :
- en aval : utiliser les logiciels libres et acheter les services de leurs programmeurs est le meilleur moyen de les faire vivre économiquement, et cela dans tous les pays en fonction d'un développement auto-centré
- et en amont : protéger les logiciels libres de la volonté d'expansion de la sphère marchande vers la connaissance en refusant les brevets de logiciels. Michel Rocard, rapporteur du Parlement européen sur cette question a écrit de très belles pages en avril dernier [ Document de travail sur la brevetabilité des inventions contrôlées par ordinateur, Michel Rocard (Parlement Européen) 20 avril 2005 ].
Le secteur privé, notamment les grands groupes monopolistiques de l'informatique (Microsoft, Cisco, Vérisign,...) ont fait de la question du soutien des Etats aux logiciels libres un point de conflit au Sommet Mondial sur la Société de l'Information et menacent en permanence les puissances publiques qui créent des appels d'offres demandant l'usage de logiciels libres de conflits devant l'Organe de Réglement des Différents de l'OMC (Organisation mondiale du Commerce). Le Brésil, et sa volonté de fournir des ordinateurs dotés de logiciels libres est aujourd'hui dans le coeur de cible [Microsoft tenta intimidar o Governo Brasileiro, Marcelo Branco 16 juin 2004 ]
On voit combien la question des logiciels libres, comme modèle des nouveaux “biens communs de l'information” est une question hautement politique, qui touche au modèles économiques de la “société de l'information”, mais plus largement à l'image de la création, à l'organisation d'un patrimoine global considéré comme une propriété en partage, dont la protection et le développement incombe fondamentalement à chaque utilisateur et partenaire.
C'est aussi un exemple pour les autres mouvements qui cherchent à construire des biens communs de l'information. Depuis les auteurs qui proposent leurs documents suivant des licences “Creative commons” (http://creativecommons.org ) pour accélérer leur diffusion, jusqu'aux scientifiques qui organisent directement, à partir des serveurs en archives ouvertes de leur institution, le libre-accès à la science, en passant par les paysans qui constituent des banques de ressources phytogénétiques, tous les secteurs de “l'ère de l'information” sont maintenant touchés par ce phénomène. Un très beau livre en fait à la fois le recensement, l'analyse et trace des perspectives : Cause commune, Philippe Aigrain, Fayard, 2005.
Quand on mesure l'ampleur de ce qui se passe sous nos yeux, on mesure combien les rodomontades faciles sur le droit inexpugnable des auteurs (et surtout de leurs zayant-droit) à faire de l'argent sur leurs créations sont en décalage avec l'évolution réelle du monde de l'immatériel, de la connaissance et de l'information. Certes, les auteurs méritent reconnaissance, comme toute personne travaillant à l'intérêt de la société. Mais les formes qu'elle peut prendre, les critères d'attribution, les modalités de ce reversement peuvent prendre des chemins très différents. Ce n'est pas en blanc ou noir que l'on peut construire un monde à la hauteur des défis culturels, écologiques et économiques qui se présentent à nous. La question des biens communs de l'information n'ouvre pas seulement vers un regard différent sur l'économie de l'information, mais aussi offre des perspectives pour penser un monde construit sur d'autres critères de valorisation que l'accumulation d'une part et le dénuement de l'autre. Ou plutôt, nous permet d'entrevoir, parce qu'il sa'git aujourd'hui d'un secteur envahi par l'activité marchande et son cortège d'inégalités, que nombre d'activités qui font que la société tient debout, malgré tout, sont considérés à l'échelle des communautés qui les pratiquent comme des “biens communs” et non comme des échanges à marchandiser. Cela commence dans la vie de famille, et s'étend à l'ensemble des activités associatives, culturelles, politiques.
Au fond, c'est la vie, la nôtre et celle de tous, qui est un bien commun de l'humanité. Avec la connaissance, la culture et l'éducation qui constituent des sphères dont l'expansion ne lèsera jamais personne, mais sur lesquelles la main-mise provoque des drames humains. Avec l'amour évidemment. A nous de les défendre, les faire croître et prospérer... et les partager.
Hervé Le Crosnier
le 31 mai 2005
Document diffusé sous licence "Creative Commons" attribution, pas d'usage commercial, pas de modification
Extrait du message annonçant le billet d'Hervé sur la liste RTP-DOC, pour alimenter le débat ;-)
A mon avis, il n'est pas très pertinent de mettre tous les oeufs dans le même panier, par exemple d'assimiler logiciels et documents en faisant du mouvement des logiciels libres un élément pionnier d'un plus vaste ensemble sur l'économie de l'information. Là, Hervé tombe dans les mêmes difficultés que celle des analystes et politiques des années 70-80 qui voyaient dans l'économie de l'information "le pétrole de la France" (Giscard), qu'il critique pourtant en intro. La question du Texte ou du contenu (cf Pedauque 2) pose d'autres problèmes.
Dès lors, pour être tout à fait convaincant il faudrait présenter les modalités économiques du financement de la création et plus globalement des contenus. Le marché n'est pas méchant en soi, ce n'est qu'une modalité de distribution de richesses dont bien des déclinaisons actuelles peuvent être justement critiquées comme contre-productives, mais alors il faut proposer une réelle alternative. Une armée de fonctionnaires-auteurs ?
Réf :Le texte en jeu, Permanence et transformations du document Roger T. Pédauque, STIC-SHS-CNRS - Working paper - 7 avril 2005
http://archivesic.ccsd.cnrs.fr/documents/archives0/00/00/14/01/index_fr.html
Rédigé par : JM Salaun | 01 juin 2005 à 11:27
Je suis tout à fait d'accord avec Jean-Michel Salaun, il existe une différence profonde entre logiciel et document. Mais ce n'était pas mon propos. Ce que je cherche à montrer, c'est la place du mouvement des logiciels libres comme élément politique fondateur (1988 ! il avait un peu d'avance le Stallman). Comme toujours en politique, il faut prendre ce qui est partageable et transmissible et laisser le reste.
C'est pour cela que Creative commons vient ajouter une couche supplémentaire. Le document, et plus encore l'auctorialité, ressortit d'un système totalement différent que celui du logiciel, ne serait-ce que parce qu'il s'y exprime une forme d'engagement - au sens participation personnelle de l'auteur - qui y est plus complète que dans le logiciel. Pour les oeuvres de création, l'assimilation juridique de l'oeuvre à la personne de l'auteur recouvre un réel fondement. Le document a un rôle de “tampon horodateur”. c'est d'ailleurs souvent une des raisons de la publication, comme dans le domaine scientifique. Il y a ce fameux "achevé d'imprimé" à la fin des livres. Alors qu'au contraire, le logiciel est un "matériau pour penser", sans arrêt en évolution. Le texte de Rocard que je cite dit des choses très importantes là dessus.
Jean-Michel Salaun dit aussi : “Dès lors, pour être tout à fait convaincant il faudrait présenter les modalités économiques du financement de la création et plus globalement des contenus.” Je le remercie de sa confiance dans mes capacités. Malheureusement, la mienne en moi-même n'est pas à cette hauteur. Je me contente de pointer ce qui "ne marche pas" dans la situation actuelle. Par exemple le système des brevets, ou par exemple l'assimilation de toute production intellectuelle à des "documents" qui doivent entrer dans un schéma économique appuyé sur les "droits de ropriété intellectuelle". Je complète en parlant des expériences alternatives qui existent (logiciels libres, Creative commons, libre-accès à la science, remix musical,...).
Mais je sais bien que les expériences des novateurs, des expérimentateurs, ne font jamais seules le pattern d'un système économique global qui doit aussi intégrer personnes et entreprises qui sont mues par plus d'avidité et moins de générosité.
De ce point de vue, la théorie mixte marché/non-marché est un bon point de repère. Elle marche d'ailleurs pas mal dans plein de domaines (la prise en charge et l'éducation des enfants, par exemple). Mais ce que je cherche à souligner, c'est ô combien cette mixité est mise à mal par les tendances actuelles à étendre la sphère du marché (ce que Christine Tréguier appelle "l'endo-colonisation").
En revanche, il est difficile, dans le domaine de la culturen de se trouver confronté à un choix bianire ou comme le dit Jean-Michel : “Une armée de fonctionnaires-auteurs ?”.
Dans le texte j'ai dit à peu près la même chose dans ue formule raccourcie : "la culture d'état est un oxymore". J'avais développé cette question dans le texte que j'ai publié en septembre dernier par l'ADBS et l'INRIA "Publier sur internet".
Je crois qu'il faut trouver des solutions innovantes. Pour chacune peser le bénéfice et les dangers. C'est la raison pour laquelle je refuse toute solution d'un financement de la culture par la publicité, car je pense, intimement et profondément, que l'industrie de l'influence est une des choses les plus désastreuse qui puisse arriver à l'humanité. Et que ce risque est si grand que les avantages que peut en tirer le monde de l'édition (justement dans la version californienne de l'économie de la longue traine) sont bien inférieurs aux bénéfices à long terme pour la culture et la connaissance. André Schiffrin dit tout cela mieux que moi.
Il y a un exemple qui mérite d'être évalué, qui est proposé par James Love et Tim Hubbard pour le financement de la recherche médicale (mutadis, mutandis, un problème du même ordre que clui de la culture quand on écoute les compagnies pharmaceutiques qui associent leur modèle à la seule chance d'avoir de nouveaux médicaments... alors que la pratique quotidienne des me-too prouve le contraire). Il y a un papier d'eux en français dans le livre Pouvoir Savoir (http://cfeditions.com). En substance, il s'agit d'établir un mode d'évaluation d'un fonds de financement de la recherche pharmaceutique et de distribuer (de façon répartie, avec des tas de processus possibles) des "bourses" pour permettre les recherches médicales. C'est certainement pas parfait, mais des exemples intermédiaires d'application, comme le projet pour les maladies orphelines “dndi” soutenu par des ONG et certains états montrent que c'est une voie à explorer (http://dndi.org).
Rédigé par : Hervé Le Crosnier | 01 juin 2005 à 21:26
L'ere du minitel etait tellement merveilleuse ah les 3615 LOVE, les 3615 Maitresse, 3615 HOM, 3615 lesb, 3615 Maxi , Nostradamus etc
Aujourd'hui ne subsitent que des www.super.fr et ca n'est pas forcement super Il faut que les logiciels soient libres , mais aussi les marques ... Car aujourd'hui ce sont les multinationales qui s'approprient la totalité des marques et logiciels tuant les petits indépendants... Vive le P2P libre
Rédigé par : Eve | 06 janvier 2006 à 10:49