p.1La prise en compte de nouveaux usages (1.1) a donné lieu à différents courants de pensée (1.2) qui
contribuent au succès croissant du « Libre » (1.3).
1.1 L’affirmation de nouveaux usages
p.2L’efficience juridique des licences libres repose en amont sur une reconnaissance d’un droit
exclusif (généralement le droit d’auteur, mais il peut s’agir d’autres droits, voire de plusieurs droits exclusifs), et en aval par un usage à rebours de ce droit dans le but, notamment, de favoriser un travail collaboratif. Le bénéficiaire du monopole initial s’appuie ainsi sur la technique
du contrat (l’article 1134 du Code civil disposant que « [l]es conventions légalement formées tiennent lieu de loi à ceux qui les ont faites ») pour autoriser certains usages, rendant
possible la diffusion massive des créations, dont il encadre le bénéfice.
p.3La caractéristique différenciatrice des pratiques basées sur l’usage de licences libres est leur
grande ouverture : chaque titulaire décide de partager ses droits avec tous plutôt que de les négocier avec chacun. Il serait néanmoins réducteur de limiter le Libre au seul comportement de ses
acteurs puisque le phénomène, aux implications beaucoup plus étendues, consacre un nouvel équilibre : il s’agit donc d’un système alternatif, basé sur la construction d’un patrimoine numérique
commun, dans lequel chaque utilisateur devient acteur potentiel.
p.4Dans ce nouveau système où tous bénéficient de prérogatives très larges, il n’y a plus d’économie
reposant sur l’exploitation directe du « monopole » (il peut néanmoins en exister d’autres, périphériques à la création) et l’intérêt à contribuer (ou, plus généralement, à développer le
projet) est lui aussi partagé entre tous. On verra aussi que cette situation devient
juridiquement pérenne – c’est-à-dire irréversible – lorsque, généralement en raison
du nombre de contributeurs se répartissant la propriété du tout, la licence devient le seul cadre possible d’exploitation de la création entière (même si chacun est libre de valoriser ses propres
apports personnels).
p.5Ce mouvement prend place dans un contexte de remise en question de la propriété intellectuelle
classique (1.1.1) et d’un affrontement entre plusieurs conceptions (1.1.2). Il débouche sur un nouvel équilibre (1.1.3).
1.1.1 La remise en question de la propriété intellectuelle classique
p.6La liste est bien entendue non limitative, mais deux phénomènes notables conduisent à cette remise
en question de dogmes antérieurs : un changement de paradigmes bouleversant nombre de nos conceptions d’une part (1.1.1.1) ; de multiples abus du système, notamment dans l’usage des droits,
d’autre part (1.1.1.2), ce qui mène naturellement à rechercher des alternatives (1.1.1.3).
1.1.1.1 Des changements de paradigmes
p.7Notre société n’a plus grand-chose de commun avec celle du XVIIIe siècle : les mentalités, les usages et outils ont évolué. Nombre de nos paradigmes ont changé, avec un impact direct sur le regard que
nous portons à la création et l’innovation : leur changement de nature (1.1.1.1.a),
l’influence de la mondialisation (1.1.1.1.b) ou encore la contestation des postulats fondateurs de la propriété intellectuelle (1.1.1.1.c).
La nouvelle nature de la création : numérique, plurale et gratuite
p.8Il suffit de comparer les créations des auteurs au XVIIIe et au XXIe siècles, pour que tout le monde convienne que la transformation est de taille : leur support est
aujourd’hui essentiellement numérique (alors que des centaines de supports différents circulaient autrefois), elles s’inscrivent ou reposent sur des créations tierces et leur exploitation est très
souvent gratuite.
La pluralité dans la création
p.9Il n’y a plus aujourd’hui de créateur ou d’auteur « solitaire » tel qu’imaginé lors de la
création des différents droits. En effet, à l’ère « informationnelle » qui est la nôtre, cette vision romantique doit s’effacer au profit de la réalité plus pratique d’une création plurale
par principe, à fortiori dans le domaine des nouvelles technologies où la coopération et le respect des standards sont essentiels au succès d’un projet. Cela pose de nombreuses questions aux
juristes, qui ont pour matière première des lois qui concevaient la création comme unique, entière et appartenant à un seul : d’où, notamment, les réflexions relatives aux œuvres
multimédias ainsi que la multiplication des conventions d’indivision.
p.10 Il est donc nécessaire d’adopter une approche différente qui, par une refonte des droits
– voire par l’édiction de licences obligatoires –, réponde à ces changements d’une manière favorable à la création et à l’innovation (en envisageant peut-être des rémunérations équitables).
En l’espèce, les licences libres s’avèrent être une réponse adaptée puisque chaque participant/auteur/acteur à l’œuvre a expressément consenti à une exploitation de sa contribution sous réserve du
respect de sa licence.
p.11 On peut faire grief à l’ubiquité de l’information qui la rend accessible à tous les ordinateurs
du globe quelques secondes après son apparition. Ainsi, à la différence d’hier, il n’y a plus aujourd’hui d’invention qui « bouleverse » la société et les usages, mais au contraire une
multitude de petites inventions, incrémentales, qui vont dans le même sens. À partir de là,
l’inventivité caractérisant les inventions brevetables n’est plus aussi patente qu’elle l’était – souvent simple avancée dans l’état de l’art plutôt qu’éclair de génie.
Le numérique comme nouveau paradigme
p.12 Par le numérique, l’œuvre – fictivité juridique – est communiquée par un support tout
aussi immatériel et ubiquiste : les rendant tout deux à la portée de tous, en tout lieu, et tout temps. L’outil numérique va transformer nos usages et notre industrie, puisque tout tend à
devenir numérique et peut être reproduit à l’identique (même des objets en trois dimensions peuvent aujourd’hui être stockés sous forme numérique avant d’être reproduits par des imprimantes
3D), sans perte et avec un coût qui tend vers zéro. Par ailleurs, puisqu’il coûte généralement
beaucoup plus cher de produire quelque chose de nouveau que de se baser sur l’existant, le numérique renforce le succès de l’open source (comme base de
composants préexistants).
p.13 À l’échelle du marché, on observe plus globalement que ce phénomène concerne de nombreuses
industries (télécommunication, médias, constructeurs, etc.) qui se préparent, tant bien que mal, à cette « convergence du numérique ».
p.14 Néanmoins, beaucoup de juristes restent réticents à y voir une raison suffisante pour infléchir
leur appréhension des œuvres : objets de droits étant eux-mêmes immatériels, pourquoi devrait-on les penser différemment alors que leur contenant est indépendant de la création (un tableau est
protégé de la même façon qu’il s’agisse de la toile originale ou de sa version numérisée) ? Le réflexe, compréhensible au regard du paradigme autrefois partagé, sera à la longue qualifié
d’autisme si, incapables de sortir des affirmations définitives et contradictoires, les juristes ne réalisent pas que tout l’environnement qui entoure la conception et la diffusion des œuvres a
changé dans une mesure telle qu’il convient de repenser les droits.
p.15 Le combat mené par l’industrie culturelle contre les pratiques sociales émergentes – sur la seule base d’indicateurs économiques (de surcroît très contestables) – est donc un égarement qui ne saurait durer : dans notre monde numérique où
l’information est passée de la rareté à la surproduction, la propriété intellectuelle doit jouer un rôle radicalement différent.
p.16 L’innovation doit aujourd’hui par principe être ouverte et partagée. Il est même possible que
ce nouveau paradigme concoure à une redistribution de la donne économique au profit des pays en développement – même si le retard de ces derniers en terme d’infrastructures constitue
actuellement un obstacle majeur (avec d’autres facteurs parmi lesquels un faible taux d’alphabétisation).
La gratuité de la création
p.17L’une des conséquences irrémédiables du numérique est souvent la gratuité. Ainsi, Chris Anderson
(auteur des ouvrages Free ! et The Long Tail) explique qu’« [i]l est désormais clair que tout ce que le
numérique touche évolue vers la gratuité […]. D’une certaine manière, le web étend le modèle économique des médias à toutes sortes d’autres secteurs économiques ». Ajoutant enfin qu’« [i]l
n’y a jamais eu un marché plus concurrentiel que l’Internet, et chaque jour le coût marginal de l’information devient plus proche de rien du tout ».
p.18 La théorie de la longue traîne (long tail), exposée la
première fois par Chris Anderson en 2004, explique le succès des sociétés qui vendent de nombreux produits, chacun en petite quantité, grâce au marché mondial et interconnecté d’aujourd’hui. En
corollaire, Kevin Kelly ajoute que « [q]uand la copie se généralise, vous avez besoin de vendre des choses qui ne peuvent pas être copiées ». Il donne ainsi certains exemples comme
l’immédiateté, la confiance, la personnalisation, l’authenticité, l’interprétation, etc. L’expérience très médiatisée de Radiohead diffusant gratuitement les copies de son dernier album doit
néanmoins être relativisée : nul doute que l’effet n’aurait pas été identique pour un artiste moins connu, nul doute non plus que l’initiative similaire d’un artiste moins connu aurait été moins
médiatisée… Cela étant posé, rien ne laisse présager que de telles initiatives ne puissent pas être répliquées à des échelles plus humbles.
p.19 Le corollaire d’un tel changement économique est qu’il convient de repenser toute
l’exploitation commerciale liée à ces œuvres : une telle gratuité induit l’élaboration de nouveaux modèles économiques, l’entrée de nouveaux acteurs et la nécessaire évolution de l’industrie
antérieure (qui reposait souvent sur un modèle qui n’a aucune raison d’être maintenu en l’état).
L’impact de la mondialisation sur la propriété intellectuelle
p.20Au surplus, les pays industrialisés ne cessent d’accroître leur dépendance vis-à-vis de pays
auprès desquels ils externalisent leurs moyens de production, ce qui provoque, en contrepoint, la nécessaire concentration d’une propriété… essentiellement immatérielle. Ajoutez à cela l’arrivée de
nouvelles puissances (comme la Chine, l’Inde et la Corée du Sud pour l’Asie) renversant les équilibres précédents, on comprend la fragilité du modèle et la crispation de certains en faveur de son
renforcement.
L’harmonisation des différents droits
p.21Il a été expliqué précédemment que les différents droits de propriété intellectuelle étaient
généralement harmonisés par voie de traités internationaux. Ceux-ci ont généralement pour
vocation de fixer le minimum commun de protection. En amont, un mécanisme quasi systématique de réciprocité impose aux pays concurrents d’intégrer de nouveaux droits dans leur législation, ou de
changer l’étendue de ceux existants, s’ils ne veulent voir leurs entreprises pénalisées à l’international.
p.22Néanmoins, cela se fait au détriment du cours normal des droits de propriété intellectuelle qui
naissent et évoluent au gré des sociétés. Une telle évolution (voire introduction) forcée
peut gravement porter préjudice à une société qui conserve une culture ou un savoir traditionnel très fort. Au-delà, les droits de propriété intellectuelle constituent de véritables freins à
l’expansion des pays en voie de développement : leur introduction profitant essentiellement à des sociétés étrangères qui s’installeront lourdement armées de droits sur leur territoire au
détriment de l’économie locale composée d’entreprises non encore innovantes et peu coutumières de ce système (et bien sûr incapables de lutter sur le terrain de la protection des droits – tant
sur leur territoire qu’à l’étranger).
p.23Ainsi, pour « convaincre » les réfractaires au modèle de cette économie de
l’immatériel, les pays dominants n’hésitent pas à leur imposer, au travers de traités bilatéraux souvent secrets et conditionnant les relations commerciales entre les pays, la mise en place de
politiques de propriété intellectuelle tout à fait disproportionnées part rapport à leurs besoins. Les États-Unis figurent en tête de cette pratique, jusqu’à dernièrement avec le
Guatemala ou l’
Inde :
l’
U.S. Department of Commerce’s Special 301Watchlist évalue en effet les politiques mises
en place de par le monde, de sorte à sanctionner les « mauvais élèves » qui ne protégeraient pas suffisamment les entreprises américaines.
Une marchandisation de la propriété intellectuelle
p.24D’une manière plus générale, la cause de bien des problèmes rencontrés par la propriété
intellectuelle est sa « marchandisation » : les droits ont à l’origine introduit ces nouveaux biens dans le marché, mais c’est aujourd’hui le marché qui leur confère la valeur et qui
dirige (en grande partie) leur évolution. Ainsi, elle engendre un glissement du couple auteur-public au couple producteur-consommateur tout à fait différent (ce qui explique notamment qu’un panier à
salade puisse bénéficier de la même protection qu’un tableau de peintre).
p.25Ainsi, si aujourd’hui, l’« économie du savoir » a pris une place dominante à l’échelle
mondiale, cela s’est fait en conférant une place démesurée aux industries afférentes et en générant par ailleurs de multiples tensions vis-à-vis d’autres droits cruciaux et vitaux comme la santé,
l’environnement, l’accès pour les handicapés et l’agriculture.
p.26L’importance des enjeux est donc unanimement reconnue, sans qu’il y ait néanmoins d’intervention
véritable de la part des États – échouant à contrôler les initiatives mises en place par le secteur privé, notamment des sociétés américaines telles Google ou Microsoft (avec notamment le projet
Google Books et la Fondation Bill-et-Melinda-Gates).
La mise en concurrence des instances internationales
p.27On observe aussi une crise de légitimité au sein des différentes instances internationales
(notamment l’OMPI et l’OMC – voire l’ONU) qui, lorsqu’elles ne sont tout simplement pas contournées par le biais d’accords bilatéraux ou plurilatéraux (comme ACTA ou le G20), sont victimes d’un
véritable forum shopping (un choix des instances en fonction des avantages qu’elles procurent) qui pervertit leurs finalités d’origine – à plus forte
raison quand la quasi-intégralité de leurs revenus provient de services économiques dont elles ont la charge ou qu’elles ont créés.
p.28Le système international de la propriété intellectuelle est sous pression, l’architecture
politique est inadéquate et il convient de toute urgence d’y remédier au risque d’y trouver la cause d’une nouvelle crise. Exprimant régulièrement ses inquiétudes, le directeur général de l’OMPI,
Francis Gurry, indique la nécessité de revoir nos normes, ainsi que les plates-formes et infrastructures techniques qui nous encadrent (tels les Twitter-like et Facebook-like).
Une contestation des postulats fondateurs de la propriété intellectuelle
p.29La propriété intellectuelle est enfin contestée jusque dans ses principes fondateurs
eux-mêmes : quant à la notion de propriété qui lui est attachée et quant au caractère incitatif qui la justifie.
Une contestation des effets attendus de la « propriété »
p.30Inspiré par la propriété consacrée par le Code civil, le Code de la propriété intellectuelle transforme certaines idées – rien ne se propage plus vite et n’est plus fuyant qu’une
idée – en des biens auxquels est attachée une valeur économique (par ailleurs distincte de sa valeur artistique ou intellectuelle) grâce au contrôle que l’on détient sur leur exploitation.
p.31 Les titulaires de droits peuvent ensuite en jouir selon leur bon vouloir, généralement de sorte
à en tirer une rente (la plus forte et la plus longue possible). L’aspect utilitaire du logiciel incite néanmoins à reconsidérer le préjudice que portent les droits (droits d’auteur, éventuellement
brevets) à l’acquéreur légitime de celui-ci : il se retrouve en effet pieds et points liés face à un éditeur qui peut lui interdire toute modification pourtant nécessaire à ses besoins, tout
accès non initialement prévu (mais éventuellement prévisible), toute assistance non autorisée, toute mesure conservatoire qui pourrait être liée au métier de l’acquéreur, etc. Envisagé à l’extrême
(mais sans sortir des pratiques existantes), il y a là un véritable assujettissement de millions de personnes au profit d’acteurs privés gouvernés par la recherche du seul profit sur le fondement de
leur propriété sacrée et inviolable.
p.32 Certains auteurs éclairés suggèrent de prendre pleinement en compte la nature différente de la
propriété intellectuelle. Philippe Gaudrat écrit par exemple :
p.33[u]n curieux défaut d’imagination semble conduire la plupart des juristes à ne pouvoir imaginer
d’autre propriété que celle de l’article 544 du Code civil : ou la propriété doit avoir les caractères du droit que décrit cet article, ou ce n’est pas une propriété. Mais le droit défini
par cet article n’est pas l’archétype propriétaire en soi ; il est l’application de cet archétype aux choses matérielles. L’essence de la propriété ne gît que dans le pouvoir de retenir ou
distribuer la jouissance de la valeur de la chose grevée ; le modèle qui en résulte, quand on l’applique aux choses matérielles, n’est déjà qu’un dérivé, même si cette propriété est, par la
force des choses, la plus ancienne et la plus répandue. Si l’archétype propriétaire est un, la propriété de droit positif est multiple, car elle est façonnée par les caractères de l’objet
réservé
p.34 Ainsi, alors que la propriété du Code civil servait initialement de modèle à la construction
d’une propriété intellectuelle, on en a aujourd’hui oublié qu’elle ne pouvait néanmoins qu’être différente – quelles que soient les crispations qu’une telle évidence peut engendrer.
La contestation du caractère incitatif
p.35Le caractère incitatif de la propriété intellectuelle a toujours été présenté comme un postulat,
sans qu’il soit possible de prouver si la création et l’innovation sont réellement mieux portantes depuis la création d’une propriété intellectuelle. Symptomatique de la société actuelle, le Conseil
de l’Union européenne a ainsi déclaré :
p.36[l]es droits de propriété intellectuelle sont un élément fondamental pour la promotion de la
culture et sa diversité, ainsi que pour la valorisation de la recherche, de l’innovation et de la création des entreprises européennes, notamment des petites et moyennes entreprises, afin de soutenir
la croissance et l’emploi au sein de l’Union européenne et de développer la dimension externe de la compétitivité européenne.
p.37 Néanmoins, de plus en plus d’auteurs estiment que le système de la propriété intellectuelle,
obsolète, devrait être abandonné au motif que le caractère incitatif des droits de propriété intellectuelle (et notamment du droit d’auteur) se voit mis à mal dans la société contemporaine : les
créateurs ne peuvent vivre de leur art, alors que de grandes sociétés exploitent les droits des premiers pour dominer des marchés. La doctrine juridique elle-même est réservée quant à l’évolution
actuelle des différents droits de propriété intellectuelle et reste très critique à l’encontre des exploitants, de leurs monopoles et lobbyings.
p.38Le rapport File-Sharing and Copyright réalisé par
l’Harvard Business School appuie cette thèse :
p.39Alors que les échanges de fichiers ont perturbé certains modèles commerciaux traditionnels de
l’industrie culturelle, principalement en matière de musique, notre lecture tend à considérer qu’il y a peu de choses qui montreraient que les nouvelles technologies ont découragé la production
artistique. Une protection des droits d’auteur faible, semble-t-il, a bénéficié à la société.
p.40Le rapport canadien publié par McGill dénonce aussi une utilisation pervertie de la propriété
intellectuelle et promeut une nouvelle propriété intellectuelle tournée vers l’échange et le partage.
p.41 Ainsi, Joost Smiers et Marieke van Schijndel, dans leur ouvrage Un monde sans copyright… et sans monopole, imaginent et
construisent un monde sans droit d’auteur, sans monopole sur les créations de l’esprit et sans « conglomérats culturels » aux intérêts nécessairement contraires à ceux de la société.
p.42 Par ailleurs, d’autres thèses sont venues imaginer de nouveaux systèmes, considérés comme plus
adaptés au monde d’aujourd’hui, se basant ou non sur la propriété intellectuelle existante. Ainsi, pour ne parler que d’initiatives françaises, il est possible de citer les travaux d’Olivier Auber
sur le revenu de vie (basé sur le revenu minimum d’existence) ou encore la contribution créative théorisée par Philippe Aigrain.
La SARD et le financement par le don
p.43Autre initiative, l’idée d’un nouveau système de financement des auteurs, fondé sur le don, a
donné le jour à une expérimentation concrétisée par la constitution de la
SARD (Société d’Acceptation et de Répartition des Dons).
Fonctionnant sur un plan parallèle au système traditionnel, elle incite à penser différemment le rapport entre auteur et public.
p.44D’autres projets similaires peuvent être cités :
Flattr,
Yooook,
MooZar,
Ulule,
SHAGAÏ,
MCN, et
Kachingle ou, plus récemment,
Make It Open (plate-forme brésilienne) et la plate-forme
CreationMix lancée sous le patronage des pères de Creative Commons. Ces initiatives montrent une profession (des auteurs) qui se cherche. Elles sont
par ailleurs non exclusives, accessibles à tous (membres de sociétés de gestion collective ou non) et ne nécessitent aucune réforme législative. Enfin, en mettant l’accent sur le rôle des auteurs et
le caractère incitatif des propositions (pour la création et l’innovation), ces initiatives replacent l’artiste au sein du système et il est fort probable que l’un de leurs effets de bord soit de
redonner au système de propriété intellectuelle l’équilibre nécessaire à sa légitimité.
1.1.1.2 Une réaction aux abus
p.45Ce n’est pas une surprise, les intérêts financiers drainés par la propriété intellectuelle sont
tels que l’équilibre initial s’en trouve transformé, voire déformé, au profit de certains des acteurs du système seulement. La perte de l’équilibre, au bénéfice des intérêts de certains, remet en
question le système global de la propriété intellectuelle – que l’on pense aux entreprises qui n’ont cessé d’acquérir de nouveaux droits (sur des créations préexistantes ou fictives) pour
maximiser leur profit –, ou des États eux-mêmes repliés sur l’intérêt de leurs industriels, oubliant de s’intéresser à l’innovation et à la création qui constituent pourtant la seule
justification à ces droits.
p.46Peut-être faut-il le rappeler : « à tout vouloir protéger, on passe d’une logique de
l’innovation à une logique de la rente ». Or, nul doute qu’une telle logique ne
tienne qu’un temps…
p.47Ainsi, l’édiction continue de nouveaux droits exclusifs (1.1.1.2.a) affaiblit le système, de
même l’utilisation qui en est faite (1.1.1.2.b), notamment les abus (1.1.1.2.c) et l’accaparement par l’industrie (1.1.1.2.d). Enfin il faut ajouter les différents freins systémiques comme le dogme
de la gestion collective (1.1.1.2.e).
L’édiction incessante de nouveaux droits
p.48Devenu trop sensible aux pressions du marché, le législateur ne cesse de créer de nouveaux
droits pour répondre aux industries qui le sollicitent. Ainsi, il y a eu plus de droits créés cesvingt dernières années que durant les deux siècles précédents ; et plus de droits créés ces cinq
dernières années que dans les vingt années qui précèdent…
p.49On pourrait y voir la « réactivité » louable d’une société en phase avec son époque,
mais ce serait ignorer le déséquilibre croissant entre la prise en compte des intérêts du public (désorganisé et sans moyens propres) et les industries (organisées et disposant de moyens conséquents)
par les instances gouvernementales ou communautaires, brisant ainsi les équilibres légitimant originairement les différents droits. Cette déviance est par ailleurs très clairement exprimée par le
rapport de conflit entretenu aujourd’hui entre le public (potentiel pirate) et les différents titulaires de droits, déviance qui s’est traduite par l’édiction des lois les plus récentes :
offrant de nouveaux outils aux titulaires, contre un public qui était jusqu’alors étranger à ces enjeux tant qu’il restait dans sa sphère privée.
L’extension des droits
p.50De l’utilisation qui est faite de ces droits, trois problèmes peuvent être identifiés. Le
premier est celui de la qualité des titres qui sont délivrés : trop de titres sont accordés alors qu’ils ne respectent manifestement pas les conditions posées par la loi (objet exclu de la
brevetabilité, absence de nouveauté, d’inventivité, d’application industrielle, description trop faible, etc.). Ainsi, les offices reportent sciemment le coût de ces examens, long et coûteux, sur la société.
p.51Le second problème concerne l’inadaptation des droits actuels aux créations complexes :
conçue dans un monde où les produits ou services étaient relativement simples et ne reposaient que sur un nombre limité d’inventions, l’exclusivité conférée au titulaire de brevets n’avait pas
l’effet bloquant qu’elle a en présence de centaines (voire de milliers) d’inventions utilisées dans certains produits. Ainsi, des inventions fictives ou mineures peuvent aujourd’hui bloquer une
invention plus importante et un produit de grande valeur sociale. En 1917 le gouvernement américain avait imposé la création d’un groupement de brevets dans le domaine de l’aéronautique, ce qui donna
la MAA (Manufacturer’s Aircraft Asssociation). Celle-ci permit la création d’avions sans crainte de procès, ce qui mit fin aux querelles de brevets et favorisa l’essor de l’industrie aéronautique. On
retrouve des régulations similaires dans le domaine des télécommunications, de la radio, du nucléaire, de la qualité de l’air (Clean Air Act), etc. Néanmoins, on constate une explosion du nombre de
ces situations, rendant impossible la généralisation d’une telle régulation sans dénaturer le système.
p.52Enfin, on peut se demander si le rôle de diffusion des connaissances des offices nationaux de
propriété intellectuelle est suffisant. En effet, si les brevets étaient moins nombreux et mieux connus, nous ne connaîtrions pas les procès actuels où les brevets ne sont révélés et opposés aux
industriels qu’au moment où ceux-ci commercialisent leurs produits… En effet, lorsqu’on se trouve en présence d’objets complexes (satellites, téléphones, logiciels, etc.), il est fort probable que
soient impliquées de multiples technologies soumises à un ou plusieurs droits exclusifs. Il est possible de se prémunir en matière de droit d’auteur (par exemple par une politique claire de gestion
des contributions externes), mais lorsqu’un produit comporte des centaines (voire des milliers) de brevets, il a de grandes chances d’en violer un grand nombre.
p.53Chris Sacca, capital-risqueur américain, s’alarmait à ce sujet :
p.54Nous sommes à un point de l’ère de la propriété intellectuelle où les brevets existants couvrent
probablement tous les comportements qui surviennent sur Internet ou sur nos téléphones mobiles d’aujourd’hui. […] En moyenne, les start-ups de la Silicon Valley ou même les sociétés de taille
moyenne, indifféremment du fait qu’elles soient réellement novatrices, […] violent des brevets en ce moment même. Et c’est ce qui est fondamentalement cassé dans le système actuel
L’abus dans l’usage des droits
p.55 Seconde déviance préjudiciable, de nombreux titulaires de droits essaient d’étendre le monopole
conféré par la loi afin de maximiser les profits : artificiellement par contrat, en multipliant les procédures abusives, les pactes de non-agression, etc. Théoriquement, de tels comportements,
dès lors qu’ils outrepassent délibérément leur monopole, devraient être sanctionnés sur le fondement d’abus de droit – par le simple dépôt abusif (avec intention de nuire), par l’usage qui est fait du droit exclusif (les juges considérant que « l’exercice d’un droit exclusif par son
titulaire peut donner lieu à un comportement abusif ») ou pour une action en justice
abusive (telle une action contre un concurrent se fondant sur des « leurres de
revendication » de brevets). La longueur et le coût de telles procédures les rendent
néanmoins inadaptées au regard du préjudice instantané que peut causer une interdiction de commercialisation ou les frais de défense liés à une action en contrefaçon (d’où par ailleurs un recours de
plus en plus fréquent à des procédures extra-judiciaires telle l’Untited States International Trade Commission (USITC)).
p.56
p.57Parmi les usages les plus caricaturaux figurent en tête les Patent trolls, ces sociétés sans R&D qui achètent des brevets tiers afin de négocier des licences ou agir en justice (on observe le même type de sociétés en matière de
droits d’auteur). Sous couvert de favoriser la diffusion de l’innovation et de favoriser la rémunération des auteurs, elles cherchent uniquement à maximiser le gain relatif à leurs actifs, quitte à
se spécialiser en procédures et multiplier les assignations. Leur comportement induit un raisonnement qui ne se pose plus en termes d’inventions, mais de brevets, ce qui creuse davantage encore la
différence entre les deux termes, de sorte que la plupart des brevets que ces sociétés exploitent ne sont pas considérés par les pairs comme des inventions (puisque les Patent trolls favorisent des brevets larges et relativement simples, susceptibles d’être opposés à un maximum de sociétés). Elles sont souvent désignées sous l’acronyme de
NPE pour Non-Practicing Entity.
p.58Plus pernicieuses, certaines sociétés constituent des portefeuilles de brevets dits
« défensifs » qu’elles entendent partager aux bénéfices des entreprises qui souscriraient, leur permettant, telle une assurance, de se défendre sur la base de ces brevets en cas de procès.
Mais les entreprises approchées se retrouvent finalement dans la position délicate de dépenser des millions de souscriptions auprès de ces entreprises, ou de refuser et accepter que ces mêmes brevets
puissent être utilisés par leurs concurrents contre eux… Des « assurances » qui ne sont ni plus ni moins que des promesses de non-agression et de protection (qui rappellent étrangement les
notion de racket et de mafia). On retrouve ainsi tous les mécanismes de la Guerre Froide, les puissances dominantes n’osant pas nécessairement s’affronter directement, mais étant sans scrupules à
l’encontre de partenaires et clients du camp adverse.
p.59Ces comportements induisent aussi un autre effet, économique, de surenchère qui crée une
« bulle de l’immatériel » en matière de brevets. Par crainte de se voir opposer des brevets non détectés, les entreprises investissent des sommes colossales dans l’acquisition de brevets ou
portefeuilles de brevets (nécessairement au détriment de la R&D interne) afin de se défendre en cas d’assignation. Cette confrontation a pour seul effet d’augmenter les coûts des brevets, telle
une bulle qui éclatera lorsque le marché ne reconnaîtra plus aucune valeur à ces biens immatériels détournés de leur fonction initiale. On assiste ainsi à une course à l’achat – à l’armement
d’après certains (Google étant généralement en lice, tenue à l’écart par les acteurs traditionnels qui se liguent contre elle) – en même temps qu’une course à la vente de la part de sociétés qui y voient une valorisation et une source de revenus importante (tel Kodak qui annonce en août 2011 vouloir se séparer de plus de 1 000
brevets, ces derniers étant évalués à 3 milliards alors que la société était estimée à 1,3 milliards de dollars).
p.60Plus grave : les sociétés traditionnelles s’allient, par une concentration de leurs droits,
pour contrer l’innovation. Ce fut notamment le cas de l’achat, en 2010, de 882 brevets à Novell par un consortium constitué par Microsoft, Oracle, Apple et EMC. Plus récemment encore, l’achat en 2011
de 6 000 brevets à Nortel (pour un coût total de 4,5 milliards) par un autre consortium constitué cette fois par Microsoft, Apple, Rim, Ericsson et EMC. Dans ces exemples les titres sont
utilisés contre l’innovation, contre le marché, et pour bloquer l’expansion économique d’un concurrent. Contrairement aux brevets tels qu’ils ont été initialement conçus, c’est-à-dire très
descriptifs afin d’inciter les inventeurs à trouver une autre solution au même problème technique, les brevets d’aujourd’hui sont volontairement très larges. Ils empêchent l’innovation alors qu’ils
la favorisaient, et servent à renforcer un pouvoir existant (c’est d’ailleurs la raison pour laquelle il est si difficile de changer le système).
p.61 Les
Patent trolls eux-mêmes participent à cette course
(telles les deux sociétés Wi-LAN et Mosaid qui cherchent à se rapprocher pour cumuler leur portefeuille de brevets). La création en France et en Europe des sociétés publiques
France Brevets et
European patent fund témoigne de notre volonté de se doter des mêmes armes sans mesurer la déviance inhérente à toute politique
en matière de propriété intellectuelle déconnectée de l’inovation.
Pour aller plus loin...
p.62Par « brevet vert » on désigne les inventions autour desquelles leurs titulaires
déposent régulièrement de nouveaux brevets « accessoires ».
p.63C’est cette politique de l’extrême qui a donné l’expression de « brevets toujours
verts » (qui couvrent des inventions restreintes, de faibles valeurs et souvent révoqués devant les tribunaux). Voir sur ce point : Autorité de la concurrence, Rapport annuel 2008, La Documentation française, Paris, 2008.
p.64On se reportera aussi à Lallement (Rémi), « Politique des
brevets : l’enjeu central de la qualité, face à l’évolution des pratiques », in Revue trimestrielle du Centre d’Analyse Stratégique, numéro 7,
Janvier-Mars 2008.
p.65Résumé :
p.66Les entreprises sont de plus en plus incitées à se doter de brevets, pour mieux positionner
leurs activités d’innovation face à celles de leurs concurrentes et parfois même pour des considérations d’ordre purement stratégique. Pour le système des brevets, ce succès grandissant risque de se
retourner contre lui. Face au flot croissant des demandes de brevets, en effet, les offices de brevets sont de plus en plus engorgés. Par contrecoup, un faisceau d’indices convergents atteste d’une
tendance à la prolifération, au détriment de la qualité d’ensemble des brevets, dans la plupart des pays industriels. Une telle dégradation de la qualité des brevets correspond à une situation dans
laquelle sont délivrés des brevets qui n’auraient pas dû l’être. Elle menace globalement tant la concurrence que l’innovation. Pour contrer ces périls, diverses réformes ont récemment été envisagées
ou engagées – en particulier aux États-Unis et en Europe – mais leur issue n’est pas encore acquise.
Google : brevet et innovation
p.67La société subit aujourd’hui un assaut conjoint mené par ses principaux concurrents (Apple, Microsoft et Oracle en tête) qui l’assignent, elle et ses clients, en contrefaçon (droits
d’auteur, brevets, etc.).
p.68Ayant pendant très longtemps argumenté en faveur d’une reforme du système américain des
brevets, Google a néanmoins été contraint de suivre le comportement de ses concurrents
afin de se défendre et donc de s’armer en brevets (sorte d’armes légales dont elle était peu dotée). C’est ainsi qu’elle a racheté des brevets à IBM et qu’elle a même acheté la société Motorola
intégralement (cette dernière disposant d’excellents brevets relatifs au mobile et au réseau de télécommunication). Afin de la faire plier, ses concurrents (pourtant eux-mêmes concurrents), se sont
regroupés pour surenchérir et acquérir le portefeuille de brevets de Nortel.
p.69 Ainsi, les portefeuilles de brevets ne sont pas vendus pour leur valeur marchande, mais pour
leur valeur stratégique (pour éjecter du marché un nouvel entrant). En effet, puisque Google base son modèle sur un produit gratuit, ses concurrents utilisent les brevets pour en faire un produit
payant non disruptif (suite à une série de procès, Samsung et HTC versent aujourd’hui plus d’argent à Microsoft pour la vente de téléphones sous Android que de téléphones sous Windows mobile…). Dans
ces usages, la société attaquée perd dans tous les scénarios :
– |
dans l’hypothèse d’une transaction : soit Google paie une licence arbitrairement fixée très haut (ce qui ne l’empêchera pas d’être menacée par d’autres brevets)
soit ses clients (constructeurs et opérateurs) se voient obligés de payer une licence (ce qui annule l’intérêt du produit) ;
|
– |
en l’absence d’une telle transaction : soit Google perd le procès et est éjecté du marché soit Google gagne le procès (ce qui ne l’empêchera pas d’être
menacée par d’autres brevets), mais ses produits seront alors moins attractifs (surtout si elle a ainsi perdu la place du premier entrant).
|
p.70 Dans tous les cas, il n’y a pas de rapport entre le coût du brevet et son mérite (sa
qualité).
L’industrialisation de la propriété littéraire et artistique
p.71Il a longtemps été considéré que les intérêts de l’industrie étaient les mêmes que ceux des
artistes qu’elle défendait et représentait. Or, il s’avère que ce postulat est entièrement faux : l’artiste crée pour transcender son art comme le scientifique pour accroître la connaissance,
alors que les industries créent uniquement pour l’argent qu’elles ont à y gagner !
Dès lors, qui dit finalités différentes, dit encadrements différents : mettre en doute la pertinence du rôle de ces nouveaux intermédiaires aurait permis, selon nous, d’éviter les dérives
actuelles du droit d’auteur. En effet, probablement par leur force économique et leur lobbying constant, on assiste à une transformation du droit d’auteur en un droit pour l’industrie culturelle tout à fait détaché des enjeux du public et des auteurs. Or, si ces industries
devaient figurer dans les dispositions relatives au droit d’auteur, ce serait uniquement pour en protéger les auteurs. Ainsi, dès lors qu’une norme est perçue comme inadéquate et illégitime, il est normal d’observer un désintérêt et un désengagement croissants qui se
traduisent par une immobilisation de tout son pouvoir coercitif. Ainsi, il ne s’agit pas
d’étendre les sanctions, mais au contraire de rendre au droit sa légitimité.
p.72Sur un plan plus théorique, il semble bon de rappeler qu’avant de songer à appliquer les droits
d’auteur à ces nouvelles situations, peut-être faudrait-il se demander s’il s’agit du bon outil, de la façon de penser adéquate, et s’il y a des raisons sociales, juridiques, scientifiques et
économiques qui justifient cette application. Partant de ce constat, il est regrettable de constater l’inconsistance des enquêtes ayant accompagné ces projets de loi. Peut-être aurait-on ainsi permis que le couple intermédiaires économiques / consommateurs, artificiellement présenté
comme le modèle unique par l’industrie, fasse place à une prise en compte des usagers du droit d’auteur dans toute leur diversité.
p.73Enfin, toutes ces questions n’ont d’intérêt que si l’accompagnement de ces nouvelles pratiques
est pensé comme la première des priorités. Les droits exclusifs n’ayant d’utilité que dans l’autonomie qu’ils offrent aux auteurs et à leur public, il convient, lorsque ces derniers veulent le
partage et la diffusion, de construire un cadre qui, s’il ne favorise pas cet usage, ne lui soit pas contraire. C’est là le futur et nous avons tous intérêt à y songer dès maintenant.
Les freins systémiques : l’exemple de la gestion collective présentée comme un dogme absolu
p.74Le code de la propriété intellectuelle regroupe une série d’outils qui permet de prendre en main
(de manipuler, échanger, vendre, créer, etc.) les objets juridiques qu’il introduit sur le marché. En dehors de cette tâche, le CPI est « neutre » et permet tout type d’usage et,
théoriquement, toute évolution ou transformation du système.
p.75Néanmoins, l’évolution des usages butte sur certains freins systémiques, qu’ils soient présents
dès l’origine ou, plus généralement, liés au développement que connut la propriété intellectuelle. Il en existe plusieurs, mais celui auquel on pense en premier lieu se rattache à la culture
française de la gestion collective.
p.76Ancien et éprouvé, le système actuel français est l’une des fiertés nationales au regard tant de
la complexité de son organisation que du nombre d’autres pays qui s’en sont inspirés. Il est néanmoins aussi très contesté en raison de la place proéminente de la SACEM, considérée comme responsable
de lourdeurs administratives, d’une gestion des politiques culturelles inadaptée et autarcique. Cette omniprésence de la société de gestion collective est souvent pointée du doigt, notamment lors des
contrôles annuels de la commission permanente de contrôle des SPRD (qui publie annuellement un
rapport). Il
est en effet relativement courant de mettre en place de nouvelles SPRD pour collecter de nouveaux droits ou nouvelles licences obligatoires (SPRE, SDRM, SESAM, etc.), sans que la question essentielle
de l’organisation de cette SPRD ne soit prévue en amont. Ainsi, les salariés, les répertoires, les barèmes, voire les locaux, les enquêtes sont « mis à disposition » (de manière onéreuse)
par les organismes préexistants – en l’occurrence, il s’agit systématiquement de la SACEM. On multiplie ainsi les flux financiers en augmentant le nombre de structures, ce qui réduit d’autant la
somme répartie entre les auteurs et ayants droit (au bénéfice du fonctionnement de la SACEM seulement ?).
p.77Par ailleurs, le monde de la musique est aujourd’hui pensé en termes de gestion collective
uniquement, au point où nombreux sont ceux qui pensent que celle-ci est obligatoire pour toucher leurs droits. Cela induit la validation de certains mécanismes susceptibles d’être contraires aux
intérêts des auteurs. Par exemple, l’adhésion à la SACEM est exclusive de toute autre exploitation des œuvres puisqu’elle emporte une cession exclusive de toutes les œuvres (même celles à venir) de
l’auteur (d’autres SPRD ne demandent qu’une cession non exclusive, voire un simple mandat). Ainsi, tout auteur adhérent à la SACEM ne peut décider seul de gérer individuellement quelques-unes de ses
œuvres, par exemple en les diffusant gratuitement sur Internet (sous licence libre ou non). Les lignes bougent néanmoins et, depuis quelques années, la SACEM allège ce principe en permettant à ses
sociétaires de diffuser eux-mêmes certaines de leurs œuvres, dans certaines conditions seulement (sur leur propre site web, gratuitement, uniquement en streaming).
p.78Ainsi, il est aussi nécessaire de revoir l’infrastructure du droit d’auteur qui s’est modelé
depuis le
XVIIIe siècle autour des sociétés de gestion collective, notamment en faveur de la mise en place d’un registre ouvert et
commun des œuvres qui permettrait (aux artistes comme aux plates-formes de diffusion) de partager les informations relatives à la gestion des droits sur les différentes œuvres (des réflexions
complémentaires au travail du
Global Repertoire Database Working Group).
Ouvrir le répertoire de la SACEM à la gestion individuelle
p.79Courant 2009, la SACEM avait néanmoins été approchée par des acteurs de la culture libre (à
l’initiative du collectif Libre Accès) avec deux requêtes : autoriser les auteurs qui
le souhaitent à diffuser certaines œuvres sous licences libres et ouvrir son annuaire,
contenant auteurs et œuvres, afin que des sites diffusant de la musique libre puissent vérifier que l’artiste est bien libre de diffuser ainsi ses œuvres (il était aussi envisagé de labelliser
lesdits sites).
p.80Les deux chantiers ont néanmoins fait long feu. Concernant le premier, après plus d’une année de
discussions et quelques itérations sur le cadre du projet, les échanges ont été rompus (notamment à cause de la difficulté à s’entendre sur les usages qui devaient être considérés comme commerciaux
– après avoir admis que le projet pouvait, dans un premier temps, être limité aux seuls usages non commerciaux). Quant au second, les échanges n’ont jamais réellement pris forme.
1.1.1.3 La construction d’alternatives privées
p.81À la fois en raison de l’inertie liée aux procédures législatives et en raison des intérêts politiques et économiques attachés au maintien d’une industrie
culturelle forte, les États sont aujourd’hui incapables de remettre en cause le système qu’ils ont créé. Certains essaient cependant de réformer tout en ménageant les multiples intérêts. Par exemple,
le Royaume-Uni a publié un plan pour moderniser la propriété intellectuelle en mettant en œuvre certaines recommandations du rapport Hargreaves de mai 2010 (dont l’ajout d’exceptions aux droits, d’un
processus de licences croisées et d’une gestion des œuvres orphelines).
p.82Cependant, les vraies réformes ne proviennent pas des législateurs, mais des acteurs :
utilisateurs des droits (titulaire) et utilisateurs des créations (le public). L’initiative
Public Knowledge, groupe d’intérêt
public qui œuvre à la défense des droits des citoyens à l’ère de la culture numérique
émergente (information, propriété intellectuelle et protocoles internet), lutte notamment contre l’extension constante des droits et en défendant le bénéfice d’exception comme le
fair use.
p.83
p.84 Pourtant, face aux problèmes d’une « capitalisation de la propriété intellectuelle »,
la volonté de collaborer des différents acteurs (sociétés privées comprises) ne cesse d’augmenter. Ainsi, nombre d’entre eux ont pris à contre-pied le système de la propriété intellectuelle et se
sont mobilisés afin de renverser sa logique au profit du partage, consacrant ainsi la théorie selon laquelle les libertés/exceptions reconnues au profit de l’utilisateur/du public ne seraient pas des
exceptions, mais bien des droits. Pleinement pertinentes, ces initiatives posent la question du rôle de l’État : est-il normal que des industries ou des
communautés se substituent à ce dernier ?
p.85 Enfin, la construction de ce système s’appuie sur des droits harmonisés à l’échelle mondiale.
Les pays en voie de développement y trouvent ainsi un vecteur de collaboration et de sécurité juridique optimum, favorisant les relations pérennes Nord-Sud et une réduction de la fracture
numérique. Plus encore, ce mouvement se révèle être un facteur important dans la diffusion
des connaissances médicales (voir notamment le projet communautaire
Openhealthtools ou encore l’action de la fondation IntraHealth
International au travers du projet
eHealth qui donne une place importance à l’
open
source).
1.1.2 La structuration d’un équilibre différent sur la base du système existant
p.86Il est intéressant de constater que les outils juridiques existants, s’ils ne peuvent
généralement être repris en l’état, permettent de construire d’autres équilibres sur le fondement de logiques nouvelles, ce qui leur permet d’être à la base d’un système qui leur soit adapté. Par
ailleurs, l’essence contractuelle de ce courant lui confère une réactivité très forte face aux développements d’usages et, à fortiori, face aux évolutions législatives qu’il prend en compte au fur et
à mesure de leur apparition (marques, brevets, mesures techniques de protection,
tivoïzation, promesse de non-agression,
etc.). Tirant profit des expériences passées, le mouvement s’étend progressivement aux autres branches de la création (bases de données, manuels, documentation, inventions, microprocesseurs, etc.) – à la condition qu’il y ait bien usage d’un droit exclusif (droit d’auteur, brevet,
etc.), même si le dépôt et le coût lié à l’acquisition des titres de propriété industrielle commandent une réflexion plus pointue.
p.87Ainsi, un nouveau système se dessine progressivement, laissant entrevoir de nouveaux usages et
une nouvelle appréhension des différents droits : qu’il s’agisse des droits de propriété littéraire et artistique qui voient leur équilibre entièrement modifié (1.1.2.1) ou des droits de
propriété industrielle qui se recentrent sur leurs fonctions initiales (1.1.2.2).
1.1.2.1 L’usage des droits de propriété littéraire et artistique
p.88L’usage des droits de propriété littéraire et artistique est différent selon qu’on observe le
droit d’auteur et les droits voisins (1.1.2.1.a), les mesures techniques (1.1.2.1.b) ou le droit sui generis des bases de données (1.1.2.1.c).
Droit d’auteur et droits voisins
p.89Certains droits sont de plus en plus partagés (les droits patrimoniaux, liés à l’exploitation de
l’œuvre) alors que d’autres (les droits moraux, liés à la paternité des contributions de chacun) sont au contraire très fortement affirmés (conséquence logique de la place importante faite à
l’individu au sein des communautés du Libre). Quant au domaine public, il répond à une volonté conjointe (auteur, public et fournisseurs de services) et prend une place centrale, tant pour déterminer
les œuvres qui en font partie que pour en verser de nouvelles.
L’usage des droits patrimoniaux
p.90Seuls les auteurs sont acteurs dans cette recherche d’un nouveau système dans lequel l’objectif
consiste à « vivre de » et « faire vivre » leurs créations. Le numérique, Internet et les sociétés qui en font leur métier, leur offrent une capacité nouvelle à se produire et se
distribuer eux-mêmes. En parallèle, mais dans un autre domaine, la gestion individuelle des droits se développe et se perfectionne de plus en plus. Par exemple, l’initiative SOLO (Syndicat pour les
œuvres sous licences ouvertes) avait été lancée afin de défendre les intérêts des auteurs préférant la gestion individuelle à la gestion collective.
p.91Probablement en raison du fort nombre de licences légales grevant leurs droits, les titulaires
de droits voisins restent pour leur part très passifs : qu’ils se satisfassent du système actuel (ce qui n’est pas vrai pour les artistes qui connaissent des difficultés croissantes à vivre de
leur art) ou qu’ils soient concernés à d’autres titres – notamment lorsqu’il s’agit
de la diffusion d’œuvres représentées et fixées par les auteurs eux-mêmes.
p.92 Le rôle des éditeurs et des producteurs, c’est-à-dire l’industrie de la création, n’est
néanmoins pas exclu de ces nouveaux modes d’exploitation, pour peu qu’ils sachent répondre aux besoins sans chercher à reproduire des méthodes qui ne sont plus adaptées à cette nouvelle ère.
Pour aller plus loin...
p.93On peut citer des encyclopédies comme Wikipedia, des initiatives comme
Tela Botanica (base de données botaniques sous licence CC-By-SA),
Territoires sonores (document/témoignages sonores, site sous GNU FDL 1.2, ballades sous CC-By-NC-ND),
Sesamath (manuels et logiciels mathématiques, sous double licence GNU-FDL et CC-By-SA),
Public Library of Science (PLOS, en CC-By), ou encore
Open Economics.
p.94
L’usage des droits extrapatrimoniaux
p.95Contrairement aux prérogatives patrimoniales qui sont très largement partagées, les droits
extrapatrimoniaux font l’objet de politiques très strictes :
– |
ainsi la mention de la paternité de l’auteur est la condition inhérente à toutes les licences libres (les CC-0 et la PDDL exclues) et un formalisme particulier vient très
souvent renforcer l’obligation. La réduction des contraintes liées au partage des droits patrimoniaux va aussi, par effet de bord, emporter une généralisation de la reconnaissance de la qualité
d’auteur (cette dernière bénéficiant plus largement à tous ceux, auteurs et contributeurs divers, qui auront participé à la vie de l’œuvre) ;
|
– |
les autres prérogatives protectrices sont elles aussi très fortement défendues : qu’il s’agisse de l’absence de confusion avec l’œuvre originaire (en obligeant à
mentionner très clairement les modifications apportées à la création) ou de toute atteinte à l’image ou à la qualité de l’auteur (que ces éléments soient prévus au sein de la licence ou qu’il faille
se tourner vers les dispositifs généraux).
|
p.96Précisons enfin que ces prérogatives morales subissent un sort particulier au regard de la
conception que l’auteur adopte de l’œuvre, ce qui nécessite de repenser de nombreuses solutions qui avaient été résolues par la jurisprudence ou la doctrine (ainsi, la modification par un
contributeur ultérieur respecte entièrement l’intégrité de l’œuvre dès lors que celle-ci est pensée comme ouverte et collaborative).
L’extension du domaine public
p.97De plus en plus fourni et, surtout, de plus en plus accessible et disponible grâce au numérique
et Internet, le domaine public connaît un regain d’intérêt notable. De nombreuses initiatives viennent ainsi favoriser l’accès à celui-ci, tel le «
calculateur du domaine public » réalisé dans le cadre du
projet europeanaConnect.
p.98Parmi les projets qu’elle porte, Creative Commons œuvre en faveur du domaine public. Ainsi, à
côté de ses licences, Creative Commons offre aussi un outil qui permet de dédier ses œuvres au domaine public (via un processus intitulé
Public Domain Dedication) instantanément ou après un délai de 14 ou 28 ans (comme aux origines du
copyright). Un
second outil permet d’identifier les œuvres du domaine public par un
processus déclaratif.
p.99Parallèlement, en 2007 a été lancé le projet CC-0, un outil juridique permettant de céder le
plus largement possible ses droits. La licence CC-Zero qui en résulta est la licence conseillée par le projet Sciences Commons pour l’application aux bases de données (similaire à la Public Domain
Dedication & Licence (PDDL) rédigée par l’
OKFN).
Les mesures techniques
p.100Apparus sous la pression des seuls industriels (et abandonnés par eux peu de temps après),
les droits sur les mesures techniques de protection (MTP) sont, d’une manière générale, contestés et écartés dans le cadre des collaborations qui peuvent être à l’origine d’une œuvre.
p.101Ils font figure d’archétypes de ces largesses offertes à une industrie défaillante,
obsolètes avant que les premiers décrets d’application ne viennent en préciser la portée. L’autorité qui avait été créée pour ses derniers (l’ARMT) n’a ainsi jamais été saisie.
p.102Contractualisant ce rejet, les principales licences libres dédiées au contenu susceptible
d’être couvert par une telle MTP écartent expressément le bénéfice de celle-ci ou, à défaut, imposent une cession de l’intégralité des droits afférents.
Le droit
sui generis des bases de données
p.103Le droit sui generis des bases de données a durant
longtemps été réservé à la seule sphère industrielle. Le bénéfice de ce droit étant automatique dès lors que les conditions étaient réunies, certaines licences ont néanmoins expressément écarté tout
usage sur le fondement de ce droit qui serait contraire à l’esprit de la licence (notamment la Licence Art Libre 1.3).
p.104Le courant de l’open data est venu changer la donne
puisque le droit sui generis devint très souvent le meilleur levier susceptible d’encadrer la diffusion des bases de données. C’est ce qui motiva la rédaction
des licences de l’OKFN et la mise à jour d’autres licences (notamment les Creative Commons 3.0). De telles bases de données collaboratives posent néanmoins plusieurs nouvelles questions relatives à
l’acquisition du droit (notamment pour déterminer le « producteur » et pour quantifier son investissement).
1.1.2.2 L’usage des droits de propriété industrielle
p.105Sans surprise – même parfois à contre-gré –, tous les acteurs industriels ont dû
s’armer par l’acquisition de droits de propriété industrielle. Loin de leur finalité initiale, ceux-ci servent aujourd’hui à deux usages principaux : un usage offensif (pour repousser un nouvel
entrant, à fortiori en cas de modèle disruptif) et un usage défensif.
p.106Il convient néanmoins de distinguer selon qu’il s’agit des brevets (1.1.2.2.a), du droit des
dessins et modèles (1.1.2.2.b), du droit des marques (1.1.2.2.c), du droit des topographies de semi-conducteurs ou des obtentions végétales (1.1.2.2.d).
Brevets
p.107 Les brevets sont certainement les droits qui ont été les plus détournés de leurs objectifs
initiaux. Il s’agit aujourd’hui d’idées triviales, en grande majorité rédigées par et pour les seuls conseils en propriété industrielle, sans profiter de l’état de l’art en la matière – les
ingénieurs et développeurs ayant comme réflexes logiques d’ignorer ces derniers afin de se concentrer sur leur mission de génération de valeur.
p.108 Il pourrait être conseillé de revoir intégralement le système actuel, notamment afin de
créer plusieurs régimes (durée, prérogatives, exceptions, procédure, etc.) en fonction des domaines d’application (les besoins de l’industrie pharmaceutique ne sont pas du tout similaires à ceux de
l’informatique). En premier lieu, il conviendrait de se poser la question de la pertinence du brevet logiciel (et si oui, les conditions et le régime de celui-ci), actuellement utilisé comme une
permission légale de stopper l’innovation et le commerce. Néanmoins, le plus urgent est de stopper l’hémorragie, ce à quoi s’emploient des associations comme la FFII (voir notamment l’
initiative contre le brevet unitaire portée par Gérald Sédrati-Dinet) et l’
April.
p.109En réaction au système des
patent trolls, on observe
des actions de regroupements de brevets à titre défensif – initiatives individuelles
ou collectives – avec pour objectif d’immobiliser toute action tierce en contrefaçon
de brevets logiciels. Allant généralement encore plus loin, les initiatives peuvent associer une promesse de ne pas opposer leurs brevets aux communautés
open
source et l’engagement d’une protection des communautés grâce à ces portefeuilles de brevets – avec pour objectif de résoudre l’insécurité juridique qui découle des brevets logiciels.
L’
Open Invention Network a conduit une nouvelle initiative intitulée
Linux Defenders : consortium composé d’industries de haute technologie (notamment IBM), le projet a pour vocation d’aider à
protéger les communautés de logiciels
open source contre les dangers et attaques récurrentes en matière de brevets. Cette action est destinée à réduire la
crainte des actions injustifiées (sur le fondement de titres très faibles susceptibles d’être annulés par un juge), mais excessivement coûteuses pour les individus, les communautés et les petites ou
moyennes entreprises (au point de les faire plier sous le seul prix du procès). Il consiste en la réalisation d’une publication défensive (avec des appels à la communauté), la transmission de ces
données aux organismes nationaux de propriété intellectuelle afin qu’ils puissent avoir connaissance d’une antériorité susceptible d’invalider un brevet. Dans le même esprit, le projet
Peer-to-Patent, initiative de
Crowdsourcing menée par la
New York Law School’s Center for Patent Innovations et l’office américain des
brevets (USPTO), organise la publication de demandes de brevets afin d’obtenir un maximum de commentaires sur un nombre croissant de technologies. Le nouveau projet pilote,reconduit annuellement depuis 2007, s’étend jusqu’au 30 septembre 2011. L’initiative est néanmoins contestée en
ce qu’elle fait réparer les déficiences d’un système par ceux-là mêmes qui souffrent de la perte d’équilibre engendrée par les dérives de ce système.
p.110Cette même idée de « pot commun de brevets » se retrouve dans d’autres sphères.
Par exemple, l’initiative
Eco-Patent Commons, lancée en partenariat entre de grands groupes (IBM, Nokia, Pitney Bowes, Sony, etc.) et
le Conseil mondial des affaires pour le développement durable (WBCSD) regroupe et partage plus d’une centaine de brevets relatifs à l’environnement et au développement durable. Enfin, en matière de
spécifications et de standards, on retrouve ce mécanisme de promesse de non-agression
– qui précède parfois l’établissement même des normes ou qui accompagne la
proposition de standard.
Les dessins et modèles
p.111Protégeant le caractère propre, l’impression d’ensemble (impression générale) d’une
création, le droit des dessins et modèles est susceptible de s’ajouter à de nombreuses autres créations par ailleurs sujettes à d’autres droits exclusifs (œuvres, microprocesseurs, etc.).
p.112Il y a peu de choses à dire sur son usage, si ce n’est qu’il fait partie des armes
classiquement utilisées au sein des querelles qui opposent les géants de l’industrie.
Marques/Signes distinctifs, etc.
p.113Le droit des marques est peut être le moins remis en cause, conservant ses fonctions tant
dans le cadre de projets communautaires (tels Debian, LibreOffice, etc.) que commerciaux.
Tout au plus peut-on dire que les marques gagnent généralement des initiatives communautaires ou de crowdsourcing (ces dernières faisant leur promotion à
moindre coût). Enfin, il semble que la marque collective soit injustement boudée, car son utilisation est marginale alors qu’elle pourrait répondre efficacement aux préoccupations de nombreux projets
libres – même si la lourdeur du mécanisme est probablement trop contraignante en l’état.
p.114Bien entendu, les batailles titanesques qui se déroulent dans d’autres champs de la
propriété industrielle touchent en périphérie le droit des marques : telle Microsoft qui conteste la validité de la marque App Store (et Apple qui répond en pointant le fait que la marque
Windows ne serait pas plus distinctive…). Mais ce ne sont là que des contentieux
classiques qui animent la sphère des nouvelles technologies comme ils le faisaient avec l’industrie traditionnelle. De nombreuses marques connues ne furent ainsi pas exploitées sans douleur :
Iphone (qui appartenait à Cisco), Android (qui appartenait à Android Data), Nexus One ou encore l’iPAD (Fujitsu).
Pour aller plus loin...
– |
Walker Morgan (D. J.), « The FOSS fakery problems » ( http://h-online.com/-1287613), un article qui illustre les déviances potentielles ou réelles en l’absence de contrôle des marques par les projets
communautaires ;
|
– |
|
– |
|
Les topographies de produits semi-conducteurs et les obtentions végétales
p.115Les droits des topographies de semi-conducteur et des obtentions végétales demeurent
intouchés : globalement peu utilisés et reposant eux-mêmes sur un équilibre complexe qui favorise la création de nouveaux microprocesseurs et de nouvelles obtentions végétales, ces droits ne
méritèrent pas l’effort d’une licence dédiée. Tout au plus sont-ils évoqués comme susceptibles d’être cédés par le biais de licences classiques (telle la GNU GPLv3 qui mentionne expressément le droit
sur les topographies de semi-conducteurs).
p.116Ainsi, les brevets sont généralement la plus grande source d’inquiétude et les licences
portant sur de tels produits semi-conducteurs s’attachent surtout à céder les autres droits de propriété intellectuelle. Ce comportement n’est néanmoins pas satisfaisant puisque le titulaire du droit
exclusif resterait tout à fait autorisé à revendiquer ce droit (s’il n’y a pas de modification de la création initiale ou que celle-ci n’est pas suivie d’un nouveau dépôt). Enfin, l’évolution du
droit – généralement favorable à l’extension des brevets – modifie cet équilibre, et il est possible que nous voyions apparaître à l’avenir de nouvelles licences dédiées à ces
créations.
1.2 Les différentes écoles de pensée
p.117Il est important de préciser qu’il n’y a pas réellement de chronologie : de fait,
certaines structures ont précédé d’autres, mais elles répondent généralement à l’air du temps et sont donc bien souvent imaginées, réfléchies et bâties en parallèle. Par ailleurs, les rapports entre
ces courants de pensée sont bien souvent complémentaires, ou partagent au moins quelques affinités, et il n’est pas rare de retrouver des acteurs transverses aux multiples courants.
p.118Malgré leur grande similarité et leur complémentarité, il est peu fréquent d’assister à une
harmonisation entre ces mouvements, qui sont généralement justifiés par des intérêts bien précis. Néanmoins, il semble possible d’augurer le maintien voire l’accroissement d’efforts terminologiques
(FLOSS pour Free Libre Open Source Software est par exemple le terme officiel adopté par la Commission Européenne) et peut-être faut-il s’attendre à de futurs efforts de normalisation (que ce soit
par des entités officielles de normalisation ou par d’autres entités extranationales comme l’OSI, qui a déjà posé la question d’une définition de l’open
data).
p.119Parmi les écoles de pensées, il est nécessaire d’examiner la Free Software Foundation et
l’école du Logiciel Libre (1.2.1), l’Open Source Initiative et l’école de l’open source (1.2.2), l’art Libre ou le Libre sur les œuvres non logicielles (1.2.3),
le mouvement Creative Commons (1.2.4) et l’extension du Libre au-delà de la création (1.2.5).
1.2.1 La Free Software Foundation et l’école du logiciel libre
p.120Précurseur en la matière (et gourou potache à ses heures perdues –
Saint IGNUcius, de l’Église d’Emacs), Richard Matthew Stallman est le fondateur du mouvement pour le logiciel libre. Il a fondé en 1985 la
Free Software Foundation (FSF), organisation américaine à but non lucratif, pour aider au financement du projet GNU et de la communauté du
logiciel libre.
1.2.1.1 Le projet GNU
p.121 À son origine, le projet GNU devait aboutir au développement d’un système d’exploitation de
type Unix complètement libre. Alors que de nombreuses briques étaient déjà prêtes dès 1990, le développement du noyau de système d’exploitation libre Hurd, prit du retard et ne devint utilisable (au
moins théoriquement) qu’en 1996.
p.122 Parallèlement, un étudiant de l’université d’Helsinki nommé Linus Torvalds a proposé en
1991 un noyau de type Unix en se basant sur la boîte à outils fournie par le projet GNU. En plus d’avoir choisi d’ouvrir son code grâce à la licence GNU GPL, Linus Torvald opta pour un développement
original coordonné sur le réseau et ouvert à tout contributeur. Ce développement, sur le mode plus tard appelé « du bazar » (en référence au célèbre essai
The Cathedral and the Bazaar d’Eric Steven Raymond), assurant un succès croissant à son système d’exploitation, le propulsa sur le devant de la scène (notamment du projet
GNU) au détriment d’autres noyaux. C’est le début du projet GNU/Linux.
1.2.1.2 Les libertés du logiciel libre
p.123La FSF liste les
quatre libertés fondamentales qui doivent être assurées à l’utilisateur final (généralement le détenteur d’une copie légitime du logiciel) afin
que le logiciel soit qualifié de libre :
– |
liberté 0 : la liberté d’exécuter le programme, pour tous les usages ;
|
– |
liberté 1 : la liberté d’étudier le fonctionnement du programme, et de l’adapter à ses besoins (l’accès au code source est
donc nécessaire) ;
|
– |
liberté 2 : la liberté de redistribuer des copies du logiciel ;
|
– |
liberté 3 : la liberté d’améliorer le programme et de publier vos améliorations, pour en faire profiter toute la
communauté. Pour ceci, l’accès au code source est une condition requise.
|
p.124Le logiciel est donc libre par opposition à un logiciel qui serait la propriété d’un seul,
ce dernier pouvant alors discrétionnairement décider d’autoriser ou d’interdire certains usages. La force de cette définition résulte notamment du fait qu’elle est rédigée pour un type d’œuvre en
particulier qu’est le logiciel (et donc avec une grande connaissance des libertés nécessaires sur ce dernier) et qu’elle fonctionne par finalités (sans préciser le moyen d’y arriver – exception
faite de l’obligation de livrer le code source). Ainsi, en définissant ces libertés, on s’assure que tout le monde peut en disposer et améliorer le logiciel, et surtout que cela puisse continuer en
l’absence de ses propriétaires.
p.125On oppose ainsi logiciels libres à logiciels propriétaires de la même façon que l’on oppose logiciel open source aux logiciels closed
source. Néanmoins, tous les logiciels propriétaires ne sont pas closed source (il arrive même que les contributions soient encouragées, dans un modèle
très propriétaire) et tous les logiciels open source ne sont pas forcément libres (dès lors que les utilisateurs ne sont
pas, in fine, libres : soit pour des raisons juridiques, par exemple en raison de brevets qui limiteraient la jouissance des droits, soit pour des raisons
pratiques, devant l’impossibilité de modifier, d’étudier ou de redistribuer la création).
Le domaine public n’est pas open source, mais il peut être libre !
p.126Dans la situation de logiciels (ou d’œuvres) tombés dans le domaine public, on ne peut
valablement parler de licence puisque, par définition, l’auteur ne dispose plus de droits exclusifs sur son œuvre.
p.127 La suite du raisonnement est simple : les critères de l’OSD qui permettent de
certifier une licence open source ne peuvent jouer (le logiciel n’est donc pas soumis à une licence open source, il n’est
donc pas open source) ; à l’inverse, les libertés telles que définies par la FSF peuvent être réunies au profit du détenteur d’une copie du logiciel
– et le logiciel pourra ainsi être dit libre – dès lors que l’utilisateur dispose aussi matériellement de ces libertés (notamment des sources lui permettant de modifier, adapter, etc. le
logiciel).
1.2.1.3 Les licences GNU
p.128La licence n’apparaît alors que comme une conséquence, une traduction juridique de ces
libertés (via une cession de droits). Néanmoins, d’autres obligations plus pratiques (accès au code source dans sa forme préférentielle, sa documentation ou, dans une certaine mesure, la qualité du
code) viennent la compléter afin que l’utilisateur soit réellement libre. Ainsi, par extension, une licence libre est une licence qui traduit dans le champ
juridique les libertés offertes par un logiciel libre.
p.129Les licences GNU ne sont devenues les licences génériques qu’aux alentours des années
1990 : Richard Stallman utilisa pour son logiciel Emacs la
GNU Emacs General Public License (première
licence copyleft), avant de reproduire le même type de licence pour le GNU Debugger (GDB) et la GNU Compiler Collection (GCC), puis de rédiger une première mouture générique sous le nom de
GNU General Public License (GNU GPL) en 1989. Très vite, une licence plus permissive devint nécessaire pour faciliter l’usage de
certains programmes : la
GNU Library General Public License (GNU LGPL) vit le jour en 1991. Une troisième licence, la
GNU Free
Documentation License (GNU FDL ou GFDL), rejoignit finalement la famille afin de proposer une licence pour les documentations de programmes, plus adaptée que les licences GNU GPL ou LGPL. Le
juriste Eben Moglen a assisté Richard Stallman dans la rédaction des licences qui suivirent : personnellement pour la
seconde version de la GNU GPL en 1991 et ensuite (notamment la
GNU GPL
v. 3 et la
GNU Affero GPL v. 3) par l’intermédiaire du Software Freedom Law Center (SFLC) qu’il dirige.
1.2.1.4 La mise en place de structures complémentaires
p.130 De nouvelles structures complémentaires furent créées lors de la professionnalisation, dans
le cadre d’une structuration des missions de la FSF, avec notamment la séparation des différentes ambitions de la fondation : le Software Freedom Law Center (1.2.1.4.a) et le Software Freedom
Conservancy (1.2.1.4.b).
Le Software Freedom Law Center
p.131Créé en 2005, le
Software
Freedom Law Center (SFLC) n’est vraiment opérationnel qu’à partir de 2007, date où les actions commencèrent à être effectives. Son périmètre d’action s’étend de l’information au public (par la
publication d’études diverses et variées), à toute assistance juridique auprès d’organisations à but non lucratif.
p.132Centre juridique entourant l’usage des licences de la Free Software Fondation, le SFLC
travaille gracieusement pour un certain nombre de projets communautaires et conseille aussi quelques sociétés privées au travers
Moglen
Ravicher LLC (cabinet d’avocats affilié au SFLC, partageant la même équipe et redistribuant aux actions de la SFLC tous les profits tirés de leur clientèle privée). Il a enfin assuré une activité
contentieuse foisonnante, mais cette mission est aujourd’hui prise en charge par la SFC.
La Software Freedom Conservancy (SFC)
p.133Créée en 2006, la
Software Freedom
Conservancy est une association à but non lucratif qui aide à promouvoir, améliorer, développer et défendre des projets de logiciels libres et
open source
(tels des projets réputés comme Amarok, BusyBox, Git, Inkscape, Jquery, Samba ou Wine). Pour ce faire, la SFC leur offre l’hébergement et la structure nécessaire. Ainsi, les développeurs peuvent se
concentrer sur ce qu’ils font le mieux : l’écriture de logiciels libres.
p.134La Software Freedom Conservancy assure ainsi tout une série de services au profit de ses
membres : aspects administratifs, fiscaux, comptables, contentieux, responsabilité personnelle, conseils sur la gestion de communautés, etc.
p.135Ancien salarié du SFLC en charge du projet de la SFC, Bradley Kuhn est devenu fin 2010 le
directeur exécutif de la SFC lorsque celle-ci évolua en une structure autonome.
1.2.2 L’Open Source Initiative et l’école de l’open source
p.136Fondée en 1998 par Eric Steven Raymond et Bruce Perens, l’
Open Source Initiative (OSI) compta dès ses origines Todd Anderson, Chris Peterson, John Maddog Hall, Larry Augustin, Sam Ockman. Elle est née d’une divergence de point de
vue avec la FSF, afin de labelliser les licences réunissant les critères pragmatiques de la définition
open source (
Open Source
Definition). Structurellement, l’OSI est une
non
profit public benefit corporation (sorte d’association à but non lucratif) californienne. Depuis 2011, l’OSI étend son action et s’ouvre notamment à l’adhésion de partenaires
commerciaux.
p.137Depuis sa création, elle a mis en place une Open Source
Definition (1.2.2.1) qu’elle utilise pour valider les licences qui lui sont soumises selon une procédure de labellisation particulière (1.2.2.2). Elle contribue aussi depuis 2006 à la lutte
contre la prolifération des licences (1.2.2.3).
1.2.2.1 Les critères formulés par l’OSD
p.138Les termes libre et open source sont utilisés indifféremment dans le langage courant, mais ils correspondent néanmoins à deux définitions complémentaires : le premier se fonde sur quatre
critères (ou « libertés fondamentales » du logiciel), le second sur dix (conditions que doivent respecter les licences). Ainsi, l’Open Source
Definition est fortement inspirée par le Contrat Social Debian qui, lui-même, était
inspiré de la définition de la FSF et, dans les faits, les deux notions se rejoignent le plus souvent, même si les conceptions sont in fine différentes :
là où le choix d’un logiciel propriétaire est une solution sous-optimale pour l’OSI, la FSF y voit une atteinte aux libertés des utilisateurs devant être combattue.
p.139L’OSD est centrée sur les méthodes de développement de logiciels à code ouvert où le service
reprend le pas sur le produit lui-même. Elle requiert :
1. |
la libre redistribution du logiciel – la licence ne peut, par exemple, exiger le paiement d’une redevance
supplémentaire ;
|
2. |
le code source doit être fourni ou être accessible ;
|
3. |
les dérivés des œuvres doivent être permis ;
|
4. |
l’intégrité du code doit être préservée – un tiers ne peut pas s’approprier le travail d’un autre et les contributions de
chacun sont clairement attribuées (les modifications peuvent n’être éventuellement distribuées que sous forme de patch, séparément : distinguo que ne tolère pas la FSF) ;
|
5. |
pas de discrimination entre les personnes ou les groupes – toute personne
détentrice d’une copie du logiciel bénéficie des termes de la licence tant qu’il s’y conforme lui-même ;
|
6. |
pas de discrimination entre les domaines d’application – la licence se limite à la
propriété intellectuelle : elle ne peut en aucun cas réguler d’autre domaine « politique » ;
|
7. |
la licence s’applique sans dépendre d’autres contrats – on ne peut par exemple pas ajouter un NDA (Non-Disclosure Agreement ou accord de confidentialité) lors de la cession du logiciel ;
|
8. |
la licence ne doit pas être propre à un produit – elle est attachée au code et non à un logiciel particulier : une
brique peut resservir dans un logiciel différent, voire concurrent ;
|
9. |
la licence d’un logiciel ne doit pas s’étendre à un autre – ce qui ne s’oppose pas aux licences copyleft ayant un large
copyleft, telle la GNU GPL qui ne s’étend qu’au programme envisagé comme un tout ;
|
10. |
la licence doit être neutre technologiquement – c’est-à-dire ne pas dépendre d’une technologie.
|
p.140Très pragmatique, claire, et centrée sur la non-discrimination, l’Open Source Definition détaille par cette définition les critères qu’une licence doit remplir pour être considérée comme open source.
Une illustration très claire de cet objectivisme fut donnée lors de la certification par l’OSI de deux des licences shared source de la firme de Redmond :
seules les licences furent évaluées au regard de l’OSD et non l’entreprise ou la politique qui l’anime.
p.141Les licences open source ne sont pas une, mais
plusieurs : 70 sont certifiées par l’OSI – mais bien d’autres, souvent similaires et incompatibles, existent. Ainsi, au final, les licences conformes à l’une des définitions le sont quasi
systématiquement à l’autre, mais on peut trouver deux exemples contraires, labellisées open source, mais non considérées comme libres :
– |
|
– |
la licence Artistic 1.0 (idem).
|
p.142D’autres sont probablement dans la même situation, mais il faut admettre que l’absence de
consensus est plutôt rare. Aucune terminologie ne convient parfaitement, mais seront qualifiées (par souci de simplicité) de « commerciales » toutes les licences qui ne seront ni libres ni
open source et qui revêtent ainsi une dimension commerciale étrangère à ces licences a-commerciales (cet adjectif ne préjugeant nullement de l’activité
commerciale qui peut accompagner l’usage de ces licences).
1.2.2.2 Le processus de labellisation
p.143Quelques principes fondamentaux gouvernent le processus de labellisation celui-ci doit
permettre de :
1. |
vérifier l’adéquation avec l’Open Source Definition ;
|
2. |
identifier la catégorie parmi celles identifiées par le projet de « License Proliferation » et essayer de limiter la duplication de licences (Cf. infra) ;
|
3. |
assurer une procédure transparente et pérenne d’examen des licences (dans les 60 jours en moyenne) et fournir une traçabilité du processus d’examen.
|
p.144La requête – en principe faite par le rédacteur de la licence, mais le respect de cette
règle est relatif – doit identifier le type de soumission, vérifier que tous les critères sont réunis pour cette requête et être complète (sujet clair, texte de la licence, demande d’inscription
au système de suivi et toute autre information utile). Le demandeur doit lui-même s’inscrire à la liste de diffusion correspondante (license-review).
p.145Il existe plusieurs types de soumission d’une licence : lors de la mise à jour d’une
licence (il faut alors inclure un lien vers l’ancienne, la nouvelle, et les modifications apportées à la licence), pour l’ajout dans une nouvelle catégorie, pour retirer une version, pour
l’approbation d’une version déjà existante (il faut indiquer la catégorie et les justificatifs) ou pour l’approbation d’une nouvelle licence – ou licence utilisée par une seule entité (il faut
soumettre la pré-version, justifier, comparer vis-à-vis des licences existantes, recommander une catégorie).
p.146Par la suite, la certification de la licence sera discutée sur la liste dédiée au moins une
trentaine de jours (l’outil de suivi de l’OSI fournira le statut approprié de chaque tâche) et une synthèse des recommandations sera présentée au bureau de l’OSI (avec copie à la liste) par la
personne en charge de la labellisation des licences. Le bureau de l’OSI aura alors le pouvoir de prendre une décision finale ou de demander des informations complémentaires. Pour finir, la personne
en charge des licences informera la liste et, si approuvée, la licence sera ajoutée au site de l’OSI.
1.2.2.3 La lutte contre la prolifération
p.147De 2004 à 2006 un groupe de travail a été mis en place au sein de l’OSI pour réfléchir aux
problèmes générés par l’explosion du nombre de licences. Une nouvelle organisation de labellisation a été mise en place fin 2007 et un nouveau projet est venu lutter contre la prolifération des licences, dorénavant classées en plusieurs catégories :
– |
les licences qui sont populaires et largement utilisées ou avec une large communauté ;
|
– |
les licences répondant à des besoins spécifiques/particuliers ;
|
– |
les licences qui sont redondantes avec les licences les plus populaires ;
|
– |
les licences qui ne sont pas réutilisables ;
|
– |
les licences autres/diverses.
|
p.148Tout à fait utile, cette nouvelle mission que s’est attribuée l’OSI, repose sur des
considérations subjectives qu’il convient de distinguer très clairement du rôle plus objectif d’ « autorité de certification ».
1.2.3 L’art libre ou le Libre sur les œuvres non logicielles
p.149Ce n’est pas un hasard si le documentaire Nom de code :
Linux, se termine par l’affirmation : « Ce serait peut-être l’une des plus grandes opportunités manquées de notre époque si le logiciel libre ne libérait rien d’autre que du
code ».
p.150Il faut ici dissocier deux mouvements qui n’ont pas la même valeur artistique :
l’extension du Libre à la documentation du logiciel et aux autres créations « utilitaires » (1.2.3.1) et l’extension à l’art (1.2.3.2).
1.2.3.1 Le prolongement du Libre vers les œuvres utilitaires
p.151La nature même de ce type d’œuvres (1.2.3.1.a) simplifia grandement le traitement des
problématiques juridiques afférentes (1.2.3.1.b).
p.152 Les fondements de cette extension
p.153Précurseur, la documentation des logiciels fut le premier type d’œuvres non logicielles pour
lesquelles les développeurs de logiciels libres ressentirent le besoin d’utiliser aussi une licence libre – son champ d’utilisation était restreint à la documentation, Richard Stallman estimant
que seules les libertés de copier et de distribuer étaient véritablement importantes pour les œuvres artistiques. Les motifs, simples, étaient que la documentation est l’un des facteurs clés de la collaboration et qu’il est donc nécessaire qu’elle soit aussi libre que le logiciel sur
lequel elle porte, faisant de la documentation une partie intégrante du logiciel (même si une distinction fut ensuite faite entre la documentation utilisateur, développeur, les supports de formation,
etc.).
p.154La documentation s’envisageant comme un tout, à l’instar du logiciel soumis à la GNU GPL, la
licence devait étendre le copyleft initial à tout ajout ou modification réalisés sur la documentation initiale.
p.155Enfin, l’un des autres intérêts était le vecteur de communication que représentait la
documentation : il était en effet possible d’expliquer, voire d’approfondir, au sein de cette documentation la démarche liée à l’utilisation d’une licence libre.
La dimension juridique
p.156À l’origine, les acteurs du Libre estimaient que les licences existantes, et notamment la
GNU GPL et les licences MIT ou BSD, permettaient parfaitement de couvrir des œuvres non logicielles – cela d’autant plus qu’ils doutaient de l’utilité de nouvelles licences dédiées à ce type de création.
p.157Néanmoins, plusieurs licences apparurent en 2000 pour libérer les contenus, accompagnant
ainsi l’évolution des usages que le numérique et Internet offraient. Ce fut notamment le cas de l’
Open Content License (OCL)
publiée le 14 juillet 1998 – considérée comme non libre du fait qu’elle interdisait de faire payer la mise à disposition du contenu soumis à cette licence – ou son successeur, l’
Open Publication License
(OPL) publiée le 9 juin 1999 – elle-même déconseillée en raison de la possibilité qu’elle offrît d’interdire la modification ou l’usage commercial. Parallèlement, et conscient que la GNU GPL ne répondait pas parfaitement aux besoins, la FSF lança en 1999 un appel à contribution
et publia en mars 2000 la nouvelle
GNU Free Documentation License (en version 1.1). Non satisfait de cette licence qu’elle trouvait trop complexe, Apple publia sa propre licence un an plus tard : la
Common Documentation License – elle aussi
copyleft (c’est à dire imposant la
diffusion sous ses propres termes) et donc incompatible avec la GNU FDL.
p.158La même année, Michael Stutz publia une nouvelle licence, la
Design Science License, qui se positionnait discrètement comme une licence
copyleft générale adaptée à tout type
d’œuvres. Elle préfigurait ce que seraient ensuite les licences libres non logicielles.
L’unité de l’art et le Libre
p.159En droit, le principe de l’unité de l’art traduit l’interdiction faite au juge de se fonder
sur la destination d’une œuvre pour décider du principe et de l’étendue de sa protection par le droit d’auteur (lui retirant tout rôle de critique ou censeur).
p.160La question est ici de savoir s’il faut différencier les œuvres en fonction de leur nature
et, par là, préférer une distribution sous licence libre pour certaines seulement : certaines œuvres (philosophiques, politiques, littéraires, etc.) n’auraient pas vocation à être mises sous
licence libre, alors que d’autres, plus utilitaires, y gagneraient (on pense à
Wikipedia, les
Framabooks, etc.).
p.161Ce raisonnement conduit à une différenciation entre les œuvres au sein desquelles la
personnalité de l’auteur (ses idées, convictions, son style, etc.) apparaîtrait, et celles où cette personnalité ne serait pas perceptible. Elle semble difficile à défendre puisqu’elle reviendrait à
admettre que ce qui est qualifié d’œuvre par la Loi (car empreint de la personnalité de son auteur) ne serait pas sous licence libre, alors que seul ce qui n’y est pas soumis le serait – en l’absence
d’originalité, il n’y aurait pas de droit et « pas de droits, pas de licence… ».
p.162Ainsi, il semble être plus pertinent d’appréhender l’œuvre comme un tout, véhiculant
pêle-mêle idées, informations, connaissances, style de l’auteur, etc. Par la suite, toute œuvre aurait un versant utilitaire et un versant propre à son auteur, et l’équilibre entre ceux-ci
présagerait d’une utilisation différente si elle venait à être mise sous licence libre : les œuvres principalement utilitaires seront très fréquemment réutilisées après avoir été amendées,
modifiées, complétées, ajoutées dans un tout plus large ; à l’inverse, les œuvres très empreintes de leur auteur bénéficieront surtout d’une diffusion plus large, notamment par des citations
sans limites, etc.
p.163Dans les deux situations, le contrôle de l’exploitation de l’œuvre n’est plus réservé à
l’auteur initial, mais celle-ci continuera tout de même à être diffusée ou élaborée en référence au premier auteur. De plus, à l’instar des logiciels libres, une évolution de l’œuvre par des tiers ne
se ferait que si l’œuvre est laissée en désuétude par l’auteur initial.
1.2.3.2 L’extension du Libre à la musique et à l’art en général
p.164Les artistes se sont très rapidement approprié l’usage d’Internet pour diffuser leurs
œuvres, les faire connaître et en créer de nouvelles grâce aux contributions venant de toute part. Aux origines, les deux principaux penseurs de ce mouvement sont sans conteste Ram Samudrala
– notamment connu pour ses écrits sur la
Free Music Philosophy – et Antoine Moreau, initiateur du collectif Copyleft Attitude.
p.165Le second citant ici le premier :
p.166Comme le dit Ram Samudrala, musicien et chercheur en biotechnologies : "La musique est
libre parce qu’on peut laisser ses amis l’écouter, la copier, la faire entendre à leurs amis, et ainsi de suite. Dans une acception plus radicale, la musique est totalement libre lorsqu’un autre
musicien peut utiliser une création préexistante comme point de départ pour sa propre création. C’est alors que la musique libre devient très intéressante. Et sans cette liberté, la créativité
humaine ne peut vraisemblablement pas développer toutes ses capacités".
p.167Ainsi, pour le mouvement Copyleft Attitude, le rapprochement avec les licences libres ne
s’est pas réalisé pour imiter un mouvement, mais parce que l’utilisation de ces licences répondait à la conception et aux pratiques artistiques du moment : « [l]e copyleft n’est pas une alternative, ce n’est pas "un autre monde est possible", c’est véritablement le monde tel qu’il est depuis l’invention des grands récits de
l’humanité, des mythes fondateurs et notamment des images qui instituent le rapport entre soi et ses semblables. Le monde tel que nous l’inventons aujourd’hui quand nous savons le voir et le
découvrir en forme. »
p.168C’est ce qui explique l’adoption d’un « libre sans concession » au sein de la
Licence Art Libre alors que d’autres licences cherchaient à offrir à l’auteur différents outils de contrôle sur son œuvre. Ainsi naissait la distinction entre le mouvement qui avait fait le choix du Libre et celui qui préférait celui du Libre choix : « [l]’approche de Copyleft Attitude
avec la Licence Art Libre est de ne pas donner le choix entre plusieurs licences. Nous avons décidé, dès le départ, de faire le choix du Libre, plutôt que d’avoir le libre choix. »
Musique Libre ! En France depuis les années 2000
p.169Enfin, parce qu’on a la chance en France d’avoir des partisans indéfectibles de la musique
libre, notamment au travers le travail de l’association Musique Libre !, il semble
bon de rappeler
ce texte en date de février 2001 et signé de la main de l’inépuisable Éric
Aouanès :
p.170Musicien depuis un certain temps, je me suis toujours demandé quel était le meilleur moyen
pour diffuser la musique que je compose. Cela m’embêtait fort d’être obligé de passer par une liste toujours plus longue d’intermédiaires vampiriques, ou muets, et lorsque je me suis par hasard
intéressé au projet GNU, ça a tout de suite fait tilt : pourquoi pas une licence du même type pour la musique ? J’eus la chance d’échanger quelques mots avec R. Stallman sur ce sujet lors
de sa venue à Bordeaux l’été dernier, pour les rencontres mondiales du logiciel libre. Il m’indiqua l’e-mail d’un étudiant de l’Université de Berkeley, Ensor, avec lequel je me mis tout de suite en
contact. Ensor travaille actuellement avec l’aide d’un avocat, Me Lawrence Lessig, à l’élaboration du texte de la Free Music Public Licence (FMPL), le texte est aussi en germination avancée chez Ram
Samudrala, auteur de nombreux – et fort instructifs – articles sur la philosophie de la musique libre. Il existe déjà quelques sites web qui diffusent de la musique libre, de nombreux
musiciens y proposent déjà leur musique (on trouvera en fin d’article les adresses de ces sites).
p.171Finalement, si la licence prévue n’a jamais vu le jour, une nouvelle plate-forme dédiée à la
musique libre a vu le jour (actuellement Dogmazic, après s’être écrit musique-libre.org.
À propos de Shagaï
p.172SHAGAÏ (http://shagai.org/) est une hypothèse : celle de jouer autrement le devenir
marchandise des œuvres. Elle induit d’autres comportements qui favorisent l’élargissement des contextes d’émergence, d’inscription et de circulation de l’art. À la logique d’acquisition de l’œuvre,
elle suggère d’autres attitudes plus amènes à l’esprit de nombreux travaux contemporains, celle de l’échange et de la participation.
p.173
p.174Parallèlement à leur travail structurant le mouvement, Ram Samudrala et Antoine Moreau
rédigèrent leur licence (respectivement la Free Music Public License –
FMPL et la Licence Art Libre –
LAL). La plupart des autres licences écrites pour la musique s’inspirèrent de la GNU GPL, avec ou sans l’aide de la FSF : l’
Open Source Music
License (OSML), la
Choral Public Domain Library License (CPDLL), les
Open Music Licenses (OML) (Green, Yellow, Red et Rainbow License),
Ethymonics Free Music
License (EFML), la
Loca Public License, l’
EFF Open Audio License publiée par l’Electronic Frontier Foundation (EFF), ou encore la licence
Ain’t No GNU! (IANG).
p.175Premier avant-goût de la culture Libre, la Free Music Public License interdisait les
reprises commerciales et la licence
Open Music Rainbow était une licence
modulaire qui offrait la possibilité à l’auteur de choisir les options qu’il souhaitait interdire sans son autorisation expresse : (A) la distribution d’une version modifiée, (B) la publication
ou la création d’œuvre dérivée pour un usage commercial, (C) la publication sur certains types de supports ou via certains modes de diffusion (comme Internet), (D) une distribution de copies
supérieure au seuil fixé par l’auteur. Quant aux autres licences Open Music, seule la Green était libre, les deux autres (Yellow et Red) interdisaient l’usage commercial et une seule (Red)
interdisait les modifications.
p.176La Licence Art Libre (Free Art License, en anglais) est la première licence consacrée à
l’« Art », qui désigne tout type de création « sans que même les qualités qui sont reconnues propres à l’art soient exigées ». Recommandée par la FSF pour les œuvres artistiques, la Licence Art Libre s’inspira, elle aussi, de la GNU GPL tout en conservant une grande part d’originalité. En s’apercevant de la similitude de visée qui existait entre la
liberté prônée en informatique et celle recherchée par les artistes, ces derniers s’intéressèrent à la transposition du mécanisme des licences. Née sous l’impulsion du mouvement Copyleft Attitude (et
de la liste de diffusion correspondante : copyleft_attitude@april.org), cette licence a vu le jour en juillet 2000 suite aux rencontres Copyleft Attitude
qui se sont déroulées à Accès Local et Public, deux lieux d’art contemporain à Paris. C’est à cette occasion que se sont réunis juristes (Mélanie Clément-Fontaine et David Geraud) et artistes
(Isabelle Vodjdani et Antoine Moreau), et que l’écriture d’une licence spécifique – pendant de la liberté des logiciels appliqués à l’Art – s’est avérée nécessaire.
p.177À l’exception de la Licence Art Libre (en version 1.3), ces licences sont aujourd’hui
presque toutes abandonnées, voire retirées au profit des licences Creative Commons (généralement CC By-SA, voir notamment le cas de l’
EFF OAL), ce qui est d’autant plus dommage que ces initiatives contenaient généralement plus que leur
seule licence (telle la licence IANG et son
manifesto éponyme).
p.178Abandonnant sa participation à la rédaction de la FMPL, Lawrence Lessig lança ensuite les
licences Creative Commons qui se substituèrent à toutes les autres tentatives de ce mouvement du « libre choix ».
1.2.4 Le mouvement Creative Commons
p.179Creative Commons, c’est d’une part une famille de licences construite sous l’égide du
juriste américain Lawrence Lessig autorisant a
minima la distribution gratuite non commerciale des œuvres – très simples à
utiliser et portées dans de nombreux pays grâce au projet iCommons –, et d’autre part une communauté de personnes ayant en commun de favoriser le partage et la diffusion, et se retrouvant dans différents groupes de travail.
p.180On peut décrire l’évolution de Creative Commons en plusieurs phases : une première
phase d’initialisation et de communication dans laquelle de lourds efforts furent réalisés pour favoriser l’adoption des licences (chacune des licences étant portée par des chapitres locaux dans leur
juridiction respective et de nouvelles licences furent créées pour répondre aux besoins rencontrés), une seconde phase de rationalisation et de consolidation (passant notamment par la suppression de
quelques licences, la définition d’une meilleure gouvernance, de premiers accords avec les SPRD et un travail sur les outils pour assurer le suivi des licences, notamment via le watermarking, Mesures
Techniques d’Information (MTI), et les accords avec les moteurs de recherche) et, enfin, une dernière phase d’extension dans laquelle la structure actuelle sert d’incubateur pour des projets
concernant des domaines connexes (Sciences Commons, Open Data, Open Educational
Ressources, etc.).
p.181Présentées comme une alternative à l’utilisation traditionnelle du droit d’auteur sur le
numérique, les licences Creative Commons permettent de mettre rapidement et très simplement ses œuvres sous licence de libre diffusion. De nombreux sites se sont basés et se basent encore sur ces
licences pour sécuriser des usages nouveaux (telles l’encyclopédie Wikipedia, la forge musicale
CC mixter ou, plus traditionnelle – et sous
CC-By-NC-SA –,
ArteRadio).
1.2.4.1 L’association Creative Commons
p.182Historiquement,
Lawrence Lessig, Hal Abelson et Eric Eldred fondèrent
Creative Commons en 2001, sous la forme d’une association à but non lucratif américaine. En 2008,
l’association s’émancipa de son mentor, Lawrence Lessig (personnage de renom, aussi impliqué dans le logiciel libre), et accueilli de nouveaux entrants, comme Joi Ito en qualité de directeur et James Boyle comme président (voir l’organigramme
sur le site de Creative Commons) – faisant
entrer l’initiative du monde académique dans le monde industriel…
p.183Depuis, l’organisation de l’association s’est davantage complexifiée et elle entretient des
liens plus ou moins étroits avec de nombreuses autres initiatives aux valeurs proches (la FSF notamment). Elle héberge dorénavant quatre projets principaux :
– |
Creative Commons qui a pour objectif d’étendre le nombre d’œuvres disponibles sous licence Creative Commons (Mike Linksvayer est le Vice-President) ;
|
– |
Creative Commons International qui s’occupe de porter les licences Creative Commons dans d’autres juridictions du monde entier (actuellement 45) ;
|
– |
Sciences Commons qui a pour objectif de transposer dans le domaine des sciences le travail que réalise Creative Commons dans la culture (John Wilbanks est le
Vice-President et la représentation française est assurée par l’Institut Pasteur). Cela passe par trois missions : rendre la recherche réutilisable (plus facilement et plus rapidement),
permettre un accès facilité et accéléré aux données scientifiques (notamment en supprimant les freins), permettre l’intégration de sources d’information fragmentées ;
|
– |
ccLearn qui a pour mission de baisser les barrières au partage et à la réutilisation du matériel éducatif.
|
Le projet iCommons
p.184Projet indépendant incubé par Creative Commons, iCommons est une organisation caritative
enregistrée au Royaume-Uni qui favorise la collaboration entre les promoteurs des mouvements de l’éducation ouverte, l’accès aux connaissances, du logiciel libre, de la publication ouverte et des
communautés de la culture libre dans le monde entier. Son objectif est de réduire les coûts d’accès au savoir et à la culture et d’accroître la capacité de l’utilisateur à bénéficier de ces outils.
Il organise les iCommons Summit et a récupéré le nom du projet d’internationalisation de Creative Commons qui est devenu Creative Commons International.
1.2.4.2 Les licences Creative Commons
p.185Surfant sur la vague naissante du web collaboratif, la première version des licences
proposées en 2002 connut un énorme succès. Pour favoriser leur utilisation et leur promotion, des chapitres nationaux (structures nationales
homologuées – généralement des centres de recherche) eurent la mission de transposer et de diffuser des versions nationales des licences (jusqu’alors
inspirées du droit américain). C’est le CERSA (Centre d’Études et de Recherches de Sciences Administratives) qui prit cette initiative en main en France et publia les licences françaises fin 2004
(alors dans leur seconde version) – le nombre de licences françaises était dès le début réduit à 6 licences en raison de l’impossibilité de retirer la clause By qui assurait la paternité à
l’auteur de l’œuvre.
p.186Une attention toute particulière est portée sur l’effort de simplification réalisé pour
permettre une utilisation toujours plus simple des contrats CC : un
utilitaire pour les auteurs, un jeu d’icônes et symboles
indiquant les différentes contraintes pour les utilisateurs, et un
méta moteur de recherche dédié aux contenus sous licence CC.
p.187Ensuite, il suffit de joindre la licence, de pointer vers cette dernière (ou son résumé, le
commons deeds) pour respecter la licence. Pour simplifier encore cette procédure, un outil dédié permet de fournir à l’internaute le code HTML à coller sur sa
page web, en fonction de ses attentes (une image, un texte, et un lien sont inclus dans ce code afin de permettre aux utilisateurs de trouver la licence). Dans la même veine, un
autre outil élaboré dans ce même souci de simplification, mais aussi de protection des auteurs, permet de
« tatouer » l’œuvre de la licence qui lui est appliquée afin de suivre plus facilement l’œuvre lors de sa circulation.
p.188Enfin, différentes interactions furent mises en place pour que ces licences s’intègrent à
l’infrastructure d’Internet et soient reconnues et utilisées par les différentes plates-formes : que ce soit au sein de moteurs de recherches (tels Google CC ou Yahoo CC) qui proposent de
filtrer en fonction des licences ou des sites hébergeant du contenu (tels Picasa, Flickr, Blip.tv, etc.) qui, à leur tour, proposent d’associer une licence au contenu téléchargé. Pour finir, des
partenariats avec Microsoft et Creative Commons ont donné naissance à des greffons permettant à l’utilisateur de choisir une licence CC
ad hoc lors de
l’enregistrement de ses fichiers et un greffon Firefox a été spécifiquement développé pour
détecter les licences des contenus embarqués :
MozCC.
p.189Les six licences Creative Commons (toutes identifiées par un contrat, une combinaison de
logos, un résumé explicatif et des métas-données particulières) :
1. |
CC By : paternité ;
|
2. |
CC By-SA : paternité, partage des conditions initiales à l’identique ;
|
3. |
CC By-ND : paternité, pas de modification ;
|
4. |
CC By-NC-ND : paternité, pas d’utilisation commerciale, pas de modification ;
|
5. |
CC By-NC : paternité, pas d’utilisation commerciale ;
|
6. |
CC By-NC-SA : paternité, pas d’utilisation commerciale, partage des conditions initiales à l’identique.
|
p.190Les licences Creative Commons se rapprochent juridiquement des licences libres classiques en
ce qu’elles opèrent une cession non exclusive de droit d’auteur assez large au profit du licencié. Néanmoins :
– |
le socle minimal des droits cédés (diffusion et utilisation non commerciale des œuvres non modifiées) est inférieur à celui des
licences libres –ainsi 2/3 des licences CC ne sont pas des licences libres ;
|
– |
il est systématiquement rappelé la possibilité, pour l’auteur originaire, de lever les interdictions posées par la licence (alors que ce mécanisme est l’exception
dans le domaine des logiciels libres, et est tout bonnement impossible dès lors que l’œuvre est dans une logique dynamique/contributive). Ainsi, le programme Creative
Commons Plus ( qui n’est pas une licence) permet d’associer une annexe à une licence (généralement choisie parmi les
plus contraignantes) par laquelle le titulaire de droit autorise cumulativement, moyennant des conditions qu’il fixe, d’autres utilisations que la licence choisie n’autorise pas – sorte de
mécanisme de double licence bénéficiant d’une communication harmonisée et d’une procédure simplifiée, de nombreux sites commerciaux s’étant emparé de cet outil – tels Jamendo, Magnatune ou Beatpick.
|
p.191C’est la raison pour laquelle on parle traditionnellement de licences ouvertes ou de libre diffusion – la libre diffusion étant le plus petit dénominateur commun aux six
principales licences Creative Commons.
p.192Enfin, pour être exhaustif, il faut mentionner les licences Sampling + (qui interdisent
les usages commerciaux et permettent seulement les reproductions du type
sampling ou
mash-up – la diffusion se
faisant ensuite avec ou sans clause NC), et la licence CC-0
lancée en 2007 par laquelle le titulaire de droits renonce
à tous ses droits (ou, si ce n’est pas possible, les cède très largement).
Licences retirées
p.193En 2004 furent retirées toutes les licences qui ne contenaient pas la clause By (voir :
http://creativecommons.org/retiredlicenses). Peu de temps après les premières traductions des licences Creative Commons,
de nombreuses variantes ont germé en fonction des domaines ou des territoires (dédiées aux pays en développement, au sampling, au domaine public, aux sciences, etc.).
p.194Pas assez utilisées (moins de 0,01 %) et contraires à la liberté fondamentale des
Creative Commons (la liberté de partager une œuvre non commercialement), deux autres licences furent retirées en 2007.
p.195D’autres licences semblent avoir été retirées (notamment la licence Creative Commons Music
Sharing – sorte de CC-By-NC-ND v2).
Une licence dédiée aux wikis ?
p.196De plus en plus souvent, l’apparition d’un nouveau phénomène, d’une nouvelle pratique, amène
le législateur à légiférer à nouveau – sans prendre le recul nécessaire à l’édiction de lois pérennes. C’est la même erreur qui a été évitée lorsque des licences « spéciales wiki »
étaient imaginées.
p.197Côté Creative Commons, afin d’éviter la création de la licence CC-Wiki évoquée, une licence
2.5 générique avait été mise en place – précisant que la mention de la paternité
devait être effectuée au profit du titulaire de droit ou d’une entité qu’il aurait désignée.
p.198C’est le même raisonnement qui a inspiré les commentateurs de la GFDL, dont le draft actuel
contient un article renvoyant à une
licence GNU Wiki (8b. Wiki Relicencing).
1.2.5 L’extension du libre au-delà de la création
p.199Au fur et à mesure que la philosophie du Libre se répand, d’autres secteurs s’orientent dans
une direction similaire (influencés par l’exemple, ou tout simplement pour répondre aux impératifs du monde actuel).
p.200Les aspects juridiques sont eux aussi des paramètres fondamentaux puisque chaque objet
immatériel répond à un équilibre particulier avec lequel la licence doit composer : la transposition d’une licence sur un type de créations non prévu est généralement une mauvaise idée. En
effet, le titulaire de droits sur un brevet ou une base de données n’aura pas les mêmes prérogatives que l’auteur d’un logiciel, de la même façon que l’auteur d’un logiciel aura des prérogatives
différentes de celles de l’auteur d’un film : la licence choisie doit donc parfaitement appréhender les droits qui pèsent sur la création, au risque sinon que chaque auteur conserve un contrôle
qui limiterait les libertés de l’œuvre.
p.201Seront analysés ci-après quelques autres mouvements, encore en construction :
l’open access (1.2.5.1), l’open data (1.2.5.2), les polices libres (1.2.5.3), les formats ouverts (1.2.5.4),
l’open cloud (1.2.5.5), l’open hardware (1.2.5.6) et l’open web (1.2.5.7).
1.2.5.1 Open access ou archives ouvertes
p.202Les bases du mouvement de l’open access dépassent la simple diffusion sous licences libres (1.2.5.1.a) et reposent notamment sur une
gestion juridique des contributions menées dans ce cadre (1.2.5.1.b).
Les bases du mouvement de l’
open access
p.203Tirant profit des richesses du numérique et d’Internet, l’apparition du mouvement de
l’open access est aujourd’hui perçu comme l’évolution logique des pratiques scientifiques à l’ère du numérique : favorisant les échanges, évitant de dupliquer des recherches et des erreurs, offrant une vision plus large de l’état de la
science, etc. Une pratique d’autant plus appréciée en raison des abus du système de publication scientifique antérieur (avec des auteurs entièrement dépossédés de leurs droits et des prix
d’abonnement prohibitifs au point de rendre ces revues inaccessibles à certaines bibliothèques).
p.205En pratique, les politiques d’
open access, variées,
proviennent des financeurs que sont les centres de recherches et les organismes de financement de la recherche, tous deux conscients de l’intérêt d’une bonne diffusion et réutilisation de la
recherche. Cette politique concerne les publications existantes et celles à venir
– ce cadre de diffusion pouvant être obligatoire (ou fortement conseillé…) pour des chercheurs appartenant ou financés par ces organismes – et la publication est réalisée par l’intermédiaire d’archives institutionnelles ou de journaux ayant fait le choix de l’
open access (par exemple
PLOS et
BioMed Central).
p.206En France, peu d’organismes ont adopté une politique en faveur de l’
open access (comparativement à nos voisins européens)
– principalement l’ANR, le CNRS, l’INRIA, l’INSERM et l’Université Lyon 2 (en plus de l’Institut Pasteur déjà cité) –, et plusieurs solutions coexistent même si une convergence s’observe actuellement autour du site
archives-ouvertes.fr.
p.207Dans ce nouveau paradigme – qui n’est pas un « modèle commercial » – où elles ne peuvent facturer l’abonnement ou l’accès, les revues alternatives se
sont positionnées dans un modèle d’« auteur-payeur » : les frais de
publication – nécessaires au travail éditorial de la revue – sont ainsi supportés par le chercheur (généralement son organisme de recherche et ses fonds de soutien) plutôt que d’être
supportés par les lecteurs (les prix varient selon les éditeurs). On parle de
« modèle hybride » pour les revues qui cumulent les deux modèles.
p.208L’open access est tout à fait compatible avec un
processus de relecture par les pairs – ceci d’autant plus que la revue elle-même est généralement bénévole, mais elle pourrait tout aussi bien être rémunérée dès lors que le coût serait pris en
charge par les financeurs.
p.209D’autres aspects doivent être pris en compte lors de la mise en œuvre de cet open access :
– |
les établissements (écoles, centre de recherche, etc.) ne doivent pas limiter ou filtrer l’accès ;
|
– |
la plupart des publications se font en anglais, il faut œuvrer pour réduire cette barrière ;
|
– |
les solutions doivent permettre un accès aux utilisateurs handicapés ;
|
– |
tous les pays n’ont pas le même accès au réseau, il faut œuvrer pour leur donner un tel accès.
|
La dimension juridique
p.210Dans le mouvement d’open access, les auteurs
autorisent un usage gratuit et sans restriction de leur production – cette
absence de restriction induisant l’usage de licences libres ou proches (de type
Creative Commons interdisant l’usage commercial).
p.211Par ailleurs, le principe repose sur la conservation par les auteurs de leur titularité lors
de la publication, ce qui induit de changer les pratiques actuelles (le projet
Sciences Commons recommande à cet effet l’ajout de certaines clauses afin d’atténuer les cessions de droits, au travers du Scholar’s Copyright Addendum Engine).
Pour aller plus loin...
– |
le site JULIET, qui centralise les différentes politiques d’open access (http://www.sherpa.ac.uk/juliet/) ;
|
– |
le projet français PLUME : Promouvoir les Logiciels Utiles Maîtrisés et Économiques dans l’enseignement supérieur et la recherche
(http://www.projet-plume.org/).
|
Une extension au-delà du monde scientifique ?
p.212L’attrait de ce mouvement fut particulièrement fort auprès d’un public d’auteurs qui
n’était, de toute façon, qu’exceptionnellement payé pour ses articles (les chercheurs, professeurs ou parfois les praticiens, comme les avocats, qui écrivent des articles ne sont généralement pas
payés). La rédaction d’ouvrages, plus denses, leur assurant généralement quelque rémunération. Il n’est néanmoins pas inimaginable que ce mouvement s’étende à d’autres sphères de création (images,
articles d’actualités, etc.), dès lors que les bénéfices tirés de a publication ouverte resteraient supérieurs à la valeur de la rémunération – la redevance – qu’ils auraient pu toucher
dans un modèle traditionnel.
p.213L’obstacle majeur pourrait concerner la prise en charge des coûts de publications,
généralement publique pour la recherche, et privée pour les autres sphères de créations, mais la possibilité d’annuler ses coûts grâce au numérique et à Internet rend cette évolution beaucoup plus
simple.
1.2.5.2 L’ouverture des données (open data) poussée par l’Open Knowledge Foundation et la Sunlight Foundation
p.214Les bases du mouvement seront étudiées dans un premier temps (1.2.5.2.a), avant de détailler
la dimension juridique (1.2.5.2.b).
Les bases du mouvement de l’ouverture des données
p.215L’
open data est l’application des concepts formalisés
par l’
Open Knowledge Foundation (OKF) au Royaume-Uni et la
Sunlight Foundation aux
États-Unis : un accès libre et gratuit aux données publiques, sous une licence gratuite qui permette la libre reproduction, redistribution, modification, et la libre ré-utilisation (y compris à
des fins commerciales) des données. Un nombre croissant d’auteurs privés s’intéresse à
l’Open Data, mais restent encore principalement concernés les données publiques détenues par une administration, une collectivité ou une société dans l’exercice d’une mission de service public ou
dans les projets communautaires.
p.216Toutes deux organismes à but non lucratif, la Sunlight Foundation (qui a pour objet de
rendre les gouvernements « transparents et responsables ») et l’Open
Knowledge Foundation (dédiée à la promotion de la connaissance ouverte dans toutes ses formes) sont les plus actives dans la promotion de l’ouverture des données, notamment par les acteurs du secteur
public.
p.217La politique d’« ouverture » des données ne repose que partiellement sur des
enjeux juridiques et il est nécessaire de veiller (la liste n’est pas exhaustive) : à se donner les moyens de la mise à disposition (notamment par la mise
en place d’interface de programmation – Application Programming Interface ou API) ; à l’utilisation de formats ouverts ; à l’animation de la communauté d’usagers des bases de données (utilisateurs lambda,
utilisateurs contributeurs et éditeurs de services utilisant ces bases de données). En effet, des bases de données stockées en marge d’un site, difficilement accessibles, peu documentées ou enfermées
dans des formats propriétaires seront trop difficiles à appréhender pour entraîner un mouvement vertueux (on court ainsi le risque de perdre de potentielles valorisations financières de ces bases
sans pour autant en tirer de vrais profits).
p.218En parallèle, cette ouverture des données est accélérée par la reconnaissance de certaines
missions liées aux services publics :
– |
l’exigence démocratique de transparence de l’État (le Conseil d’État ayant même fait de ce droit d’accès au document administratif une garantie fondamentale accordée
au citoyen) ;
|
– |
la transformation de notre société en une société de la connaissance et de l’information – et l’incitation corollaire au développement d’activités commerciales
fondées sur l’information (voir le Livre Vert sur le droit d’auteur dans l’économie de la connaissance et la directive européenne INSPIRE
2007/2/CE qui contraint les États membres à publier un certain nombre de données publiques géographiques ) ;
|
– |
le succès généralisé de l’open innovation (la capacité à bénéficier de la créativité, de l’intelligence et des contributions
externes – on parle aussi d’« open source au-delà du logiciel », voire de crowdsourcing (probablement la
forme la plus ouverte de l’OI
|
p.219Basé sur l’OSD, une définition intitulée l’Open
Definition est venue précisée les éléments permettant de qualifier un contenu ouvert. Pour qu’une base de données puisse être dite ouverte, la définition requiert :
1. |
le libre accès des bases de données : les bases de données doivent être disponibles entièrement, pour un coût raisonnable
en cas de distribution matérielle (gratuitement lorsque le coût est négligeable, comme pour un transfert par Internet). Elles doivent être disponibles dans une forme adaptée et modifiable ;
|
2. |
la libre redistribution des bases de données : la licence ne peut, par exemple, exiger le paiement d’une redevance
supplémentaire au titre de la redistribution ;
|
3. |
la libre réutilisation des bases de données : la licence doit permettre la création et la redistribution de bases de
données dérivées (éventuellement sous la même licence lorsque celle-ci est de type copyleft) ;
|
4. |
l’absence de restrictions techniques : il ne doit pas y avoir de restriction technique empêchant la jouissance des droits
conférés par la licence ;
|
5. |
l’attribution des auteurs et contributeurs : la licence peut soumettre au bénéfice de la licence l'attribution de la
paternité des créateurs et contributeurs ;
|
6. |
l’intégrité de la base doit être conservée : un tiers ne peut pas s’approprier le travail d’un autre et les contributions
de chacun sont clairement attribuées ;
|
7. |
l’absence de discrimination entre les personnes ou les groupes : toute personne détentrice d’une copie de la base de
données bénéficie des termes de la licence tant qu’il s’y conforme lui-même ;
|
8. |
l’absence de discrimination entre les domaines d’application : la licence se limite à la propriété intellectuelle et ne
peut en aucun cas réguler d’autres domaines politiques ou commerciaux ;
|
9. |
la licence s’applique sans dépendre d’autres contrats : par exemple on ne peut pas ajouter un NDA (Non-Disclosure Agreement ou accord de confidentialité) lors de l'accès à la base ;
|
10. |
la licence ne doit pas être propre à la compilation de bases sur un même média : elle est attachée à la base de données et
non à cet ensemble, le licencié étant libre de la sortir et d'en jouir conformément à la licence en dehors de cet ensemble ;
|
11. |
la licence ne doit pas s’étendre automatiquement à d’autres bases compilées sur un même média : ce qui ne s'oppose
toutefois pas aux licences de type share alike ayant une étendue large (à l'instar de la GNU GPL dans le domaine du logiciel qui ne s’étend qu’au programme envisagé comme un tout).
|
p.220Les données publiques des systèmes d’information géographique (SIG) sont les premières
concernées, mais elles ne sont pas les seules et des initiatives telles
Data-Publica ou
Regards Citoyens regroupent de nombreuses autres données publiques (souvent statistiques).
p.221Enfin, ce mouvement, encore en pleine maturation, fait partie d’un mouvement plus large
intitulé open government.
Open Street Map ou la cartographie libre
p.222Initiative très représentative de l’intérêt de l’open
data pour le privé comme le public, le projet Open Street Map est un projet de cartographie libre et mondiale, une sorte de « Google Maps-like » enrichi et ouvert qui permet à tout
un chacun de partir réaliser ses propres relevés GPS, de les partager via les outils fournis et ensuite de les enrichir. Le projet connaît une croissance fulgurante et continue depuis son lancement
(les principales villes étant toutes cartographiées et certaines données n’intéressant que quelques passionnés (comme les tracés des chemins de randonnée) sont d’une qualité qui dépasse les solutions
officielles ou grand public.
p.223Véritable « base de données géographiques », le projet OSM propose de nombreuses
applications (la cartographie, très visible, n’étant qu’une partie de celles-ci).
p.224L’
OpenStreetmap
Foundation est une association à but non lucratif de droit britannique créée par Steve Coast – également dirigeant de l’entreprise
Cloudmade Ltd qui, de manière tout à fait transparente, propose des services autour d’Open Street Map.
La dimension juridique du mouvement
p.225La notion de donnée n’est pas une qualification juridique, la donnée étant généralement plus
associée à une information (soumise à aucun monopole) qu’à une œuvre ou une autre création soumise à un quelconque droit de propriété intellectuelle. Néanmoins, certaines sociétés n’hésitent pas à
opérer un distinguo relatif à la protection des données qu’elles génèrent en fonction des efforts financiers qu’elles ont pu fournir : les données brutes (primaires : inexploitables directement par l’utilisateur) ; les
données corrigées (ou traitées/ exploitables : elles seraient appropriables) ; et les données élaborées (ou
analysées ou dérivées – des données extérieures sont ajoutées : elles sont appropriables). Sans préjuger de l’originalité de leur apport, notons que ce sera au juge qu’il reviendra, au cas
par cas, de trancher la question au regard des critères du droit d’auteur.
p.226Ce phénomène dépasse les seuls enjeux de propriété intellectuelle et cumule licence de droit
d’auteur et autorisation donnée en vertu du droit sui generis des bases de données et contrat. De nouvelles licences sont venues apporter des réponses à l’ouverture des données, en s’inspirant et se détachant des licences existantes de contenu et de logiciel.
p.227En effet, contrairement aux créations classiques (logiciels, articles, etc.), les données ne
génèrent pas, en tant que telles, un quelconque droit de propriété intellectuelle au profit de celui qui les crée, les détient ou les exploite – seule la structure de la base de données peut,
pour peu qu’elle soit considérée comme originale, prétendre à une telle protection. Le droit sui generis des bases de données peut, pour sa part, limiter ou
conditionner certaines extractions réalisées sur la base. Il y a deux conséquences majeures :
– |
en l’absence de droit exclusif qui permettrait de conditionner chaque usage au respect du cadre contractuel défini, celui qui détient des données se trouve démuni
face à toute personne qui aurait pris connaissance des données sans contracter (ce qui est d’autant plus préjudiciable lorsque la valeur des bases repose plus sur la qualité des données que sur leur
quantité ou organisation) ;
|
– |
en l’absence de cession relative aux autres droits exclusifs (même potentiels), les utilisateurs subséquents encourent le risque que ces derniers leur soient
opposés.
|
p.228Deux courants de pensée ont alors animé ces nouveaux projets : le premier sous la direction
du projet Science Commons de Creative Commons et la seconde sous celle de l'Open
Knowledge Foundation.
p.229En 2007, Science Commons lança le projet CC-0 visant
à concéder le plus largement possible les droits sur les données. La licence Creative Common Zero (CC-0) qui en résulta est la licence conseillée par le projet Sciences Commons pour l'application aux
bases de données. Le projet communautaire Personal Genome ainsi que la région italienne du Piémont utilisent cette licence.
p.230En 2009, l'Open Knowledge Foundation a publié un panel de licences reposant sur une assiette
plus large que le seul droit d'auteur (à l’inverse des licences classiques telles les Creative Commons), en incluant également le droit des contrats et le droit sui generis des bases de données (article 2.0 « Champ
d’application » de la Licence). Il existe actuellement trois licences rédigées
sur ce principe :
p.231L’ordre dans lequel ces trois licences viennent d’être citées traduit le contrôle croissant
qu'elles offrent aux titulaires de droits sur les bases de données : la PDDL opère une « renonciation » aux droits similaires à la licence CC-0 précitée, l'ODC-By impose seulement de mentionner
la paternité et de différencier les contributions de chacun, tandis que l'ODbL (ODC-ODbL) est la seule licence adaptée aux données qui contienne une clause de type copyleft.
1.2.5.3 Les polices libres
p.232Souvent méconnus, les enjeux relatifs à l’utilisation de polices libres (1.2.5.3.a) ont
justifié la rédaction de licences spécifiques (1.2.5.3.b).
Les enjeux
p.233Les polices de caractères désignent des ensembles complets de caractères typographiques de
même famille (Times, Arial, Helvetica, etc.). Leur conception était auparavant dévolue à de grands groupes industriels, mais est aujourd’hui partagée avec de nombreuses petites sociétés ainsi qu’un
nombre croissant de créateurs individuels.
p.234Soucieux de ne pas utiliser ou distribuer des polices détenues par des entreprises
concurrentes, les éditeurs de distributions GNU/Linux, les éditeurs de logiciels de bureautiques et les autres projets globaux ont publié et promu la publication de polices libres (l’utilisateur
final reste néanmoins libre, pour certains usages seulement, d’utiliser avec ces logiciels des polices non libres pour lesquelles il détiendrait une licence).
p.235Red Hat a ainsi publié les polices de caractères
Liberation
font (en version Sans, Serif et Mono) et le projet GNU publie les
GNU FreeFont.
p.236Pour des raisons différentes, mais convergentes, l’association SIL International est aussi à
l’origine de nombreuses polices libres (publiées pour répondre à ses objectifs d’étude et de développements des langages).
La dimension juridique du mouvement
p.237La protection des polices de caractères par le droit d’auteur n’est pas unanimement reconnue
dans le monde :
– |
en France (et, semblerait-il, en Europe), il convient de rechercher l’originalité nécessaire à l’acquisition du droit : une jurisprudence de 1993 est venue
préciser que les polices de caractères pouvaient constituer des logiciels et que leur mise à disposition gratuite sur un CD-Rom largement diffusé était constitutive de contrefaçon ;
|
– |
Aux États-Unis, la protection n’est pas garantie aux polices de caractères en tant que telles, mais la qualité de logiciel leur est souvent reconnue (à fortiori pour
les polices vectorielles).
|
p.238D’autres protections (notamment le brevet, le droit des dessins et modèles et le droit des
marques) pourraient être utilisées pour limiter l’utilisation de la police de caractères, et il est en tout état de cause essentiel de vérifier que la licence d’utilisation les cède (ou les exclue)
de façon cohérente avec les droits qu’elle confère aux utilisateurs de ces polices.
p.239Pour majeure partie, les polices de caractères libres sont diffusées sous licences GNU GPL
(version 2 ou 3), avec comme exception que tout document réalisé avec ces polices n’a aucune obligation à être lui aussi sous la même licence (copyleft).
p.240Il existe néanmoins de nombreuses licences dédiées, plus adaptées à l’objet technique et
juridique que sont les polices de caractères, et la
SIL Open Font License (OFL) fait figure de chef de file.
Pour aller plus loin...
– |
voir le site OpenFontLibrary (http://openfontlibrary.org/) ;
|
– |
la League of Moveables Type, une collection de polices open source (http://www.theleagueofmoveabletype.com/) ;
|
– |
la FSF tient à jour une liste de licences appliquées aux polices (http://www.gnu.org/licenses/license-list.html - fonts) ;
|
– |
Fedora maintient une page wiki à jour contenant les réflexions relatives à la protection des polices de caractères ainsi qu’une liste relativement exhaustive des
licences existantes (http://fedoraproject.org/wiki/Legal_considerations_for_fonts).
|
1.2.5.4 Les formats ouverts
p.241On peut aussi parler de spécifications ouvertes au lieu de format ouvert. Les enjeux
(1.2.5.4.a) sont d’autant plus importants à l’ère numérique, au sein d’une société basée sur les échanges et la diffusion de l’information, et donc intimement soumise à l’établissement de standards
(ou spécifications) ouvert(e)s. Les solutions sont néanmoins peu juridiques (1.2.5.4.b).
Les enjeux
p.242D’après la loi du 21 juin 2004 pour la confiance dans l’économie numérique « [o]n
entend par standard ouvert tout protocole de communication, d’interconnexion ou d’échange et tout format de données interopérables et dont les spécifications techniques sont publiques et sans
restriction d’accès ni de mise en œuvre. »
p.243Le programme IDABC (aujourd’hui ISA), en charge de cette question pour la Commission
européenne, a établi une définition des standards ouverts :
1. |
« le standard est adopté et sera maintenu par une organisation sans but lucratif et ses évolutions se font sur la base d’un processus de décision ouvert
accessible à toutes les parties intéressées (consensus ou vote à la majorité, etc.) ;
|
2. |
le standard a été publié et le document de spécification est disponible, soit gratuitement, soit au coût nominal. Chacun a le droit de le copier, de le distribuer et
de l’utiliser, soit gratuitement, soit au coût nominal ;
|
3. |
la propriété intellectuelle – c’est-à-dire les brevets éventuels – sur la totalité, ou une partie, du standard est irrévocablement et gratuitement mise à
disposition ;
|
4. |
il n’y a pas de restrictions à la réutilisation du standard. »
|
p.244Ainsi, les enjeux sont de deux ordres : l’ouverture du format en lui-même (le fait que
la spécification finale soit implémentable par tous sans restriction ou licence limitative) ; l’ouverture du processus d’élaboration du format (car s’il est conçu par un acteur unique, l’acteur
en question a forcément un avantage par rapport aux autres – tel le format ouvert ISO 32000-1:2008, concernant le PDF, où Adobe est en position de seul rédacteur).
p.245En terme de normalisation, l’ISO ne considère que des travaux qui sont portés par des
organismes externes : l’ODF fut par exemple discuté au sein de l’OASIS
(Organization for the Advancement of Structured Information Standards – consortium mondial créé en 1993 qui compte plus de 3 500 membres) et l’OOXML au sein de l’ECMA (organisme européen
non officiel de normalisation, initié et dirigé par une quinzaine d’entreprises internationales américaines et japonaises).
p.246Le W3C a récemment mis en place des procédures accélérées (
Agile Track) visant à favoriser la mise en place de groupes de travail sur les réflexions relatives aux
innovations du web.
Pour aller plus loin...
– |
le blog de Thierry Stoehr dédié aux formats ouverts (http://formats-ouverts.org) ;
|
– |
la page Wikipedia consacrée aux formats ouverts ;
|
– |
Patrice Bertrand, « Documents ouverts : un pont entre bureautique et gestion de contenus » (sur http://tribunes-libres.smile.fr).
|
La dimension juridique du mouvement
p.247En termes juridiques, les enjeux ne touchent pas vraiment la propriété intellectuelle :
on parlera plus de normes, voire de référentiels nationaux, communautaires ou internationaux, relatifs à l’emploi de certains formats (généralement liés aux problématiques d’interopérabilité). Suite
aux différends avec Microsoft, la Commission européenne avait exigé la mise en place de licences RAND (reasonable and non-discriminatory) – celles-ci
restent néanmoins incompatibles avec les fondamentaux du logiciel libre, car elles mettent les standards à la discrétion des éditeurs propriétaires.
p.248Ainsi, il est nécessaire qu’un format soit exempt de droits exclusifs (droit d’auteur ou
brevets) pour être dit ouvert et, à terme, les problématiques récurrentes resurgissent : ainsi en est-il notamment avec le format vidéo WebM utilisé pour
l’HTML 5 (utilisant notamment VP8 diffusé sous licence CC By avec une implémentation sous BSD).
Pour aller plus loin...
– |
Dodd (T. Colin), « ODF: The inevitable format », The RedHat Magazine, 2007 (sur
http://magazine.redhat.com) ;
|
– |
TREPPOZ (Édouard), « Aux confins du droit de la concurrence et du droit de la propriété intellectuelle : l’affaire
Microsoft », Le Monde, 26 mars 2004 ;
|
– |
voir l’article de Wikipedia consacré au litige opposant Microsoft à la Commission Européenne (« Microsoft v. Commission »).
|
1.2.5.5 Open cloud
p.249Les enjeux du cloud (1.2.5.5.a), s’ils sont cruciaux
au regard de l’évolution des services et des produits, ne sont que faiblement juridiques (1.2.5.5.b).
Les enjeux
p.250Au regard des terminologies juridiques, le cloud
n’est pas fongible (substituable) : il n’est pas possible, de changer du jour au lendemain de fournisseur tout en conservant les mêmes services et données (au mieux faut-il exporter ses données
dans un format ouvert, afin de les importer ensuite auprès du nouveau fournisseur – l’idéal étant que les deux fournisseurs disposent d’interfaces standards qui puissent communiquer entre elles,
ce qui permettrait aux utilisateurs de rester libres et aux fournisseurs de conserver leur business).
p.251Les enjeux du
cloud dépassent donc les simples droits
de propriété intellectuelle et remettent en question les libertés assurées aux
utilisateurs des services en
cloud : la vie privée, les données (personnelles ou autres), l’interopérabilité et la standardisation sont ici des enjeux cruciaux. C’est ce constat qui a motivé la création de nombreuses initiatives
logicielles et groupes de réflexion à l’instar de l’
Open Cloud Consortium, l’
Open Cloud Manifesto,
FFII TIO, le
Distributed Management Task Force (DMTF), l’initiative d’OW2
Open Source Cloudware Initiative ou encore l’alliance industrielle
Free Cloud Alliance. Toutes
ces stratégies démontrent la nécessité de retrouver dans le monde du
cloud les mêmes qualités que celles que nous trouvons dans le monde du logiciel libre et de
l’
open source (l’absence de barrière d’entrée et de sortie, l’absence de discrimination, l’interopérabilité, la neutralité technologique et la
transparence).
p.252L’Open Cloud Initiative (
OCI), association à but non lucratif californienne initiée en 2009, fut officiellement créée en juillet 2011 lors de la conférence OSCON. Elle édicte les
Open Cloud Principles (OCP) qui permettent de qualifier un produit ou service d’
open
cloud.
p.253Les grandes sociétés d’Internet contribuent de plus en plus sous forme de logiciels libres
afin de mutualiser leurs développements respectifs : Google et Yahoo poussant le projet Hadoop alors que Twitter parle de libérer son logiciel Storm, tandis que l’éditeur LexiNexis ouvre sous
GNU Affero GPL v3 son propre logiciel de traitement de données HPCC.
p.254On peut enfin citer le travail réalisé par la fondation Mozilla autour des Open Web Applications qui sont des sites installables accompagnés de certaines fonctionnalités supplémentaires qui offriront aux utilisateurs la possibilité de récupérer
tous les éléments nécessaires pour éventuellement migrer chez eux ou sur un autre service.
Exemples concrets
p.255Le projet UNG, l’offre Drupal Garden et le projet Unhosted font figures de
précurseurs :
– |
lancé en 2010 par des étudiants brésiliens, le projet UNG (acronyme récursif de
UNG is not Google) se présente comme alternative complète aux solutions de cloud computing propriétaires (logiciel
métier, moteur de recherche, outil bureautique, etc.) ;
|
– |
l’offre Drupal Garden de la société Acquia est très intéressante en ce qu’elle donne aux utilisateurs, une fois le service de
la plate-forme utilisé, la possibilité d’exporter le code, le thème et les données sur une autre instanciation (mutualisée ou dédiée) de ce même logiciel libre : véritable extension du Libre au
cloud ;
|
– |
enfin, le projet Unhosted travaille sur un standard de web ouvert permettant de décentraliser les données des utilisateurs (et de concevoir des sites web implémentant
cette technologie).
|
p.256On se reportera aussi :
– |
à l’interview de Michiel de Jong, leader du projet Unhosted, sur le Framablog ( http://www.framablog.org) : « Unhosted : libre et salutaire tentative de séparer applications et données sur le web » ;
|
– |
|
– |
|
– |
à Cope (Rod), « How Open is Open ? A PaaS Scorecard », OpenLogic, 2011.
|
La dimension juridique du mouvement
p.257La dimension juridique du mouvement est en réalité essentiellement traitée par le biais des
licences libres classiques : telle la GNU Affero GPL v. 3 qui impose que les modifications du logiciel utilisé dans un service en ligne soient disponibles aux utilisateurs. La
généralisation de l’usage de certains logiciels libres facilitera le transfert des services grâce à un ensemble de paramètres et données qui pourront être repris chez un concurrent ou hébergé par
l’utilisateur lui-même.
p.258Toutes les autres facettes (respect de la confidentialité, de la vie privée, etc.) seront
probablement plus liées à des enjeux de transparence, voire de communication et de business (les contrats généraux d’utilisation étant pour le moment peu génériques et très fluctuants). La
multiplication de logiciels libres dans ce secteur facilitera néanmoins le coût d’entrée pour tout « cavalier blanc » qui entendrait proposer de réelles sécurités sur le sujet. On peut
regretter que les instances nationales ne puissent être plus présentes sur le sujet (notamment la CNIL en France), mais le caractère international d’Internet est incompatible avec une telle gestion
décentralisée (il serait certainement plus efficace de travailler sur des collaborations internationales, voire d’établir des normes et de mettre en place des structures aptes à les faire
respecter).
1.2.5.6 L’embarqué et l’open hardware
p.259Les enjeux de l’embarqué (1.2.5.6.a) sont très liés aux modèles des logiciels
libres mais ils s’en distinguent notamment par les réponses juridiques apportées
(1.2.5.6.b).
Les enjeux
p.260Qu’elles soient communautaires (telle l’imprimante 3D
RepRap) ou industrielles (comme
Arduino), la multiplication d’initiatives en la matière démontre le fort intérêt que
présente l’
open source pour les constructeurs de matériels : tant pour ce qui concerne les logiciels embarqués dans leurs produits (leur valeur ajoutée est
principalement matérielle) que dans le processus de création et d’exploitation du matériel sous licence libre. On annonçait ainsi en 2010 plus de 300 projets de matériel libre (avec un chiffre
d’affaires de 1 à 10 millions de dollars) partagés entre industriels et
communautés.
p.261Ce phénomène (et la réflexion économique qui l’accompagne et le justifie) est d’autant plus
intéressant que cette industrie ne peut créer sans investir préalablement : d’une part dans la matière première et dans les machines nécessaires à la réalisation des produits ; d’autre part
dans la recherche, le dépôt ou l’acquisition de titres de propriété industrielle (brevets, droit des dessins et modèles ou droit des topographies de semi-conducteurs).
p.262Cette nouvelle vague d’innovation devient donc possible grâce à plusieurs facteurs :
une réduction de la matière première et du coût des outils nécessaires pour créer les produits ; une transformation des produits et des méthodes afin de faciliter la simulation, les optimisations et les itérations en amont de la réalisation du produit de sorte
à diminuer le coût et le temps de création, et de favoriser la réutilisation, voire le portage, en aval du projet initial. La plus grande avancée en la matière est probablement l’arrivée dans les
années 1990 des FPGA (Field Programmable Gate Array – composants numériques reprogrammables) : même si les performances ne sont pas égales aux
composants classiques, un FPGA et une carte adaptée présentent une véritable alternative – très accessible – à la fonte de ces composants, ceci d’autant plus qu’ils font appel à un code
source qui peut être partagé sous licence libre.
p.263En raison de la forte compétitivité de secteur, il faut aussi prendre en compte l’avantage
attaché au premier entrant et les autres mécanismes différenciateurs (notamment les nécessaires procédures de certifications ou qualifications dans certains secteurs – l’aéronautique, le
ferroviaire, l’aérospatiale et bientôt l’automobile).
p.264Acteur très présent sur le sujet, le CERN a récemment lancé l’
Open Hardware Initiative, qui s’appuie sur la plate-forme
Open Hardware Repository créée quelques années plus tôt dans le but de permettre aux scientifiques d’échanger et de partager leurs travaux en matière de
plans, documentations et schémas, afin de favoriser la réutilisation de contenus existants et d’éviter de dupliquer leurs efforts. La
Cern Open Hardware Licence
v 1.1 impose néanmoins des conditions qui empêchent d’y voir une licence libre : l’obligation d’avertir les contributeurs antérieurs quant aux modifications apportées et à la fabrication
des matériels concernés.
La dimension juridique du mouvement
p.265Les produits étant plus complexes, ils sont couverts par de multiples droits d’importance
différente : les droits de propriété industrielle (brevets, dessins et modèles, topographies de produits semi-conducteurs) sont ici prédominants alors que le droit d’auteur est encore
relativement peu utilisé (sauf pour ce qui concerne les logiciels embarqués, ainsi que la partie reprogrammable de certains composants).
p.266Chaque projet a adopté une politique différente en matière de licences : GNU GPL pour
FreeCores, GNU LGPL pour le projet
Opencores, licences
copyleft ou permissives pour le
LinuxFund.org (anciennement Open Hardware Foundation) et l’
Open Graphics Project (quelques licences propriétaires également pour ce dernier), ou encore la rédaction de licence spécifique
comme pour le
projet Ballon ou
Tucson
Amateur Packet Radio (TAPR). Le projet
Qi hardware, qui a pour ambition de créer un pot commun de matériels libres,
recommande aujourd’hui la GNU GPL v 3 (à la place de son ancienne politique par laquelle les plans étaient sous CC By-SA, le code sous GNU GPL v 2 et les brevets sous une licence
particulière). Le CERN a publié la version 1.1 de sa licence OHL, qui encadre les plans et documentations d’équipements aux spécifications libres (
open
hardware) tout en imposant certaines obligations liées au partage des modifications des plans et à l’avertissement de toute mise en œuvre de ceux-ci.
p.267Enfin, l’adoption de licences libres affecte directement les relations entre les différents
acteurs, certains se réunissant en amont des projets afin de s’ouvrir ensemble à de nouveaux marchés (tel le projet français Babylone qui a pour vocation à créer et partager l’environnement
nécessaire à un système GNU/Linux embarqué à destination de l’aéronautique) et d’autres rejoignant plus tard le projet (en tant qu’intégrateur ou client).
1.2.5.7 Open Web
p.268Globaux, les enjeux de l’open web (1.2.5.7.a)
reposent aussi sur une dimension juridique (1.2.5.7.b).
Les enjeux
p.269Autre mouvement transverse, l’open web affirme
fondamentalement que les pièces majeures du web devraient être ouvertes, libres, afin de pouvoir être implémentées par tous ceux qui composent le réseau.
p.270La
fondation Open Web a
donc été créée en 2010 sur le modèle des fondations
Apache et OpenId, pour gérer les spécifications du web.
p.271Ses missions se répartissent entre :
– |
un rôle d’incubateur, pour créer de nouvelles spécifications à destination du web ;
|
– |
la gestion de licences sur les objets de droits exclusifs ;
|
– |
la diffusion de spécification sous Creative Commons ;
|
– |
la création et le support d’une communauté.
|
p.272Elle comble de ce fait l’inaction des organisations de standards, promeut l’usage de
licences claires ainsi que l’édiction de standards pour gérer la propriété intellectuelle. L’initiative n’englobe pas les autres courants dont elle reconnaît néanmoins la légitimité ( comme
l’open data.) Enfin, elle est ici pour rédiger le contrat social qui réunira la communauté.
p.273Projet complémentaire ayant récemment été annoncé, l’
Open Networking Foundation vient d’être fondée par d’importantes sociétés de télécommunication et du web (notamment Deutsche Telekom, Facebook, Google,
Microsoft, Verizon, and Yahoo) pour accélérer l’innovation relative au réseau (en se basant sur la technologie OpenFlow).
La dimension juridique du mouvement
p.274La fondation OpenWeb a publié plusieurs licences qui s’étendent tant au droit des brevets
qu’au droit d’auteur. L’Open Web Final Specification Agreement (OWFa 1.0) est ainsi utilisé par le
projet Open Compute, projet lancé par
Facebook afin de créer une communauté ouverte destinée à optimiser la création de serveurs et datacenters. Elle contient une licence en matière de droit d’auteur et une promesse de non-agression en
matière de brevets.
1.2.5.8 etc.
p.275 La liste serait trop longue s’il fallait détailler toutes les autres extensions de ce
phénomène, tout du moins peut-on en lister quelques-unes :
– |
|
– |
Tela Botanica. Principal réseau de botanistes qui partagent leurs connaissances sous licence Creative
Commons By-SA ;
|
– |
Territoires sonores. Documents et témoignages sous forme de balades sonores (sous licence
Creative Commons) ;
|
– |
Sesamath. Manuels et logiciels mathématiques rédigés par une communauté de professeurs de mathématiques et
diffusés sous licences libres (GNU FDL et GNU GPL) ;
|
– |
l’initiative Open Prosthetics qui est une collaboration ouverte entre utilisateurs de prothèses,
concepteurs et financeurs afin de créer des modèles de prothèses disponibles pour tous ;
|
– |
le projet Open Money qui donne tous les outils pour la mise en place de monnaies alternatives ;
|
– |
le projet Open Law, soutenu par Harvard, a pour ambition d’impliquer les communautés dans la
réflexion relative à l’édiction des lois.
|
1.3 L’impulsion favorable des puissances politiques publiques
p.276En tant qu’utilisatrices, les puissances publiques se sont très tôt intéressées au phénomène
du Libre (pour différentes raisons dont le prix, l’adaptabilité, la sécurité, etc.), sans jamais franchir le pas du politique. Le préjudice est d’autant plus fort que le budget alloué au marketing
des logiciels libres est généralement nul, ce qui les rend bien moins visibles auprès
de la sphère politique.
p.277Néanmoins, le marché comme le politique ne peuvent que suivre le chemin tracé par les
acteurs de la création et de l’innovation, et on observe ainsi des impulsions plus ou moins fortes des puissances publiques qui bénéficient au Libre : dans l’open
source / logiciel libre (1.3.1), les standards ouverts (1.3.2), et l’open data (1.3.3).
1.3.1 L’impulsion des puissances publiques en faveur du logiciel libre
p.278 Différents types d’impulsions (1.3.1.1) caractérisent les actions publiques en faveur de
l’open source dans le monde (1.3.1.2).
1.3.1.1 Les types d’impulsion
p.279 La dimension politique du logiciel libre n’a pas échappé aux administrations ou
collectivités qui peuvent ainsi justifier auprès de leurs contribuables d’une action qui participe à la constitution d’un fonds commun et qui les rend « plus libres » à l’ère du
numérique.
p.280 Même s’il leur est parfois possible d’édicter des lois en ce sens (1.3.1.1.a), l’action des
administrations ou collectivités se fait surtout au travers des marchés publics (1.3.1.1.b), voire par la prise en charge de l’édition de logiciels libres (1.3.1.1.c) ou le soutien du mouvement par
d’autres actions directes ou indirectes (1.3.1.1.d).
Les réformes législatives en faveur du Libre
p.281 En 2009, le Conseil régional italien du Piémont a adopté une loi disposant que :
« la Région, dans le processus de sélection des programmes d’ordinateur qu’elle acquiert, préfère les Logiciels Libres et les programmes dont le code source peut être inspecté par les
licenciés » . Alors que ce choix était accueilli avec enthousiasme par les partisans du logiciel libre et par la société civile, la Présidence du Conseil italien a contesté cette loi en
saisissant la Cour constitutionnelle afin de déclarer ce texte illégal. Par une
décision
du 23 mars 2010, la Cour a jugé que la préférence envers le logiciel libre est légitime et conforme au principe de la liberté de la concurrence. La Cour précisant que
p.282Le concept du logiciel libre et des logiciels dont le code source est ouvert ne se réfère
pas à une technologie particulière, marque ou produit, mais exprime une caractéristique juridique.
p.283 Dans une autre perspective, le président de la Fédération de Russie, Dmitry Medvedev, a
récemment proposé une réforme de la législation de son pays afin de faciliter la
diffusion de contenu sous licence de type Creative Commons.
p.284Certains estiment que les réformes devraient être plus profondes : ainsi Mélanie
Clément Fontaine propose la création d’un domaine public réservé qui permettrait aux auteurs de renoncer légalement à leurs droits au profit d’un statut légal
conçu sur le modèle du copyleft.
p.285 Toutes ces réformes posent néanmoins un certain nombre de problématiques (notamment au
regard des traités internationaux dont la France est signataire) et il est à craindre qu’il faille attendre encore quelques années avant que celles-ci puissent se généraliser
Les marchés publics comme premier vecteur de commande de logiciels libres
p.286 La source de financement de l’écosystème du logiciel la plus simple est la commande de
logiciels (en qualité de matériels et fournitures informatiques) ou de services autour de ceux-ci par le biais d’appels d’offres. Une telle technique permet par ailleurs de mutualiser les
développements au bénéfice du secteur public, celui-ci ayant tout intérêt à pouvoir réutiliser massivement et sans limitation les logiciels payés une première fois – destructeur d’un nombre
important de rentes qui s’était construites autour des besoins des acteurs publics.
p.287Classiquement, cette politique peut être intégrée par des critères objectifs au sein de
marchés publics qui restent conditionnés à un certain nombre de règles destinées à assurer un bon usage des deniers publics – qui ne leur permettent pas, par exemple, de désigner nommément le logiciel souhaité. On vit néanmoins la situation analogue où des marchés publics de service indiquaient par leurs marques les logiciels libres sur lesquels étaient
demandés l’installation ou le support : il ne semble pas y avoir à priori d’atteinte à la concurrence puisqu’aucune société n’est par ce fait exclue de l’appel (la situation pourrait néanmoins
être différente si une des sociétés était l’éditrice unique du logiciel) ; mais il est en revanche plus critiquable (en termes de recherche d’une solution optimum) que de tels appels puissent se
faire sans une étude des différentes solutions répondant au besoin (obligatoires dans le cadre d’un marché public de fournitures). C’est exactement cette hypothèse qui a récemment emporté la saisine
du juge des référés puis du Conseil d’État : statuant sur une requête par laquelle les sociétés évincées de l’appel d’offres reprochaient à la région Picardie d’avoir nommément fait référence
aux logiciel libre pour lequel elle demandait la mise en œuvre, l'exploitation, la maintenance et l’hébergement d'une plate-forme de services, le Conseil d’État a, par une décision (numéro 350431) du
30 septembre 2011, jugé qu’un tel marché public de service pouvait mentionner une marque car il n’était pas soumis au régime plus contraignant des marchés publics de fournitures (et que celle-ci
n’entraînait aucun distorsion de la concurrence). Si cette décision semble heureuse en l'espèce, il aurait été intéressant de pousser plus loin la réflexion relative à l'atteinte à la concurrence pour laquelle d'autres facteurs (procurant potentiellement un avantage
à l'éditeur) que la licence devraient, nous semble-t-il, être considérés : la lisibilité et l'accès du code (peut-il être compris et manipuler par un tiers qui se penche sérieusement sur ce dernier),
les modalités de diffusion (le code publié est-il le plus à jour), le business modèle (la société éditrice possède-t-elle une offre de modules propriétaires susceptibles de la favoriser ?), la
gouvernance du projet (tout développeur peut-il en pratique contribuer ses modifications au sein du projet ? Ce dernier aspect pouvant être fondamental pour un client qui souhaite rendre pérenne
toute modification déjà payée).
p.288 Finalement, de plus en plus de raisons pragmatiques entraînent l’adoption de logiciels
libres (large choix de logiciels, interopérabilité, confiance et stabilité, sécurité, facilité de déploiement, facilité de localisation, etc.). On constate même que certains projets, auparavant trop
importants pour les sociétés du secteur, leur sont aujourd’hui partiellement accessibles grâce au soutien de grandes SSII (Sociétés de Services en Ingénierie Informatique) – ceci même si la
tendance à rédiger des appels d’offres globaux préjudicie à l’écosystème industriel du Libre qui n’est généralement pas en mesure de répondre par lui-même.
p.289 Enfin, il est néanmoins heureux de constater que les acteurs publics se rendent compte de
l’importance de garder de bonnes relations avec les communautés qui éditent leur logiciel ou qui les utilisent (les administrations ne doivent pas réaliser tout toutes seules : outre que ce
n’est pas leur métier, elles passeraient certainement à côté d’innovations bienvenues en provenance desdites communautés). Ce rôle est généralement contractuellement confié à l’attributaire du marché
qui contribue sur les logiciels ou propose une assistance sur ces derniers.
L’édition de logiciels par le secteur public
p.290 Toujours par le biais de marché public, certaines collectivités et administrations décident
de financer le développement de logiciels libres qu’elles maintiennent – quitte à ce qu’elles le partagent ensuite avec d’autres acteurs du secteur public.
p.291Certains éditeurs propriétaires se sont soulevés contre ce nouveau courant d’autonomie des
administrations et collectivités qui leur « porterait concurrence » par le développement de produits open source. Le centre espagnol de ressources sur
l’open source, Cenatic, déclare au contraire que « les administrations publiques qui développent et partagent leur logiciel ne doivent pas être perçues
comme des pratiques anticoncurrentielles, mais prises comme une opportunité pour les sociétés privées de construire et d’étendre leur offre de services ». Cela d’autant plus que de tels
logiciels sont généralement développés dans un contexte où aucune offre existante ne convient aux besoins.
p.292Il conviendrait par ailleurs de rappeler que l’édition de tels logiciels peut rentrer dans
les missions de services publics : si les besoins en équipement informatique étaient considérés comme une nécessité, et que les logiciels propriétaires étaient proposés à des coûts
prohibitifs.
Les autres impulsions publiques
p.293Enfin, d’autres actions en faveur de l’écosystème des logiciels libres et
open source existent, notamment sous la forme de « Centres de compétences
open source », centres de recherche spécialisés
(telle l’
Initiative de Recherche et Innovation sur le Logiciel Libre en France) ou encore pôles de compétitivité dédiés (ces derniers
facilitant l’accès aux subventions publiques grâce à une procédure de labellisation).
p.294La sensibilisation et le financement d’événement en faveur du Libre ou du logiciel libre en
particulier semblent aussi tout à fait nécessaires compte tenu de la difficulté pour les entreprises du secteur – et, à fortiori, les communautés – à investir dans la communication et le
marketing.
1.3.1.2 Les différentes politiques favorables à l’open source dans le
monde
p.295 Le mouvement que l’on observe en France (1.3.1.2.a) s’inscrit dans une perspective
européenne (1.3.1.2.b), voire mondiale (1.3.1.2.c).
En France
p.296 Nous avons la chance, dans notre pays, d’avoir des administrations qui, très tôt,
comprirent leurs intérêts dans l’open source et qui, par la multiplication de marchés publics favorables, permirent au tissu économique du Logiciel Libre de se
former et de se structurer.
p.297 Par ailleurs, l’association de collectivités Adullact a, dès 2002, promu une politique publique de mutualisation qui donna rapidement la première forge publique
adullact.org destinée à partager les logiciels payés sur fonds public (inspirant les travaux postérieurs autour de la forme européenne
Osor.eu lancée par la Commission Européenne). Ainsi le logiciel de modélisation
Code-Aster
(notamment utilisé dans le nucléaire) a récemment fêté ses 20 ans.
p.298 Il n’y a en revanche aucune politique nationale du logiciel libre similaire au
positionnement récent en faveur de l’
open data. Ainsi, contrairement aux engagements qui purent être pris lors des présidentielles, aucun pôle de compétitivité
dédié au logiciel libre n’a été mis en place, et c’est donc au travers des multiples pôles de compétitivité (à dimension nationale ou internationale) que s’est dispersée l’industrie du logiciel
libre : au premier rang, le pôle System@tic au travers d’un groupe
thématique dédié,
mais aussi d’autres pôles comme
Cap Digital (et notamment CoLLibri) ou
Aerospace Valley. Ce choix bénéficie peut-être partiellement au logiciel libre,
dont la culture infuse ainsi dans l’ensemble des pôles, mais il le fait sans force (face à une industrie traditionnelle qui tient encore une place dominante) et sans remplacer l’opportunité préalable
qui aurait pu être offerte au logiciel libre de se structurer et de se renforcer.
p.299 En terme de promotion du Libre et de l’
open source,
on peut citer l’événement annuel
Open World Forum (OWF), soutenu par de nombreux acteurs institutionnels. Histoire moins heureuse, le
Centre européen de transfert et de recherche en informatique libre (CETRIL), organisateur des Trophées du Libre à Soissons, a aujourd’hui disparu. La Fédération Nationale du Logiciel Libre (FniLL),
organisatrice de l’événement « Paris Capitale du Libre », n’a pas survécu à la perte des financements publics et ses adhérents s’en sont détournés.
p.300Enfin, et même si la démarche semble aujourd’hui beaucoup moins active, il faut reconnaître
le travail réalisé par la Direction générale de la modernisation de l’état
DGME (qui avait notamment publié le « Guide
pratique d’usage des logiciels libres dans les administrations » rédigé par Thierry Aimé, cité précédemment).
En Europe
p.301 Au-delà de la France, il est possible de trouver quelques initiatives européennes en faveur
du logiciel libre, même si force est de constater que celles-ci n’ont jamais été menées jusqu’à leur terme (des pays tels que les Pays-Bas, l’Italie ou le Royaume-Uni ont communiqué à plusieurs
reprises sur l’importance de l’open source). Il semblerait qu’il s’agisse néanmoins de démarches politiques difficiles à affirmer à l’échelle d’un pays
– raison pour laquelle, dans les pays composés de régions fortes et relativement autonomes, l’édiction de loi et les prises de position franches en faveur du logiciel libre sont faites à
l’échelle de ces dernières (telle la Région du Piémont en Italie ou l’état du Kerala en Inde). Le CSI Piémont, qui mutualise à grande échelle, explique d’ailleurs promouvoir (et accompagner) l’utilisation de logiciels libres par pragmatisme.
p.302 Au Royaume-Uni, après quelques années de communication sans réels effets, une politique
plus concrète a pris forme courant 2011 par le biais d’une liste des logiciels
open source pouvant être utilisés par les administrations (sous l’intitulé
d’« Open Source Software Options for Government », aujourd’hui en version 0.3) ainsi que l’édiction des critères nécessaires à l’utilisation de tels logiciels (au travers l’« Assessment of Open
Source Software for Government », lui aussi en version 0.3). De son côté, l’Allemagne a ainsi opté pour la création d’un Centre de compétences OSS (
Open Source Software Competence Centre) qui permet de mutualiser les réflexions et expériences des administrations. Il est rattaché au Bundesstelle für
Informationstechnik (BIT) et promeut l’utilisation de logiciels libres dans l’administration.
p.303 Par ailleurs, l’Europe – qui voit dans l’
open
source un développement potentiel pour son industrie face aux géants américains et asiatiques – a financé deux projets qui ont œuvré en faveur du logiciel libre : le projet
Qualipso (Quality
Platform for Open Source Software) d’une part et les initiatives
Osor.eu, devenu
Joinup.eu, et
EUPL issues du département
IDABC – aujourd’hui ISA – d’autre part. Cependant, la dimension de la structure, la lourdeur administrative et l’aspect politique de la Commission sont
autant d’arguments qui expliquent qu’il est très difficile pour la Commission, en tant que structure politique, de faire le choix unique du logiciel libre. Ainsi, la
Direction Générale de l’Informatique (DIGIT) de la Commission européenne, qui explique sur son site sa stratégie en faveur de l’utilisation
interne d’
open source, s’est aussi récemment distinguée par l’achat de plusieurs dizaines de milliers de licences Microsoft sans procéder à de quelconques
appels d’offres.
Dans le reste du monde
p.304 Dans le reste du monde, les politiques sont diverses et assez complexes. Le Pérou et
l’Extremadure sont les précurseurs, et l’Australie avait publié dès 2005 un guide intitulé A guide to Open Source Software for Australian Government
Agencie.
p.305 Aux États-Unis, l’
open source est aujourd’hui perçu
comme la meilleure méthode de développement de logiciels (moins chers, mieux testés et donc sécurisés, interopérables, etc.). On retrouve ce constat du côté du gouvernement, mais celui-ci est surtout
très actif dans la mise en place d’une politique de « transparence » et d’ « ouverture » qui bénéficie, directement ou indirectement aux logiciels libres. Le ministère de la
défense américaine (DoD) est lui aussi un fervent partisan du logiciel libre et
possède sa propre forge publique (
http://forge.mil).
p.306 Des pays comme l’Inde ou le Brésil se distinguent en la matière. Dans ces deux pays, les
principaux acteurs de l’open source sont publics en raison d’une impulsion politique très forte qui entraîne l’édition sous licences open source des logiciels destinés aux propres besoins des administrations comme à ceux de ses citoyens, la formation des étudiants, la création de centres de compétences
locaux, etc.
p.307Nul doute que ces mouvements gagneront en importance au fur à mesure que ces pays
progresseront. Courant 2011, le Brésil a annoncé qu’il allait, en sa qualité de très grand utilisateur de la suite OpenOffice.org, rendre les contributions nationales plus régulières et
conséquentes.
Pour aller plus loin...
– |
|
– |
voir l’initiative indienne CATFOOS (Centre for Advanced Training in Free and Open Source) Software ainsi que l’IC-FOSS (International Center for Free and Open Source
Software), http://www.catfoss.kerala.gov.in ;
|
– |
|
– |
|
– |
|
1.3.2 Les standards ouverts
p.308Pour rappel, l’article 4 de la Loi n° 2004-575 pour la confiance dans l’économie numérique
(LCEN) définit les standards ouverts de la façon qui suit : « [o]n entend par standard ouvert tout protocole de communication, d’interconnexion ou d’échange et tout format de données
interopérables et dont les spécifications techniques sont publiques et sans restriction d’accès ni de mise en œuvre. » En l’absence d’un article supplémentaire contraignant à l’usage de tels
standards, l’intérêt de cette définition était avant de tout de poser un premier cadre de réflexion.
p.309Ce n’est ainsi que plus tard, le 11 novembre 2009, que fut publié le
Référentiel Général d’Interopérabilité afin de « guider les autorités administratives dans l’adoption de normes, standards
et bonnes pratiques, afin de favoriser l’interopérabilité de leurs systèmes d’information ». La version initiale prévoyait de préconiser le recours au format ODF (Open Document Format) normalisé
par l’ISO (Norme ISO/IEC 26300:2006) en mai 2006, mais elle a ensuite été révisée pour intégrer le format OOXML (Office Open XML) normalisé en un temps record (6 000 pages en deux mois
seulement !) sous la pression de Microsoft qui souhaitait assurer une rétrocompatibilité vis-à-vis des versions antérieures de son format (il devait être utilisé dès Office 2010, mais la version
implémentée ne correspond pas au format normalisé).
p.310 En Italie, la région des Pouilles prépare une loi qui rendra obligatoire à ses
administrations l’utilisation de formats ouverts et de logiciels libres : cela dans une politique de réduction des coûts et pour ouvrir le marché aux TPE. Enfin, une étude intitulée UK Government Open Standards Survey a été réalisée sur le sujet au Royaume-Uni en 2011 (non encore publiée).
p.311 Le gouvernement hongrois a exprimé le 1er juin 2011 sa
volonté d’imposer l’utilisation du format ODF, vu comme un format indépendant de tout fournisseur.
Pour aller plus loin...
– |
|
– |
la « Charte sur la conservation du patrimoine numérique » adoptée par l’UNESCO le 15 octobre 2003 (voir http://portal.unesco.org) ;
|
– |
|
1.3.3 L’impulsion publique en faveur de l’open data
p.312Le mouvement de l’open data est arrivé tardivement
sur le devant de la scène politique, mais son adoption fut alors fulgurante et vue comme l’achèvement d’une politique de transparence initiée dans les années 1980. Ainsi, la démarche étant encore
jeune et en pleine adoption (1.3.3.1), il faut garder un regard critique et replacer la situation française (1.3.3.3) à l’échelle des pays (1.3.3.2) voire à l’échelle européenne (1.3.3.4). Enfin, les
principes de l’open data s’étendent au-delà, notamment dans ce qu’il est d’usage d’appeler l’Open Government
(1.3.3.5).
1.3.3.1 Les origines
p.313En 1978, la France s’est dotée d’une loi « portant diverses mesures d’amélioration des
relations entre l’administration et le public et diverses dispositions d’ordre administratif, social et fiscal ». Elle était destinée à assurer aux citoyens l’accès aux documents administratifs
(en provenance d’établissements publics administratifs ou privés avec mission de service public) et entraînait d’une part des obligations de mise à disposition pour l’administration et d’autre part
la constitution d’une commission, la Commission d’Accès aux Documents Administratifs (
CADA), garante de leur respect (qui s’appuie aujourd’hui
sur un réseau de correspondants internes aux collectivités). Il y eu ensuite peu d’usage de cette loi, même si, en phase avec son époque, le gouvernement français confirma en 1998 que les
« données publiques essentielles » devaient être accessibles gratuitement sur Internet.
p.314En 2005, une ordonnance « relative à la liberté d’accès aux documents administratifs et
à la réutilisation des informations publiques » (transposant la directive européenne de 2003 « sur la réutilisation des données du secteur public ») est venue ajouter – et
organiser – la possibilité de réutiliser les données publiques. Certains documents sont expressément exclus de cette réutilisation (lorsque protégés par un droit de propriété intellectuelle d’un
tiers, relatifs à un service public industriel et commercial, ou provenant d’établissements et institutions d’enseignement et de recherche ou d’organismes ou services culturels). Une circulaire du
Premier Ministre ajoute, courant mai 2006, un « objectif de développement économique par une meilleure valorisation des gisements de données dont disposent les administrations ».
p.315Deux logiques coexistent donc : celle (passive) de la simple mise à disposition
impliquant une démarche du demandeur et celle (active) de la diffusion reposant sur une démarche du producteur de la donnée. Constitutives d’une politique incitative, ces dispositions prennent la
forme d’une série d’obligations à l’encontre de certaines personnes publiques (tous les établissements publics ne sont pas concernés), pour certains documents (tous les documents ne sont pas visés
– sont notamment exclus tous ceux devant demeurer secret, touchant à la défense nationale, la sécurité publique, la protection d’espèces rares ou des données archéologiques) afin d’assurer
certains droits aux citoyens. Au-delà de ce cadre minimum, il leur est évidemment tout à fait possible d’opter pour une diffusion plus large des données/informations publiques détenues : le
mouvement de l’open data étant la politique la plus ouverte en la matière, et la meilleure en termes de marketing…
p.316Enfin, parallèlement, et dans deux domaines précis, ont été organisés des régimes plus
contraignants. Une
Charte de l’environnement a été rédigée dans la continuité de la Convention d’Aarhus
afin de préciser que « [t]oute personne a le droit, dans les conditions et les limites définies par la loi, d’accéder aux informations relatives à l’environnement détenues par les autorités
publiques et de participer à l’élaboration des décisions publiques ayant une incidence sur l’environnement ». Peu de temps après la directive européenne INSPIRE a ajouté un cadre légal pour
l’établissement et l’exploitation d’une infrastructure d’
information spatiale
commune en Europe.
Pour aller plus loin...
– |
Rapport « Recommandation. Quelle politique de diffusion des données publiques ? », Forum des droits sur l’internet ( http://www.foruminternet.org/) ;
|
– |
|
1.3.3.2 Les démarches open data à l’échelle des pays
p.317À l’échelle internationale, les
États-Unis en 2009, puis le
Royaume-Uni en 2010, ont été les deux premiers pays à communiquer sur l’adoption d’une
politique d’
open data avec la mise en place de leurs portails respectifs.
p.318Devant le succès de ces initiatives, tant en termes de communication qu’au regard des usages
qu’elles ont engendrés, les autres pays ont rapidement adopté des démarches similaires :
Pays-Bas,
Suède, Espagne, Bulgarie, Canada, Tunisie, Finlande,
Australie,
Nouvelle-Zélande, Irlande du Nord et
Maroc. L’excellent site américain
Open Data Site répertorie ainsi plus de 200 initiatives similaires à l’échelle des états, des collectivités ou des organisations internationales. Par ailleurs,
un regroupement de collectivités et administrations autrichiennes a annoncé la mise en place d’une coopération « Cooperation OGD Austria » qui mutualisera les outils juridiques (les
licences) et techniques (grâce au logiciel CKAN développé par l’OKF) pour la diffusion des informations publiques ; et le Royaume-Uni a récemment publié le rapport «
Making Open Data Real: A Public Consultation » destiné à « établir une culture de la
transparence et de l’ouverture des services publics ».
p.319 Plusieurs types de licences sont utilisées pour la diffusion de ces données :
– |
les licences communautaires préexistantes (principalement les licences Creative Commons et ODbL) :
– |
la coopération autrichienne Cooperation OGD Austria ainsi que la Nouvelle-Zélande ont opté pour la CC-By 3.0 ;
|
– |
La région du Piemont italienne, déjà précurseur en matière de logiciels libres en Italie, a publié son portail
open data sous CC-By et utilise la licence CC-0 sur les données ;
|
– |
La suisse a opté pour une CC-By-SA 3.0 ;
|
– |
l’ODbL a été choisie par de nombreuses collectivités françaises (notamment la Mairie de Paris, Nantes
Metropole, Grand Toulouse, le Nord-Pas-De-Calais, etc.) et quelques pays (notamment le Maroc).
|
|
– |
ou des licences spécifiques :
– |
l’ Open Government Licence (OGL) en Angleterre pour le site
legislation.gov.uk : la licence est rédigée pour les besoins du gouvernement britannique et compatible avec la licence Creative Commons Attribution (pour le copyright) et la licence Open Data
Commons Attribution (pour les bases de données) ;
|
– |
|
– |
la récente Licence Ouverte (LO) qui sera
utilisée en France par toute l'administration et les collectivités qui le décident. Elle est très ouverte et compatible avec les principales licences communautaires existantes, notamment avec l’OGL,
la CC-By-SA 2.0 et l’ODbL.
|
|
p.320Il n’existe à l’heure actuelle aucun consensus quant à l’usage de licences de type
copyleft ou non : celles-ci offrant des pistes de valorisation rassurent de nombreuses collectivités, mais qui génèrent aussi un courant de mécontentement
du côté des industriels qui souhaiteraient profiter de ces données sans contrepartie.
p.321Pour finir, outre ces initiatives directement menées par les États, ceux-ci incitent
indirectement les sociétés privées à suivre ces recommandations (notamment celles qui travaillent directement avec elles) : ainsi la société
simplegeo, qui développe des applications autour de la géolocalisation, a annoncé la publication de ses propres données sous licence CC-0 afin de se concentrer sur le
service.
1.3.3.3 Les démarches open data à l’échelle française
p.322 Les villes de Brest, Rennes et Nantes (aux dernières nouvelles en 2011) ont chacune à leur
tour arboré les couleurs de l’open data. La démarche parisienne se distingue aussi, mais par le fort investissement (et la réflexion relative aux licences) et
par son aspect « pionnier » qui donnèrent confiance à d’autres collectivités (notamment : Marseille, Montpellier, Nantes, Bordeaux, Toulouse et le Nord-Pas-de-Calais).
p.323On peut néanmoins regretter que les échanges aient été si faibles quant au choix des
licences, des technologies, etc., chaque collectivité et administration fonctionnant de façon isolée en l’absence de cadre commun (ou de licence française), quitte à renouveler le travail réalisé par
d’autres – même si l’investissement et l’implication de la ville de Paris permirent de dégager une certaine orientation au profit de la licence ODbL. C’est ainsi, grâce aux initiatives communes
et au travail des communautés, que les expériences respectives sont partiellement mutualisées.
p.324Parmi les autres initiatives isolées, on peut citer :
– |
le Répertoire du registre français des émissions polluantes sur Internet ( IREP), qui donne accès aux données concernant la pollution ;
|
– |
le site du ministère de l’Écologie, du Développement durable, des Transports et du Logement qui permet une utilisation libre des données tant que celles-ci ne sont
pas dénaturées et en précisant que « [l]es informations mises à disposition ne sont pas fournies en vue d’une utilisation particulière, et aucune garantie quant à leur aptitude à un usage
particulier n’est apportée par le service fournisseur » (voir notamment les conditions générales d’utilisation des données disponibles en téléchargement sur le site) ;
|
– |
plus récemment, et plus loin dans cette démarche d’ouverture, le Ministère de la justice a rédigé en 2010 une licence « Information Publiques librement réutilisable » qui s’appuie essentiellement sur la loi de 1978 relative aux données
publiques (Licence IP ou LIP).
|
p.325 Enfin, une prise de conscience nationale du phénomène s’est traduite par la création de
l’Agence du patrimoine immatériel de l’État (APIE) et de la mission
Etalab.
– |
L’APIE est un service à compétence nationale qui a pour mission de sensibiliser les acteurs publics aux enjeux attachés aux actifs immatériels de l’État, et propose à
cette fin plusieurs licences destinées à accompagner
la diffusion des données publiques (dans une logique qui mélange diffusion gratuite et payante). Néanmoins ces documents ont été pensés dans une logique propre à l’administration (avec un socle de
conditions générales de réutilisation des informations publiques sur lequel sont construites deux licences, chacune composée de conditions générales et potentiellement de conditions particulières),
pas forcément adaptée à un mouvement global d’ open data qui n’est pas centré sur les concédants, mais sur les bases de données licenciées. Actuellement les
documents sont encore trop complexes pour répondre aux enjeux de large diffusion des bases de données. Par ailleurs, ils restent franco-français, négligent le formalisme lié aux cessions de droits de
propriété intellectuelle et sont plus orientés vers la libre diffusion que la libre réutilisation. Une nouvelle licence intitulée Informations Publiques (du même nom que la licence rédigée par le Ministère de la
Justice en 2010) a été publiée suite à la constitution de la mission Etalab.
|
– |
Créée début 2011 dans le cadre du plan « France numérique 2012 », la mission Etalab anime un groupe de réflexion sur le sujet avec pour objectif la mise au
point d’un portail unique, alimenté par les ministères et les collectivités territoriales, donnant accès à toutes les données publiques de l’État. La mission a aussi la lourde tâche de rédiger (ou
préconiser) la licence qui sera utilisée sur la plate-forme : c’est-à-dire de dégager une stratégie globale et de se prononcer sur le contenu nécessaire. Actuellement, il semblerait que les
différentes collectivités ayant fait le pas de l’open data privilégient une licence de type copyleft assimilable aux
fréquents accords de coopération (une partie profite gratuitement d’une base de données et l’enrichit en échange) tout en se tournant résolument vers l’open
data.
|
p.326La mission Etalab a récemment publié sa licence libre permissive intitulée « Licence
Ouverte » dédiée aux données du secteur public français et assurant une compatibilité avec les projets existants. Il est très probable que cette dernière licence rende obsolète les licences rédigées
précédemment par l’APIE et avant elle par le Ministère de la justice. Le portail national est quant à lui prévu pour la fin de l’année 2011. Même si ces travaux ne contraignent que l’État et ses
administrations, les autres collectivités territoriales sont invitées à mutualiser les ressources (juridiques ou techniques) liées à l’ouverture de leurs données.
Pour aller plus loin...
– |
|
– |
la Fing a aussi publié en janvier 2011 la version de travail d’un « Guide pratique de l’ouverture des données publiques territoriales – Guide à l’usage des
territoires et de leurs partenaires » (sur http://fing.org) ;
|
– |
Voir l’article « Ouverture des données publiques : les enjeux relatifs au choix de la licence » sur http://blog.vvlibri.org ;
|
– |
Voir le rapport « La valorisation des informations du secteur public (ISP) :un modèle économique de tarification optimale » rédigé en 2010 par le Bureau
d’économie théorique et appliquée (BETA) à la demande de l’APIE (sur http://www.apiefrance.fr).
|
1.3.3.4 Réflexion sur une démarche open data européenne
p.327On remarque en Europe une évolution des tendances : après un premier courant législatif
(les directives citées
supra) qui impulsa le mouvement d’ouverture, c’est maintenant conjointement que l’Union européenne et les différents acteurs publics se
réunissent pour confronter et échanger sur leurs pratiques respectives. Le projet
Open Cities, issu de cette collaboration, ainsi que
l’
appel d’offres pour la mise en place d’un portail européen des données publiques sont de bons
exemples.
p.328Concernant les licences, l’une des questions très actuelles est de savoir s’il est pertinent
de mettre en place une initiative européenne – les logiciels libres / open source s’étant en effet diffusés en l’absence d’une telle harmonisation. En
plus d’assurer une certaine cohérence avec les différentes directives européennes, plusieurs arguments semblent pouvoir le justifier :
– |
l’évidence des enjeux politiques faciliterait la consécration d’un tel cadre ;
|
– |
les moyens à disposition de l’Europe pour mettre en place un cadre juridique adapté aux contraintes spécifiques des personnes publiques : le document pourrait
ainsi être conforme aux directives européennes, prendre en compte les impératifs des personnes publiques, et être traduit dans toutes les langues de l’Union européenne. Les gouvernements et
collectivités seraient d’autant plus rassurés qu’ils sont plus habitués à utiliser les documents en provenance de l’Europe que des contrats privés du type des licences libres ;
|
– |
la fenêtre de tir actuelle : étant encore à ses balbutiements, le cadre juridique va évoluer très rapidement – avec ou sans l’Europe.
|
p.329Pour ce faire, l’Europe doit rapidement profiter de l’ouverture qui se présente à elle,
conjonction de besoins forts des administrations (en terme d’outils) face à des réponses (les licences) encore peu nombreuses. Il faudrait par exemple que l’un des projets européens actuels, à
déterminer, s’estime compétent pour travailler sur une telle licence (telle l’EUPL rédigée par l’ancien IDABC).
1.3.3.5 Gouvernement ouvert– open government
p.330Dès la première journée de son mandat, le président américain Barack Obama mit en place
l’
Open Government Initiative : elle promeut l’ouverture et la transparence politique, engageant le gouvernement américain et ses
agences à travailler avec les citoyens et de manière transparente, participative et collaborative – cela d’autant plus que les créations réalisées par le gouvernement, ou financées par celui-ci,
ne bénéficient pas d’une protection par le copyright (
Copyright status of work by the U.S.
government).
p.331Cette tendance est à la fois la conséquence d’une ouverture progressive et la prise de
conscience de l’impact de l’informatique et de son utilisation sur le politique dans son acception large, c’est-à-dire les entreprises comme les administrations, avec une nécessité de rendre compte
et de responsabiliser leurs actions.
p.332Au regard du caractère immatériel du numérique, il n’est guère étonnant que des
collaborations transfrontalières se développent, tel l’
Opengovwest entre les États-Unis et le
Canada.
p.333Enfin, concernant les actions des citoyens en faveur d’une ouverture et d’une transparence
de leur gouvernement, il est possible de citer la plate-forme
Openspending – initié par l’OKF – qui trace le budget italien,
l’équivalent public américain
USAspending ou encore les initiatives
Farmsubsidy.org (qui suit le budget lié à la politique agricole européenne) ou «
Publish
What You Fund » (qui promeut une transparence relative aux diverses aides, dans l’esprit de l’
International Aid Transparency Initiative (IATI)). D’autres initiatives étendent cette ouverture :
datalibre.ca qui « exhorte les gouvernements à rendre les données sur les citoyens du Canada et les Canadiens gratuites et accessibles aux citoyens »,
OpenCorporates (pour comprendre la place des sociétés dans nos vies) ou encore le site suédois
OpenAid.se qui vise à « promouvoir la ’transparence’ et les ’idées nouvelles’ dans les programmes d’aide au développement ». Les initiatives
nosdeputes.fr et
nossenateurs.fr mises en place par
Regards Citoyens en France participent à ce mouvement (en affichant notamment l’assiduité de ces derniers lors des débats législatifs…).
p.334Enfin, l’
Open
Government Partnership est une initiative multilatérale qui a pour objet d’assurer des actions concrètes des gouvernements en faveur de la transparence, de l’action citoyenne, et de toutes les
autres valeurs de l’
open data. Elle compte actuellement de nombreux pays tels que le Brésil, l’Indonésie, le Mexique, la Norvège, les Philippines, l’Afrique du
Sud, le Royaume-Uni et les États-Unis.
L’Open Government et la NASA
p.335Aux États-Unis, la NASA et l’agence de protection de l’environnement sont les meilleures
élèves. Ainsi, le plan
Open Government de la NASA s’est aussi démarqué par ses ambitions, les
moyens qui lui ont été accordés et les mécanismes de transparence mis en place.
p.336L’initiative se base à la fois sur l’affirmation de certains principes et sur l’énumération
de 25 projets (qui font l’objet d’un
rapport régulier).
p.337Les principes de la Nasa Open Government Plan sont :
1. |
accroître la transparence et la responsabilisation de l’Agence à des parties prenantes externes ;
|
2. |
permettre la participation des citoyens dans la mission de la NASA ;
|
3. |
améliorer la collaboration et l’innovation interne de la NASA ;
|
4. |
encourager les partenariats susceptibles de créer des opportunités économiques ;
|
5. |
institutionnaliser les principes et pratiques du Gouvernement Ouvert à la NASA.
|
p.339Voir aussi :
– |
|
– |
|
– |
la plate-forme Open.Nasa (http://open.nasa.gov) ;
|
– |
|
– |
|
– |
|
– |
|
– |
Commission européenne, Stratégie numérique : la Commission lance une consultation sur un accès plus ouvert aux informations scientifiques, Communiqué de presse,
15 juillet 2011 (sur http://europa.eu).
|
p.340 Après cette présentation historique et systémique du libre, nécessaire pour comprendre et
appréhender une telle connaissance, nous sommes désormais capables de nous orienter parmi les licences libres (chapitre suivant).