Tribune Libre
Ténors de l'Informatique Libre
Copyright © 1999 par Éditions O'Reilly
Introduction
Chris DiBona, Sam Ockman et Mark Stone
- Prologue
- Qu'est-ce que le logiciel libre, et en quoi se rapporte-t-il à l'Open Source ?
- Qu'est-ce que le logiciel Open Source ?
- Le côté obscur de la Force
- Utilise le Source, Luke
- L'innovation à travers la méthode scientifique
- Périls pour l'Open Source
- La motivation du hacker Open Source
- L'avenir du capital-risque et de l'investissement dans Linux
- Science et Nouvelle Renaissance
Le créateur de Linux, Linus Torvalds, raconte que son prénom a
été choisi pour lui à cause de l'admiration que ses parents vouaient
pour le lauréat du Prix Nobel, Linus Pauling. Pauling était un homme des
plus rares : un scientifique qui remporta le Prix Nobel, pas une fois, mais deux fois.
Nous retrouvons là un récit édifiant pour la communauté Open
Source dans l'histoire du travail fondamental qui rendit possible la découverte de
la structure de l'ADN.
La découverte, en réalité faite par Francis Crick et James Watson,
est racontée par ce dernier de façon fameuse dans le livre intitulé
« The Double Helix ». Ce livre est un compte-rendu remarquable et
sincère de la façon dont la science est vraiment pratiquée. Il
relate non seulement l'intelligence et la perspicacité, mais aussi la politique,
la compétition, et la chance. La quête du secret de l'ADN était
devenue une féroce compétition entre diverses entités, en
particulier le laboratoire de Watson et Crick à Cambridge, et celui de Pauling
à Cal Tech.
Watson décrit avec une gêne évidente la manière dont Pauling
en est venu à savoir que Watson et Crick avaient résolu le mystère,
et avaient créé un modèle de la structure hélicoïdale de
l'ADN. Le personnage central de l'histoire y est en fait Max Delbruk, un ami commun qui
voyageait entre Cambridge et Cal Tech. Il comprenait et acceptait le désir de
Watson et Crick de garder la découverte secrète tant que tous les
résultats ne seraient pas confirmés, Delbruk vouait avant tout
allégeance à la science elle-même. Voici comment Watson décrit
comment il a su que Pauling avait appris la nouvelle :
Linus Pauling entendit parler pour la première fois de la double hélice
par Max Delbruk. À la fin de la lettre qui dévoilait la découverte
des chaînes complémentaires, j'avais demandé à ce qu'on n'en
parle pas à Linus. J'étais encore quelque peu inquiet que quelque chose
ne tourne pas rond et je ne voulais pas que Pauling pense aux paires de base
limitées en liaisons hydrogène jusqu'à ce que nous ayons pu nous
donner encore quelques jours pour vérifier notre position. Malgré cela,
ma demande fut ignorée. Delbruk voulait apprendre la nouvelle à tous ses
collaborateurs, et il savait qu'en quelques heures la rumeur se propagerait depuis son
laboratoire de biologie vers celui de leurs amis travaillant sous les ordres de Linus.
Pauling lui fit donc promettre de lui communiquer l'information qu'il avait entendue de
moi. En matière de science Delbruk haïssait le secret quelque forme que ce
soit et ne voulait pas laisser plus longtemps Pauling dans l'expectative.
Clairement, le besoin de secret avait rendu Watson mal à l'aise. Il comprenait que
la compétition interdisait aux deux parties de partager ce qu'elles savaient, et
cela ralentissait le progrès de la science.
La science relève bien de l'Open Source. La méthode scientifique repose sur
un processus de découverte et de justification. Pour que les résultats
scientifiques soient justifiés, ils doivent être reproductibles. La
reproduction n'est possible que si les acteurs partagent leurs sources :
l'hypothèse, les conditions de test et les résultats. Le processus de
découverte peut suivre de nombreux chemins, et de temps à autres des
découvertes scientifiques sont isolées. Mais finalement, le processus de
découverte doit être servi par le partage de l'information : permettre
à d'autres scientifiques d'avancer là où l'on n'y parvient pas donc
diffuser les idées pour laisser émerger les nouvelles.
En 1984, Richard Stallman, un chercheur au laboratoire d'intelligence artificielle du MIT
(MIT AI Lab), démarra le projet GNU. Ce projet visait à faire en sorte que
personne ne se trouve jamais tenu de payer pour du logiciel. Stallman le lança parce
qu'il sentait essentiellement que le savoir qui constitue un programme exécutable
(ce que l'industrie informatique appelle le code source) devrait être libre. S'il ne
l'était pas, raisonne-t-il, un petit mais puissant groupe personnes domineraient
l'informatique.
Là où les éditeurs de logiciels commerciaux et propriétaires
n'ont vu qu'une industrie gardant pour elle des secrets économiques qui doivent
être jalousement protégés, Stallman a vu un savoir scientifique qui
doit être partagé et distribué. Le principe de base du projet GNU et de
la Free Software Foundation (l'organisation gérant le projet GNU) est que le code
source accélère le progrès en matière d'informatique car
l'innovation dépend de la diffusion du code source.
Stallman s'est préoccupé de la manière dont le monde réagirait
au logiciel libre. La connaissance scientifique est souvent dans le domaine public ; c'est
une des fonctions de la publication académique de la rendre publique. Avec le
logiciel, malgré tout, il était clair que que le simple fait de laisser le
code source rejoindre le domaine public aurait tenté le monde des affaires de le
détourner à son profit. La réponse de Stallman à cette menace
était la "GNU General Public License", connue sous le nom de GPL (voir chapitre 19).
La GPL autorise l'utilisateur à copier et distribuer à volonté le
logiciel qu'elle protège, pourvu qu'il n'interdise pas à ses pairs de le
faire aussi, soit en leur faisant payer pour le logiciel en tant que tel, soit en le
plaçant sous une autre licence. La GPL requiert aussi que tout dérivé
d'un travail placé sous sa protection soit lui aussi protégé par elle.
Lorsque Stallman et d'autres auteurs de textes publiés dans ce livre parlent du
logiciel libre, ils traitent de liberté et non de gratuité. Le terme anglais
rend mal cette distinction entre gratuité et liberté, et l'expression "Free as in speech, not as in beer" [1]. Ce message radical a mené beaucoup de
sociétés de logiciels à rejeter de façon absolue le logiciel
libre. Après tout, leur préoccupation est de gagner de l'argent, non
d'ajouter à notre corpus de connaissance. Pour Stallman, ce désaccord entre
l'industrie informatique et la science de l'informatique était acceptable,
peut-être même désirable.
Durant le printemps 1997 un groupe de leaders de la communauté du logiciel libre se
sont rassemblés en Californie. Ce groupe incluait, entre autres, Eric Raymond, Tim
O'Reilly et le président de VA Research, Larry Augustin. Leur souci était de
trouver une façon de promouvoir les idées entourant le logiciel libre vers
les gens qui avaient autrefois fui le concept. Ils s'inquiétaient des effets du
message apparemment hostile à toute perspective mercantile de la Free Sofware
Foundation, qui pourrait interdire aux utilisateurs de bénéficier de la
puissance du logiciel libre.
Eric Raymond insista afin que le groupe affirme officiellement qu'une campagne de
prosélytisme était nécessaire. De cette discussion, il sortit un
nouveau terme pour décrire le logiciel qu'il voulait promouvoir : Open Source. Une
série de directives furent conçues pour décrire le type de logiciel
qui pourrait être qualifié d'Open Source.
Bruce Perens avait déjà jeté les bases de ce qui allait devenir la
définition de l'Open Source. L'un des buts du projet de GNU était de
créer un système d'exploitation librement disponible qui pourrait servir de
plate-forme pour faire fonctionner les logiciels GNU. Dans un cas classique
d'auto-amorçage (bootstrapping) logiciel, Linux était devenu cette
plate-forme, et Linux avait été créé avec l'aide des outils
GNU. Perens avait piloté le projet Debian, qui mit en place une distribution de
Linux incluant seulement du logiciel qui adhérait à l'esprit de GNU. Perens
avait imposé la chose explicitement dans un document nommé le « Contrat
Social Debian » (Debian Social Contract). L'Open Source Definition est un descendant
direct du Debian Social Contract, et donc l'Open Source est en grande partie dans l'esprit
de GNU.
L'Open Source Definition permet plus de libertés que la GPL. Elle permet surtout une
plus grande promiscuité lors d'un mélange de code propriétaire avec du
code open source.
En conséquence, une licence Open Source pourrait éventuellement permettre
l'emploi et la redistribution d'un logiciel Open Source sans compensation ni même
reconnaissance de mérite. Vous pouvez, par exemple, prendre une grande partie du
code source du navigateur Netscape et la distribuer avec un autre programme,
éventuellement propriétaire, sans même en aviser Netscape. Pourquoi
Netscape souhaiterait-il cela ? Pour un certain nombre de raisons, mais la plus
évidente est que cela leur permettrait de prendre une plus grande part de
marché pour le code de leur navigateur, qui fonctionne très bien au sein de
leur offre commerciale. De cette façon, le fait de donner le code source est une
très bonne façon de construire une plate-forme. C'est aussi une des raisons
pour lesquelles les gens de Netscape n'ont pas utilisé la GPL.
Ceci n'est pas une mince affaire pour la communauté. À la fin de 1998 une
importante dispute menaça de diviser la communauté Linux. Cette fracture
était causée par l'avènement de deux systèmes logiciels, GNOME
et KDE, tous les deux avaient pour but de bâtir une interface de bureau
orientée objet. D'un côté, KDE utilisait la bibliothèque Qt de
Troll Technology, un morceau de code alors propriétaire, mais assez stable et
mature. D'un autre côté, les gens de GNOME avaient décidé
d'utiliser la bibliothèque GTK+, qui complètement libre mais moins mûre
que Qt.
Dans le passé, Troll Technology aurait eu à choisir entre, d'une part,
utiliser la GPL et, d'autre part, garder leur position propriétaire. Le
désaccord entre GNOME et KDE aurait continué. Avec l'avènement de
l'Open Source, néanmoins, Troll était en mesure de modifier sa licence pour
qu'elle rencontre la définition de l'Open Source, tout en conservant aux gens de
Troll le contrôle qu'ils désiraient sur la technique. Le désaccord
entre deux importantes parties de la communauté Linux semble se résoudre.
Bien qu'il ne s'en soit probablement pas rendu compte à l'époque, Watson se
tenait au seuil d'une ère nouvelle de la science biologique. À
l'époque de la découverte de la double hélice, la science biologique
et chimique était essentiellement une sorte d'artisanat, un art pratique. Elle
était pratiquée par quelques hommes travaillant en petits groupes,
principalement sous les auspices de la recherche universitaire. Cependant, les graines du
changement avaient déjà été plantées. Avec
l'avènement de quelques percées médicales, particulièrement le
vaccin contre la poliomyélite et la découverte de la pénicilline, la
science biologique était sur le point de devenir une industrie.
Aujourd'hui la chimie organique, la biologie moléculaire, et la recherche
médicale fondamentale ne sont plus pratiquées comme un artisanat par un petit
corps de praticiens, mais poursuivies par une industrie. Alors que la recherche continue en
université, la vaste majorité des chercheurs, ainsi que la vaste
majorité des dollars consacrés à la recherche, proviennent de
l'industrie pharmaceutique. Cette alliance entre la science et l'industrie est au mieux
difficile. Alors que les laboratoires pharmaceutiques peuvent financer la recherche
à un niveau inespéré dans une institution universitaire, elles
financent aussi les recherches avec un intérêt particulier. Un laboratoire
pharmaceutique accorderait-il un budget à la recherche de thérapies
plutôt qu'à celle de médications ?
L'informatique, elle aussi, coexiste avec les impératifs d'une l'industrie visant le
profit. Il fut une époque où les idées émergeaient
principalement d'informaticiens universitaires ; maintenant, c'est l'industrie informatique
qui pilote l'innovation. De nombreux programmeurs de l'Open Source sont des
étudiants ou des thésards disséminés dans le monde entier, mais
un nombre croissant agissent dans un contexte industriel plutôt qu'universitaire.
L'industrie a produit quelques merveilleuses innovations : Ethernet, la souris et
l'Interface Utilisateur Graphique (Graphical User Interface,
GUI) sont tous issus du laboratoire de Xerox appelé "PARC". Mais il ne faut pas
oublier les aspects inquiétants de l'industrie informatique. Personne en dehors de
Redmond [2] ne pense réellement que les gens
de Microsoft doivent décider seuls de l'interface graphique ou des
possibilités des logiciels.
L'industrie peut avoir un impact négatif sur l'innovation. Le logiciel GNU Image
Manipulation Program (GIMP) a langui dans un état incomplet durant une année
au niveau d'une version beta 0.9. Ses créateurs, deux étudiants à
Berkeley, avaient quitté l'école et embrassé une carrière dans
l'industrie, faisant passer leur développement libre en arrière-plan.
L'Open Source n'est pas une idée imposée par une instance supérieure.
Le mouvement Open Source est une révolution authentique car issue du substrat. Des
évangélistes comme Eric Raymond et Bruce Perens ont eu un grand succès
en changeant le vocabulaire du logiciel libre, mais cette évolution aurait
été impossible sans contexte propice. L'une des générations
d'étudiants apprirent l'informatique sous l'influence de GNU est maintenant au
travail dans l'industrie, et, depuis des années, y a amené
discrètement le logiciel libre par la porte de service. Ils ne le font pas par
altruisme mais pour utiliser de meilleurs outils.
Les révolutionnaires sont en place. Ce sont les ingénieurs réseau, les
administrateurs de systèmes et les programmeurs qui ont étudié avec
les logiciels Open Source durant toutes leurs études, et veulent les utiliser aussi
pour évoluer personnellement. Les logiciels libres sont devenus vitaux pour beaucoup
d'entreprises, souvent involontairement, mais dans certains cas de façon
tout-à-fait délibérée. Le modèle économique de
l'Open Source existe et se trouve à présent en phase de maturation.
La société de Bob Young, Red Hat Software, Inc., prospère en faisant
cadeau de son produit principal : Red Hat Linux. Une bonne façon de fournir du
logiciel libre est de le conditionner en une distribution complète avec un manuel de
bonne facture. Young vend principalement la commodité, parce que la plupart des
utilisateurs ne veulent pas télécharger toutes les pièces qui font un
système Linux complet.
Mais il n'est pas seul à proposer cela. Donc pourquoi Red Hat domine-t-il le
marché des États-Unis ? Pourquoi SuSE Linux domine-t-il le marché
européen ? Le marché de l'Open Source est similaire à un marché
de produits destinés aux grand-public. Dans tous les marchés de ce type le
client apprécie une marque à laquelle il accorde sa confiance. La force de
Red Hat vient de la gestion de la marque : un marketing cohérent et un contact avec
la communauté qui fait que celle-ci les recommande lorsque leurs amis leur demandent
quelle distribution utiliser. La même chose est vraie pour SuSE, et les deux
entreprises possèdent leurs marchés respectifs principalement parce qu'elles
étaient les premières à prendre au sérieux la gestion du nom de
la marque.
Soutenir la communauté est essentiel. Red Hat, SuSE, et d'autres
sociétés de l'univers Linux comprennent que faire seulement de l'argent sans
donner quoi que ce soit en retour causerait des problèmes.
Premièrement, les gens considéreraient cela comme du parasitage et
recommanderaient un concurrent.
Deuxièmement, une société doit être en mesure de se
différencier des concurrents.
Diverses entreprises, par exemple CheapBytes et Linux Central, fournissent une distribution
à bas prix, en vendant les CD aussi peu cher qu'un dollar. Pour que Red Hat soit
perçue comme offrant une valeur plus importante que ces distributeurs à petit
budget elle doit donner quelque chose en retour. Par une superbe ironie du modèle
Open Source, Red Hat peut se permettre de vendre sa distribution 49,95 dollars uniquement
parce qu'elle en assure le développement et livre le plus gros du code en Open
Source.
Ce type de gestion de la marque est nouveau pour l'Open Source. En revanche, l'approche
classique qui consiste tout simplement à fournir un bon service, a participé
du modèle de l'Open Source. Michael Tiemann a participé à la fondation
de Cygnus™ sur une idée simple : bien que le
meilleur compilateur du monde, GCC, soit disponible gratuitement, les
sociétés souhaiteraient payer un service d'assistance technique et
d'amélioration. Le co-fondateur de Cygnus™,
John Gilmore, décrit sa société comme apte à : « Rendre
le logiciel libre abordable ».
En fait, ce modèle qui consiste à donner un produit et en vendre le support
est, maintenant, en train de proliférer rapidement dans le monde de l'Open Source.
VA Research a fabriqué et a supporté des systèmes Linux de grande
qualité depuis fin 1993. Penguin Computing offre des produits et services
similaires. LinuxCare propose un service complet, « de l'entrée au
dessert » pour Linux dans chacune des variantes. Le créateur de Sendmail, Eric Allman, a maintenant fondé la
société Sendmail Inc.™ pour fournir du
service et des améliorations autour de son logiciel serveur de messagerie qui
détient environ 80% des parts de marchés. Sendmail est un cas
intéressant parce qu'il a une approche double du marché. La
société possède la version propriétaire Sendmail Pro, et la
version précédente de Sendmail Pro appelée Free Software Sendmail.
Dans la même lignée, Paul Vixie, le président de Vixie Enterprises et
co-auteur de ce livre, jouit d'un quasi monopole à travers son programme BIND. Ce
modeste programme est utilisé chaque fois que vous envoyez un message
électronique, que vous visitez un site web, ou que vous téléchargez un
fichier à l'aide de ftp. BIND est le programme qui gère la conversion d'une
adresse de type « www.dibona.com » vers le numéro IP correspondant (dans
ce cas, 209.81.8.245). Vixie vit grâce à son prospère cabinet de
conseil, nourri par la diffusion de son programme.
Le développement plus fascinant dans le mouvement Open Source d'aujourd'hui n'est
pas le succès de sociétés telles que Red Hat ou Sendmail Inc. Ce qui
fascine réellement est de voir les plus importants acteurs de l'industrie
informatique, des entreprises telles qu'IBM et Oracle, tourner leur attention vers l'Open
Source en y percevant un marché. Que cherchent-elles dans l'Open Source ?
L'innovation.
Là où les scientifiques parlent de reproductibilité, les programmeurs
Open Source parlent de déboguage. Là où les premiers parlent de
découverte, les seconds voient création. Le mouvement Open Source est une
extension de la méthode scientifique, car au cœur de l'industrie informatique
se trouve la science informatique. Considérez ces mots de Grace Hopper, inventeur du
compilateur, qui disait, au début des années 60 :
Pour moi la programmation est plus qu'un art appliqué important. C'est aussi une
ambitieuse quête menée dans les tréfonds de la connaissance.
L'informatique, cependant, diffère fondamentalement de toutes les autres sciences.
L'informatique a un seul moyen de permettre à des pairs de reproduire des
résultats : partager le code source. Pour démontrer la validité d'un
programme à quelqu'un, vous devez lui fournir les moyens de le compiler et de
l'exécuter.
La reproductibilité rend les résultats scientifiques robustes. Un
scientifique ne peut espérer justifier de toutes les conditions de test, ni
nécessairement disposer de l'environnement de test qui permettrait de
vérifier tous les aspects d'une hypothèse. En partageant les
hypothèses et les résultats avec une communauté de pairs, le
scientifique permet à de nombreuses paires d'yeux de voir ce qu'une seule pourrait
manquer. Dans le modèle de développement Open Source, le même principe
est exprimé ainsi : « À condition de disposer de suffisamment de
regards, tous les bogues restent superficiels ». En partageant le code source, les
développeurs Open Source rendent leur logiciel plus robuste. Les programmes
deviennent utilisés et testés dans une plus grande variété de
contextes que ce qu'un seul programmeur pourrait générer, les bugs sont
découverts alors qu'autrement ils ne l'auraient pas été. Parce que le
code source est fourni, les bugs peuvent souvent être supprimés, et pas
seulement découverts, par quelqu'un qui, autrement, serait resté en dehors du
processus de développement.
Le partage ouvert des résultats scientifiques facilite les découvertes. La
méthode scientifique minimise la duplication des efforts parce que les pairs savent
d'emblée s'ils travaillent sur des projets similaires. Le progrès ne stoppe
pas simplement parce qu'un scientifique cesse de travailler sur un projet. Si les
résultats ont de la valeur, d'autres scientifiques prendront le relais. De
façon similaire, dans le modèle de développement Open Source, le
partage du code facilite la créativité. Les programmeurs travaillant sur des
projets complémentaires peuvent appuyer leurs propres résultats sur ceux des
autres, ou combiner les différentes ressources dans un seul projet. Un projet peut
éveiller l'inspiration pour un autre projet qui n'aurait pas été
conçu sans cela. Et un projet de valeur ne devient pas forcément orphelin
lorqu'un programmeur le quitte. GIMP est resté au repos durant une année,
mais finalement le développement a continué, et maintenant GIMP est
montré avec fierté lorsque les développeurs Open Source examinent ce
dont ils sont capables dans un domaine complètement nouveau pour eux : les
applications utilisateur.
Les plus grosses entreprises veulent tirer profit de ce modèle puissant
d'innovation. IBM va faire payer une somme coquette pour mettre en place et administrer
l'intégration d'Apache au sein des services informatiques. Il s'agit là d'un
gain net pour IBM ; ils peuvent installer une plate-forme exceptionnellement stable, qui
réduit le coût assigné à sa maintenance, et, du même coup,
assurer un service qui peut réellement aider leurs clients. De façon tout
aussi importante, les ingénieurs d'IBM partagent la pollinisation croisée des
idées avec les développeurs indépendants de l'équipe d'Apache.
Il s'agit là précisément du raisonnement qui a amené Netscape
à prendre la décision de rendre son navigateur Open Source. Une partie du but
recherché était de stabiliser et même d'accroître ses parts de
marché. Mais, plus encore, Netscape compte sur la communauté des
développeurs indépendants pour conduire l'innovation et les aider à
créer un produit de qualité supérieure.
IBM s'est rapidement rendu compte que l'intégration complète des techniques
logicielles telles qu'Apache dans des lignes de plate-forme serveur comme l'AS400 et le
RS6000 pouvait au minimum aider à gagner de nouveaux contrats et vendre plus de
matériel IBM. IBM va plus loin dans cette approche et porte sa célèbre
base de données DB2 vers le système Linux. Alors que beaucoup ont
interprété cela comme une réponse à Oracle qui sort la ligne
Oracle 8 sous Linux, IBM a pris son rôle envers la communauté très au
sérieux et alloua des ressources à la cause des logiciels Open Source. En
portant Apache vers la plate-forme AS400, IBM légitime cette approche d'une
façon dont cette entreprise reste seule capable.
Le sort réservé aux offres concurrentielles soumises au gouvernement
fédéral et à l'industrie par des entreprises telles que Coleman (de
Thermo-electron), SAIC, BDM et IBM sera riche d'enseignements. Par exemple lorsque l'on
comparera le coût du logiciel nécessaire à l'installation de 1000
postes avec, d'une part, NT ou Solaris et, d'autre part, Linux. Le prestataire dont la
proposition laisse le client économiser plus d'un quart de million de dollars se
trouvera en meilleure position. Des entreprises comme CSC, qui ont la réputation de
renoncer à un ou deux pour-cent de leur marge afin d'obtenir davantage de contrats,
sont probablement en train de se demander comment tirer profit de cela.
Alors que des entreprises telles qu'IBM, Oracle et Netscape ont commencé à
intégrer l'Open Source à leur approche, beaucoup d'éditeurs de
logiciels continuent à se concentrer exclusivement sur des solutions
propriétaires. Ils le font à leurs propres risques.
En matière de serveur web, la complète dénégation de Microsoft
du phénomène Open Source est presque amusante. Le serveur web Apache a, au
moment de la rédaction de ce texte et d'après l'étude Netcraft, plus de
50% du marché des serveurs. Mais dans la publicité vantant son logiciel
serveur appelé Internet Information Server (IIS) Microsoft affirme qu'il
possède plus de la moitié du marché des serveurs web — il s'agit
en réalité de plus de la moitié des serveurs commerciaux.
Comparés aux concurrents comme Netscape et Lotus, ils détiennent donc une
fraction significative du marché, mais cela semble maigre par rapport au nombre
total de serveurs en fonction, où les 20% de Microsoft sont écrasées
par les 50% d'Apache.
L'ironie est encore plus flagrante encore lorsque l'on considère qu'actuellement,
d'après une étude menée par le QUESO et WTF, 29% des serveurs Web
fonctionnent sous Linux. QUESO est un outil logiciel capable de déterminer le
système d'exploitation qu'utilise une machine en lui envoyant des paquets TCP/IP et
en analysant ses réponses. En combinant ces résultats avec ceux du moteur de
recherche Netcraft qui analyse les balises d'identification renvoyées par les
serveurs, on peut déterminer le nombre de serveurs employant un système
d'exploitation ou un type de machine donné.
En fait, les éditeurs de logiciels propriétaires ont déjà subi
de nombreux discrets revers. Linux et FreeBSD rendent impossible de vendre avec
succès un Unix propriétaire sur du matériel PC : Coherent, par
exemple, s'est déjà effondrée. D'autre part, la société
Santa Cruz Operation est passée en deux ou trois ans du rôle de principal
vendeur Unix à une position de second plan. Elle va probablement trouver un moyen de
survivre, mais son produit phare, SCO Unix, sera-t-il une victime de plus de l'Open Source ?
Sun Microsystems a, de plusieurs façons, fourni des ressources au
développement de logiciels Open Source tout au long des années, sous forme de
donation de matériel, de ressources pour aider au port sur SPARC de Linux, ou
à travers le développement du langage de script Tcl réalisé par
John Ousterhout. Il est donc paradoxal que l'entreprise, issue des joyeuses racines du
logiciel libre à Berkeley si souvent décrites par Kirk McKusick, se batte
à présent pour saisir la portée du phénomène Open
Source.
Prenons un moment pour comparer les positions contrastées de SCO et de Sun.
Sun réalise la plus grosse partie de son chiffre d'affaire grâce au service
commercialisé portant sur son système d'exploitation et son matériel.
Sa ligne de produits va de la station de travail de bureau à des prix comparables
à ceux des PC, à des serveurs d'entreprise de grande taille
(éventuellement en grappes) rivaux de certaines grosses machines centrales. Le
profit que Sun réalise au niveau du matériel provient moins des ventes des
machines bas de gamme de la série Ultra que de celles du service d'assistance
associé aux serveurs extrêmement spécialisés et adaptables au
client des séries E et A. On estime que 50% du bénéfice de Sun
provient de l'assistance, des formations et du conseil.
SCO, d'un autre côté, fait des affaires en vendant le système
d'exploitation SCO Unix, des programmes de type compilateur et serveurs, ainsi que de la
formation sur l'utilisation des produits SCO. Ainsi, malgré sa réputation,
elle est en danger de la même façon qu'une ferme disposant d'un seul type de
culture est vulnérable au moindre parasite menaçant la récolte.
Sun perçoit le développement de Linux comme une menace pour son bas de gamme.
Sa stratégie consiste à s'assurer que Linux puisse fonctionner sur le
matériel Sun, afin de laisser clients choisir. L'intérêt pour Sun est
qu'ils pourront continuer à proposer de l'assistance pour leur machines. Nous ne
serions pas surpris de voir, dans le futur, Sun offrir, sur ses machines bas de gamme, de
l'assistance à l'utilisation du logiciel pour Linux.
Cela constitue même, et pour plusieurs raisons, une étape évidente. En
fait, si vous demandez à un administrateur système sur Sun quelle est la
première chose qu'il fait lorsqu'il reçoit une nouvelle machine Sun, il vous
répondra : « Je télécharge les outils et le compilateur GNU puis
installe mon shell favori ». Sun entendra peut-être un jour ce message
provenant de sa clientèle et le fera peut-être sur sa demande même.
Malgré cela, Sun connaîtra un certain désavantage jusqu'à ce que
ses responsables se rendent compte des services que sa clientèle peut lui apporter :
l'innovation à travers la pollinisation croisée des idées issues de la
publication du code source.
La position SCO, par ailleurs, est moins avantageuse. Le système de tarification de
SCO met en avant la vente du système d'exploitation, en prévoyant des
coûts supplémentaires pour des outils que l'utilisateur de Linux s'attend
à recevoir gratuitement, tels que les compilateurs et les systèmes de
traitement de texte. Ce modèle ne peut simplement pas être soutenu face
à la compétition d'un système d'exploitation robuste et gratuit.
À la différence de Sun, qui commercialise une vaste gamme de
matériels, SCO ne vend que du logiciel et, dans leur cas, ce n'est pas suffisant.
Que va faire SCO ?
Sa réponse n'a, jusqu'à présent, pas été claire. Dans le
début de l'année 1998, SCO a envoyé une lettre à la grande
liste de diffusion de ses utilisateurs afin de critiquer les Unix ouverts tel que Linux et
FreeBSD en leur reprochant d'être instables et non professionnels,
indépendamment de leur prix inférieur à celui du système SCO de
base. Il a lui-même été très critiqué pour cette attitude
et a fait machine arrière. SCO n'a pas cru ses clients suffisamment perspicaces pour
voir à travers le FUD [3]. SCO a, en fin de compte, publié une rétractation sur
son site web.
SCO diffusa fin 1998 un communiqué de presse annonçant que SCO Unix
possède maintenant une couche de compatibilité Linux, de telle façon
que vos programmes Linux favoris peuvent s'exécuter sous SCO Unix. La réponse
a été claire et nette. Pourquoi dépenser de l'argent pour un
système dans le but de le rendre compatible avec une offre gratuite ?
SCO dispose d'une position avantageuse si elle veut bénéficier du mouvement
Open Source car possède une propriété intellectuelle très
valable utilisable afin d'acquérir une véritable position de pouvoir dans le
futur de l'Open Source. Pour ce faire, cependant, elle doit radicalement changer
d'approche. Plutôt que de percevoir l'Open Source en tant que menace qui pourrait
éroder la valeur de sa propriété intellectuelle, elle doit y voir une
occasion de puiser de l'innovation.
Bien sûr, les manœuvres d'une entreprise telle que SCO ou même de Sun
sont insignifiantes à côté de celles de Microsoft qui campe sur sa
position en faveur du modèle propriétaire et semble déterminé
à ne pas réformer cela avant la publication de MS-Windows 2000.
Nous supposons que MS-Windows 2000 sera annoncé en fanfare dans la dernière
partie de l'an 2000 ou au début de 2001. Ce sera, après tout, la grande
unification de MS-Windows NT et 98. À un certain moment, aux alentours de cet
événement et peut-être même six mois avant, un nouveau
système d'exploitation Microsoft Windows sera annoncé. Cet éditeur a
toujours convoité le « lucratif marché des entreprises », un
secteur où les machines véhiculent la sève informationnelle de
l'entreprise. Jusqu'à présent, néanmoins, il n'est pas évident
que Microsoft parviendra à fournir un système MS-Windows aussi stable que
l'exige ce marché. Ils décréteront donc que ce nouveau système
sera la solution.
Appelons ce produit qui représente ce changement fantomatique « MS-Windows
Enterprise » ou WEnt. Microsoft se penchera sur NT et déclarera :
« Comment pouvons-nous le rendre plus fiable et stable ? ». Comme le signale
Linus Torvalds dans son essai, la théorie des systèmes d'exploitation n'a pas
évolué au cours des 20 dernières années, donc les
ingénieurs de Microsoft vont revenir en arrière et dire qu'un noyau bien
écrit, auquel on confie autant que possible l'exécution des programmes en
mode non privilégié, est la meilleure façon d'améliorer la
fiabilité et les performances. Ainsi pour réparer les principales erreurs des
noyaux de NT, par exemple l'inclusion de pilotes réalisés de façon
incorrecte par des tierces parties et l'intégration du GUI (Graphic User Interface) au noyau, Microsoft devra soit écrire
une monstrueuse et lente couche d'émulation, soit changer d'approche et donc rendre
de nombreuses applications incompatibles. Microsoft est certainement capable de choisir
l'une des deux voies, et de s'y tenir. Mais pour alors, les logiciels Open Source auront
certainement atteint une maturité où les entreprises qui achètent les
logiciels se demanderont si elles font encore confiance à Microsoft pour leur donner
ce qui est déjà disponible avec Linux : un noyau stable.
Évidemment, la réponse s'imposera d'elle-même avec le temps. Personne
ne sait réellement si Microsoft peut réellement écrire un noyau stable
et robuste. Le « document Halloween », auquel Eric Raymond se
réfère dans cet ouvrage, laisse entendre que certains salariés de
Microsoft en doutent.
La plupart des éditeurs de logiciels, comme la plupart des entreprises
scientifiques, échouent parfois. En matière d'édition de logiciels,
rappelle Bob Young, les principes grâce auxquelles on mène l'entreprise vers
le succès varient peu de ceux qui profitent à leurs concurrents plus
classiques. Dans les deux cas, le réel succès s'avère rare et les
meilleurs innovateurs tirent les leçons de leurs erreurs.
La créativité, qui mène à l'innovation tant dans le domaine de
la science que dans celui du logiciel, n'est possible qu'à un certain prix. Garder
le contrôle sur un projet Open Source dynamique peut s'avérer difficile. Cette
peur de perdre le contrôle empêche certaines personnes et beaucoup
d'entreprises de fournir une réelle participation. En particulier une
inquiétude courante lors de l'adhésion à un projet Open Source est
qu'un concurrent ou un groupe de gens y entre également et ne crée ce qui est
appelé un embranchement dans le code source. De même qu'un embranchement sur
la route, une base de code source peut à certain moment se diviser en deux routes
séparées et incompatibles qui ne se croiseront plus. Ce n'est pas une vaine
inquiétude ; observez, par exemple, les multiples embranchements que les
systèmes BSD ont empruntés pour mener vers NetBSD, OpenBSD, FreeBSD et de
nombreux autres. Seule la méthode ouverte utilisée pour le
développement de Linux garantit qu'il ne subira pas le même sort.
Linus Torvalds, Alan Cox et d'autres développeurs forment une équipe unie et
demeurent l'autorité centrale de gestion de l'évolution du noyau. Le mode de
gestion du noyau Linux a été appelé « dictature bon
enfant » , avec Linus en tant que dictateur éclairé, et il a
jusqu'à présent produit un noyau bien écrit et cohérent.
Il est amusant de constater que Linux a subi extrêmement peu de réels
embranchements. Il existe des patches importants qui convertissent le noyau de Linux en un
noyau temp-réel, adapté au contrôle précis de
périphériques rapides, et aussi des versions capables de fonctionner au sein
d'architectures très inhabituelles. Ces variations peuvent être
considérées comme des embranchements dans la mesure où elles
concernent une version du noyau et évoluent à partir de là, mais elles
occupent des niches d'applications très particulières et n'ont pas un effet
de scission sur la communauté Linux.
Considérons, par analogie, une théorie scientifique appliquée à
certains cas particuliers. La plus grande partie du monde se débrouille parfaitement
en utilisant les lois de Newton du mouvement pour les calculs mécaniques. Un
contexte particulier où entrent en jeu de très grandes masses ou des vitesses
élevées nous obligent à recourir à relativité. La
théorie d'Einstein pourrait progresser et s'étendre sans ébranler
l'application de la base théorique newtonienne plus ancienne.
Mais, bien souvent, des entreprises logicielles compétitives s'opposent, exactement
comme certaines théories scientifiques. L'histoire de Lucid, par exemple, en offre
un belle illustration. Cette entreprise développait et exploitait une version
adaptée de l'éditeur Emacs afin de le vendre à la communauté
des développeurs en tant que remplacement de l'Emacs original, écrit par
Richard Stallman. Cette version fut appelée Lucid Emacs puis XEmacs. Lorsque
l'équipe de Lucid lança XEmacs auprès de différentes
entreprises, ils se rendirent compte que les résultats produits grâce à
XEmacs n'étaient pas très différents de ceux d'Emacs. La situation
terne du marché informatique à cette époque, combinée à
ce fait, écourta l'existence de Lucid.
Il est intéressant de constater que Lucid rendit public le code de XEmacs sous GPL.
Même l'échec de cette entreprise est une indication de la
longévité qu'assure le modèle Open Source aux logiciels
concernés. Tant que des gens apprécieront ce logiciel, Lucid fournira la
maintenance nécessaire pour qu'il fonctionne sur les nouveaux systèmes et
architectures. XEmacs profite d'une extraordinaire popularité, et on peut lancer un
débat intéressant parmi les hackers d'Emacs en leur demandant quelle version
ils préfèrent. XEmacs, même avec très peu de personnes y
travaillant, est encore un produit important et vivant, modifié, maintenu, et peu
à peu adapté aux nouvelles époques et architectures.
L'expérience de Lucid montre que les programmeurs gardent souvent une loyauté
envers un projet qui va plus loin qu'une compensation directe correspondant à la
participation au projet. Pourquoi des gens écrivent-ils du logiciel libre ? Pourquoi
donnent-ils gratuitement ce qu'ils pourraient facturer des centaines de dollars de
l'heure ? Qu'en retirent-ils ?
Leur motivation n'est pas seulement l'altruisme. Ces contributeurs n'ont sans doute pas les
poches pleines d'actions Microsoft, mais chacun bénéficie d'une
réputation qui devrait lui assurer des occasions leur permettant de payer le loyer
et de nourrir leurs enfants. Vu de l'extérieur, cela peut paraître paradoxal
car, après tout, on ne peut se nourrir de logiciel libre. La réponse se
trouve, en partie, au-delà de la notion de rétribution du travail. Nous somme
témoins de la naissance d'un nouveau modèle économique, et non pas
seulement d'une nouvelle culture.
Eric Raymond s'est posé en anthropologue participant à la communauté
Open Source. Il analysa les motivations de ceux qui développent des logiciels afin
d'en faire don par la suite.
Gardez à l'esprit que ces gens ont, pour la plupart, programmé pendant des
années, et ne voient pas la programmation en soit comme une chose ennuyeuse ou comme
un travail. Un projet très complexe comme Apache ou comme le noyau de Linux apporte
une satisfaction suprême sur le plan intellectuel. Un vrai programmeur, après
avoir terminé et débogué une morceau de code récursif
abominablement difficile qui aura été pour lui une source de problèmes
durant plusieurs jours, ressentira une excitation proche de celle que connaît un
sportif lorsqu'il participe à une course.
Le fait est que beaucoup de programmeurs écrivent des programmes parce que c'est ce
qu'ils aiment faire, et c'est précisément la manière dont ils
définissent leur forme d'esprit. Sans le codage (écriture de programme), un
programmeur se sent moins complet, comme un athlète privé de
compétitions. La discipline peut poser un problème au programmeur tout autant
qu'à l'athlète ; beaucoup de programmeurs n'aiment pas maintenir un morceau
de code après l'avoir terminé.
D'autres programmeurs n'adoptent toutefois pas ces conceptions de durs à cuire et
préfèrent un point de vue plus classique. Ils se considèrent, à
juste titre, comme des scientifiques. Un scientifique n'est pas censé amasser des
profits grâce à ses invention mais doit publier et partager ses
découvertes pour le bénéfice de tous. Il préfère
théoriquement la connaissance au profit matériel.
Tout cela procède de la quête d'une réputation. La programmation est
une culture du don : la valeur du travail d'un programmeur provient du fait qu'il le
partage avec d'autres. Cette valeur est accrue lorsque le travail est mieux partagé,
et encore plus lorsqu'il l'est en publiant les sources et non les résultats d'un
exécutable précompilé.
La programmation est aussi une prise de pouvoir, ce qu'Eric Raymond désigne par
« gratter une démangeaison ». La plupart des projets Open Source prirent
leur essor grâce à un sentiment de frustration : après avoir
recherché vainement un outil capable d'accomplir une tâche donnée, ou
en avoir découvert un qui n'était pas au point, abandonné, ou mal
maintenu. C'est de cette façon qu'Eric Raymond commença à
développer fetchmail, que Larry Wall amorça le projet Perl, que Linux
Torvalds créa Linux. La prise de pouvoir, pour plusieurs raisons, était le
concept le plus important sous-jacent à la motivation de Stallman pour
démarrer le projet GNU.
Les motivations du hacker sont parfois philosophiques, mais le résultat n'est pas
nécessairement un style de vie tendu vers le sacrifice. Des entreprises et des
programmeurs convaincus de l'intérêt de l'Open Source collaborent de
façon nouvelle, réaliste et efficace. L'investissement et le capital-risque
entraînent l'économie de la Silicon Valley, où nous travaillons et
vivons, et il en est ainsi depuis que le transistor commença a être
exploité commercialement car les investisseurs saisirent alors l'occasion offerte
par les microprocesseurs qui remplaçaient les cartes logiques compliquées.
À tout moment une nouvelle technique attire du capital-risque. L'investisseur ne
dédaigne pas les grandes sociétés mais réalise qu'un
portefeuille uniquement constitué d'entreprises florissantes ne permettra pas
d'atteindre des objectifs financiers ambitieux. Il s'intéresse donc à de
nouveaux projets menant à une Offre Publique Initiale [4] après moins de trois ans d'investissements ou à un
fructueux rachat par des entreprises telles qu'Oracle ou Cisco.
En 1998, la grande vague de l'Internet retombe, et les ravages des IPO (Initial public
Offer) de l'Internet, qui commencèrent avec les débuts fulgurants de
Netscape, déclinent. Le rachat de Netscape par America Online marque, de
façon très symbolique, la fin de cette ère. Les investisseurs
s'intéressent de près aux actions d'entreprises liées à
l'Internet, et bien souvent les soumettent aux mêmes contraintes que les autres : il
leur faut exhiber de plausibles prévisions de profits.
Où le capital-risque mène-t-il ? Linux et les sociétés
logiciels liées à l'Open Source, selon nous, sont et resteront le principal
thème d'investissement de cette fin de millénaire. Linux, en ce cas,
déchaînera l'enthousiasme et une IPO portant sur Red Hat Software à la
fin de 1999 déclenchera une vague d'actions financières de ce type. Le volume
des fonds disponibles est énorme, et des entreprises telles que Scriptics, Sendmail,
et Vix.com semblent bien placées pour tirer parti de conditions favorables. Il ne
s'agit plus de déterminer sir le capital-risque investira dans l'Open Source, mais
plutôt de déterminer pourquoi le flot a commencé à
s'écouler dans cette direction. N'oubliez pas que le logiciel libre n'est pas
nouveau ; Richard Stallman a créé la Free Software Foundation en 1984, et
elle repose sur une tradition plus ancienne encore. Pourquoi a-t-il fallu si longtemps pour
en arriver là ?
En regardant le paysage informatique, on trouve un contexte où une très
grande entreprise aux poches très profondes se taille la part du lion du
marché commercial. Dans la Silicon Valley, les éditeurs de logiciels
enthousiastes cherchent fortune et s'adossent donc à des sociétés de
capital-risque. Ils apprennent rapidement que les investisseurs ne s'intéresseront
pas à leur projets si ces derniers ne correspondent pas à ceux de Microsoft.
Chaque startup doit choisir de jouer le jeu de Microsoft ou de ne pas jouer du tout.
L'insolente montée en puissance du logiciel libre commença dans cet
environnement oppressif. N'importe quel programmeur qui a déjà
réalisé un programme destiné au système d'exploitation
MS-Windows décrira ce système comme une lourde et démotivante
collection d'interfaces construites de façon a rendre le programme
complètement dépendant des bibliothèques de Microsoft. Le nombre
d'interfaces proposées au programmeur est destiné à rendre n'importe
quel programme pour MS-Windows difficile à porter sur un autre système
d'exploitation.
L'Internet, domaine que Microsoft ne domine pas encore, ne connaît pas cette
restriction. Comme l'indique Scott Bradley, l'Internet est bâti sur un ensemble de
conventions et normes ouvertes maintenues par des individus décidés et non
par le portefeuille d'une entreprise. Il reste, par bien des aspects, l'aventure originelle
de l'Open Source. Le fait de continuer de l'adosser à des standards ouverts a
facilité le travail d'une grande diversité de programmeurs sur les
applications Internet dont la spectaculaire croissance montre l'efficacité du
modèle.
Les structures inhérentes au succès de l'Internet sont également
présentes dans le mouvement de l'Open Source. Oui, des distributeurs Linux comme Red
Hat et SuSE sont concurrents, mais avec des standards ouverts et du code partagé.
Toutes deux utilisent le Red Hat Package Manager (RPM) comme outil de gestion des
paquetages, par exemple, au lieu d'essayer de capturer les développeurs par des
systèmes de paquetages propriétaires. Debian emploie un outil
différent, mais comme les outils de Debian et de Red Hat sont des programmes
ouverts, la compatibilité a été assurée. L'infrastructure qui a
rendu l'Internet attrayant pour le capital-risque est donc présente dans l'Open
Source et rendra ce dernier tout aussi attirant.
L'Internet, et c'est plus important encore, a créé une nouvelle
infrastructure à partir de laquelle l'Open Source peut se déployer. Nous
passons de l'ère des éditeurs commerciaux de logiciels à celle des
entreprises d'information que décrit Tim O'Reilly. Ce passage exige l'abaissement
drastique des coûts d'entrée et de distribution. C'est ce qu'a permis
l'Internet.
Le modèle de développement Open Source actuel prend ses racines dans les
sciences informatiques vieilles d'au moins une décennie. Ce qui fait le
succès grandissant de l'Open Source aujourd'hui, cependant, est la
dissémination rapide de l'information rendue possible par l'Internet. Quand Watson
et Crick ont découvert la double hélice, ils pouvaient espérer que
l'information circule de Cambridge à Cal Tech en quelques jours, quelques semaines
au pire. Aujourd'hui, la transmission d'une telle information est effectivement
instantanée. L'Open Source est née dans la « Renaissance
numérique » rendue possible par l'Internet, tout comme les sciences modernes
sont apparues pendant la Renaissance grâce à l'invention de l'imprimerie.
Durant le Moyen-Âge aucune infrastructure informationnelle efficace n'existait. Les
écrits devaient être copiés à grands frais, et, pour cette
raison même, devaient transmettre une valeur instantanée. Seule l'information
concise et à l'importance patente était transmise, par exemple les
transactions commerciales et financières, la correspondance diplomatique. La
priorité des écrits spéculatifs des alchimistes, prêtres et
philosophes (qui seraient plus tard appelés scientifiques) restait moindre, et ces
informations circulaient donc moins vite. L'imprimerie a changé tout cela en
réduisant le coût d'entrée dans l'infrastructure informationnelle. Les
savants, qui auparavant travaillaient dans l'isolement, pouvaient pour la première
fois établir une communauté avec leurs pairs dans toute l'Europe. Mais cet
apprentissage a requis un partage ouvert de l'information.
La notion de liberté académique et le processus que nous appelons maintenant
la Méthode Scientifique émergèrent. Rien de ceci n'aurait pu
être possible sans la nécessité de former une communauté, et
l'ouverture de l'information a, durant des siècles, été le ciment qui
maintenu l'unité de la communauté scientifique.
Imaginez un instant que Newton ait gardé secret ses lois de la mécanique et
soit entré en affaires comme sous-traitant de l'artillerie pendant les 30
années qui suivirent. « Non, je ne révélerai rien des
trajectoires paraboliques, mais peux régler vos canons si vous réglez mes
notes d'honoraires ». L'idée elle-même semble absurde. Non seulement la
science n'a pas évolué dans ce sens, mais elle n'aurait pas pu évoluer
ainsi. Si cela avait était la façon de penser des scientifiques, leurs
secrets eux-mêmes auraient empêché la science de se développer et
d'évoluer.
L'Internet est l'imprimerie de l'ère numérique. Une fois encore,
l'accès à l'infrastructure a été rendu plus facile. Le code
source n'a plus besoin d'être distribué sur des rouleaux de papiers comme
l'était la version originale d'Unix, ou sur disquettes, comme aux premiers jours de
MS-DOS, ou même sur CD-ROM. N'importe quel serveur FTP ou HTTP (Web) peut servir de
point de distribution peu coûteux et toujours disponible.
Bien que cette Renaissance véhicule de grandes promesses, nous ne devons pas oublier
l'héritage scientifique de plusieurs siècles auquel est adossé le
modèle de développement de l'Open Source. La science de l'information et
l'industrie informatique coexistent dans une inconfortable alliance aujourd'hui. Les
géants de l'industrie comme Microsoft exercent une forte pression visant à
préserver le secret des nouveaux développements afin d'augmenter le gain
financier à court terme. Mais de plus en plus de réalisations naissent dans
l'industrie plutôt qu'à l'université, et l'industrie doit donc veiller
à nourrir la discipline au travers du libre partage des idées,
c'est-à-dire par le modèle de développement Open Source. Elle
assurerait cela sans la moindre motivation altruiste de servir une grande cause, mais pour
une raison pragmatique des plus simples : l'intéressement personnel exacerbé.
Tout d'abord, les industriels informatiques font preuve d'étroitesse d'esprit s'ils
croient que le revenu financier est l'objectif principal des meilleurs programmeurs de
l'Open Source. Pour impliquer ces derniers dans l'industrie, leur propriété
doit être respectée. Ils sont impliqués dans une quête de
réputation, et l'histoire montre que la renommée issue de créations
intellectuelles survit mieux que celle des réussites financières. Nous
connaissons tous les noms de quelques grands industriels de ces cent dernières
années : Carnegie, Rockefeller, mais la réputation des scientifiques ou
inventeurs marquants de la même période dépasse les leurs : Einstein,
Edison... Pauling. Au siècle prochain certains sauront peut-être qui
était Bill Gates, mais qui se souviendra des autres industriels de l'informatique ?
Il est plus probable que les noms de Richard Stallman et Linus Torvalds demeureront connus.
Ensuite, et surtout, l'industrie a besoin de l'innovation scientifique. L'Open Source peut
développer et corriger des logiciels à la vitesse de la création
scientifique. L'industrie informatique a besoin de la prochaine génération
d'idées issues du développement Open Source.
L'exemple de Linux, une fois encore, est révélateur. Ce projet a
été conçu à peu près cinq années après que
Microsoft ait commencé le développement de MS-Windows NT. Microsoft a
dépensé des dizaine de milliers de jours-hommes et des millions de dollars
dans le développement de son produit. Aujourd'hui Linux est considéré
comme un concurrent compétitif de MS-Windows NT en tant que serveur sur plate-forme
PC, et les principaux logiciels correspondants sont portés par Oracle, IBM, et
d'autres grands éditeurs. La quantité de logiciels développés
selon le modèle Open Source. Seule une entité aux ressources colossales, par
exemple Microsoft, pourrait en réaliser autant.
Pour étayer la Renaissance numérique nous avons besoin de l'approche Open
Source. Elle amène le progrès non seulement dans le domaine de l'informatique
théorique, mais aussi dans le secteur économique de l'informatique.
Notes
|