Nos grands principes de l’évolution se concluent par la nécessité pour une nouvelle technique d’être compétitive… Compétitive vis-à-vis de son contexte propre, de son époque. Cela passe par des caractéristiques faciles à identifier : la stratification et l’élargissement.

La stratification
Il ne faut pas réparer ce qui marche dit un proverbe américain (« If it ain’t broke, don’t fix it« )… Et c’est pourquoi on emploie encore aujourd’hui les mécanismes originels dans les écluses du canal de Panama !

Le canal de Panama est un bon exemple de ce phénomène de stratification de l’évolution technique qui s’applique massivement à l’informatique, et ce pour trois raisons :

  1. les systèmes sont coûteux à acquérir, mais plus encore à stabiliser… Donc, quand on y arrive, on les conserve !
  2. la technique évolue rapidement, beaucoup plus vite que les usages,
  3. le principe de compétitivité favorise l’apparition d’innovations sur des terres vierges (en termes d’usages) et pas dans des domaines connus où les gains sont trop souvent marginaux (éviter le biais traditionnel de tout voir comme un remplacement…).

Les systèmes d’informations qui ont un passé reposent sur des composants de différentes époques : mainframe pour les applications principales, mini-ordinateurs pour des progiciels utiles au niveau départemental et réseaux de PC pour la Bureautique et l’aide à la décision. Un historien de l’informatique pourrait, à la manière d’un géologue, dater ces « couches » successives : 1970, 1980 et 1990. C’est un paramètre important à prendre en compte dans notre perspective évolutive : contrairement à ce qu’annoncent régulièrement les médias, les innovations ne balayent pas l’existant (surtout dans le domaine technique), elles s’empilent plus ou moins les unes sur les autres. L’Internet est un bel exemple de ce principe : les couches d’infrastructures sont les plus anciennes, celles des applications sont les plus récentes, mais heureusement pour elles qu’il n’a pas été nécessaire de réécrire les premières à chaque fois !

Les inconvénients se cumulent
Les techniques qui ne s’appuient pas sur le principe de stratification cumulent les inconvénients : elles demandent beaucoup plus d’investissement; il leur faut de nouvelles infrastructures (c’est coûteux et long à mettre en place !). Elles imposent plus de complexité (tout réécrire est complexe, il faut réinventer ce qu’on a passé des années à mettre au point lors de multiples étapes d’essais/erreurs) et c’est dur d’être compétitif avec des exigences pareilles !

Ce principe de stratification est plus important qu’il n’y paraît : que l’on regarde l’évolution récente ou même plus ancienne, on ne trouve pas une seule technique qui soit apparue et qui ait survécu sans l’avoir respecté. Toutes celles qui ont tenté d’imposer une rupture trop radicale ont échoué et ont été oubliées.

La démarche scientifique s’appuie elle aussi sur ce principe de stratification : les nouvelles théories renforcent les découvertes précédentes et c’est ainsi continuellement. Quand Newton a proposé ses lois sur la gravitation, il a reconnu s’être appuyé sur les travaux de Copernic et Kepler (il appelait cela “monter sur les épaules des géants !”).

En plus de s’appuyer sur les couches techniques existantes, la technologie innovante et compétitive va proposer un élargissement de l’usage et des populations et non pas “plus de la même chose”…

C’est la seule rupture permise et qui fonctionne : la rupture par l’élargissement.

La tentation de tout voir comme un remplacement
Lorsqu’il s’agit de produits réellement novateurs, nous avons tous tendance à les voir comme un remplacement à une solution déjà existante. C’est ainsi que le concept du bureau sans papier prédisait que l’ordinateur allait remplacer toute utilisation du papier au bureau. Le Web et sa soi-disant « nouvelle économie » étaient censés remplacer l’ancienne économie. Le Network Computer d’Oracle était censé remplacer le PC, Linux était censé remplacer Windows, les ebooks sont maintenant censés remplacer les livres papier et ainsi de suite. Nous savons comment ça s’est passé, mais nous persistons à l’ignorer. Lorsque Google a lancé Google Spreadsheet, tout le monde l’a immédiatement comparé à Excel. Comme si les deux produits visaient le même public.

Etrangement, quand il ne s’agit pas vraiment d’innovation et quand il s’agit des fournisseurs eux-mêmes à propos de leurs propres produits, les erreurs de « vision » sont les plus fréquentes. Ainsi, durant les années quatre-vingt, Lotus connut un succès phénoménal avec son tableur 1-2-3 pour MS-DOS. C’est alors qu’on vit apparaître la mode des « intégrés » : des programmes réunissant plusieurs fonctions bureautiques (tableur, traitement de texte et autres) au sein d’un seul et unique cadre (c’était l’idée d’Office avant la lettre, mais qui allait encore plus loin que l’intégration d’Office, car dans la suite Microsoft, chaque composant existe aussi en tant que logiciel à part entière). La mode des intégrés poussa Lotus à en proposer un : Symphony. Jim Manzi, le patron de Lotus, croyait tellement au succès de Symphony qu’il voulait même arrêter la diffusion de 1-2-3… Heureusement, son équipe l’a empêché de commettre une telle erreur (Symphony fut un flop alors que 1-2-3 continua à bien se vendre pendant des années).

En réalité, les produits novateurs qui réussissent ciblent toujours -dans un premier temps au moins- un marché de niche. Ils ciblent souvent des utilisateurs actuels frustrés par les solutions actuelles voire des non-utilisateurs. Et lorsque les produits novateurs remplacent les solutions actuelles, cela prend beaucoup de temps (principe de maturation à ne jamais perdre de vue). Internet a existé pendant des décennies avant de connaître le succès que l’on sait. D’abord conçu pour connecter les installations militaires américaines, il s’est ensuite étendu aux universités avant d’atteindre le grand public. Mais cela a pris très longtemps. La micro-informatique, quant à elle, a pris vingt ans pour sérieusement menacer les serveurs et stations de travail Unix.

Donc, la technique réellement compétitive va permettre d’élargir le marché en proposant puis en imposant des nouveaux usages, souvent en ciblant des nouvelles populations. Et les exemples sont légion !

Linux a échoué à remplacer Windows comme OS du PC de bureau, mais est en train de réussir à s’imposer (de façon silencieuse et même invisible) dans certaines des nouvelles plateformes (et quand ce n’est pas Linux, c’est un dérivé d’Android, mais jamais de Windows !) qui sont en train de composer “l’Internet des objets” annoncé depuis des années.

Stratification et élargissement
C’est seulement quand une technique nouvelle s’appuie sur les couches existantes et propose un élargissement des usages qu’elle a une chance de percer et de s’installer durablement. L’évolution technique est un parcours d’obstacles où chacun d’eux est éliminatoire. Il faut du temps pour qu’une technique arrive à maturité (délai incompressible) et elle ne doit pas être dévoilée trop tôt (masse critique et fenêtre de lancement). Dans son cycle de maturation, il faut s’attendre à ce que cette technique subisse une ou plusieurs transformations (principe des deux vagues). Pendant ces transformations, la population des utilisateurs va s’élargir en respectant le profil d’une courbe de Gauss (principe de la courbe d’adoption). Pour résister à toutes ces phases, la technique nouvelle doit être résiliente et c’est en respectant le principe de simplicité qu’elle y parvient le mieux. Enfin, une fois arrivée à maturité et s’être transformée au passage, la technique nouvelle doit s’imposer au plus grand nombre en s’appuyant sur l’existant (stratification) et en proposant des nouveaux usages (élargissement).

Les grands principes à l’épreuve de l’IA et du cloud
Voyons maintenant si les deux techniques récentes qui sont les vedettes du moment respectent nos grands principes. Qu’est-ce que cela donne quand on passe l’IA et le cloud à travers le tamis de la maturité, la transformation, la résilience et la compétitivité ?

IA et cloud face au principe de maturité
Il ne fait aucun doute que l’IA a mis longtemps à atteindre un premier niveau de maturité puisque ses débuts officiels remontent à 1956 !

Les périodes “d’hivers” et de “printemps de l’IA” se sont succédées plusieurs fois avant que la technique arrive jusqu’à nous et puisse produire les succès que l’on sait (et encore, le processus de maturation n’est certainement pas tout à fait abouti).

Pour ce qui est du cloud, c’est déjà plus récent. Le premier balbutiement remonte à 1998, mais on peut faire remonter l’idée aux années soixante-dix et la notion de “service bureau”.

IA et cloud face au principe de transformation
L’IA a déjà connu plusieurs itérations. Rappelez-vous des fameux “systèmes experts” des années quatre-vingt. Et même, avant d’arriver au deep learning qui nous occupe aujourd’hui, il a fallu passer par les réseaux de neurones. Le cloud a également subi ses remises en cause. Au “service bureau” des premiers temps, on a eu la période “network computer” des années quatre-vingt-dix, les ASP des années deux-mille pour enfin déboucher sur un cloud multi-usage à partir de 2010.

IA et cloud face au principe de résilience
Pour survivre au long processus de maturation et aux transformations successives, il a fallu que l’IA s’appuie sur des techniques très simples, et le réseau de neurones l’est dans son principe (et il est connu depuis le début), c’est sa mise en oeuvre à grande échelle qui demande des grands moyens.

Le cloud a grandi en même temps que l’Internet et le Web. Parce qu’il repose sur les protocoles de l’Internet, il a pu surmonter tous les obstacles et arriver jusqu’à nous dans sa forme finale.

IA et cloud face au principe de compétitivité
Le deep learning ne prétend pas être “tout pour tous”, cependant il a permis des percées significatives dans la reconnaissance vocale et la reconnaissance d’images. Ces percées ont entrainé des nouveaux usages, comme il se doit.

Pareil pour le cloud qui a provoqué “l’internetisation de l’informatique” pour les entreprises, mais aussi un accès à des applications et des ressources quasiment sans limites pour le grand public, un élargissement significatif s’il en est !

Et pourtant, en dépit de tous ces principes, la prévision technique reste difficile !

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Voir plus
scroll to top