linkedin twitter
Nous sommes en train de vivre la mise en plateau de l’ère du tout-Internet qui nous a apporté le Cloud Computing… ce n’est pas rien !

N’en déplaise aux chantres de la “transformation digitale”, la prochaine ère de l’IT ne sera PAS orchestrée par les développements fabuleux de l’IA ni par les possibilités formidables de la Blockchain (vous avez remarqué ? On en parle moins en ce moment).

Non, la prochaine ère de l’IT, ce sera un plateau, tout simplement.

Pour une fois, la tendance qui vient va calmer tout cela et va nous permettre de nous concentrer sur des projets concrets, pratiques, les deux pieds bien ancrés au sol.

Mais qu’est-ce qui me permet de faire une prédiction aussi audacieuse ?

Eh bien, deux éléments. 1- Le machine learning affiche ses limites et 2- la loi de Moore est en train de s’effacer… On verra en conclusion sur quoi cela pourrait déboucher.

Source https://www.economist.com/technology-quarterly/2020/06/11/an-understanding-of-ais-limitations-is-starting-to-sink-in
Source https://www.economist.com/technology-quarterly/2020/06/11/an-understanding-of-ais-limitations-is-starting-to-sink-in

1- Fin de partie pour l’IA, winter is coming

Tout d’abord, le hype autour de l’IA dopée au machine learning est enfin en train de se calmer. C’est The Economist qui vient de siffler la fin de partie avec un dossier spécial qui lui est consacré : après des années de battage médiatique, beaucoup de gens pensent que l’IA n’a pas réussi à délivrer des résultats à la hauteur des promesses.

Je ne suis pas surpris puisque ça fait un bon moment que je l’annonce (voir à Tendances décryptées | Nos prévisions tech pour 2020 : winter is coming! et aussi à https://www.redsen.com/chronique-alain-lefebvre/remettons-les-choses-a-leur-place-en-matiere-dintelligence-artificielle/. Ce qui a été surprenant, c’était de voir que, pendant longtemps, nous étions (très) peu à le dire. Maintenant que The Economist vient de publier ce dossier, l’hystérie en matière d’IA va forcément s’atténuer fortement, enfin !

Vous n’êtes pas obligés de me croire mais, en revanche, vous pouvez lire le dossier de The Economist qui est fort bien écrit… voir à An understanding of AI’s limitations is starting to sink in.

Bien sûr, vous pouvez aussi préférer que je vous résume ici et maintenant les principaux arguments en faveur d’un prochain hiver de l’IA… Pas de problème, suivez le guide !

Des réalisations spectaculaires et notre tendance à les généraliser

Tout d’abord, il est juste de rappeler que ce récent renouveau de l’IA a été basé sur des réalisations spectaculaires. Cet enthousiasme vis-à-vis du machine learning remonte au début des années 2010. En février 2011, Watson (conçu par IBM) remporte le jeu télévisé Jeopardy! à l’issue de trois manches (diffusées aux États-Unis) face à Ken Jennings et Brad Rutter, deux grands champions du jeu. A la fin de la partie, les gains s’élevaient à un million de dollars pour Watson, 300 000 dollars pour Ken Jennings, et 200 000 dollars pour Brad Rutter… Une victoire nette !

Pour certains, avec ce triomphe dans Jeopardy!, Watson a réussi à passer le test de Turing haut la main… 

Encore plus fort, en mars 2016, AlphaGo de Deepmind (filiale de Google) bat Lee Sedol, un des meilleurs joueurs mondiaux du jeu de Go, un ancien jeu de société asiatique (considéré à tort ou à raison comme beaucoup plus subtil et ouvert que le jeu d’échecs). Le match a été regardé par des dizaines de millions de personnes et cette percée est survenue des années, voire des décennies, plus tôt que ne l’avaient espéré les experts. 

Et bien sûr, il y a eu les débuts des voitures autonomes. En octobre 2010, Google annonce avoir conçu un système de pilotage automatique pour automobile, qu’il a installé sur huit véhicules (les fameuses “Google Cars” à la silhouette si reconnaissable).

Les fameuses premières "Google Cars"...
Les fameuses premières « Google Cars »…


Même si le bilan du machine learning n’est finalement pas aussi bon qu’espéré (et surtout qu’annoncé), reconnaissons tout de même que des milliards de personnes l’utilisent avec profit chaque jour, la plupart du temps sans s’en rendre compte, dans leur smartphone et leurs services Internet. Il suffit de penser au succès (mérité) des assistants vocaux comme Alexa ou Google Home pour se rendre compte que ce “printemps de l’IA” aura été bien plus productif que le précédent (qui n’avait laissé qu’un souvenir amer avec l’impasse des trop fameux systèmes experts).

Pourtant, malgré ce succès, il n’en demeure pas moins que bon nombre des plus grandes affirmations faites à propos de cette nouvelle forme d’IA ne sont pas devenues réalité (et ne sont pas près de le devenir) mais c’est aussi en partie de notre faute : nous avons trop tendance à généraliser, à extrapoler les premiers succès (qui étaient effectivement spectaculaires) et à penser que ce progrès allait s’étendre à tous les domaines et sans ralentir bien sûr !

Evidemment, il n’en a rien été comme on va le voir maintenant. Du coup, la confiance dans les possibilités du machine learning commence à vaciller alors que les chercheurs commencent à se demander si la technologie n’aurait pas heurté un mur finalement ?

L’impasse de la voiture autonome

Les voitures autonomes, qui doivent naviguer dans un monde en constante évolution, sont déjà en retard (par rapport à ce qui a été annoncé) et pourraient ne jamais arriver du tout. Attention, on parle ici de voitures totalement autonomes et c’est bien dans cette totalité que réside la difficulté qui reste, pour le moment, infranchissable. Nous avons déjà différents niveaux d’aides à la conduite qui permettent une autonomie partielle qui sont utiles et qui resteront utiles. Mais l’autonomie totale, c’est autre chose…

Comme d’habitude, le hype et même l’hystérie sur ce sujet a fait beaucoup de tort au domaine : en 2015, Elon Musk, le patron de Tesla, un constructeur de voitures électriques, a prédit l’arrivée de “l’autonomie complète” d’ici 2018. Cruise, une entreprise autonome acquise par General Motors en 2016, avait prévu de lancer des taxis autonomes à San Francisco d’ici 2019. Chris Urmson, alors patron de Waymo, une filiale de Google largement considérée comme le leader du marché, a déclaré en 2015 qu’il espérait que son fils, alors âgé de 11 ans, n’aurait jamais besoin d’un permis de conduire.

Aujourd’hui, la réalité est bien moins flatteuse : les quelques entreprises qui transportent des passagers, comme Waymo en Amérique et WeRide en Chine, sont géographiquement limitées et dépendent de facteurs de sécurité humaine.

En mars 2020, Starsky Robotics, une entreprise de camions autonomes basée à San Francisco, a fermé ses portes. Stefan Seltz-Axmacher, son fondateur, a donné plusieurs raisons de son échec mais le plus gros problème était que la technologie n’était tout simplement pas à la hauteur. “L’apprentissage automatique supervisé n’est pas à la hauteur du battage médiatique” dit-il aujourd’hui avec lucidité.

Cygnes noirs et leçons amères

Les voitures autonomes fonctionnent de la même manière que les autres applications de l’apprentissage automatique. Les ordinateurs rassemblent d’énormes tas de données pour extraire des règles générales sur le fonctionnement de la conduite. Plus il y a de données, du moins en théorie (on y reviendra), meilleures sont les performances des systèmes. Les voitures de Tesla transmettent en continu les données au siège social, où elles sont utilisées pour affiner le logiciel. En plus des millions de kilomètres réels parcourus par ses voitures, Waymo prétend avoir généré bien plus d’un milliard de kilomètres de données en utilisant la simulation de conduite dans des environnements virtuels.

Le problème, explique Rodney Brooks, un roboticien australien qui est depuis longtemps sceptique quant aux grandes promesses de conduite autonome, est que les approches d’apprentissage en profondeur sont fondamentalement statistiques, liant les entrées aux sorties de la manière spécifiée par leurs données de formation. Cela les empêche de faire face à ce que les ingénieurs appellent des “cas marginaux” : des circonstances inhabituelles qui ne sont pas courantes dans ces données de formation. 

Or, dans le monde réel, la conduite d’une voiture est pleine de telles bizarreries. Certaines sont dramatiques : un cheval qui s’est échappé sur la route, par exemple, ou un avion léger effectuant un atterrissage d’urgence sur une route (comme cela s’est produit au Canada en avril). La plupart sont insignifiantes, comme un homme qui sort en costume de poulet (!). Les conducteurs humains les traitent généralement sans réfléchir. Mais pas les machines…

Une étude, par exemple, a révélé que des systèmes de vision par ordinateur étaient déroutés lorsque la neige masquait en partie les marques de voie. Un autre a constaté qu’une poignée d’autocollants pouvait faire en sorte qu’une voiture identifie à tort un panneau « stop » comme indiquant une limite de vitesse de 60 km/h (une méprise aux conséquences potentiellement importantes !). Même les objets non masqués peuvent dérouter les ordinateurs lorsqu’ils sont vus dans des orientations inhabituelles : dans un document, une moto était classée comme un parachute ou un bobsleigh (on sait depuis trois ans que les motos étaient souvent mal reconnues mais ce “drapeau rouge” a été sous-estimé). La résolution de ces problèmes s’est révélée extrêmement difficile car  beaucoup de gens pensaient que remplir les 10% restants serait plus difficile que les 90% premiers, mais tout de même pas que ce serait dix mille fois plus difficile !

Loin des laboratoires de recherche, les attentes autour des voitures sans conducteur se refroidissent. Certaines entreprises chinoises expérimentent la construction de rails de guidage numériques dans les infrastructures urbaines, afin d’alléger le fardeau cognitif des voitures elles-mêmes. Les constructeurs automobiles en place, quant à eux, préfèrent désormais parler d’outils d’aide à la conduite tels que les systèmes automatiques de maintien de la voie ou de stationnement, plutôt que de voitures complètement autonomes. Une nouvelle vague de startups a des ambitions délibérément plus réduites, espérant construire des voitures qui roulent dans de petites zones géographiques limitées telles que les aéroports ou les villages pour retraités (rares en Europe mais très répandus aux USA), ou de véhicules qui roulent lentement le long des trottoirs, livrant des colis sous surveillance humaine à distance. 

Finalement, les promesses de la voiture autonome se sont fracassées sur le mur de son ambition. Cela illustre, une fois de plus “le principe des deux vagues” où la première vague est destinée à échouer mais elle éduque le marché et prépare ainsi l’arrivée de la seconde vague qui, en étant moins ambitieuse que la première, réussit à trouver sa place…

La voiture autonome reviendra, sous un autre nom et avec un objectif plus réduit.

Le biais des data-sets incomplets

L’essor de l’apprentissage automatique (une bonne traduction qui permet d’éviter d’employer encore et toujours le terme machine learning !) s’est construite sur trois choses : 

  1. des algorithmes améliorés (par rapport aux premiers réseaux de neurones des années 80),
  2. des ordinateurs plus puissants et massivement disponibles (le cloud !) sur lesquels les exécuter,
  3. plus de données à partir desquelles ces systèmes peuvent apprendre grâce à la numérisation progressive de la société. 

Pourtant, les données ne sont pas toujours facilement disponibles car en avoir de qualités en grands volumes reste un défi majeur (quand on veut aller au-delà des photos de chats ou de chiens largement disponibles). Des données “de qualité”, qu’est-ce que cela veut dire exactement ?

Eh bien, avec le temps, on commence à comprendre que les systèmes basés sur l’apprentissage automatique sont très sensibles aux biais. On vient de voir que les voitures autonomes avaient du mal à reconnaître les motos et les vélos tout simplement parce qu’il y en a moins en circulation que les véhicules à 4 roues (ça porte même un nom, c’est le dilemme biais-variance, voir à Dilemme biais-variance — Wikipédia). On s’est aperçu aussi que les algorithmes de reconnaissance faciale peuvent avoir un comportement sexiste et ou raciste. Les algorithmes de reconnaissance faciale ont tendance à être plus efficaces pour les hommes blancs. Les femmes sont moins facilement reconnues par ces algorithmes (voir Biais algorithmique). Ce sont ici les exemples de biais les plus connus et les plus facilement identifiés. Mais, bien sûr, on va s’apercevoir qu’il y en a d’autres, plein d’autres et qu’il est difficile d’avoir des ensembles de données (data-set) qui soient complètement satisfaisants (avec des volumes suffisants ET qui soient équilibrés de façon à éviter ces fameux biais).

Les différents biais cognitifs
Les différents biais cognitifs

 

De plus, même si les nouveaux spécialistes (data scientist) se gargarisent avec des concepts tels que les data lakes, la réalité des entreprises est moins glorieuse : trop souvent, les data lakes sont plutôt des data swamps (marais de données) !

L’échec commercial des solutions basées sur le machine learning

Une enquête réalisée par Boston Consulting Group et le MIT a interrogé près de 2 500 patrons et a révélé que 70% ont déclaré que leurs projets d’IA avaient jusqu’à présent eu peu d’impact. De plus, une partie significative (20%) de ceux qui ont “des investissements importants” en IA n’avaient pas encore signalé d’avantages probants.

Une autre enquête, celle de PWC, a révélé que le nombre de patrons prévoyant de déployer l’intelligence artificielle dans leurs entreprises était de seulement 4% en 2020, contre 20% l’année précédente (encore une baisse significative). Le nombre déclarant avoir déjà mis en œuvre l’IA dans “plusieurs domaines” est passé de 27% à 18%. Euan Cameron de PWC dit que les projets précipités ont été abandonnés ou repensés, et que “l’exubérance irrationnelle” qui a dominé les salles de réunion au cours des dernières années s’estompe.

Les entreprises ont peut-être été induites en erreur par le succès des géants de l’Internet, qui étaient parfaitement placés pour adopter la nouvelle technologie. Ceux-ci étaient déjà dotés de programmeurs et étaient déjà assis sur d’énormes piles de données générées par leurs utilisateurs. Les utilisations auxquelles ils ont adopté l’IA en premier comme améliorer les résultats de recherche, afficher des publicités, recommander de nouveaux produits, etc., étaient simples et faciles à mesurer. Ce n’est plus le cas maintenant que le principe des “retours décroissants” se fait sentir.

Mais le fait est que même les GAFAM n’arrivent pas à commercialiser leurs solutions basées sur le machine learning. IBM a essayé avec Watson et a échoué de façon spectaculaire (voir à Watson : l’Intelligence artificielle en ses limites) et Google avec Deepind a été plus discret mais sans plus de succès. Bref, les éléments s’accumulent pour nous pousser à admettre l’évidence : la phase où le machine learning faisait rêver est terminée…

2- Fin de partie pour la loi de Moore

Tout d’abord, soyons clairs, la fin de la loi de Moore a été annoncée régulièrement lors des vingt dernières années et à tort à chaque fois !

Pourtant, aujourd’hui, il y a de bonnes raisons d’y croire… voyons pourquoi.

Commençons par définir de quoi on parle car pour un paradigme aussi connu, il y a pléthore d’inexactitudes et d’approximations à son encontre.

Gordon E. Moore en 1965.
Gordon E. Moore en 1965.

 

La loi de Moore a été exprimée pour la première fois en 1965 dans le magazine Electronics par Gordon E. Moore, alors ingénieur de Fairchild Semiconductor, (Moore allait ensuite devenir un des trois fondateurs d’Intel). Constatant que la “complexité des semi-conducteurs proposés en entrée de gamme” doublait tous les ans à coût constant depuis 1959, date de leur invention, il postulait la poursuite de cette croissance (en 1965, le circuit le plus performant comportait 64 transistors). Cette augmentation exponentielle fut rapidement nommée “loi de Moore” ou, compte tenu de l’ajustement ultérieur, “première loi de Moore”. En 1975, Moore réévalua sa prédiction en posant que le nombre de transistors des microprocesseurs (et non plus de simples circuits intégrés moins complexes ) sur une puce de silicium double tous les deux ans. Bien qu’il ne s’agisse pas d’une loi physique mais seulement d’une extrapolation empirique, cette prédiction s’est révélée étonnamment exacte. Entre 1971 et 2001, la densité des transistors a doublé chaque 1,96 année. En conséquence, les machines électroniques sont devenues de plus en plus petites et de moins en moins coûteuses tout en devenant de plus en plus rapides et puissantes (extraits issues de Loi de Moore sur Wikipédia).

On le voit, l’énoncé de la “loi” ne comporte pas de mention sur la puissance ou sur la vitesse des composants mais seulement sur la densité des transistors qu’on peut rassembler au sein d’un microprocesseurs. L’augmentation de la vitesse et/ou de la puissance n’est qu’une conséquence de l’augmentation de la densité. 

Une explication lumineuse par Gordon Moore himself : Si vous examinez la vitesse des processeurs des années 1970 à 2009, puis à nouveau en 2010, on pourrait penser que la loi a atteint sa limite ou s’approche de la limite. Dans les années 1970, les vitesses de traitement allaient de 740 kHz à 8 MHz (remarquez que le 740 est le KHz, ce qui correspond au kilo hertz, tandis que le 8 correspond au mégahertz). Entre 2000 et 2009, la différence de vitesse n’a pas vraiment évolué, les vitesses allant de 1,3 GHz à 2,8 GHz, ce qui suggère que les vitesses ont à peine doublé en 10 ans. C’est parce que nous examinons les vitesses et non le nombre de transistors. En 2000, le nombre de transistors dans les CPU s’élevait à environ 37,5 millions, tandis qu’en 2009, le nombre de transistors atteignait 904 millions ; c’est pourquoi il est plus juste d’appliquer la loi aux transistors qu’à la vitesse.

La fin annoncée par Gordon Moore lui-même

Lors de l’Intel Developer Forum de septembre 2007, Gordon Moore a prédit que sa loi de doublement du nombre de transistors dans une puce tous les deux ans ne serait plus valide dans dix à quinze ans (on y est !). En effet, l’industrie approche de plus en plus des limites physiques de la micro-électronique, où les transistors ne seront plus constitués que de quelques atomes et l’isolant entre eux. 

En février 2016, la confirmation tombe : la fin de la loi de Moore est annoncée par l’International Technology Roadmap for Semiconductors (ITRS) qui entérine officiellement l’abandon de cette loi, le rythme n’étant tout simplement plus tenable.

Cela faisait déjà quelques années que la cadence ralentissait. À force de graver des composants électroniques toujours plus fins, années après années, passant du micro au nano, de l’échelle du cheveu à celle des bactéries, l’industrie de la microélectronique a fini par atteindre l’atome (en 50 ans, les transistors ont vu leur taille divisée par 2 000…). 

En effet, pour que la densité du transistor augmente, la taille des transistors doit diminuer. Étant donné qu’il existe une limite à la taille des transistors, l’applicabilité de la loi de Moore est limitée. De plus, la loi de Moore étant une loi exponentielle, les nombres se multiplient rapidement et nous pourrions donc atteindre la limite physique assez soudainement.

En 2018, seuls trois industriels au monde étaient encore en lice pour graver des composants électroniques de 7 nm (nanomètres) : Intel, Samsung et TSMC, le fournisseur taïwanais d’Apple (voir à ce propos la précédente chronique à ce sujet à Tendances décryptées | Le déclin d’Intel est amorcé par TSMC).

Plus difficile mais aussi plus cher !

Il devenait de plus en plus difficile de fabriquer des transistors de plus en plus petits. Pendant des années, l’industrie des puces a réussi à contourner ces obstacles physiques. Mais le progrès est devenu de plus en plus coûteux. Les économistes de Stanford et du MIT ont calculé que l’effort de recherche visant à faire respecter la loi de Moore a été multiplié par 18 depuis 1971. 

Ceci est confirmé par une autre loi empirique de la Silicon Valley, la loi de Rock, stipule ainsi que le coût de fabrication d’une fonderie de puce double tous les quatre ans car le procédé de fabrication utilisé depuis une quarantaine d’années, la photolithographie, se rapproche toujours plus de ses limites physiques.

Du coup, les laboratoires qui fabriquent les puces les plus avancées deviennent hors de prix. Le coût d’une usine augmente d’au moins 13 % par an et attendra 16 milliards de dollars ou plus d’ici 2022. Ici, on touche du doigt les effets de la loi des retours décroissants.

Quelles vont être les conséquences de la fin de la loi de Moore ?

Premièrement, même s’il ne faut plus compter sur les bénéfices “automatiques” de cette loi, ça ne veut pas dire pour autant que tous les progrès techniques vont s’interrompre. En effet, une fois que les industriels vont avoir digéré cette fin, la recherche va reprendre et dans d’autres directions tel que l’empilement des transistors en trois dimensions. Certains constructeurs comme ARM introduisent des processeurs ne cherchant plus à suivre la loi de Moore. Ses processeurs de 2009 possèdent parfois 100 000 transistors, soit moins qu’un processeur Intel 286 à 12 MHz de 1982 (!), mais ne consomment qu’un quart de watt (c’est important). On a donc déjà quelques indications qui permettent de penser que les progrès vont reprendre mais peut-être pas au rythme auquel nous avait habitué la loi de Moore. 

L’analogie du lac (et non, ce n’est pas un “data lake” pour une fois)

Cependant, la fin de la loi de Moore est tout de même un événement majeur dans notre contexte high-tech. Car, qu’on le veuille ou non, qu’on y croit ou pas, mais les vrais progrès de l’industrie informatique reposent surtout sur la croissance continue (jusqu’à maintenant) de la capacité de traitement et de stockage (on l’oublie souvent mais les progrès en matière de capacité de stockage sont tout aussi spectaculaires : la société Seagate -ex-Shugart- a signalé qu’elle avait fait descendre en 29 ans le coût du mégaoctet sur disque d’un facteur 1 300 000).

Pour prendre une analogie, on peut comparer ce domaine (l’informatique) à un grand plan d’eau qui s’étendrait toujours plus en superficie mais resterait peu profond, même en son centre. La surface toujours en expansion représenterait la progression des capacités de traitement (et de stockage) qui ne cesse de progresser (et c’est cette progression qui donne l’impression d’une évolution sans frein) et la profondeur serait à l’image des fonctionnalités qui elles, restent très limitées.

L’explosion des coûts du machine learning

Si la loi de Moore est en train de finalement heurter un mur, c’est tout simplement le principal moteur du progrès technique qui est stoppé (au moins temporairement). Or, pour reparler du machine learning, on s’est vite aperçu que l’entraînement de ces systèmes demandait beaucoup de ressources (vraiment beaucoup) et de plus en plus. 

Voyons cet extrait de The Economist (source The cost of training machines is becoming a problem) pour situer les choses :

===

Openai, une firme de recherche basée en Californie, a déclaré que la demande de puissance de traitement avait décollé en 2012, alors que l’excitation autour de l’apprentissage automatique commençait à monter. Elle s’est fortement accélérée. En 2018, la puissance informatique utilisée pour former les grands modèles avait été multipliée par 300000 et doublait tous les trois mois et demi (voir graphique). 

Des chiffres exacts sur le niveau de ces coûts sont rares. Mais un article publié en 2019 par des chercheurs de l’Université du Massachusetts à Amherst a estimé que la formation d’une version de “Transformer”, un autre grand modèle de langage, pourrait coûter jusqu’à 3 millions de dollars. Jérôme Pesenti, responsable de l’IA sur Facebook, explique qu’une session de formation pour les plus grands modèles peut coûter “des millions de dollars” en consommation d’électricité.

===

Source https://www.economist.com/technology-quarterly/2020/06/11/the-cost-of-training-machines-is-becoming-a-problem
Source https://www.economist.com/technology-quarterly/2020/06/11/the-cost-of-training-machines-is-becoming-a-problem

 

La progression de cette exigence dépasse de beaucoup ce que la loi de Moore était capable de compenser en temps normal… Et, désormais, elle ralentit (pour ne pas dire plus). Vous voyez la collision des situations qui est en train de se dessiner ?

La fin des “30 glorieuses” de l’informatique

L’arrêt de la loi de Moore marque la fin d’une période dorée pour l’informatique où les accroissements de capacités étaient tout à la fois automatiques et garantis. Toutes proportions gardées, c’est un peu ce qui est arrivé aux nations occidentales avec la fin des 30 glorieuses déclenchée par le premier choc pétrolier de 1973. Et qu’est-ce qui a suivi ?

Une série de crises économiques et une situation globale qui est directement dérivée de ces deux événements. Va-t’on connaitre la même chose sur le marché informatique ?

Va-t-on entrer dans un cycle de crises et de dépressions ? 

Peut-être pas car, comme on l’a vu, il y a d’autres moyens pour augmenter encore la puissance et la vitesse des composants mais il est désormais clair que ça ne sera plus automatique ni garanti. Nous entrons dans l’ère du plateau où toutes les exubérances sont calmées, au moins pour un moment. 

Nous avons déjà vécu ce type de cycle dans l’évolution de notre domaine depuis soixante ans : une ère en remplace une autre une fois que son potentiel s’essouffle.

Nous sommes en train de vivre la mise en plateau de l’ère du tout-Internet qui nous a apporté le Cloud Computing… ce n’est pas rien !
Nous sommes en train de vivre la mise en plateau de l’ère du tout-Internet qui nous a apporté le Cloud Computing… ce n’est pas rien !

 

Le public commence doucement à comprendre que les merveilles vantées par le machine learning et la Blockchain sont des quasi-mensonges : l’IA fonctionne bien quand elle est mise en oeuvre par les GAFAM (et encore dans quelques domaines seulement), pas pour les autres (où sont les success-stories ?). Pareil pour la Blockchain : elle fonctionne dans le cas des crypto-monnaies mais, quand vous voulez développer des applications qui s’appuient dessus, vous vous rendez compte que le développement est difficile (et les compétences rares) et que la montée en charge est désastreuse… Bref, inutilisable.

Tout cela n’est pas négatif, au contraire !

Il faut dire que la crise de la Covid19 avait déjà ridiculisé (provisoirement ?) tous les tenants du transhumanisme et de l’immortalité. Cette fois, c’est la pause à venir qui va disqualifier les consultants en mal d’audience qui poussent encore et toujours la “transformation digitale” faute d’avoir quelque chose à dire… 

Vers l’informatique raisonnée

Et cette phase de plateau, que peut-on en espérer ?

Eh bien l’émergence d’une “informatique raisonnée” qui fera le plus grand bien à tout le secteur !

Quand on utilise le terme “informatique raisonnée” forcément, on pense de suite à “agriculture raisonnée”, c’est inévitable.

Alors justement, poussons le parallèle à fond entre l’agriculture et l’informatique. La différence essentielle qui existe entre l’agriculture intensive et l’agriculture raisonnée c’est, pour simplifier, l’emploi des pesticides.

Et dans le cas de l’informatique alors, qu’est-ce que ce serait ?

La différence entre l’informatique “stratégique” et l’informatique raisonnée ce serait justement l’abandon des projets longs et des personnalisations abusives. Si vous me permettez cette boutade, il faut que l’informatique professionnelle arrête de faire du hors-sol !

Les deux malédictions de l’informatique

Les deux malédictions de l’informatique ancienne manière c’est justement, d’une part, le trop plein d’ambition avec la poursuite vaine de “l’avantage stratégique” (jamais atteint) et, d’autre part, c’est d’être à l’écoute du battage médiatique permanent qui implique d’être toujours à la page, toujours à la mode. Or, il y a toujours une nouvelle mode technique !

Ces deux malédictions conduisent à lancer beaucoup trop de projets qui n’aboutissent pas, en témoigne le taux d’échecs beaucoup trop élevés dans les projets informatiques.

Un concept nouveau et rafraîchissant

L’informatique raisonnée, c’est la fin d’une exubérance qui vous piégeait dans des projets sans lendemain, c’est le retour au concret, à la maîtrise et à la satisfaction. Dans une prochaine chronique et un prochain webinaire, nous aurons l’occasion de vous détailler ce concept nouveau et rafraîchissant d’informatique raisonnée !

Commentaires

  1. Excellent billet, j’attends avec impatience la suite, annoncée par :

    « (…) un prochain webinaire, nous aurons l’occasion de vous détailler ce concept nouveau et rafraîchissant d’informatique raisonnée ! »

    Une question que je me pose est sur l’avenir de beaucoup de « programmeurs », dans le cas d’une stagnation de la puissance informatique. Qu’est-ce qui va advenir des gens travaillant dans la programmation mais n’ayant ni culture mathématique, ni connaissance du hardware, ni de l’algo ?

    Vont-ils perdre leur travail en masse, ou même en cas de stagnation, dans les domaines où ils sont majoritairement employés (applis web, framework javascript front type angular), les ressources disponibles sont suffisantes ? A vrai dire je n’ai pas trop d’idées.

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Voir plus
scroll to top