Sciences Années 70 – Pierre-Eric Mounier-Kuhn – Résumé de la conférence
En 1945, la Seconde Guerre Mondiale s’achève, les réflexions sur la logique des machines et sur le calcul s’ouvrent. Les innovations techniques apportées au début du siècle par la Seconde Révolution Industrielle vont enfin porter leurs fruits dans le domaine du traitement de l’information…
En 1946, le rapport Von Neuman définit ce que devra être une machine à calculer électronique dans le futur.
La même année se tient l’Ecole d’Eté de l’Université de Pennsylvanie. De ces deux événements va émerger le concept du premier programme enregistré (ou logiciel) qui devrait révolutionner l’histoire des machines à traiter l’information, fonctionnant jusqu’alors grâce aux cartes perforées.
Les chercheurs commencent alors à développer lentement et coûteusement les premiers ordinateurs dans leurs universités. Cette période pionnière va durer une dizaine d’années (jusqu’au milieu des années 50). Les ordinateurs sont construits à l’unité dans des laboratoires de mathématiques.
Ces puissants outils de calculs vont pouvoir venir à bout de nombreux problèmes de calcul dans divers domaines (thermodynamique, météorologie…). Des centres de calculs prolifèrent ainsi dans les universités. Grâce aux crédits de l’armée et de grandes administrations, la recherche va étudier de nouvelles façons de programmer et de faire calculer ces machines. Les premières filières d’enseignement informatique voient le jour car l’industrie va commencer à avoir besoin de spécialistes.
Les premiers ordinateurs commerciaux, à vocation de calcul, voient le jour au début des années 50 (FERANTI, UNIVAC).
Jusqu’aux années 60, les ordinateurs étaient utilisés pour le calcul scientifique.
A partir de ce moment là, le marché bascule vers l’informatique de gestion. Les ordinateurs, devenus moins coûteux, commencent à remplacer les machines mécanographiques à cartes perforées.
L’industrie devient maître d’œuvre des innovations et des progrès.
Les innovations vont être réalisées surtout dans deux domaines :
· les composants électroniques, essentiellement les composants logiques et les mémoires, sur lesquels travaillent des industries comme IBM, Texas Instruments, Intel…
· l’architecture : évolution des mainframes, invention des mini-ordinateurs (Xerox, Apple, Sun), conception de super-ordinateurs (IBM, Digital Equipment, Control Data, Cray)
Toutes ces innovations vont aboutir à la miniaturisation des appareils. En 1972, est commercialisée la première calculette programmable (HP-65).
Pendant que l’industrie améliore ses architectures rentables et augmente la puissance de ses composants, la recherche académique, américaine surtout, innove dans de nombreux domaines.
L’architecture
Les Universités et les grands organismes expérimentent des architectures nouvelles et révolutionnaires, en développant notamment des machines massivement parallèles comme les machines ILLIAC, construites à l’université de l’Illinois.
Les méthodes de programmation
Une discipline ancienne, l’analyse numérique permet d’optimiser des méthodes de calcul ou de traitement de l’information. Il faut créer des algorithmes permettant de gagner du temps de calcul et des logiciels plus fiables.
Interfaces Homme/Machine
La mise au point d’interfaces Homme/Machine facilite l’interactivité : souris, écran, crayon optique, reconnaissance vocale.
L’informatique non numérique
On assiste au développement de bases de données (chimie, archéologie) et de systèmes d’intelligence artificielle.
Interactivité
Ces innovations introduisent une toute nouvelle façon d’utiliser l’ordinateur, l’interactivité, qui s’oppose au traitement de l’information par lot (« batch processing ») qui existait jusqu’alors. Cette informatique est née au MIT (Massachusetts Institute of Technology) autour d’un ordinateur « temps-réel » conçu pour les besoins de la Défense, le Whirlwind. Ces nouveaux savoir-faire et cette sensibilité à une informatique différente vont ensuite essaimer vers Digital Equipments, General Electric, et plus tard IBM.
Le time-sharing
Une nouvelle possibilité offerte par ces nouveaux ordinateurs rapides est le « time sharing » (milieu des années 60). Il s‘agit du partage du temps de calcul d’un ordinateur entre plusieurs clients ou utilisateurs. Chacun possède son clavier, sa console et son écran et a ainsi l’impression que l’ordinateur travaille pour lui seul. Le time-sharing répond au départ à un besoin pratique : enseigner la programmation à plusieurs dizaines d'étudiants à la fois. L'ordinateur corrige leurs fautes et leur permet de tester la qualité des logiciels. Le time-sharing répondra ensuite aux besoins commerciaux des constructeurs (vendre du temps de calcul sur des terminaux) et des grandes organisations. Les chemins de fer, les compagnies aériennes, les banques, les compagnies d'assurance sont intéressés par le développement de ces réseaux informatiques.
Toutes les innovations, en se combinant ensemble, transforment considérablement l’informatique. S’agit-il pour autant d’une révolution ?
Dans les années 50, les constructeurs ont remplacé les pièces électromécaniques par des composants électroniques plus rapides et plus fiables mais cela n’a pas constitué de véritable révolution, mais a plutôt marqué une évolution dans la technologie.
Par la suite, l’arrivée du programme enregistré a davantage bousculé le monde de l’information, en provoquant de profonds changements dans l’architecture des machines et en aboutissant à l’émergence d’une nouvelle catégorie d’ingénieurs, les analystes-programmeurs.
L’informatique taylorienne
Cependant, le traitement de l’information par les gros ordinateurs reste encore organisé selon une conception profondément « taylorienne » de division du travail : centralisation, traitement par lots (« batch processing »). C’est un modèle à la fois technique et économique. On considère alors qu’un gros ordinateur central est plus rentable que plusieurs petits décentralisés dont la somme des puissances serait égale à la puissance du gros.
Les champions de cette informatique « taylorienne » sont IBM et son cortège d’émulateurs (Bull, ICL…). IBM a exploité les innovations d’après-guerre (l’électronique et le programme enregistré), pour son plus grand profit et a ainsi réussi à affirmer encore sa domination sur le marché de l’informatique.
Les innovations qui ont mûri au cours des années 60 commencent dans les années 70 à remettre en cause le modèle de l’informatique taylorienne et centralisée.
L'informatique transactionnelle
Les années 70 sont marquées par l’expansion de l’informatique transactionnelle basée sur l’interactivité, par les mini-ordinateurs "temps-réels", le développement de l’informatique personnelle. Les mini- puis les micro-ordinateurs peuvent être utiles à des non informaticiens, ils ont leur place dans des bureaux, des petits centres de calcul.
Remise en cause des constructeurs
Cette informatique transactionnelle, voire personnelle, bouscule les gros constructeurs établis. Digital Equipments se hisse au second rang mondial derrière IBM au cours des années 70. Ces constructeurs vont devoir réagir et développer des mini- puis des micro-ordinateurs (série IBM3). Mais ces nouveaux produits correspondent mal à leur culture et leur savoir-faire. L'initiative de l'innovation sera laissée à Microsoft pour les logiciels et Intel pour les composants. Et c'est ainsi que depuis les années 90 on parle de domination du "Wintel" (Windows + Intel). IBM n'est plus qu'un concurrent parmi d'autres. Ce bouleversement de l’ordre établi au sein des constructeurs constitue certainement la véritable révolution qui s’est opérée dans les années 70.