go-back Retour

Événements clés de l’histoire de l’informatique

📝 Mini-cours GRATUIT

De l’algorithme à la notion de programme

Histoire des algorithmes

Les algorithmes ne sont pas nés avec l'informatique. L'algorithme d'Euclide pour calculer le PGCD de deux entiers est vieux de plus de 2000 ans ! Des descriptions précises d'algorithmes sont présents dans la Chine ancienne.

Exemple

Pour extraire des racines carrées à partir de divisions effectuées sur une « surface à calculer »

Origine du terme "algorithme"

L'origine du mot « algorithme » est lié au nom du savant persan du IXe siècle : Al-Khwarizmi. Ce savant persan a publié plusieurs méthodes pour le calcul effectif de racines d'une équation du second degré et grâce à lui les chiffres arabes ont pu se diffuser en Occident.

Définition de l'algorithmique

L'algorithmique est la science de l'organisation des opérations à effectuer. C'est la réalisation d'une opération abstraite comme par exemple l'addition de deux nombres.

Pour passer à une réalisation concrète, il faut traduire l'algorithme de façon bien précise sous la forme d'un programme, écrit dans un langage de programmation.

Développement du calcul binaire et des ordinateurs

C'est le mathématicien Leibniz qui a introduit en Europe le calcul binaire vers 1697. C'est à partir du calcul binaire que seront développés les premiers ordinateurs.

Ada Lovelace, mathématicienne du XIXe siècle a fortement contribué à la création du premier ordinateur appelé la machine analytique par Charles Babbage. Cette machine analytique avait pour but d'exécuter des opérations numériques et symboliques.

EN RÉSUMÉ

De la mécanisation des calculs au logiciel

Histoire de l'informatique et des ordinateurs

Les prémices de la programmation (1801)

En 1801, le métier à tisser de Jacquard est considéré comme la première machine programmable utilisant une programmation binaire. Une machine mécanique n'est conçue que pour exécuter un programme donné défini à l'avance.

Au contraire, l'ordinateur peut exécuter un nombre quelconque de programmes et devient une machine universelle.

Les fondements théoriques d'Alan Turing (1936)

Alan Turing a créé en 1936 l'article fondateur de la science informatique. Il a compris comment quelques opérations élémentaires de calcul pouvaient être combinées pour exécuter tous les algorithmes du monde, donnant le coup d'envoi à la création des calculateurs universels programmables.

Contribution pendant la Seconde Guerre mondiale (1943)

En 1943, pendant la seconde guerre mondiale, Alan Turing a contribué au décryptage des messages codés par les nazis avec la machine Enigma.

Le premier ordinateur numérique automatique

Le premier ordinateur numérique entièrement automatique est l'œuvre d'IBM  le Harvard Mark I. Il a été mis au point par une militaire américaine Grace Hopper qui est aussi à l'origine du premier compilateur, et a participé la conception de plusieurs langages de programmation très importants, dont le COBOL.

Qu'est-ce qu'un compilateur ?

Un compilateur est un logiciel qui permet de traduire en langage machine les éléments de l'algorithme écrit dans un langage informatique compréhensible par tous les ingénieurs. Les premiers ordinateurs naîtront vers 1940.

L'architecture de von Neumann (1944)

En 1944, le physicien théoricien John von Neumann décrit la première architecture matérielle qui a triomphé et reste celle de l'immense majorité des ordinateurs aujourd'hui.

EN RÉSUMÉ

Du codage de l’information à l’objet numérique

L'information numérique et sa quantification

Nature de l'information dans un message

Un message contient une quantité précise d'informations. Cette quantité peut être mesurée et analysée de manière mathématique.

Le reflet numérique des objets

Tous les objets (images, sons, textes, données) ont un reflet numérique qui permet de mémoriser l'information, de la transmettre, de la reproduire à l'infini et de la manipuler de manière spécifique grâce à différents algorithmes.

Théorie mathématique de l'information

Le physicien Shannon a défini la quantité d'informations de manière mathématique avec la théorie des probabilités mises en équations par Kolmogorov.

EN RÉSUMÉ

La démocratisation de l’informatique

L'évolution des interfaces homme-machine

Les débuts au XXI$^e$ siècle

Au début du XXI$^e$ siècle, les interfaces entre les ordinateurs et les cerveaux n'en étaient qu'à leurs balbutiements.

L'innovation de Douglas Engelbart (1968)

En 1968, Douglas Engelbart présente un environnement graphique avec des fenêtres que l'on peut ouvrir et fermer à l'aide d'un pointeur relié à l'ordinateur : la souris.

L'ère minimaliste (1969-1983)

Entre 1969 et 1983, l'interface homme-machine est minimale : le clavier sert à envoyer de l'information retranscrite par l'écran. Les ordinateurs sont à l'époque réservés à des élites dans le milieu professionnel.

La révolution du confort utilisateur (1984 à aujourd'hui)

Entre 1984 et aujourd'hui, le confort de l'utilisateur entre en jeu. Le contenu à l'écran est présenté sous la forme « What You See Is What You Get » (WYSIWYG). Cette expression est popularisée par Apple et son fameux Macintosh. L'interaction devient symbolique avec les fenêtres, les icônes, les menus et les dispositifs de pointage et l'apprentissage est facilité pour le grand public. C'est la naissance de l'informatique grand public.

L'invention du World Wide Web

Tim Berners-Lee informaticien du CERN à Genève est le principal inventeur du World Wide Web au début des années 1990 qui permet d'échanger des contenus à travers le réseau mondial Internet.

L'évolution d'Internet en chiffres

Voici deux graphiques illustrant l'évolution du nombre d'utilisateurs d'internet dans le monde entre 1995 et 2018.

Voici un autre graphique donnant l'évolution du nombre de sites internet depuis 1991 jusqu'à 2018 (avec une échelle logarithmique) :

La création de Google Search

Pour effectuer des recherches pertinentes sur Internet, Larry Page et Sergey Brin deux informaticiens californiens créent le moteur de recherche Google Search. En novembre 2016, le nombre de pages indexées par le moteur de recherche Google était de $1,3 \times 10^{14}$ (130 mille milliards).

EN RÉSUMÉ

Les médias sociaux

L'évolution des réseaux sociaux et du Web

La naissance de Facebook

En 2004, Mark Zuckerberg fonde le réseau social Facebook dans l'université de Harvard. Au 31 janvier 2019, Facebook comptait 2,3 milliards d'utilisateurs actifs dans le monde.

Le développement des médias sociaux

De nombreux autres médias sociaux se sont développés après Facebook. On peut citer entre autres :

  • LinkedIn (réseau social professionnel) 
  • Twitter (réseau social de micro-publication) 
  • YouTube (partage de vidéos) 
  • Deezer (partage de musique) 
  • Instagram (partage de photos) 
  • Wikipedia (encyclopédie libre) 
  • GitHub (partages de code source).

L'évolution du Web

Ainsi le Web au fil des années a évolué depuis :

  • Le Web 1.0 qui était focalisé sur la documentation. On utilisait alors les e-mails et les portails de contenu au travers de sites statiques.
  • Le Web 2.0 qui est focalisé sur les utilisateurs. On utilise les réseaux sociaux, des espaces créés par les utilisateurs pour partager des contenus, le commerce en ligne.
  • Le Web 3.0 focalisé sur les données et utilisant l'intelligence artificielle. Les informations sont partagées en temps réel. Exemple les twittos.

Le Web 3.0 fonctionnera avec des agents intelligents intégrés à des objets connectés.

EN RÉSUMÉ

📄 Annale PREMIUM

PREMIUM

Sujet zéro — Numérique et sciences informatiques

📄 Annale PREMIUM

PREMIUM

Sujet zéro — Numérique et sciences informatiques

NOMAD EDUCATION

L’app unique pour réussir !