Routeur : qu’est-ce que c’est et à quoi ça sert ?

Le routeur permet la communication entre le réseau local et Internet. Découvrez tout ce que vous devez savoir à ce sujet : définition, fonctionnement, différentes catégories…

Nous utilisons (presque) tous internet, mais de nombreuses personnes ignorent le fonctionnement de cette technologie. Parmi les différents éléments nécessaires au bon fonctionnement d’internet, on compte le routeur.

Le routeur est un appareil permettant la communication entre un réseau local domestique et Internet. Le réseau local domestique peut être par exemple un ordinateur personnel ou un objet connecté.

Comme évoqué auparavant, un routeur permet en premier lieu la communication entre un réseau local domestique et Internet.

Un routeur permet aussi de protéger le réseau d’une éventuelle intrusion. Ainsi, en activant le plus haut niveau de sécurité sur le routeur, il est possible de protéger l’ordinateur et les informations qu’il contient contre les cyberattaques.

Les routeurs contiennent un logiciel appelé  » firmware « . Par précaution ce logiciel doit être mis à jour chaque fois qu’une mise à jour est déployée par le fabricant du routeur.

Routeur : comment ça fonctionne ?

 

Le routeur connecte un modem à d’autres appareils, afin de permettre la communication entre ces appareils et Internet. La plupart des routeurs comportent plusieurs ports réseau pour permettre de connecter plusieurs appareils à internet simultanément.

En règle générale, un routeur se connecte physiquement au modem par le biais d’un câble réseau via un port Internet ou WAN. Il se connecte ensuite également physiquement via un câble à une carte d’interface réseau des appareils à brancher à internet.

Le routeur analyse l’adresse IP de destination d’un paquet de données, calcule le meilleur itinéraire à emprunter pour qu’il atteigne sa destination, et envoie le paquet de données.

La plupart des routeurs se connectent à d’autres appareils réseau uniquement par le biais de câbles, et ne requièrent pas de pilotes pour fonctionner sur Windows ou d’autres systèmes d’exploitation. Ce n’est toutefois pas le cas des routeurs qui se connectent via USB ou FireWire.

Il existe aussi des routeurs sans fil pouvant être connectés à l’aide de différents standards sans fil à des appareils compatibles avec les mêmes standards. Les routeurs sans fil font office d’interrupteurs réseau permettant aux appareils de communiquer entre eux et d’échanger des informations.

L’adresse IP assignée à la connexion WAN ou Internet est une adresse IP publique. En revanche, l’adresse IP assignée à la connexion réseau local (LAN) est une adresse IP privée. Les adresses IP privées assignées au routeur sont généralement la  » gateway  » par défaut pour les différents appareils du réseau.

Routeur : quels sont les différents types et les principaux constructeurs ?

 

routeurs types

La plupart des routeurs sont fabriqués par les leaders du marché : Linksys, 3Com, Belkin, D-Link, Motorola, TRENDnet, Cisco… mais il existe un grand nombre d’autres fabricants.

Il existe aussi différents types de routeurs. Les routeurs  » Core  » sont les plus rapides et les plus puissants. Ils sont utilisés par les fournisseurs d’accès internet. Situés au centre de l’internet, ils transfèrent les informations via le principal backbone de fibre optique. Les routeurs d’entreprise permettent de connecter les réseaux des grandes entreprises à ces routeurs  » Core « .

Un routeur  » Edge « , aussi connu comme  » access router « , est un appareil à plus faible capacité. Il est situé en bordure d’un réseau local (LAN), et permet de connecter ce réseau à un WAN, à Internet ou à des LAN externes. Les petits routeurs de bureau et les routeurs domestiques entrent dans cette catégorie.

Sources: https://bit.ly/33JNaux

Qu’est-ce qu’un modem ?

Le terme modem est l’abréviation de modulateur-démodulateur. Il s’agit de l’élément central de votre accès à internet. Sans lui, vous ne disposez pas d’accès à internet domestique. Mais quelle est la définition d’un modem ? Découvrez à quoi sert un modem et ses spécificités grâce à cet article rédigé par les experts de Noodo.

A quoi sert un modem ?

Le modem est à l’origine même de votre installation pour disposer d’un accès à internet. Il vous est fourni par le Fournisseur d’Accès à Internet (FAI) auprès duquel vous avez souscrit un abonnement. Ce même FAI envoie des données aux modems qui va les traduire en connexion internet pour pouvoir être exploitée par les autres équipements de l’infrastructure réseau (switch, routeur…) et les appareils tels que les ordinateurs, smartphones ou tablettes. Le signal internet est transmis par l’intermédiaire de la prise téléphonique, d’un câble coaxial ou d’une fibre optique selon l’abonnement internet.
Modem internet

Les différents types de modems

On classe les modems en trois catégories. Il existe en effet des modems câbles, des modems DSL et des modems fibre. Les modems fibre sont encore assez rares sur le marché mais devrait se démocratiser avec la généralisation du Très Haut Débit sur le territoire français. Il est important d’avoir un modem adapté à sa connexion à internet sous peine de ne pas profiter pleinement du débit offert par la ligne. Aujourd’hui, la plupart des modems font également office de routeur WiFi. C’est notamment le cas des box internet distribuées par les FAI. Ce n’est pas pour autant qu’un modem est un routeur. A l’image de nombreux équipements informatiques, on note une tendance à la concentration des fonctionnalités. Autrefois, on utilisait un modem et un routeur en parallèle. Désormais, on utilise des modems-routeurs.
Sources: https://bit.ly/35Zyglu

Le switch réseau

Introduction

Dans un contexte où la mobilité ne cesse de progresser, le développement des réseaux sans fil a explosé. Employeurs, salariés et particuliers apprécient tous le fait de pouvoir être connectés aussi simplement que possible tout au long de la journée.

La prévalence de la connectivité sans fil ne doit pas faire perdre de vue ce qui se passe en arrière-plan pour permettre ces connexions : une infrastructure doit être installée, testée et maintenue afin d’être viable et utile. Dans la plupart des cas, ce processus est très coûteux en termes de main d’œuvre et de matériel. La fiabilité est un autre facteur essentiel qui doit être pris en compte. Une des solutions pour créer un réseau stable est d’utiliser un câblage structuré ainsi que des commutateurs ou switchs Ethernet, plutôt que des technologies sans fil.

Un switch réseau gère les connexions utilisées par tous les systèmes et matériels avec lesquels on souhaite interagir et partager des données. Ces connexions se font généralement à l’aide d’un câblage structuré qui relie la station de travail (la partie avec laquelle on interagit) et la machine avec laquelle on essaie d’échanger des données comme par exemple un serveur ou un autre ordinateur.

Le switch réseau est une sorte d’agent chargé de diriger le trafic dans la bonne direction. Pour faire simple, si un appareil essaie de récupérer des données depuis une autre source, le switch vérifiera s’il connait cette destination. Dans la négative, il enverra les données à un autre appareil comme un routeur pour laisser ce dernier gérer l’information à son niveau. Suivant le type, couche 2 ou couche 3, le switch se situe respectivement au niveau liaison (data link) ou réseau (network) du modèle OSI (Open Systems Interconnection).

Les switchs de niveau 2 sont les plus courants vu qu’ils tendent à être plus accessibles sur un plan financier et s’acquittent très bien de leur tâche. Concrètement, ils utilisent l’adresse MAC (adresse physique) d’un appareil depuis les trames de messages reçus pour déterminer vers quel port l’information doit être relayée. Pour cela, un switch s’appuie sur une table d’adresses MAC dynamique qu’il génère et met à jour à partir des requêtes ARP (protocole permettant de traduire une adresse IP en adresse MAC), ce qui lui permet donc de reconnaitre les trames.

Les switchs de niveau 3 possèdent également ces capacités et se comportent comme les switchs de niveau 2, tout en étant capables de répartir le trafic entre différents sous-réseaux ou VLAN qui peuvent exister sur un LAN. Ceci peut alléger considérablement le travail d’un routeur, lequel n’aura donc plus qu’à gérer les accès réseaux extérieurs au LAN.

Les switchs permettent de relayer l’information de manière beaucoup plus fine et efficace qu’un hub (concentrateur) réseau : ils permettent à plusieurs utilisateurs d’accéder aux ressources réseau en créant des chemins d’accès spécifiques, de manière à ce que l’information puisse circuler entre les connexions sans interférences d’autres paquets de données susceptibles de se trouver sur le même segment du réseau. Ils réduisent efficacement le nombre de collisions qui peuvent se produire entre ces paquets étant donné qu’ils savent où les informations doivent être envoyées grâce à leur table d’adresses MAC. En comparaison, un hub est beaucoup plus limité, puisqu’il diffuse les données vers chaque appareil connecté jusqu’à trouver la bonne destination, ce qui peut poser des problèmes de collision de données ainsi que des failles de sécurité considérables.

Pour ce qui concerne nos foyers, un switch basique permet donc à un utilisateur désirant créer un réseau à domicile de connecter tous ses appareils à partir de la même connexion internet, sans collisions de paquets de données et la faible vitesse des échanges qui en découlent. Un switch permet également de centraliser les connexions, ce qui rend leur gestion plus facile. La première étape consiste à choisir un switch adapté à ses besoins.

Sources: https://bit.ly/362SxGR

Principes généraux de communication sur un réseau

Introduction

 

Concept de réseau :

Un réseau est un ensemble d’entités (objets, personnes, systèmes…) interconnectées les une aux autres et qui effectuent des échanges (matériels ou immatériels).

Ex : Les réseaux routiers, les réseaux sociaux, les réseaux mafieux, les réseaux téléphoniques…

Dans un réseau informatique (network), les entités interconnectées les unes aux autres sont des ordinateurs, des imprimantes, des serveurs…et les éléments échangés sont des données numériques.

Les éléments constitutifs d’un réseau informatique :

Un réseau est constitué de périphériques (appelés aussi hôtes) reliés entre eux par un support de transmission.

  • Les périphériques finaux : Ils font l’interface entre le réseau lui-même et les hommes. Ex : Ordinateur, smartphone, imprimante,camera, serveur…

  • Les périphériques intermédiaires : Ils s’occupent de l’acheminement des données à l’intérieur du réseau. Ex : Concentrateur (HUB), commutateur (Switch), routeur, proxy, répéteur…

  • Les supports de transmissions physiques : Ils relient les périphériques entre eux. Ce sont les «tuyaux» par lesquels circulent les données. Ex : Fibre optique, paires torsadées, câble coaxiale, conducteur électrique (CPL)…

  • Les supports de transmissions non physiques : Ils relient les périphériques entre eux (tout comme les supports de transmission physiques), mais ils ne sont pas «palpables». Ex : les ondes électromagnétiques (infra rouge, Wifi, bluetooth, WiMax, 3G…).

Architecture des réseaux :

  • Architecture client/serveur : Un périphérique (appelé serveur) fourni des services à d’autres périphériques (appelés clients) qui lui en font la demande via des requêtes. Le modèle client/serveur correspond à une architecture centralisée des ressources L’application qui fournit le service est appelée service et le programme qui demande le service est appelé client.

Avantage :

– Bonne évolutivité.

– Facilité de maintenance et d’administration.

– Gestion de la sécurité assez facile.

– Evite la redondance…

Inconvénients :

– Le prix

– Tout repose sur le serveur (une panne du serveur et c’est le blocage).

– Possibilité de saturation du serveur s’il y a trop de requêtes.

  • Architecture d’égal à égal (peer to teer ou P2P) : Dans un réseau P2P, il n’y a pas de traitement centralisé. Chaque ordinateur est à la fois serveur et client.

Avantage :

– Simple et peu onéreux.

Inconvénients :

– Très difficile à maintenir à administrer et à sécuriser.

Les protocoles :

Afin de pouvoir communiquer, les hôtes (périphériques) d’un réseau doivent respecter certaines règles. Ces règles, ce sont les protocoles.

La transmission d’une données d’un périphérique à l’autre fait intervenir plusieurs protocole qui vont agir chacun à des niveaux de communication différents (Cf., chapitre 4 sur les couches de protocoles).

Ex1 : Protocole de communication entre 2 applications Si un navigateur fait une demande de page Web à un serveur Web, il faut que la demande soit comprise par le serveur puis que la réponse du serveur soit à son tour comprise par le navigateur. Il faut donc que le serveur et le navigateur utilisent le même langage avec les mêmes règles de communication, c’est-à-dire le même protocole.

Remarque : Le protocole utilisé pour la demande et l’envoi de pages Web est le protocole HTTP.

Ex2 : Protocole pour accéder au support de transmission Lors de la demande de page Web de l’exemple précédent, pour que les données correspondants à cette demande arrivent jusqu’au serveur, il faudra qu’à un moment un autre elles passent par le support de transmission. Si on les place sur le support alors que celui-ci est en train de transmettre une autre donnée, il y aura une collision des données. Il faudra donc utiliser un autre protocole qui lui, gérera la façon dont les données sont placées sur le support.

Remarque : les 2 protocoles les plus utilisés pour la gestion de l’accès au support sont Eternet et Token Ring.

Topologie des réseaux :

  • Topologie physique : La topologie physique d’un réseau correspond à la façon d’ont les périphériques sont connectés entre eux (d’un point de vu spatial). Elle représente la structure physique du réseau.

  • Topologie logique : La topologie logique détermine la façon dont les donnés circulent sur le support et est liée à la méthode d’accès au réseau. Un réseau peut avoir une topologie logique différente de la topologie physique.

Ex : Le réseau ci-dessous a une topologie physique en étoile, mais en fonction du type de l’élément centrale, la logique de fonctionnement ne sera pas la même :

– Si c’est un HUB, la topologie logique est un bus.

– Si c’est un Switch, la topologie logique est un réseau maillé.

– Si c’est un MAU (Multi Station Unit), la topologie logique est un anneau.

 

Familles de réseaux :

On distingue différents types de réseaux en fonction de leur étendue, leur taille (en nombre de machine) et de leur débit. On définit généralement les familles de réseaux suivantes :

– PAN (Personal Area Network) : Réseau personnel ne concernant que très peu d’hôtes (souvent 2) et très peu étendu (quelques mètres).

Les supports de transmissions utilisés sont le plus souvent, l’USB, le Bluetooth et l’infrarouge.

– LAN (Loca AreaNetwork) : Interconnexion de périphériques situés dans une petite aire géographique et appartenant à une même organisation. La technologie utilisée pour les LAN est presque toujours Ethernet.

– MAN (Metropolitan Area Network) : Interconnexion de plusieurs LAN proches les un des autres (quelques dizaines de kilomètres maximum). Cette interconnexion est réalisée par des liaisons haut débits (souvent de la fibre optique).

– WAN (Wide Area Network) : Interconnexion de plusieurs réseaux sur une grande zone géographique (pays , continent).

 

La paquetisation :

Un périphérique qui doit envoyer des données à un autre périphérique pourrait les envoyer d’un bloc en une seule fois.

Inconvénient :

 S’il y a une erreur lors de la transmission, il faut ré-envoyer toutes les données (embêtant si le volume de données à transmettre est important).

 Le support de transmission est occupé pendant toute la durée de transfert des données, il ne peut donc pas être utilisé par un autre périphérique (Plus le volume de données est important, plus le temps pendant lequel le support est inutilisable est important).

Solution : Diviser les données en plusieurs parties que l’on appelle paquets.

 S’il y a une erreur lors de la transmission d’un paquet, seul le paquet concerné est ré-envoyé.

 Entre l’envoie de 2 paquets, le support est disponible pour transmettre les paquets des autres périphériques. Le support est mieux partagé.

Mode de transmission :

La commutation de circuit :

Un chemin de transmission est établi entre les 2 périphériques (grâce à des commutateurs) avant l’échange de toutes données.

Une fois cette connexion effectuée, les 2 périphériques disposent d’une liaison qui leur est entièrement dédiée le temps de la communication.

C’est la solution utilisée dans le réseau téléphonique commuté (RTC).

 Lorsque la connexion est établie, toute la bande passante correspondant au chemin de transmission est disponible (Gaspillage si les données à transmettre nécessitent une petite bande passante).

 L’établissement de la connexion peut prendre un certain temps et peut même ne pas avoir lieu si les commutateurs son surchargés (signal d’occupation de la ligne dans le cas du téléphone). Par contre une fois effectuée, le délai de transmission des donnés ne dépasse pas celui du temps de propagation d’une onde électromagnétique (5ms/1000km) et est donc quasi instantané.

 La défaillance d’un commutateur ou d’un support de transmission utilisé lors de la transmission est fatale à la communication.

La commutation de paquet :

Les paquets sont envoyés sur le support de transmission sans qu’un chemin préalable ait été défini. Ce sont des périphériques intermédiaires recevant les paquets qui déterminent le chemin à emprunter. Cette opération s’appelle routage, elle est effectuée par des routeurs. Les routeurs déterminent le chemin à partir de l’adresse du destinataire. En fonction de l’état du réseau (congestion, panne de routeur…) les paquets peuvent prendre des chemins différents pour aller à un même périphérique.

 Une défaillance sur un routeur ou sur le support de transmission n’est pas fatale, les paquets peuvent prendre un autre chemin (utilisant d’autre routeurs et d’autre supports).

 En utilisant des chemins différents, les paquets peuvent arriver dans le désordre, ce qui peut poser des problèmes.

 Un même support peut être partagé par plusieurs transmissions simultanées.

Comparaison entre la commutation de circuits et la commutation de paquets :

 

Couches de protocoles :

Modèle en couches de protocoles :

Dans un réseau, la transmission de données d’un périphérique à l’autre est décomposée en plusieurs étapes (mise en forme des données, paquetisation, placement des donnée sur le support…).

Chacune de ces étapes est effectuée successivement suivant des règles biens précises que l’on appelle protocoles.

L’ensemble des protocoles utilisés lors de la transmission s’appelle ‘suite de protocoles’ ou ‘pile de protocoles’ car ils sont hiérarchisés en couches (ou nivaux).

 Les couches du haut s’occupent du message et de sa mise en forme avant expédition sur le réseau.

 Les couches du bas s’occupent du déplacement du message dans le réseau.

Chaque couche :

 Chaque couche communique uniquement avec ses couches adjacentes. Une couche utilise les services de la couche inférieure (sans savoir comment celle-ci va les réaliser) et rend des services à la couche supérieure (sans que celle-ci n’ait à savoir comment cela sera réalisé).

 Un modèle en couche offre une grande souplesse de fonctionnement. La modification d’une étape de la communication ne touchera que le protocole de la couche concernée.

Le modèle OSI :

Le modèle OSI est un modèle de communication qui décrit la transmission des données sur un réseau en 7 couches successives de traitement des données (7 étapes). C’est un modèle générique et indépendant de toute technologie.

  • Couche application : C’est la couche de plus haut niveau. La couche application est la « porte d’entrée » d’un logiciel qui veut échanger des données sur le réseau.

  • Couche présentation : Elle définit le format dans lequel la couche application échange les données. Ses principaux services sont :

– Codage et conversion des données dans un format compréhensible par l’application de destination.

– Chiffrement et déchiffrement des données.

– Compression et décompression des données.

La couche présentation s’occupe la forme (la syntaxe) des données alors que la couche application s’occupe du fond (la sémantique).

  • Couche session : En informatique, une session est une période pendant laquelle des périphériques communiquent et échangent des informations. La couche session aura pour but d’ouvrir, de gérer et de fermer une session entre plusieurs périphériques. Ses principaux services sont

– la gestion du dialogue (est-ce que les périphériques peuvent envoyer des données en même temps ?).

– La gestion du point de reprise suite à une interruption accidentelle (reprendre la transmission là où elle s’était arrêtée au lieu de tout recommencer à 0).

  • Couche transport : Elle prépare et conditionne les données pour qu’elles puissent être envoyées sur le réseau.

Ses principaux services sont :

– La segmentation des données – L’identification des applications grâce à une adresse appelé port.

– Gestion des exigences de communication (fiabilité, vitesse de transmission, erreurs…).

  • Couche réseau : Elle détermine quels chemins doivent emprunter les données (routage) grâce à l’adresse logique du périphérique de destination (adresse IP dans le cas d’internet).

  • Couche liaison : Elle fait la transition entre la partie logicielle et la partie matérielle. Ses principaux services sont :

– Gestion de l’accès au support de transmission (méthode d’accès).

– Gestion des adresses physiques des périphériques (adresse MAC).

– Détection des erreurs de transmission.

Remarque : La couche de liaison est complètement indépendante du type de support de transmission (fibre optique, paires torsadées onde électromagnétique).

  • Couche physique : Elle définit la façon dont les bits sont physiquement convertis sur le support de transmission (tension électrique, onde électromagnétique…).

Ses principaux services sont :

– Le codage : Des données peuvent être codé afin d’être mieux adaptées à leur transmission sur le support (meilleur détection du début et de la fin des données, suppression des combinaisons difficilement identifiables comme les suites de bits ayant la même valeur, meilleur détection des erreurs).

– La signalisation : C’est la façon de représenter le 1 et le 0 du bit (ex : le 1 peut être représenté par une tension et le 0 par pas de tension).

Le modèle TCP/IP :

Comme le modèle OSI, le modèle TCP/IP est un modèle de communication en couches mais dans lequel la transmission est réalisée en seulement 4 étapes, nous avons donc seulement 4 couches de protocoles pour le modèle TCP/IP contre 7 pour le modèle OSI.

Le modèle TCP/IP porte le nom des 2 principaux protocoles se basant sur son modèle (IP et TCP).

Bien que le modèle OSI offre un cadre de conception plus précis et décrive plus finement les transmissions, c’est le modèle TCP/IP qui est le plus utilisé car c’est sur lui qu’internet s’est appuyé pour se développer (Le modèle OSI est plus récent et n’existait pas encore lors des débuts d’internet).

Il existe des similitudes entre les couches de ces 2 modèles :

– La couche Application du modèle TCP/IP regroupe les couches Application, Présentation et Session du modèle OSI.

– Les couches Transport des 2 modèles correspondent.

– La couche Internet du modèle TCP/IP correspond à la couche Réseau du Modèle OSI.

– La couche Accès réseau du modèle TCP/IP regroupe les couches Liaison de données et Physique du modèle OSI.

Remarque : Cette correspondance n’est qu’une approximation qui dans le détail peut se révéler inappropriée. La différence entre les 2 modèles ne peut pas se limiter à une comparaison mécanique des couches. La différence est aussi conceptuelle. Les concepts de services et d’interfaçage des couche décrits par le modèle OSI (et qui ne sont quasiment pas présent dans le modèle TCP/IP) sont très respectueux des bonnes procédures de l’ingénierie logicielle moderne (proche du paradigme objet). C’est pourquoi le modèle OSI est intéressant dans le cadre de la conception de nouveaux protocoles ou de l’apprentissage des mécanismes de communication dans un réseau.

Encapsulation des données :

A chaque fois qu’un protocole reçoit une donnée d’une couche supérieure, celui-ci ajoute des informations qu’il place au début de la donnée (on appelle cette opération l’encapsulation) Cela génère une nouvelle donnée qui est constituée de la donnée d’origine plus l’entête ajoutée par le protocole.

Chaque nouvelle donnée générée par un protocole est appelée ‘Unité de Donnée Protocole’ (PDU) et porte un non qui reflète sa nouvelle apparence. La nouvelle donnée crée est envoyé à la couche directement inférieure (si elle existe).

Inversement, à chaque fois qu’un protocole reçoit une donnée d’une couche inférieure, il enlève les données d’entête correspondant à son protocole (on appelle cette opération la décapsulation) puis envoie la donnée décapsulée à la couche directement supérieure (si elle existe).

 
Sources: https://bit.ly/2YlSt2j

Le système d’exploitation pour les nuls

Dans ce post, je vais vous parler de l’OS (pour Operating System en anglais) ou système d’exploitation en français.

Qu’est ce qu’un OS? A quoi sert-il?

Le système d’exploitation est présent dans divers appareil électronique :

  • Sur les ordinateurs avec Windows et Mac OS
  • Le marché des serveurs avec Windows Serveur et Linux
  • Tout comme un smartphone ou une tablette avec iOS et Android

On voit tous ce qu’est un OS mais est ce que vous savez vraiment à quoi il sert?

Première chose à savoir c’est que l’OS est le 1er programme exécuté lors du démarrage d’une machine. Parce qu’un ordinateur ne fait qu’éxécuter des ordres (instructions). Et c’est l’OS qui va le guider dans le démarrage , quels sont les première actions à réaliser, ce qu’il faut afficher. Et c’est après ce démarrage que l’OS vous donne la main pour que vous puissiez vous servir de l’ordinateur.

Au delà du démarrage, le rôle de l’OS est d’assurer le lien entre les ressources matérielles de la machine et les logiciels applicatifs qui tournent dessus.

Pour illustrer tout ça, on va dire que L’OS est un guichet. En effet, l’OS reçoit des demandes des application pour l’utilisation des ressources de la machin. Et parmi les ressources de la machines, on aura par exemple ressources de stockage, de mémoires, des disques durs ou alors des ressources de calcul du processeur.

Le système d’exploitation accepte ou refuse ces demandes, puis réserve les ressources pour éviter que leur utilisation n’interfère avec d’autres demandes des autres applications.

Et en ce sens l’OS est responsable de la bonne exécution des applications via l’affectation des es ressources nécessaire au bon fonctionnement. Les utilisateurs interagissent donc avec les applications qui elles communiquent avec l’OS.

Néanmoins il est possible aussi pour Les utilisateurs de demander directement des services au système d’exploitation par une interface graphique, des lignes de commandes, des interfaces de programmation.

Maintenant nous allons voir les composants les plus important dans un OS et leur rôle :

  • Le kernel (ou noyau en francais) est un espace mémoire isolé repregoupant les fonctions clé de l’OS comme la gestion de la mémoire, des processus ou des entrées-sorties principales.
  • L’interpréteur de commande (en anglais shell) permettant la communication avec le système d’exploitation par l’intermédiaire d’un langage de commandes.
  • Le «File System» ou système de fichiers (en français), permet d’enregistrer les fichiers dans une arborescence. mais aussi de gèrer et autoriser la lecture et l’écriture des fichiers. Il offre également des mécanismes de protection permettant de contrôler quel utilisateur ou programme peut manipuler quel fichier.
  • Pilotes (ou drivers en anglais) qui sont des gestionnaires de périphériques) assure les entrées / sorties avec les périphériques comme les imprimantes, webcam, clé USB, souris etc. Chaque périphérique a ses propres instructions, avec lesquelles il peut être manipulé. Et evidemment Le système d’exploitation en tient compte.

Souces: https://bit.ly/34PTWQO

Un aperçu des différents réseaux informatiques.

Un aperçu des différents réseaux informatiques.

 

Un réseau informatique ou plus simplement un réseau fait référence à un nombre quelconque de systèmes informatiques indépendants qui sont reliés entre eux pour que l’échange de données soit réalisable. Pour cela, en plus d’une connexion physique, il doit aussi exister une connexion logique des systèmes en réseau. Cette dernière est produite par des protocoles réseau spécifiques comme par exemple le protocole TCP (Transmission Control Protocol, littéralement protocole de contrôle de transmissions). Même seulement deux ordinateurs reliés entre eux peuvent être considérés comme un réseau.

Les réseaux sont mis en place dans le but notamment de transférer des données d’un système à un autre ou de fournir des ressources partagées comme par exemple les serveurs, les bases de données ou une imprimante sur le réseau. Il est possible selon la taille et la portée du réseau informatique de différencier et de catégoriser les réseaux. Voici ci-dessous les principales catégories de réseaux informatiques :

  • Personal Area Network (PAN) ou réseau personnel
  • Local Area Network (LAN) ou réseau local
  • Metropolitan Area Network (MAN) ou réseau métropolitain
  • Wide Area Network (WAN) ou réseau étendu
  • Global Area Network (GAN) ou réseau global

La connexion physique qui relie ces types de réseau peut être câblée (filaire) ou bien réalisée à l’aide de la technologie sans fil. Bien souvent les réseaux de communication physique constituent le fondement de plusieurs réseaux logiques, appelés VPN (Virtuel Private Network, ou réseau privé virtuel en français). Ceux-ci utilisent un moyen de transmission physique commun, par exemple un câble de fibre optique et, lors du transfert des données, sont assignés à des réseaux virtuels logiquement différents au moyen d’un logiciel de VPN créant un tunnel (ou logiciel de tunneling).

Chaque type de réseau a été développé pour des domaines d’application spécifiques, un réseau est basé sur des techniques et des normes propres apportant différents avantages et limites.

Personal Area Network (PAN)

 

Pour permettre l’échange de données des appareils modernes comme notamment les smartphones, tablettes, ordinateurs portables ou les ordinateurs de bureau, ces derniers peuvent être connectés à un réseau adapté. Celui-ci peut être relié sous la forme d’un réseau personnel ou PAN (Personnal Area Network), on parle aussi de réseau domestique. Les techniques de transmission courantes sont l’USB ou le FireWire. Le réseau personnel sans fil (WPAN pour Wireless Personal Area Network) repose sur des technologies comme le Bluetooth, USB sans fil, INSTEON, IrDA, ZigBee ou Z-Wave.  Un réseau personnel sans fil qui peut être réalisé par l’intermédiaire du Bluetooth est appelé « Piconet ». Les WPAN et les PAN ne couvrent généralement que quelques mètres et ne sont pas adaptés pour connecter des appareils se trouvant dans des pièces ou bâtiments différents. 

En plus de la communication de plusieurs appareils entre eux, un réseau personnel permet également la connexion à d’autres réseaux, généralement plus grands. On parle dans ce cas d’un Uplink ou de liaison montante. En raison de la portée limitée et d’un taux relativement faible de transfert de données, les PAN sont principalement utilisés pour relier des périphériques pour un usage récréatif. Les exemples typiques sont les écouteurs sans fil, les consoles de jeu et les appareils photo numériques. Dans le contexte de l’Internet des objets (idO, en anglais IoT Internet of Things), les WPAN sont utilisés pour la communication, le contrôle et la surveillance des applications à faible débit de données. Des protocoles comme INSTEON, Z-Wave et ZigBeee sont spécifiquement conçus pour la domotique.

Local Area Network (LAN)

 

Si plusieurs ordinateurs doivent être réunis sur un réseau, cela se fait généralement sous la forme d’un réseau local ou LAN (acronyme de Local Area Network). Un tel réseau peut relier deux ordinateurs d’une maison ou alors plusieurs centaines d’appareils au sein d’une entreprise. Mais également des réseaux dans des institutions publiques comme les administrations, les écoles ou les universités sont généralement mis en œuvre sous la forme d’un LAN. Une norme commune très répandue pour les réseaux locaux câblés est le protocole Ethernet. Les autres technologies moins fréquentes et parfois obsolètes sont Arcnet, FDDI et Token Ring. La transmission de données est réalisée électroniquement sur la base de câbles de cuivre ou via des câbles de fibre optique. 

Si plus de deux ordinateurs sont imbriqués ensemble dans un réseau local, des composants supplémentaires comme un hub (ou concentrateur), bridge (pont) ou un switch (commutateur réseau) sont nécessaires et agissent alors comme des éléments de couplage et des nœuds de distribution. Un LAN est conçu pour permettre un transfert rapide de grandes quantités de données. Selon la structure du réseau et du moyen de transmission utilisé, un débit de données de 10 à 1000 Mbit/s est courant. Les réseaux locaux permettent un échange d’informations confortable entre les différents périphériques qui sont connectés au réseau. Dans le contexte d’une entreprise, il est courant que plusieurs ordinateurs de travail partagent des serveurs de fichiers, des imprimantes réseau ou des applications sur le LAN.

Si un réseau local est implémenté par radio, on le nomme alors WLAN (wireless local area network) ou réseau local sans fil. En France on utilise aussi couramment le terme de WiFi pour désigner un WLAN. Il n’y a pas vraiment de différences entre ces deux termes, WiFi est simplement une marque déposée de protocoles de communication sans fil. La base technique de la norme WLAN ou WiFi est définie par les normes du groupe IEE 802.11. Les réseaux locaux sans fil offrent la possibilité d’intégrer facilement des appareils dans un réseau domestique ou d’entreprise et sont compatibles avec un LAN Ethernet filaire. Toutefois, le débit des données est inférieur à celui d’une connexion Ethernet.

La portée d’un réseau LAN est tributaire de la norme utilisée et du support de transmission, pouvant être augmenté par l’amplificateur de signal, ce que l’on appelle un répéteur (de l’anglais repeater). Une plage de signal de plusieurs kilomètres est possible avec Gigabit Ethernet sur fibre optique. Toutefois, les réseaux locaux couvrent rarement plus d’un complexe de bâtiments. Plusieurs LAN (Local Area Network) à proximité géographique peuvent se connecter à un MAN (Metropolitan Area Network) ou WAN (Wide Area Network).

 

Local Area Network

 

Metropolitan Area Network (MAN)

Un Metropolitan Area Network (MAN) ou réseau métropolitain, est un réseau de télécommunication à large bande qui relie plusieurs LAN géographiquement à proximité. Il s’agit en règle générale de différentes branches d’une société qui sont reliées à un MAN via des lignes loués. Les routeurs de haute performance et les connexions de fibres optiques hautes performances sont utilisés ce qui permet de fournir un débit de données beaucoup plus élevé que l’Internet. La vitesse de transmission entre deux nœuds éloignés est comparable à la communication dans un réseau local. L’infrastructure pour le MAN est assurée par les opérateurs de réseaux internationaux. En tant que réseau métropolitain, les villes câblées peuvent être intégrées dans les réseaux étendus : WAN (Wide Area Networks) et sur le plan international au niveau des GAN (Global Area Networks). 

Metro-Ethernet est une technologie de transmission spéciale disponible pour le MAN qui peut être utilisé pour construire de puissants réseaux métropolitains (MEN ou Metro Ethernet Network) basés sur Carrier Ethernet (CE1.0) ou Carrier Ethernet (CE 2.0).

Une norme pour les grands réseaux de radio régionaux, que l’on nomme Wireless Metropolitan Area Network (WMAN) a été développée avec IEEE 802.16. La technologie connue sous le nom de WiMAX (Worldwide Interoperability for Microwave Access) permet de mettre en place ce que l’on appelle des bornes WiFi ou WLAN hotspots. Ce sont plusieurs points d’accès Wi-fi travaillant ensemble dans différents endroits. La norme commune de transmission DSL est techniquement disponible que lorsque des câbles en cuivre ont été posés.

Wide Area Network (WAN)

 

Alors que les réseaux métropolitains relient des zones qui se trouvent proches les unes des autres dans des zones rurales ou urbaines, les WAN (Wide Area Network) ou réseaux étendus couvrent des vastes zones géographiques à l’échelle d’un pays ou d’un continent par exemple. En principe, le nombre de réseaux locaux ou d’ordinateurs connectés à un réseau étendu est illimité.

Alors que les réseaux locaux (LAN) et MAN peuvent être réalisés en raison de la proximité géographique des ordinateurs connectés ou des réseaux sur la base d’Ethernet, les réseaux étendus utilisent des techniques comme IP/MPLS (Multiprotocol Label Switching ), PDH (Plesiochrone Digitale Hierarchie), SDH (Synchrone Digitale Hierarchie), SONET (Synchronous Optical Network), ATM (Asynchronous Transfer Mode) et encore rarement l’obsolète X.25.

Les réseaux étendus sont généralement détenues par une organisation ou une entreprise et sont donc exploités en privé ou loués. En outre, les fournisseurs de services Internet utilisent des WAN pour connecter les réseaux locaux d’entreprises et les clients à Internet.

 

Wide Area Network (WAN)
 

 

Global Area Network (GAN)

Un réseau mondial comme Internet est aussi appelé GAN (Globe Area Network). Internet n’est cependant pas le seul réseau informatique de ce genre. Les entreprises actives au niveau international maintiennent également des réseaux isolés qui couvrent plusieurs WAN et connectent ainsi des ordinateurs d’entreprise dans le monde entier. Les GAN utilisent les infrastructures de fibre optique des réseaux étendus et combinent ces derniers avec des câbles sous-marins internationaux ou des transmissions par satellite.

 

Virtual Private Network (VPN)

 

Un VPN (Virtual Privat Network) ou réseau privé virtuel est un réseau de communication virtuel qui utilise l’infrastructure d’un réseau physique pour relier logiquement les systèmes informatiques. Il peut s’agir de n’importe quel type de réseau détaillé plus haut, cependant Internet est le moyen de transmission le plus couramment utilisé. Cela relie presque tous les ordinateurs dans le monde entier et reste disponible gratuitement par opposition à l’exploitation privé d’un MAN ou WAN. Les données sont transférées au sein d’un tunnel virtuel qui est construit entre un client VPN et un serveur VPN.

Le réseau public est utilisé comme moyen de transport, les réseaux privés virtuels sont généralement cryptés pour s’assurer de la confidentialité des données. Les VPN (Virtual Privat Network) sont utilisés pour connecter les réseaux locaux sur Internet ou pour permettre l’accès à distance à un réseau ou à un seul ordinateur via la connexion publique.

Virtual Private Network (VPN)
 
 Sources: https://bit.ly/2DNuRKk
 

 

 

Centralisé, décentralisé, P2P, mais c’est quoi tout ça ?

image centralisé de Gerd Altmann

Une petite mise au point technique, parce que je vois qu’il y a beaucoup de confusion sur les termes « centralisé » (encore lui ça va), « décentralisé », « distribué », « fédéré », « pair à pair », etc.

Il faut dire que la confusion est assez normale, il n’y a pas vraiment de définition de ces termes, et ce que les gens entendent en les employant dépend de leurs lectures, leur compréhension, et leur sensibilité.

Un système centralisé c’est un système où tout le monde dépend d’une même autorité, un serveur a priori dans le cas informatique. Bien qu’un système centralisé soit beaucoup plus simple à faire sur le plan technique (facile de trouver des gens ou des informations quand ils sont tous au même endroit), il peut avoir ses propres problèmes : montée en charge en particulier ; il est plus difficile d’absorber des données quand il n’y a qu’un centre de traitement, les tuyaux peuvent rapidement se trouver trop petits, etc.

Un système de communication centralisé pose de nombreux problèmes : il est évident qu’il est plus facile d’espionner, censurer ou modifier des données quand elles sont dépendantes d’un seul point. Même sans intention malicieuse, on a un point unique de défaillance (ce que les anglophones appellent « single point of failure »), c.-à-d. qu’une panne, une attaque, une catastrophe naturelle ou pas provoque l’arrêt du service voire la perte des archives.
Dans les cas les plus gros, on prend un hangar et on le remplit d’ordinateurs, ce sont les fameux centres de données ou « data centers ».

Là où ça se complique un peu, c’est qu’un système centralisé peut être physiquement en plusieurs endroits, ou utiliser des systèmes de répartition/répétition des données. Le principe est d’éviter l’engorgement ou les risques de pannes cités plus haut, mais même si ces machines sont séparées et communiquent entre elles à distance, elles sont a priori toujours sous la même autorité.


http://repos.goffi.org/sat_docs/raw-file/tip/schemas/decentralisation/centralised_simple.png


Passons maintenant aux systèmes décentralisés/distribués/fédérés. Certains vont pousser les haut-cris que je mette tout ça ensemble, parce qu’il n’y pas vraiment de définition et que chacun se fait plus ou moins la sienne.

« dé-centralisé » veut dire qui n’a pas de centre, ni plus ni moins. L’idée pour un système de communication, c’est que toute entité (individu, association, organisation, etc) puisse être une partie d’un réseau qui n’a pas d’autorité principale, et que ces autorités puissent parler entre elles.

On essaye ainsi d’éviter les problèmes de la centralisation, mais on se retrouve avec tout un tas de nouveaux problèmes, techniques pour la plupart : il est beaucoup plus difficile de retrouver des données ou des gens en plusieurs endroits, de se mettre d’accord sur la « langue » à utiliser pour communiquer (surtout quand on a des logiciels ou des versions d’un même logiciel différents), ou encore d’être sûr que la donnée qu’on a est à jour (est-ce que le message a été modifié ou supprimé ?).

« fédéré » est généralement employé pour parler de systèmes différents (noms de domaines différents par exemple, voire logiciels différents) qui peuvent communiquer entre eux. Un système décentralisé est fédéré par nature, sinon on a affaire à plusieurs systèmes centralisés indépendants. Disons que si on veut être pointilleux, on peut dire qu’un système décentralisé peut communiquer avec seulement certaines entités (je communique avec les serveurs de mon entreprise internationale, mais pas avec le reste du monde), et que la fédération implique l’idée que c’est ouvert à tous (ou presque, il y a souvent des gens qu’on ne veut pas, les spammeurs par exemple).

« distribué » ne devrait pas être employé pour les systèmes de communication. Le terme est normalement utilisé pour le calcul : si votre ordinateur a plusieurs processeurs, il distribue la charge de calcul entre eux, ou dans le cas de très grosses demandes (recherche par exemple), on peut demander à plusieurs machines distantes de faire chacun une partie d’une grosse opération mathématique. Dans ce cas, l’organisation de la répartition est souvent contrôlé par une même autorité (par exemple le laboratoire qui veut faire cette opération).
Par extension, le terme est aussi utilisé pour les systèmes de fichiers, et certains l’emploient pour les logiciels de communication, mais cela ne veut pas dire autre chose que décentralisé.


http://repos.goffi.org/sat_docs/raw-file/tip/schemas/decentralisation/decentralised_simple.png


Enfin, il y a le terme P2P ou « pair à pair » (« peer to peer » en anglais). En fait une connexion pair à pair n’est rien d’autre qu’une connexion directe entre 2 ordinateurs, mais on l’associe souvent aux technologies plus ou moins apparentées qui ont commencé à apparaître à la fin des années 90/au début des années 2000 et qui servaient (et servent toujours) principalement à partager des fichiers.

Après Napster (lancé mi 1999) qui était un bête système centralisé qui mettait en relation des machines pour une connexion directe, il y a eu beaucoup d’essais et d’évolutions pour trouver un système qui permet de se passer de serveurs, l’idée étant principalement de permettre au réseau de fonctionner même si on lui coupe l’accès à une partie de lui-même.

Je vous passe toutes les techniques qui sont utilisées : c’est un domaine très pointu, très intéressant, et qui demanderait facilement un livre pour être expliqué. Ça part des systèmes de répartition par propagation de proche en proche à la Usenet, jusqu’aux récentes chaînes de blocs (blockchain), en passant par les tables de hachage distribuée (Distributed Hash Table), etc.

Ce qui fait principalement la différence entre un système « décentralisé » et « entièrement P2P », c’est la place du serveur. Un serveur, dans les grandes lignes, c’est ce qui permet à votre logiciel (le « client ») de contacter d’autres clients via d’autres serveurs. Il est là pour tout un tas de raisons : identifier les gens, donner les bonnes données aux bonnes personnes, garder les fichiers à donner à un client actuellement hors ligne quand il sera disponible, etc.

Si on supprime le serveur, inévitablement c’est votre client (ou un autre) qui va devoir se charger de ce travail, ce qui aura un impact sur votre bande passante, la charge de travail pour votre processeur (et donc la durée de vie de votre batterie le cas échéant), et compliquera la tâche de votre logiciel (plus difficile de savoir à qui parler et à qui faire confiance quand on n’a pas de serveur comme référence).


http://repos.goffi.org/sat_docs/raw-file/tip/schemas/decentralisation/fully_P2P_simple.png


Pour transformer un système décentralisé avec serveurs en système entièrement P2P (c.-à-d. sans serveur), je vais vous donner une recette : vous mettez un seul client sur votre serveur, et vous mettez le serveur et le client sur la même machine.
Bien sûr si vous voulez être vraiment indépendant, il va falloir supprimer le besoin de points de références, et en particulier le système de noms de domaine ou « Domain Name System ». C’est ce qui associe le nom de votre serveur (par exemple « libervia.org ») à l’adresse « IP » qui permet de vous retrouver sur Internet. 

Il va falloir aussi être capable de retrouver les données ou les gens un peu partout, et là on se retrouve avec les technologies intéressantes mais complexes évoquées plus haut (« D.H.T. », « Blockchain », « SuperPeer », etc).

Souces: https://bit.ly/3654IDd

Des premiers ordinateurs aux machines d’aujourd’hui

Le mot informatique a été créé en 1962 par Philippe Dreyfus. C’est un néologisme de la langue française créé à partir des mots « information » et « automatique ».

Des calculs de l’antiquité à la commercialisation du premier ordinateur en 1951, l’UNIAC, en passant par la sortie du PC d’IBM en 1981 jusqu’au lancement de Windows 95, comment en est-on arrivé là ?

 « Le web est l’invention la plus utile à l’humanité depuis sa pire invention : la bombe atomique.« 

-Jérôme Chailloux

Le monde a basculé d’une ère industrielle à un âge numérique. Mais Rome ne s’est pas construite en un jour : l’informatique tel qu’on le connaît aujourd’hui s’est construit sur de nombreuses années et grâce à de nombreux mathématiciens, physiciens et théoriciens.

Histoire de l’informatique : De l’algorithme à la notion de programme

 
A qui doit-on le premier ordinateur portable ?
Al Khwarizmi est le père de l’algèbre et des algorithmes.

Parlons dans un premier temps d’Abu Jaffar Al Khwarizmi, dit Monsieur Algorithme. En effet, algorithme est une simple déformation latine de son nom.

Le développement de l’informatique est en réalité fortement lié à la recherche fondamentale en mathématiques et plus particulièrement à la logique et aux algorithmes apparus au 9ème siècle grâce à Al Khwarizmi. C’est aussi à lui que l’on doit les chiffres arabes.

Calculer, c’est avant tout résoudre un problème précis en suivant un mode d’emploi précis.

L’algorithmique est la science de l’organisation des opérations à effectuer. C’est la réalisation d’un opération abstraite comme par exemple l’addition de deux nombres. Pour passer à une opération concrète, il faut écrire tout cela de façon bien plus précise sous la forme d’un programme, écrit dans un langage de programmation.

Le but final de l’informatique est d’évacuer la pensée du calcul afin de le rendre exécutable par une machine qui est fabuleusement rapide et exact mais totalement dénuée de pensée.

Le calcul binaire est apparu en Europe vers 1697, grâce aux travaux de Leibniz. C’est à partir de ce calcul binaire que seront également développés les premiers ordinateurs.

Ada Lovelace, mathématicienne du 19ème siècle, a publié ses recherches en 1840, sous un nom masculin. Elle a fortement contribué à la création du premier ordinateur appelé la machine analytique par Charles Babbage. La machine analytique avait pour but d’exécuter tout ce que les hommes lui demanderaient d’effectuer : opérations numériques et symboliques.

Qui a inventé l'informatique ?
La machine analytique qui a pu être créée grâce à Charles Babbage.

Charles Babbage est considéré comme le grand-père des ordinateurs. Il n’a jamais terminé la machine analytique, car la Couronne britannique lui a retiré son soutien financier à cause de la longueur des recherches. Mais grâce à ses plans, son fils a été capable de la finir. Elle est aujourd’hui au Musée de la Science de Londres et elle fonctionne toujours ! 

L’informatique au fil des ans : De la mécanisation des calculs au logiciel

 

L’homme a d’abord su fabriquer des outils puis des machines, c’est-à-dire des objets qui utilisent une force autre que la sienne et qui peuvent exécuter de manière autonome certaines opérations, même complexes et programmées comme le métier à tisser de Jacquard en 1801. C’est la première programmation binaire.

Mais la machine mécanique ne sait pas se modifier elle-même.

Au contraire, l’ordinateur, machine à informations, sait modifier son propre programme et devient une machine universelle. Elle permet de maîtriser l’intelligence mécanique.

Alan Turing a créé en 1936 l’article fondateur de la science informatique. Il a compris comment quelques opérations élémentaires de calcul étaient universelles. Elles pouvaient être combinées pour exécuter tous les algorithmes du monde, donnant le coup d’envoi à la création des calculateurs universels programmables.

C’est lui qui a fait basculer le monde de l’ère industrielle à l’âge du numérique.

Bill Gates a-t-il révolutionné le monde informatique ?
Une représentation de la machine à cryptage dans le film Imitation Game.

En 1943, pendant la seconde guerre mondiale , les nazis communiquaient entre eux grâce à la machine de cryptage Enigma. Elle ressemblait à une simple machine à écrire dotée d’un mécanisme de roues codeuses permettant de mélanger les lettres à la sortie tout en transmettant un message sans que personne ne puisse le décoder. A la réception du message, une machine identique ingurgitait le texte, les roues codeuses tournaient à l’envers et comme dans un miroir, le message ressortait en clair.

Pour la petite histoire, les britanniques avaient mis la main sur une de ces machines mais impossible de savoir comment elle fonctionnait. Le code a été cassé dès 1933 par des mathématiciens polonais mais le calcul durait trop longtemps, il fallait plusieurs jours pour pouvoir déchiffrer le message alors que les nazis changeaient le code quotidiennement.

Je vous conseille d’ailleurs le film Imitation Game qui retrace l’histoire d’Alan Turing et de la machine Enigma. Même si le film est bien sûr romancé, il reste très intéressant pour comprendre les enjeux de l’époque et certaines questions qui demeurent sans réponse.

Autre femme d’exception ayant contribué à l’essor de l’information, Grace Hopper a travaillé sur le premier ordinateur numérique entièrement automatique d’IBM : le Harvard Mark I.

Petite anecdote sur le Mark I en 1947 : un jour le calculateur tomba en panne. On y trouva un papillon de nuit coincé dans le circuit relais. L’insecte fut ôté avec soin et placé dans le journal de bord avec la mention : « First actual case of bug being found ». C’est de là que vient l’expression bug informatique. A cette époque, il s’agissait réellement d’insectes !

Ces premiers ordinateurs n’étaient pas utilisables à grande échelle mais seulement réservés à un usage très professionnel. C’est Grace Hopper qui a défendu l’idée qu’un langage informatique devait pouvoir être écrit dans un langage proche de l’anglais. Elle conçoit alors un compilateur, un logiciel qui permet de traduire en langage machine les éléments de l’algorithme et donc compréhensible par tous les ingénieurs.

Comment a été créé le premier ordinateur ?
Les femmes ont bien contribué à l’essor de l’informatique !

Les premiers ordinateurs naîtront vers 1940. En 1944, le physicien théoricien John von Neumann décrit la première architecture dite de « von Neumann » qui a triomphé et reste celle de l’immense majorité des ordinateurs aujourd’hui. Entre 1945 et 1951, la machine de von Neumann ou IAS a été construite par des ingénieurs qui travaillaient au fer à souder et ce sont des femmes qui assuraient la programmation de l’ordinateur à usage balistique.

Quand Grace Hopper s’est éteinte en 1992, les ordinateurs entraient dans les foyers, ils ne coûtaient plus le prix d’une maison ou d’une voiture mais celui d’une télévision. Ils ont fait explosé les communications au niveau mondial avec internet en particulier, mais ont aussi permis l’arrivée du fameux cours informatique !

Le web est devenu ainsi le quotidien de milliards d’être humains.

L’évolution informatique : du codage de l’information à l’objet numérique

 

L’information est une matière abstraite qui se mesure. Un message quelque soit sa valeur réelle ou supposée, peu importe son sens exact ou erroné, contient une quantité précise d’informations. L’atome d’une information est l’élément binaire, le bit comme « oui/non », « 0/1 » ou « vrai/faux ». Savoir de quelqu’un si c’est un homme ou une femme, s’il est jeune ou vieux, s’il est petit ou grand, c’est très schématique mais ça nous donne déjà trois atomes d’information sur lui donc trois bits.

Shannon a défini la quantité d’informations de manière mathématique avec la théorie des probabilités qu’a mis en équation Kolmogorov.

Ils ont permis de changer la vision du monde dans les échanges numériques.

Tous les objets (images, sons, textes, données) ont un reflet numérique qui permet de mémoriser l’information, de la transmettre, de la reproduire à l’infini et de la manipuler de manière spécifique grâce à toutes sortes d’algorithme.

Rose Dieng-Kuntz a quant à elle aidé à construite le web sémantique (fait-elle partie des 10 meilleurs codeurs de l’histoire ?) qui désigne un ensemble de technologies visant à rendre l’information du web accessible et utilisable par tous les programmes logiciels et par l’homme grâce à un système de métadonnées.

Si on tape « accident de véhicule » dans un moteur de recherche, il va en fait rechercher tous les documents dans lesquels « accident » et « véhicule » apparaissent. Mais si le document mentionne « collision entre un camion et un vélo » sans mentionner « accident de véhicule » précisément, il ne ressortira pas. L’idée du web sémantique est justement que ce document ressorte également.

Comment le vocabulaire informatique a-t-il évolué ?
Le web sémantique est un vaste programme, toujours en cours de réalisation.

Notre monde numérique aujourd’hui : l’évolution de l’interface homme-machine

 

Au début du 21ème siècle, les interfaces entre les ordinateurs et les cerveaux n’en étaient qu’à leurs balbutiements. Nous devons l’interface utilisateur à Xerox au Palo Alto Research Center à une époque où les PC n’existaient pas encore.

En 1968, profitant du développement de la télévision couleur, Douglas Engelbart présente un environnement graphique avec des fenêtres que l’on peut ouvrir et fermer à l’aide d’un pointeur relié à l’ordinateur : la souris.

Entre 1969 et 1983, l’interface homme-machine est minimale : le clavier sert à envoyer de l’information retranscrite par l’écran. Les ordinateurs sont à l’époque réservés à des élites et uniquement présents dans le milieu professionnel.

Entre 1984 et aujourd’hui, après les avancées techniques, le confort de l’utilisateur entre en jeu. Le contenu à l’écran est présenté sous la forme « What You See Is What You Get » (WYSIWYG). Cette expression est popularisée par Apple et son fameux Macintosh. L’interaction devient symbolique avec les fenêtres, les icônes, les menus et les dispositifs de pointage et l’apprentissage est facilité pour le grand public. C’est la naissance de l’informatique grand public.

Futur programmeur, passionné d’histoire des ordinateurs ou tout simplement curieux, nous espérons que cet article aura répondu à quelques questions concernant l’invention de l’ordinateur, la machine de Turing ou encore la naissance d’un programme informatique.

Sources:https://bit.ly/2PeLCnh

De quoi est composé un P.C ?

img_contact

« La révolution informatique fait gagner un temps fou aux hommes mais ils le passent avec leur ordinateur ! » 

– Khalil Asala

Le matériel informatique a beaucoup évolué depuis son apparition. Il est maintenant facile de se créer un PC sur mesure pour faire du montage vidéo ou avoir une configuration gamer.

Mais savez-vous de quoi est réellement composé un ordinateur ? Comment fonctionne-t-il ?

Qu’est-ce qu’un ordinateur ?

 
A quoi ressemble un PC ?

 

Les composants informatiques vus de l’extérieur.

Un ordinateur à la base est une machine permettant de réaliser, d’exécuter des opérations et des calculs. Ce n’est ni plus ni moins qu’un calculateur.

Un ordinateur peut être aujourd’hui un P.C ou un Mac. Mais finalement, c’est la même chose !

Rappelons que le sigle P.C veut simplement dire Personal Computer (ordinateur personnel). Il répond aux besoins d’un utilisateur. L’utilisateur peut lui faire réaliser des opérations et interagir avec lui via des périphériques. Il est apparu au début des années 1980 quand IBM a lancé ses premiers PC/XT.

Ces ordinateurs, contrairement aux autres micro-ordinateurs existants à cette époque, étaient composés de composants standards, faciles à dupliquer.

Aujourd’hui, le P.C (Apple ou Microsoft), est toujours le type d’ordinateur le plus utilisé. Il existe également des ordinateurs pour des applications très spécifiques : ordinateurs embarqués du tableau de bord d’une voiture par exemple.

L’ordinateur vu de l’extérieur

 

PC de bureau, desktop, tours ou ordinateurs portables, tous sont composés de la même manière :

  • Un écran,
  • Un clavier,
  • Une souris ou un trackpad (pavé tactile) pour les portables,
  • Et surtout : une unité centrale, coeur et cerveau de l’ordinateur.

L’écran de l’ordinateur

 

L’écran est la partie de l’ordinateur qui va afficher du contenu. C’est une partie de l’interface homme-machine. C’est grâce à lui que l’utilisateur peut interagir avec l’ordinateur. Quand on tape sur le clavier et qu’on utilise la souris, cela se répercute à l’écran et les données s’affichent.

L’écran peut varier en taille. Celle-ci est calculée en pouces sur la diagonale. Pour un ordinateur portable, il est possible d’en posséder un très compact : 10 pouces. Les ordinateurs fixes commencent à 15 pouces et peuvent atteindre 27 pouces voire plus si l’utilisateur décide d’opter pour un écran TV.

Les résolutions et les prix varient également : pour un écran 24 pouces par exemple, la résolution est de 1920 pixels x 1080, soit de la haute définition. Les écrans se branchent en VGA, en DVI ou en HDMI.

Le clavier de l’ordinateur

 
Comment se fait l'interface homme-machine ?

 

Un des composants externe pour ordinateur.

Il permet d’écrire du texte et ainsi de communiquer avec l’ordinateur. Les claviers possèdent généralement une centaine de touches : lettres de l’alphabet, chiffres, accents et touches spéciales. C’est ainsi le descendant de la machine à écrire.

Il existe plusieurs types de clavier : avec ou sans fil, avec ou sans pavé numérique, avec des fonctions supplémentaires…

Les claviers varient en fonction de la langue : en France, nous utilisons le clavier AZERTY alors qu’aux Etats-Unis et dans la plupart des autres pays du globe, on utilise le clavier QWERTY (des premières lettres présentes sur le clavier).

La souris de l’ordinateur

 

C’est elle qui permet de déplacer le curseur (la flèche) sur l’écran. Elle permet de pointer des éléments à l’écran et de les sélectionner en cliquant.

Les souris sont munies d’un capteur de déplacement, le plus souvent optique ou laser aujourd’hui. Mais les plus anciens connaissent encore les souris à boule ! Il est possible d’avoir une souris avec ou sans fil (dans ce cas, il faut brancher un récepteur sans fil sur un port USB de l’ordinateur et la recharger de temps en temps).

Le duo clavier souris permet à l'utilisateur de communiquer avec la machine.

 

Il ne reste plus qu’à choisir un joli tapis de souris !

Sur les ordinateurs portables, la souris n’est pas obligatoire : il y a le trackpad ou pavé tactile disposé sous le clavier qui remplit ce rôle.

La souris possède deux boutons pour effectuer un clic, double clic ou clic droit et une molette pour descendre sur la page internet ou de traitement de texte.

Inutile donc d’avoir suivi un cours DUT informatique pour savoir comment s’y prendre !

L’unité centrale de l’ordinateur

 

C’est le boîtier qui contient tout le matériel électronique indispensable au fonctionnement de l’ordinateur. Le clavier, la souris et l’écran y sont reliés. C’est par exemple dans l’unité centrale que l’on insère un disque/CD-Rom.

Aujourd’hui, certains ordinateurs ne disposent plus d’une unité centrale à proprement parler : tout est regroupé derrière l’écran comme c’est le cas pour les iMac ou sous le clavier comme pour tous les ordinateurs portables.

L’unité centrale contient le processeur (le cerveau), le disque dur (la mémoire), la carte mère (la colonne vertébrale) et l’alimentation (le coeur et les poumons). 

L’ordinateur vu de l’intérieur

 

Les composants PC ne sont pas visibles de l’extérieur mais il faut ouvrir le boîtier de l’ordinateur pour découvrir tout l’électronique nécessaire à son fonctionnement. Ainsi les composants d’un ordinateur ne se limitent pas à ce qu’on voit :

  • Le processeur (processeur Intel, processeur AMD, processeur Intel Core, microprocesseur…),
  • Le disque dur interne (disque dur SSD),
  • La carte mère (carte mère Asus, carte mère Intel, carte mère Socket ou carte mère MSI),
  • Le bloc d’alimentation,
  • La mémoire RAM,
  • La carte graphique, la carte son et la carte réseau.

Le processeur de l’ordinateur

 

Le processeur ou CPU ( Central Processing Unit) est le cerveau de l’ordinateur. Il organise les échanges de données entre les composants (mémoire RAM, disque dur, carte graphique).

Ces principales tâches sont : 

  • Lire les données en mémoire,
  • Traiter les données,
  • Ecrire des données en mémoire.

C’est lui qui fait les calculs permettant à l’utilisateur d’interagir avec l’ordinateur et d’afficher le système à l’écran. Aujourd’hui, un processeur peut atteindre 3 Ghz et certains ordinateurs sont équipés de plusieurs processeurs.

Ils sont ainsi capables de traiter des milliards d’informations par seconde et d’accomplir des calculs immenses permettant à la science et la médecine de progresser plus rapidement. La puissance informatique réside dans le processeur choisi. 

Qui pourrait penser qu’une puce de 4 à 5 centimètres de côté et de quelques millimètres d’épaisseur puisse renfermer autant de puissance ? Ce processeur est branché sur la carte mère.

Le disque dur de l’ordinateur

 
Comment choisir son disque dur ?

 

Si le type de processeur est important à choisir, n’omettez pas de regarder la mémoire.

C’est la mémoire de l’ordinateur. Son rôle est de stocker des données informatiques. Le disque dur contient le système Windows, macOS ou Linux (entre autres), les programmes installés et les données personnelles de l’utilisateur.

Il stocke des informations sous forme binaire. Aujourd’hui, ils sont capables de stocker plusieurs Tera octets de données (soit 1024 Giga octets), ce qui correspond à des centaines de milliers de photographies, des milliers de films, des millions de documents textes…

Plusieurs types de disques durs existent : 

  • Les disques durs classiques : ils contiennent des pièces mécaniques dont une tête de lecture qui pointe des disques magnétiques et lit et écrit ainsi les données,
  • Les disques durs SSD : sans pièce mécanique, ils lisent les données plus rapidement,
  • Les disques durs externes : pour doubler la sauvegarde de l’ordinateur et son disque dur interne.

La carte mère de l’ordinateur

 

C’est le composant principal de l’unité centrale. Elle centralise et traite les données échangées à l’intérieur de l’ordinateur à l’aide du processeur fixé dessus. C’est elle qui gère le disque dur, le clavier, la souris, le réseau, les ports USB…

C’est le support sur lequel vient se brancher tous les composants d’un ordinateur. 

La carte mère est un circuit imprimé sur lequel est connecté le chipset (jeu de composants qui assurent le contrôle de la quasi-totalité de la carte mère). Les composants du chipset sont directement soudés à la carte mère et c’est lui qui dicte les particularités des processeurs et des mémoires qui peuvent y être installés. Depuis 1995, les cartes mères sont presque toutes au format ATX.

Chaque composant a un rôle à jouer dans le fonctionnement du PC.

 

Voilà à quoi ressemble la colonne vertébrale de votre ordinateur.

Le bloc d’alimentation de l’ordinateur

 

Bien sûr, sans le courant électrique, rien ne fonctionnera. L’alimentation de l’ordinateur se présente sous la forme d’un boîtier.

Ce bloc transforme et fournit l’énergie nécessaire à la carte mère, mais il est aussi relié à certains composants comme le lecteur/graveur de DVD par exemple.

La transformation du courant cause une perte d’énergie prenant la forme de chaleur. Un système de ventilation est donc également installé dans le coffret et expulse l’air via l’arrière du boîtier de l’ordinateur.

Une capacité de 400 watts est généralement suffisante mais certaines alimentations peuvent atteindre 1000 watts !

La mémoire vive RAM de l’ordinateur

 

La mémoire de type RAM (pour Random Access Memory) est utilisée par le processeur. Il y place les données le temps de les traiter.

Les particularités de cette mémoire sont :

  • Sa rapidité d’accès,
  • Son aspect temporaire : les données sont perdues une fois l’ordinateur éteint.

Les barrettes de mémoire vont de 256 Mo à 2 Go et sont à choisir en fonction de son processeur, des capacités de la carte mère et de l’utilisation que l’on fait de son ordinateur.

La carte graphique de l’ordinateur

 

Pour le jeu, une bonne carte graphique est importante. Ainsi, si vous souhaitez utiliser votre ordinateur pour jouer à des jeux, il est utile d’avoir une carte graphique. Elle gère l’affichage, déchargeant le processeur de cette fonction.

Dans le cas contraire, elle peut être remplacée par le chipset directement intégré à la carte mère.

Les périphériques de l’ordinateur

 
Quel prix pour un PC correct ?

 

La caméra est généralement intégrée à l’écran.

Bien sûr, il est possible d’ajouter de nombreux périphériques à l’ordinateur pour utiliser toutes ses possibilités :

  • L’imprimante,
  • Le scanner,
  • La webcam (souvent intégrée à l’écran),
  • Une connexion internet par câble ou en Wifi,
  • Des clés USB (Universal Serial Bus),
  • Une carte mémoire,
  • Une manette de jeu…

Aujourd’hui, la quasi-totalité des périphériques se branchent sur un port USB, un véritable jeu d’enfant !

Sources: https://bit.ly/2DKo2JC

Tout savoir sur le monde des ordinateurs

image ordinateur de Gerd Altmann

« Lorsqu’on s’occupe d’informatique, il faut faire comme les canards… Paraître calme en surface et pédaler comme un forcené par en-dessous. » 

-Richard Lallement

Que ce soit pour une initiation à l’informatique, devenir développeur informatique ou suivre un cours de programmation, les raisons sont multiples pour souhaiter en savoir davantage sur les ordinateurs et leur historique. Dans tous les cas, l’informatique ne s’est pas construit en un jour et continue de demander beaucoup de travail encore aujourd’hui comme l’affirme la citation de Richard Lallement ci-dessus.

Si naviguer sur internet est relativement aisé, vous êtes-vous déjà demandé comment cela était possible ?

Entre circuits électroniques, création du premier ordinateur, accessoires indispensables, codeurs expérimentés et création d’un compte Facebook, découvrez tout ce qu’il faut savoir sur les ordinateurs.

De quoi est composé un ordinateur ?

De quoi est fait un PC ?

Le fonctionnement d’un ordinateur est défini par son unité centrale.

Un ordinateur sert ni plus ni moins à calculer. C’est aussi simple que cela ! L’utilisateur lui fait réaliser des opérations et interagit avec lui à l’aide de périphériques.

Voyons à quoi ressemble un Personal Computer (PC) vu de l’extérieur. On trouve :

  • Un écran,
  • Un clavier,
  • Une souris,
  • Et surtout, une unité centrale sous le boîtier PC.

Les trois premiers éléments cités font partie de l’interface homme-machine :

  • L’écran affiche du contenu tapé sur le clavier ou pointé par la souris,
  • Le clavier permet d’écrire du texte pour communiquer avec l’ordinateur (lettres de l’alphabet, chiffres, accents…),
  • La souris déplace le curseur sur l’écran, pointe des éléments et les sélectionne en cliquant. Elle est remplacée par un trackpad sur un ordinateur portable.

L’unité centrale quant à elle possède tout le matériel électronique indispensable au fonctionnement de l’ordinateur :

  • Le processeur, cerveau de l’ordinateur, lit, traite et écrit les données. C’est lui qui fait les calculs permettant à l’utilisateur d’interagir avec l’ordinateur et d’afficher le système à l’écran,
  • Le disque dur interne est la mémoire de l’ordinateur. Il stocke les données sous forme binaire,
  • La carte mère est la colonne vertébrale de l’ordinateur. Elle centralise et traite les données échangées à l’intérieur de l’ordinateur. C’est elle qui gère tous les composants de l’ordinateur,
  • Le bloc d’alimentation, coeur et poumon de l’ordinateur, transforme et fournit l’énergie nécessaire à la carte mère,
  • La mémoire vive RAM fonctionne avec le processeur et sert à stocker les données temporairement, le temps de les traiter.

L’histoire de l’informatique

Est-ce que le monde informatique a amélioré les communications ?

Comment fonctionne la machine de cryptage Enigma ?

L’informatique tel qu’on le connaît aujourd’hui est lié à plusieurs grandes découvertes et évolutions au fil du temps.

Les prémices de l’informatique

  • 9ème siècle : Abu Jaffar Al Khwarizmi est le père fondateur de l’algorithmique, fortement lié à l’informatique,
  • 1632 : invention de la règle à calculer par William Oughtred,
  • 1645 : Blaise Pascal invente la machine à calculer,
  • 1703 : découverte de l’arithmétique binaire par Leibniz,
  • 1801 : invention du premier métier à tisser entièrement programmable par Jacquard,
  • 1843 : invention du premier programme informatique par Ada Lovelace qui servira pour la machine analytique de Babbage.

Les pionniers de l’informatique

  • 1914 : première machine électromécanique analytique par Leonardo Torres Quevedo,
  • 1928 : algorithme MinMax par Von Neumann,
  • 1936 : machine de Turing,
  • 1939 : début de la construction du Mark I,
  • 1942 : décryptage de la machine Enigma par Alan Turing,
  • 1954 : création du Fortran, premier langage de programmation de haut niveau implémenté dans un ordinateur,
  • 1955 : présentation de l’ordinateur IBM 650,
  • 1962 : invention du mot informatique,
  • 1970 : fondation du Xerox Park.

La micro-informatique

  • 1971 : premier microprocesseur Intel 4004 de Marcian Hoff,
  • 1972 : création du langage C,
  • 1975 : fondation de Microsoft,
  • 1976 : fondation d’Apple,
  • 1982 : définition du mot Internet,
  • 1984 : sortie du Macintosh,
  • 1988 : mise en marché du mini ordinateur AS-400 d’IBM.

L’ère du World Wide Web

  • 1989 : 100 000 ordinateurs sont connectés à internet,
  • 1992 : 1 000 000 d’ordinateurs sont connectés à internet,
  • 1995 : sortie de Windows 95,
  • 1998 : lancement de l’iMac,
  • 2001 : sortie de Windows XP et fondation de Wikipedia,
  • 2004 : sortie de Mozilla Firefox.

L’ère des données partagées

  • 2008 : apparition du terme MOOC
  • 2009 : première tablette tactile lancée par Archos,
  • 2010 : développement de l’informatique en nuage,
  • 2011 : les ventes de smartphones dépassent celles des ordinateurs,
  • 2014 : plus d’un milliard de sites web,
  • 2016 : le navigateur Google Chrome dépasse les parts de marché d’Internet Explorer.

Les accessoires utiles en informatique

Quel support informatique choisir ?

Il est maintenant possible d’imprimer ses photos directement depuis son portable.

L’informatique à domicile ne se limite pas au traitement de texte ou aux présentations Powerpoint. Outre les éléments essentiels au fonctionnement d’un ordinateur (unité centrale, écran, clavier, souris), des accessoires informatiques s’avèrent utiles pour utiliser internet, imprimer ou encore numériser.

  • L’imprimante : pour un minimum de 40 €, il est aujourd’hui possible d’acquérir une imprimante chez soi, afin d’imprimer toutes sortes de documents (courrier électronique, dossier de présentation, photos, cartes de voeux…). L’imprimante à jet d’encre est la plus couramment trouvée chez les particuliers pour son bas coût mais il existe également des imprimantes laser couleur ou encore des imprimantes multifonctions permettant de photocopier, de scanner et d’envoyer des fax en plus d’imprimer,
  • Le scanner : si le scanner à plat est souvent couplé avec l’imprimante pour un minimum de 70 €, il est aussi possible d’acheter un scanner portable seul pour environ 80 €,
  • La webcam : souvent intégrée à l’écran de son ordinateur, s’il faut l’acheter à part, elle est peu onéreuse (à partir de 20 €). La webcam permet de retransmettre en temps réel des images et du son de n’importe où dans le monde pour un ou plusieurs interlocuteurs. Un bon moyen de garder le contact avec ses proches même à l’autre bout du monde,
  • Le micro-casque : pour une meilleure immersion dans l’univers des gamers ou tout simplement pour mieux entendre et se faire entendre lors d’une visioconférence, comptez au minimum 80 € pou un micro-casque de qualité,
  • La clé USB : résistante aux chocs, légère et compacte, elle permet de stocker ses fichiers et de les transporter partout pour 10 € au minimum,
  • Le disque dur externe : pour augmenter la mémoire de son ordinateur ou sauvegarder ses données, il faut compter entre 50 et 350 € selon la capacité de stockage de l’appareil.

Les meilleurs codeurs du monde

Est-il possible de suivre une formation en ligne pour apprendre à taper du texte ?

Se former au codage : l’avenir !

Avant que vous puissiez suivre une formation informatique pour vous jeter corps et âmes dans les métiers de l’informatique, de nombreuses personnes ont contribué à l’histoire de l’informatique. Le codage tel qu’on le connaît aujourd’hui n’aurait pas pu voir le jour sans certains codeurs d’exception:

  • Grace Hopper : surnommée Amazing Grace, elle a conçu le premier compilateur pour UNIVAC I en 1950. Ce compilateur permettait à tous les ingénieurs informaticiens du monde de comprendre les langages informatiques de l’époque,
  • Mark Zuckerberg : fondateur et président de Facebook depuis 2004, il est le cinquième homme le plus riche de la planète. Aujourd’hui, il ne semble plus capable de coder rapidement mais qu’importe, c’est lui à l’origine des premières lignes de code du réseau social,
  • Margaret Hamilton : elle a corrigé à la main les programmes de la mission Apollo 11. Sans sa minutie et son anticipation, l’homme n’aurait jamais pu marcher sur la Lune en 1969,
  • Louis Pouzin : ingénieur français en informatique, il a développé le datagramme qui a permis par la suite la mise au point d’internet. Il participe aujourd’hui à la refondation d’internet,
  • Larry Page : informaticien américain, il est à l’origine du moteur de recherche Google. Son père était le fondateur de eGroups, l’ancêtre de Yahoo.

Bien sûr, cette liste n’est pas exhaustive mais vous donne un petit aperçu de ce que programmer signifie : une ouverture sur l’avenir et une envie de changer les choses.

Sources: https://bit.ly/35YZQiJ