2265U04 ? Langage Java - Master Gestion des Systèmes d ...

Il est très important, surtout lorsqu'il s'agit des bases de données. .... à la
longueur de l'instruction traitée : le programme est exécuté en séquence. .... On
peut considérer que des registres processeur sont quand même des éléments de
mémorisation ...... Le problème de ces architectures (que ce soit «
monoprocesseur » ou ...

Part of the document


2265U02 - Architecture matérielle
Mme Jacqueline De La Bruslerie 2006-10-10 Introduction
Pour avoir une idée sur l'avenir du secteur informatique, il faut savoir
ses évolutions antérieures. Aux files du temps, on a constaté que les
évolutions matérielle, des systèmes d'exploitation et des logiciels ne sont
pas complètement déconnectées. Il y a des principes qui sont implémentés dans l'ordinateur et qui ont fait
qu'on a pu envisagé des fonctionnalités qui avait été impensable au début,
particulièrement dans le monde micro-informatique dont l'essor a débuté
dans les années 80~90. Dans les années fin 80, on a commencé à implémenter
dans les ordinateurs des systèmes d'exploitation de multitâches et des
processeurs qui leur permettaient. Et à partir de là, les producteurs des
micro-ordinateur regardent le secteur informatique de façon complètement
différente. Dans cette évolution, l'introduction des technologies (ex : parallélisme,
pipe-lining et mémoire virtuelle) dédiées initialement à des gros systèmes
a conditionné l'évolution du micro-ordinateur. On cherche à appliquer le
principe de parallélisme aux plusieurs niveaux : opérateurs, unité centrale
(ex : double c?ur), ce qui permet une évolution d'une année à autre dans le
secteur.
Fonctionnalités des composants de base Dans un micro-ordinateur classique, il y a l'unité centrale (ordinateur
proprement dit) et des organes externes périphériques (ex : disque dur).
L'unité centrale n'est pas volumineuse (ex : le portable). Dans cette unité
centrale, on trouve le c?ur d'un ordinateur : processeur et mémoire
centrale. Lors d'un achat d'ordinateur, on réfère avant tout le nom et la
fréquence du processeur et la capacité de la mémoire centrale, ce qui
détermine un type de matériel car ces éléments sont primordiaux pour situer
l'ordinateur. Le reste (ex : disque dur), malgré l'emplacement physique
très proche de l'unité centrale, est considéré comme des périphérique sur
le plan logique. Le processeur et la mémoire centrale constituent donc les 2 composants
essentiels pour le fonctionnement d'un ordinateur et qui caractérisent les
performances de l'ordinateur. Un ordinateur est un ensemble des circuits
imprimés avec des échanges d'informations entre le processeur et la mémoire
centrale.
Par exemple, un programme une fois créé et décrypté, c'est le système
d'exploitation qui s'arrange pour mettre les instructions du programme dans
la mémoire centrale et ensuite pour les faire exécuter sur le processeur.
Ainsi, la mémoire centrale doit être vaste pour pouvoir contenir
suffisamment des données nécessaires à l'exécution du processeur. Les caractéristiques de la mémoire centrale
La mémoire centrale est un organe qui a pour mission de stocker les
informations.
Attention : dans la mémoire centrale, il n'y a aucun traitement. Elle n'a
qu'un rôle passif et ne fait que stocker l'information.
L'information va être extraite de la mémoire centrale et transférée dans le
processeur qui est le seul organe actif dans l'ordinateur.
Lorsqu'on parle de la vitesse de la mémoire centrale, on fait référence à
la vitesse de lecture et d'écriture (mais pas de traitement). Quoi ?
Q° : qu'est-ce qu'on trouve dans la mémoire centrale ?
On trouve seulement 2 choses dans la mémoire :
. les données (Data)
Rq : c'est ce qui va être traité dans un programme.
Ce qui est important pour la mémoire centrale, c'est le type de ces
données. En effet, elles sont codées de façon différente selon les
données.
. les instructions (Code)
Comment ?
Q° : sous quelle forme est stocké l'information dans la mémoire centrale ?
De façon générale, que ce soit les données ou les instructions, tout est
codé en mode binaire (l'alphabet du système binaire est une suite des 0 et
1). Codification des données
Une des premières questions s'est posée dans l'histoire de l'informatique
est « comment on allait grouper ces caractères binaires pour avoir un mot
significatif en terme d'information ? »
Soit sur « n » positions, il fallait que [pic] puisse contenir le système
décimal, les caractères spéciaux, etc. « n » a eu des longueurs différentes
(ex : 12, 32, 36, etc.) pour chaque constructeurs d'autant plus qu'on était
dans les gros systèmes.
La micro-informatique a un très bon effet : l'uniformité de « n » sur 8
positions binaires (ex : 01010101), ce qu'on appelle « octet ». Il suffit
sur les 8 positions binaires de représenter tous les éléments qu'on
manipule dans la vie courante.
Depuis, on fonctionne toujours avec des multiples de 8 positions binaires :
les premiers micro-ordinateurs du début des années 80 avaient des mémoires
centrales où le mot était effectivement en « octet ». Après, on est passé
de 8 à 16, puis 32 positions binaires. Aujourd'hui, on parle de 64
positions binaires. Codification des données
La typologie de codification « 5 » :
. si « 5 » déclaré en valeur numérique :
cela va être codifié sous la forme de la traduction binaire de « 5 » :
1001
. si « 5 » déclaré en caractère (càd sous format texte)
cela sera l'octet correspondant qui va être mémorisé dans la mémoire.
. etc.
Dans n'importe quel langage de programmation ou dans des logiciels, dès
qu'on définit un champ ou une variable, la première chose qu'on demande est
le type. En effet, de la définition du type dépend la façon dont la
variable va être codée dans la mémoire centrale et par conséquent les
opérations qu'on peut faire avec.
La codification interne est encore la même dans tous les ordinateurs depuis
l'existence de l'informatique. Auj., les représentations numériques et
caractères sont bien différenciées dans les ordinateurs. Ex : le numéro de la sécurité sociale
Sous forme caractère, les opérations sont bcp plus faciles à réaliser que
lorsqu'il est sous forme numérique. Lorsqu'on a une chaîne de caractères, les langages qu'on utilise demandent
toujours de définir le maximum de caractères parce qu'ils veulent le
maximum d'octets qui doivent être réservés.
La longueur d'une chaîne de caractères n'est pas à priori connue à
l'avance. C'est au programmeur de l'annoncer en fonction de ses besoins.
Or, pour une valeur numérique, la longueur est fixée automatiquement. Distinction : bit & byte
Bit : Binary digit (càd chiffre binaire)
Octet : une configuration de 8 positions binaires (ou dit 8 bits)
Byte : « octet » [pic]
[pic]
[pic] Avec 32 positions binaires, le plus grand nombre de combinaison qu'on peut
imaginer est de [pic]. La codification d'une valeur numérique se fait en deux façons :
. lorsqu'il s'agit d'un nombre entier, on utilise toutes les possibilités
comme ce qu'on a présenté en haut
. lorsque le nombre en valeur absolue dépasse la capacité maximale
d'enregistrement en mémoire, on passe à une autre notation (dite
« flottante ») qui permet de distinguer le nombre en deux parties :
caractéristique du nombre (soit « mantisse », càd [pic]) et son exposant.
Rq : dans tout système de numération (décimale, binaire ou autres), un
déplacement de virgule revient à une multiplication dans un sens ou une
division dans l'autre sens.
Donc, il y a des variables qui, même si elles contiennent des chiffres, il
est plutôt vocation de les codifier de façon interne dans l'ordinateur sous
forme de texte. Il est très important, surtout lorsqu'il s'agit des bases
de données. Résumé :
Les données sont codées sous forme binaire avec :
. une longueur fixe pour les numérique
. si « entier », pas de séparation dans le mot
. si « réel » ou « flottant », une partie « exposante » et une partie
« mantisse caractéristique »
. une longueur variable pour les chaînes de caractères
Codification des instructions
Il s'agit des instructions binaires, faisant appel directement aux
composants de l'ordinateur, qui peuvent être directement traitées par le
processeur. Il y a plusieurs modes possibles de codifier des instructions. Lorsqu'il s'agit d'une instruction, la décodification se fait différemment
que lorsqu'il s'agit des données. En effet, l'analyse de l'instruction
(ex : « 010 11011 ») se fait en 2 parties :
. Code d'opération
Càd : partie « 010 »
. L'opérande
Càd : partie « 11011 » On peut imaginer que la mémoire a des zones dédiées à certains types de
données et d'instructions. Il y a eu une évolution dans l'architecture des
ordinateurs : à une époque, on disait que la différence entre une machine à
calculer et un ordinateur était la banalisation de mémoire (càd que toute
casse mémoire peut stocker aussi bien des données que des instructions).
Cela n'était vrai que dans les gros système. Lorsqu'une information est dans la mémoire, elle peut interprétée et
analysée de façon différente : donnée / instruction, numérique / caractère,
entier / flottant, etc. C'est ainsi qu'il y a dans des programmes des
erreurs du type de données qui peuvent avoir des conséquences très
importantes sur la bonne exécution des programmes.
Selon la définition du type (càd données ou instructions), une même
combinaison binaire ne serait pas interprétée de la même façon. Le problème de l'instruction est que son décodage ne peut avoir lieu que si
son format a été précisé. L'incompatibilité des formats d'instruction fait
que certains logiciels qui ne sont pas compatibles entre eux.
Le processeur
C'est un ensemble de circuits programmables qui va en fait remplir les
fonctions d'une unité de commande et d'une unité de traitement. Contrairement à la mémoire centrale qui n'a qu'un rôle statique, le
processeur a tout vocation : il va chercher en mé