Sunteți pe pagina 1din 11

1/3/2014

Encyclopdie Larousse en ligne - informatique de information et automatique


Jaim e 6 Tw eeter 0
0

New sletter

Identifiez-vous ou Crez un compte

Dictionnaires de franais

Dictionnaires bilingues
Rechercher...

Encyclopdie

Forums

Cuisine

Archives

Applications mobiles

LAROUSSE
informatique

(de information et automatique)

Consulter aussi dans le dictionnaire : informatique Cet article fait partie du


DOSSIER

Jaim e

11

S S

consacr l'informatique.

Science du traitement automatique et rationnel de l'information considre comme le support des connaissances et des communications. L'informatique est au centre d'un secteur industriel dont les produits ont volu avec une rapidit fulgurante. Elle apparat tour tour accuse de tous les maux ou aurole de tous les pouvoirs. De machine rver, l'ordinateur est devenu un outil qui a investi tant la vie prive que le monde professionnel. Cette volution technologique a transform au fur et mesure ses mthodes d'utilisation et provoqu une diversification du paysage informatique. Ordinateur portable

1. La science de l'information
Le terme informatique , qui dsigne une discipline ne avec l'ordinateur, est un nologisme franais, introduit en 1962 par Philippe Dreyfus, condensant les mots information et automatique. Les Anglo-Saxons parlent de computer science et de data processing. Deux dfinitions de l'informatique se sont toujours tlescopes : celle concernant l'ensemble des techniques mises en uvre pour l'utilisation des ordinateurs et celle concernant la science du traitement rationnel de l'information, notamment par des moyens automatiques. Dans le langage courant, l'information est soit l'action ou la dmarche par laquelle on cherche des connaissances sur un sujet prcis, soit le rsultat de cette action. On a, bien souvent, tendance assimiler les termes information et donne, ce dernier tant Biomtrie, il issu du vocabulaire statistique. Une donne est l'aboutissement de tout un processus d'laboration et de codification. Au sens informatique du terme, l'information est le rsultat d'une reprsentation, auquel on peut appliquer des traitements qui fournissent une autre information. On s'accorde cependant pour limiter le champ de l'informatique au traitement automatique des donnes. DOCUMENTS ASSOCIS MDIAS

2. Historique et volution de l'informatique


2.1. Les prcurseurs de l'informatique
De tout temps, les hommes ont cherch rendre les calculs plus rapides. Les premires machines calculer mcaniques taient les machines roues dentes de Wilhelm Schickard (1592-1635), de Blaise Pascal (16231662) et de Gottfried Wihelm Leibniz (1646-1716). Fragiles et peu maniables, elles ne furent gure utilises. Le premier vritable prcurseur de l'informatique est l'anglais Charles Babbage (1792-1871). Sa machine analytique , qui utilise, au XIXe s., des cartes perfores indiquant les donnes et les oprations effectuer, tait thoriquement novatrice mais techniquement tellement complexe qu'elle n'a jamais fonctionn ( machine calculer).

http://www.larousse.fr/encyclopedie/divers/informatique/61302

1/11

1/3/2014

Encyclopdie Larousse en ligne - informatique de information et automatique


ENCYCLOPDIE affichage. Action d'afficher, de faire connatre au public par voie d'affiches... analyse. [INFORMATIQUE] tape de la programmation sur ordinateur consistant en l'tude de... analyse des donnes. Ensemble des mthodes permettant la description de tableaux d'observations statistiques... arbre. Vgtal vivace, ligneux, rameux, atteignant au moins 7 m de hauteur... Machine arithmtique ASCII (code). Code normalis utilis pour l'change de donnes informatiques, qui dfinit... automatisation. Suppression totale ou partielle de l'intervention humaine dans l'excution de... Babbage. Charles Babbage. Mathmaticien britannique... base de donnes. Ensemble structur de fichiers regroupant des informations ayant certains caractres... bibliothque. Collection de livres, de priodiques et de tous autres documents... branchement. Appareil de voie permettant une voie de se diviser en... Bull. Frederik Rosing Bull. Ingnieur norvgien... Voir plus

2.2. La machine de Turing


Alan Turing (1912-1954) est un mathmaticien britannique qui a tudi des problmes de logique et de fondements des mathmatiques qui le conduisent dfinir, en 1936, ce que l'on appelle maintenant machine de Turing et qui est un des concepts de base de l'informatique. C'est un pur objet mathmatique abstrait, qui permet de formaliser rigoureusement la notion de calcul et de dlimiter la frontire entre problmes calculables et problmes non calculables . La Machine crypter Enigma notion introduite par Turing de machine universelle prfigure le principe de l'ordinateur. Par ailleurs, pendant la Seconde Guerre mondiale, Turing a travaill pour les services secrets allis en participant l'quipe de scientifiques qui ont utilis des moyens automatiques de calcul pour dchiffrer les codes secrets de l'arme allemande ( cryptographie).

Bureautique. Ensemble des techniques CHRONOLOGIE informatiques qui facilitent le travail de secrtariat. 1833 Le Britannique Ch. Babbage entreprend la calcul. [MATHMATIQUES] Action de calculer, de construction d'une machine calculer compter ; l'opration analytique, commande elle-mme par programme que l'on sur fait... cartons perfors (projet inachev). carte. [INFORMATIQUE]Support de montage de 1880 Premire machine statistiques cartes circuits lectroniques pouvant tre insr dans... perfores, construite par de l'Amricain H. Hollerith. cyberntique. Science l'action oriente vers 1946 L'Amricain un but, fonde sur (d'origine l'tude... hongroise) J. von Neumann analyse la structurePlaque des calculateurs disque. [LECTROACOUSTIQUE] circulaire lectroniques et dveloppe le concept de en matire thermoplastique contenant un programme enregistr. enregistrement en vue... 1948 Publication de Cybernetics, or Control and cran. Appareil sur lequel sont affichs les Communication in the Man and the Machine, de caractres, les illustrations, les... l'Amricain N. Wiener, qui marque le dbut du lectronique. de la physique qui tudie dveloppement Partie de la cyberntique. et utilise les variations... 1950 Pour la premire fois, un cran visualise enregistrement. [AUDIOVISUEL] Opration par les calculs d'un ordinateur, dans le Semi laquelle des signaux sonores ou visuels ou des Automatic Ground Environnement, service donnes sont fixs sur unarienne. support matriel... amricain de surveillance fichier. Ensemble de donnes 1950 Premire machine-outil regroupes commande en une unit indpendante de traitement... numrique (une fraiseuse), aux tats-Unis. Gates. William Henry Gates, ouvrage dit BillGates. 1950 Publication du premier ayant trait Informaticien et industriel: amricain... l'intelligence artificielle les Machines calculer et gestion. Administration l'intelligence, d'une du Britannique entreprise soit dans A. M.sa Turing. globalit, soit dans une... 1951 La firme hirarchie sociale. amricaine Forme Remington d'organisation Rand sociale l'UNIVAC ralise privilgiant I, le premier rle de calculateur certains individus dans... lectronique universel capable d'applications la gestion. Hollerith. Hermann Hollerith. Statisticien amricain... 1952 Premier ordinateur IBM (IBM 701). 1955Socit IBM. Dveloppement amricaine desd'informatique. mmoires lectroniques tores de ferrite. imprimante. Organe d'impression sur papier 1956 des rsultats L'Amricain d'un traitement J. Backus,sur d'IBM, ordinateur. dfinit le Voir plus fortran, premier langage de sens du mot information. Parmi les volu nombreux programmation. information , le plus courant fait ou 1956 Invention du mot ordinateur par jugement... J. Perret, l'initiative informatique et des d'IBM-France. liberts (Commission 1962 Premier nationale de l').robot Autorit industriel administrative commercialis par indpendante, l'Amricain J. Engelberger. institue en 1978 en vue de veiller... 1962 Cration du mot informatique . intelligence . Intelligence artificielle (I.A.) le 1963 L'Amricain J. E. Sutherland prsente Internet. premier systme Rseaugraphique tlmatique conversationnel. international, qui rsulte de l'interconnexion ordinateurs du... 1964 Premire machine des crire mmoire, langage. ralise par [INFORMATIQUE] IBM. Ensemble de

2.3. La machine de von Neumann


Johann von Neumann (1903-1957), mathmaticien amricain d'origine hongroise, est l'un des plus brillants scientifiques du XXe s. Pendant la Seconde Guerre mondiale, von Neumann participe, entre autres, aux calculs ncessaires la mise au point de la bombe atomique amricaine ( projet Manhattan). Pour faire ces calculs, il cherche utiliser les calculateurs disponibles aux tats-Unis. En 1944, il rencontre l'universit de Pennsylvanie J. P. Eckert et J. W. Mauchly qui construisent un trs gros calculateur : l'ENIAC (Electronic Numerical Integrator, Analyser and Computer). Analogique et numrique Bien que trs puissante, cette machine n'est pas encore un ordinateur. Son usage est trs fastidieux et von Neumann cherche amliorer sa conception. Avec Eckert, Mauchly et une quipe d'ingnieurs, il conoit les plans d'une nouvelle machine qu'il appelle l'EDVAC (Electronic Discrete Variable Automatic Computer). Cette machine est fondamentalement nouvelle dans son architecture. L'innovation fondamentale est que dans sa mmoire centrale sont placs non seulement les donnes mais aussi le programme. Une unit de commande interne permet d'organiser le travail de la machine et les changes avec l'extrieur. C'est le principe de base de l'architecture des ordinateurs classiques (squentiels). Seules les machines parallles d'avant-garde actuelles sortent des limites de ce modle.

2.4. Les premiers ordinateurs


Une controverse clate rapidement entre Eckert, Mauchly et Von Neumann. Les premiers veulent construire et commercialiser immdiatement une machine de ce type et revendiquent la proprit de l'invention ; ils veulent dposer un brevet, ce que Von Neumann conteste. La justice amricaine tranche et dit que l'ide de la machine n'appartient personne, tout le monde est autoris construire une machine ayant cette architecture. Eckert et Mauchly fondent alors une entreprise et se lancent dans la

Circuit lectronique

http://www.larousse.fr/encyclopedie/divers/informatique/61302

2/11

1/3/2014

Encyclopdie Larousse en ligne - informatique de information et automatique


fabrication des ordinateurs.

2.5. De l'EDVAC l'Univac


C'est en Grande-Bretagne, en 1948, l'universit de Manchester, que sera finalement construit le premier ordinateur conu selon le principe de l'EDVAC. Alan Turing a particip sa mise au point technique et c'est lui qui a crit le premier langage pour communiquer les informations la machine. Ce langage trs simple est compos d'une cinquantaine d'instructions et c'est la machine qui les traduit en langage binaire. Les premiers ordinateurs taient uniquement des ordinateurs universitaires ou militaires. C'est Eckert et Mauchly qui commercialisrent, en 1951, l'Univac, le premier ordinateur civil jamais vendu. L'Univac utilise le langage mis au point par Alan Turing ( numrique, numrisation). Vue interne d'un microprocesseur

2.6. Un nouveau langage, le Fortran


Les progrs techniques vont se succder rapidement. Les lampes vide seront remplaces par le transistor, ce qui permettra la miniaturisation des machines et leur plus grande fiabilit. Mais en mme temps, la science du logiciel, c'est-dire des programmes, fait des progrs. John Backus met au point le langage Fortran (FORmula TRANslator) en 1953. C'est le premier langage qui permet d'crire un programme indpendant de la machine sur laquelle il est excut. Le langage Fortran, adapt au calcul scientifique, est toujours utilis actuellement.

Microprocesseur

2.7. L'IBM-360
L'anne 1964 est une tape importante dans l'histoire de l'industrie informatique : la firme amricaine IBM commercialise l'ordinateur IBM-360. Cet ordinateur tait quip de circuits imprims et fut un vritable succs commercial. L'informatique n'tait plus seulement un outil principalement utilis pour les applications militaires ou de recherche scientifique, elle pntrait massivement dans les entreprises. cette poque, tous les ordinateurs sont encore trs coteux. Ils sont installs dans des salles climatises dans lesquelles seuls certains informaticiens peuvent accder. Des armes d'employes appeles perforatrices , perforent longueur de journe les cartes qui serviront entrer les donnes.

2.8. Les premiers micro-ordinateurs


La micro-informatique se dveloppe partir de 1975. Les immenses progrs dans la miniaturisation des circuits conduisent l'invention du microprocesseur, qui est l'organe de base du micro-ordinateur. Ce ne sont pas les grosses firmes comme IBM, qui l'poque dominait le march, qui sont l'origine de cette invention. Les premiers micro-ordinateurs ont t mis au point et commercialiss par des tudiants contestataires californiens. La lgende dit que la socit Apple a t fonde dans un garage ( Steve Jobs, Silicon Valley). Lanc en avril 1977, lApple II prfigure le futur de linformatique. Il peut accueillir un lecteur de disquette qui Micro-ordinateur facilite la sauvegarde de donnes. Mais surtout, avec la sortie dun premier tableur (Visicalc), il rencontre un franc succs dans le monde de lentreprise ( logiciel). Le chiffre daffaire dApple senvole et la socit devance IBM sur le march des ordinateurs personnels. En 1984, Apple dvoile le Macintosh qui sidre par sa simplicit ingale : pour la premire fois, une souris (inspire des laboratoires Xerox) permet de naviguer dans une interface graphique au design pur qui jette les bases de linformatique grand public (le bureau , les icnes et les dossiers ). De taille rduite, dot dun cran de 23 centimtres et dun lecteur de disquette intgr, le Macintosh dispose dun traitement de texte et dun logiciel de dessin, intuitifs grce au systme dexploitation OS. Le succs est mondial et inspirera Bill Gates pour son systme Windows (Microsoft).

Prsentation de Windows 98

http://www.larousse.fr/encyclopedie/divers/informatique/61302

3/11

1/3/2014

Encyclopdie Larousse en ligne - informatique de information et automatique

2.9. volutions actuelles


La socit Microsoft de Bill Gates connat un succs fulgurant partir de 1981, lorsque le systme MS-DOS (auquel est adjoint, partir de 1985, le systme d'exploitation Windows) est choisi par IBM pour quiper ses PC et devient un standard de la micro-informatique durant les dcennies 1990 et 2000.

Bill Gates avec des coliers de Harlem

Danne en anne, les performances des ordinateurs domestiques sont multiplies (notamment avec le dveloppement des cartes son, vidos, mmoire, etc.) tandis que les prix baissent. De nombreux foyers squipent dautant que les priphriques et les logiciels associs confrent loutil informatique une dimension de plus en plus ludique : imprimantes, scanners, lecteur/graveurs de CD et DVD, connexion Internet par ajout dun modem, lectures et traitements dimages, de textes et de sons plus intuitifs, microphones, haut-parleurs, manettes de jeux et jeux vidos varis, webcams, etc. Le Lecteur DVD principe des connexions wi-fi et Bluetooth permet de se connecter facilement Internet et dassocier plusieurs quipements sans fil. En 1996, encore une fois, les modles dApple anticipent lavenir : pour liMac, le lecteur de disquette disparat au profit dun modem intgr. Sensuivent la version portable (iBook) et plusieurs modles cran plat dont le design et les performances fdrent une communaut dutilisateurs, fidles la marque. Dbut 2007, une nouvelle rvolution samorce, cette fois dans le domaine des tlcommunications : liPhone (Apple), puis de nombreux autres Smartphones, constituent une nouvelle gnration de tlphones mobiles, dits intelligents, sans clavier mais quips dun cran tactile. Intgrant un navigateur Web, un GPS, un gyroscope, une camra ( photographie numrique) et de multiples applications tlchargeables, ils ouvrent lre de lInternet mobile et de linformatique nomade.

Steve Jobs

Supports numriques connects

En 2010, la premire tablette tactile , liPad (Apple), rencontre le succs, notamment grce aux applications qui lenrichissent, et ce malgr le ct hybride de lobjet (ni ordinateur, ni tlphone). Des lecteurs MP3 et vidos sont intgrs dans tous ces outils. Pour amliorer le confort de lecture (de romans, par exemple), linformatique a dvelopp des liseuses qui utilisent de lencre lectronique, moins blouissantes que les crans rtro-clairs (format e-book).

En 2013, la firme Google propose une nouvelle voie innovante : la Google glass , une paire de lunette ralit augmente (avec superposition d'infographies, de donnes, sur le champ vision de l'utilisateur) quipe d'une camra intgre, d'un micro, d'un pav tactile sur l'une des branches, de mini-crans et d'un accs Internet. De simple curiosit technique, le micro-ordinateur s'est hiss au rang de systme personnel, se taillant une place chaque jour plus importante parmi les outils de traitement de l'information en milieu professionnel, dans les domaines du commerce (vente en ligne), des loisirs, mais aussi de la vie prive (explosion des rseaux sociaux , du type Facebook avec l'avnement du Web 2.0 au dbut des annes 2010). Aujourd'hui, la puissance de calcul d'un micro-ordinateur dpasse largement ce qu'taient les possibilits des ordinateurs vers

http://www.larousse.fr/encyclopedie/divers/informatique/61302

4/11

1/3/2014
1975, pour un cot d'quipement, de mise en service et de formation qui est considrablement infrieur. la mme poque, les circuits lectroniques, rpartis sur des dizaines de circuits imprims de 20 15 cm chacun, occupaient plusieurs armoires de taille imposante. Cette mme lectronique occupe aujourd'hui moins de 1 cm2 sur une plaque de silicium. Les premiers microprocesseurs commercialiss en 1971 comprenaient peine 2 000 transistors, ceux de 2012 en contiennent plus de 1 milliard.

Encyclopdie Larousse en ligne - informatique de information et automatique

Tlphone et ordinateur portables

Les ordinateurs suivent la fameuse loi de Moore qui stipule que le nombre de transistors par circuit de mme taille double, prix constants, tous les 18 mois. La limite physique cette augmentation exponentielle de la puissance des ordinateurs (dimension des puces rduite la taille dun atome) devrait toutefois tre atteinte vers 2020. Une nouvelle rvolution informatique est donc prvoir

Vue externe d'un microprocesseur

3. Le codage de l'information
Pour traiter les donnes, le systme informatique doit tre capable de comprendre cette information. Les systmes informatiques actuels comportent des circuits intgrs qui rassemblent sur une puce de silicium quelques millions de transistors. Ils ne peuvent donc fonctionner que selon une logique dite binaire dtermine par deux tats logiques correspondant deux niveaux lectroniques, conventionnellement nots 0 et 1. Le passage d'une information, d'un langage comprhensible par l'homme un langage comprhensible par le systme informatique se nomme codage . Les informations que doivent traiter les systmes informatiques sont composes de lettres, de chiffres et de symboles particuliers (points d'exclamation, guillemets). On est donc amen coder l'information pour qu'elle soit assimile par le systme. Avec un code 1 bit (binary digit), on peut reprsenter deux tats nots 0 et 1, soit 21 combinaisons. Pour reprsenter les 10 chiffres (0 9) utiliss dans le systme dcimal, il faut donc utiliser un code 4 bits le Biomtrie, empreinte digitale code 3 bits n'tant pas suffisant puisqu'il ne permet que 23 combinaisons. Mais si nous voulons aussi reprsenter les lettres de l'alphabet, il faut alors un code capable de reprsenter les 26 combinaisons qui correspondent aux lettres en plus des 10 combinaisons qui correspondent aux chiffres, soit 36 combinaisons diffrentes. Il nous faut donc un code 6 bits (215 = 32 combinaisons est insuffisant, 216 = 64 combinaisons est suffisant) qui permette de coder plus de 36 combinaisons et mme des informations particulires.

3.1. Les codes utiliss en informatique


Dans le BCD (binary code decimal, dcimal cod binaire ), chaque chiffre du nombre coder est donn par son quivalent binaire reprsent sur 4 bits. Ce code est utilis pour le codage de nombres, notamment avec le langage Plan COBOL (COmmon Business Oriented Language).

Reconnaissance de la parole par ordinateur

http://www.larousse.fr/encyclopedie/divers/informatique/61302

5/11

1/3/2014

Encyclopdie Larousse en ligne - informatique de information et automatique

Le code ASCII (American Standard Code for Information Interchange) est l'un des codes les plus utiliss en informatique. Dfini en 1963 aux tats-Unis, il a t repris par les organismes de normalisation des transmissions internationales de donnes, qui en ont fait le code ISO (International Standard Organization) 7 bits. Il est souvent assimil un code 8 bits, car on ajoute 1 bit de contrle, le bit de parit .

3.2. Le mot informatique


Les systmes informatiques manipulant des informations binaires travaillent en gnral sur une longueur fixe de bits, le mot. Suivant le systme, la taille de ce mot est diffrente ; les tailles classiques de mots sont de 8, 16, 32 ou 64 bits. Par exemple, sur un systme quip d'un microprocesseur 8086, on utilisait des mots de 16 bits, tandis qu'avec le 360 d'IBM, ou sur une machine comportant un microprocesseur 80486, on employait des mots de 32 bits. Les microprocesseurs actuels manipulent des mots de 64 bits.

3.3. Reprsentation des nombres


Un nombre entier est reprsent par une suite de bits. La reprsentation des nombres rels ( nombres virgule ) est assure grce deux suites de bits : la mantisse, qui reprsente les chiffres significatifs du nombre, et l'exposant, ou caractristique, qui indique la puissance laquelle la base de numration doit tre leve. Ainsi, dans le nombre dcimal 12 E 8, 12 est la mantisse et 8 est l'exposant. L'ensemble est quivalent 12 . 108 . On trouve, selon les constructeurs, diffrentes normes de reprsentation des nombres en virgule flottante . Il appartient au programmeur de choisir une forme de stockage des nombres adapte son problme.

Systmes de numration

4. Les principes du traitement de l'information


4.1. La notion d'algorithme et de calculabilit
Le traitement que la machine effectue sur les donnes est spcifi par ce que l'on appelle un algorithme. Il dcrit la suite d'oprations lmentaires qui doivent tre effectues. (Un algorithme est quelquefois compar une recette de cuisine ou une partition musicale). L'informatique thorique, et en particulier les travaux de Turing, a permis de formaliser rigoureusement la notion de problme rsoluble par algorithme (on parle de problme dcidable et de fonction calculable). Un programme est l'expression d'un algorithme dans un langage de programmation. L'excution d'un algorithme est un processus de calcul qui peut quelquefois ne pas se terminer (on dit qu'il boucle). Ce danger est la base de l'une des difficults de la programmation. On montre, en informatique thorique, que le problme de la dtection du bouclage est un problme indcidable, c'est--dire qu'il ne peut pas tre rsolu par un algorithme ( programme).

4.2. La complexit de calcul


Mme si un problme est soluble par algorithme, il se peut que le temps de calcul soit prohibitif. Par exemple, si l'on est sr que le calcul va se terminer mais qu'il faut attendre un centaine de sicles, il vaut mieux y renoncer. La machine de Turing est aussi utilise pour la thorie de la complexit qui vise caractriser les problmes qui sont effectivement solubles en un temps de calcul raisonnable.

4.3. Les langages de programmation


Un programme est destin tre excut par une machine mais cela n'est possible que si les instructions du programme sont directement interprtables par la machine. crire un programme dans le langage d'une machine est Reprsentation du symbole d'Internet dans le monde extrmement fastidieux , que ce soit pour la machine de Turing ou pour le processeur d'un ordinateur. Il est prfrable, en particulier pour viter de faire des erreurs, d'crire un programme dans un langage de plus haut niveau, c'est--dire dont les instructions sont plus proches de l'esprit humain et seraient excutables seulement par un machine virtuelle.

http://www.larousse.fr/encyclopedie/divers/informatique/61302

6/11

1/3/2014

Encyclopdie Larousse en ligne - informatique de information et automatique

Il reste ensuite traduire ce programme de haut niveau en un langage de bas niveau interprtable par la machine qui va l'excuter effectivement. Cette tche de traduction est confie l'ordinateur, c'est--dire que c'est un programme, en gnral appel compilateur, qui rsout ce problme de traduction. La production de ces compilateurs ncessite de dcrire rigoureusement la syntaxe de ces langages par des grammaires et de reprsenter la signification des programmes par des procds formels appropris.

4.4. La programmation
Partant d'un problme, le chemin parcourir, pour arriver finalement un programme qui rsout convenablement le problme, n'est pas facile surtout s'il s'agit de problmes de taille industrielle et de programmes produits par une quipe nombreuse. Les risques d'erreurs sont nombreux, la fois dans la comprhension du problme et dans la conception du programme. D'ou la ncessit d'une science et d'une ingnierie du logiciel (gnie logiciel). En particulier, il est ncessaire de mettre en uvre des mthodes rigoureuses de conception des programmes, ce qui ncessite une connaissance approfondie, aussi bien de la structure des algorithmes que des structures de donnes. Internet : structure du rseau Parmi les mthodes de conception de programmes en vogue actuellement citons l'approche par objets (programmation oriente objets, par exemple le Java ou le C++). Cette approche permet de matriser la complexit de la tche par une abstraction des procdures et des donnes. Elle facilite aussi la modularit et la rutilisation des composants logiciels qui constituent un programme. Le langage html (hypertext mark up langage) est un langage de description de documents servant prsenter les pages web et prciser laide de balises les liens hypertextes avec dautres documents. Il est souvent utilis avec le Javascript et les feuilles de style de cascade (CSS).

Netscape

5. L'architecture des machines et leurs systmes d'exploitation


5.1. L'architecture classique
Le principe de base, trs simplifi, de l'ordinateur classique (squentiel) est l'interaction entre une unit centrale et des priphriques. L'unit centrale est constitue essentiellement d'une mmoire centrale et d'un processeur. La mmoire centrale contient le programme ainsi que les donnes et les rsultats intermdiaires des calculs. Le processeur excute l'une aprs l'autre les instructions du programme en allant les chercher en mmoire. Les priphriques sont d'une part des units de stockage (disque dur, par exemple) et des units d'entre-sortie qui permettent la communication hommemachine (clavier, cran, souris, imprimante, etc).

micro-ordinateur

5.2. Les systmes d'exploitation


Pour qu'un programme d'application puisse utiliser facilement les ressources de la machine (gestion des fichiers stocks sur les disques, gestion des entres-sorties), il existe un ensemble de programmes intermdiaires qu'on appelle systme d'exploitation et qui dispense le programmeur de se proccuper de ces questions.

Clavier et souris d'ordinateur

http://www.larousse.fr/encyclopedie/divers/informatique/61302

7/11

1/3/2014

Encyclopdie Larousse en ligne - informatique de information et automatique

Les disques et mmoires


Les disques ont un support magntique semblable celui des bandes, et le principe d'enregistrement des informations y est analogue. La diffrence fondamentale rside dans l'organisation du support en cellules adressables permettant un accs direct l'information. Une mmoire disques est forme d'une pile de disques anims d'un mouvement de rotation permanent et rapide, faisant dfiler les pistes sous les ttes de lecture-criture. Actuellement, les disques durs quipant les ordinateurs personnels permettent de stocker jusqu 1 To (1 traoctet, soient 1012 octets). Les supports de stockage de donnes amovibles ont considrablement volus ces dernires dcennies : les disquettes utilises dans les annes 1990 permettaient de stocker quelques centaines de Ko (kilo-octets). Elles ont t remplaces par des CD-Romet des DVD enregistrables pouvant contenir de 600 Mo (mgaoctets) quelques dizaines de Go (gigaoctets). Les mmoires flash et les cls USB sont aujourdhui prfres pour les Disque compact transferts rapides de donnes de quelques Mo, les sites F.T.P. pour les donnes plus volumineuses (quelques Go). Les disques durs externes, galement amovibles, contiennent plusieurs centaines de Go. Au dbut des annes 2010, le cloud computing (informatique en nuage ) qui externalise le stockage des donnes sur des serveurs distants, propose un nouveau mode daccs aux informations personnelles, via Internet, tout moment et sur tous supports connects.

5.3. Le paralllisme
Le paralllisme est n de l'ide d'augmenter la puissance des machines pour rsoudre efficacement, c'est-dire rapidement, des problmes de trs grande taille, en dpassant les limitations du modle d'ordinateur de von Neumann. Une machine parallle est un ensemble de processeurs qui communiquent et qui cooprent. Des lments de paralllisme sont apparus trs tt dans les ordinateurs, mme dans les machines classiques, mais le besoin se fait sentir maintenant d'un paralllisme massif , en particulier pour les applications demandant du calcul numrique intensif (notamment, les supercalculateurs utiliss pour la recherche scientifique, voir plus bas). Mais le paralllisme pose des problmes matriels et logiciels qui sont loin d'tre tous rsolus.

6. Les applications de l'informatique


Tous les aspects du monde moderne sont pntrs par les applications de l'informatique, d'autant plus qu'on assiste une intgration entre les tlcommunications et l'informatique, chacun s'appuyant sur l'autre. La gestion des entreprises, y compris l'aide la dcision, a t l'un des champs d'applications principaux de l'informatique. Quasiment tous les secteurs ont t transforms par l'essor de l'informatique : les transports, la bureautique, la gestion de documents, l'informatique mdicale, bancaire, le cinma ( image de synthse) la presse et l'dition (avec la PAO, publication assiste par ordinateur), etc. Ces industries ont d s'adapter aux techniques multimdia et aux modles conomiques de l'Internet qui reposent souvent sur un accs gratuit. L'industrie du disque souffre particulirement du tlchargement illgal de fichiers.

Musique numrique

6.1. L'informatisation des entreprises


Elle permet un gain de temps considrable pour les tches rptitives. Les donnes traites sont des informations prcieuses utilisables d'autres fins. En effet, les fonctions administratives voluent : les gestionnaires peuvent s'interroger sur les tendances de la masse salariale, l'laboration du bilan annuel, mais aussi sur l'chancier des commandes, l'incidence d'un plan de formation sur les salaires. Les informations contenues dans les bulletins de salaire ou les tats comptables peuvent tre exploites et permettre une simulation de commande ou de trsorerie, le calcul de l'incidence d'une prime sur certaines catgories de personnel, l'tablissement d'un historique des

Presse et informatique

http://www.larousse.fr/encyclopedie/divers/informatique/61302

8/11

1/3/2014
qualifications ou d'un suivi de carrire

Encyclopdie Larousse en ligne - informatique de information et automatique

L'informatisation touche de plus en plus les mtiers de l'entreprise, par consquent les professionnels collaborent plus troitement avec les informaticiens. La diffusion de la technologie des rseaux locaux permet le dveloppement d'une informatique dite rpartie et en particulier du modle client-serveur.

6.2. Le modle client-serveur


Dans les annes 1970, l'architecture des systmes d'entreprise tait caractrise par une centralisation autour de gros ordinateurs auxquels on accdait par des terminaux. Les utilisateurs de ces systmes taient trs dpendants des constructeurs. Les Fonctionnement de l'Internet annes 1980 ont vu le dveloppement des base de donnes dans l'entreprise. Deux phnomnes se sont produits : d'une part une ouverture permise par exemple par la diffusion du systme d'exploitation UNIX, qui ne dpend pas d'un constructeur particulier ; d'autre part le dveloppement des rseaux locaux. Cette volution a pos le problme du partage des donnes par plusieurs utilisateurs du rseau. Elle a permis l'mergence d'un modle d'architecture dit client-serveur . Il est caractris par la distinction entre deux catgories de machines dans le rseau : les ordinateurs serveurs , qui grent des donnes partages entre plusieurs utilisateurs ; les stations de travail des utilisateurs (ou clients ). Le client envoie des requtes, c'est--dire interroge les bases de donnes du serveur.

6.3. L'automatisation de la production


La gestion de la production assiste par ordinateur (GPAO) d'une entreprise fait appel des systmes complexes et remet en question l'organisation de la production. Grce un suivi constant et automatique de la production, il devient possible de prvoir le march et de s'y adapter. L'outil micro-ordinateur oblige un choix stratgique des informations traiter, et transforme les fonctions techniques de la production en fonctions dcisionnelles. Le suivi de la production va par exemple permettre, partir de contraintes extrieures et de cots internes, d'optimiser les dcisions sur les occasions favorables ou sur la rationalisation des dpenses internes ( gestion). La simulation, une fonction puissante de ce ple, permet, pour une production donne, de faire varier des paramtres (dlais de livraison, prix des matires premires, temps de production d'un poste de travail) afin de dterminer une stratgie de production.

Chane de montage, Renault

6.4. L'intelligence artificielle


C'est encore un article de Turing, dat de 1947, qui est considr comme l'un des points de dpart de l'intelligence artificielle. Il s'agit de faire en sorte que des machines ralisent des comportements considrs comme intelligents, en particulier simulent l'intelligence humaine. Les premires recherches en intelligence artificielle concernent la rsolution de problmes puis les robots intelligents. Le domaine de l'intelligence artificielle comprend aussi le traitement de la langue naturelle , en particulier l'aide la traduction automatique de langues trangres, la perception et la reconnaissance des formes. Les systmes experts permettent de reprsenter et de grer des connaissances dans divers domaines comme en mdecine par exemple.

Gary Kasparov

Les rseaux neuronaux sont une autre approche de l'intelligence artificielle base sur un modle inspir par les neurones du cerveau.

6.5. Le calcul scientifique


Il s'agit de traiter des problmes de modlisation, simulation, optimisation (souvent laide de supercalculateurs). Par exemple : calcul d'une aile d'avion, prvisions mto, modles conomiques.Rservs

http://www.larousse.fr/encyclopedie/divers/informatique/61302

9/11

1/3/2014

Encyclopdie Larousse en ligne - informatique de information et automatique

aux traitements de donnes extrmement lourds et complexes, les supercalculateurs, ou superordinateurs, sont avant tout utiliss pour la recherche. Certains dpassent, en 2012, la dizaine de ptaflops, soient plusieurs millions de milliards doprations par seconde.

7. La Commission nationale de l'informatique et des liberts (CNIL)


En France, selon la loi du 6 janvier 1978, l'informatique ne doit, en aucun cas, porter atteinte ni l'identit humaine, ni aux droits de l'homme, ni la vie prive, ni aux liberts individuelles ou publiques. Aucune dcision de justice, aucune dcision administrative ou prive impliquant une apprciation sur un comportement humain ne peut donner lieu un traitement automatis. C'est la Commission nationale de l'informatique et des liberts (CNIL) qui est charge de veiller ce que les traitements automatiss publics ou privs d'informations nominatives soient effectus conformment la loi. Toute personne justifiant de son identit a le droit d'interroger l'organisme traitant et d'obtenir les informations le concernant. Toutefois, lorsqu'il s'agit d'informations mdicales, celles-ci ne peuvent tre transmises l'intress que par l'intermdiaire d'un mdecin qu'il dsigne cet effet.

L'INFORMATIQUE QUANTIQUE
La puissance de calcul des ordinateurs n'a cess de crotre, doublant rgulirement tous les deux ans. Il existe cependant des problmes dont la solution est trop complexe pour qu'un ordinateur classique les traite efficacement. Des ordinateurs utilisant les proprits tranges du monde quantique pourraient s'y attaquer en offrant une puissance de calcul inimaginable. Les ordinateurs classiques traitent de faon efficace certains problmes. La multiplication de deux nombres se calcule en un temps qui ne crot, dans le pire des cas, que comme le carr du nombre de chiffres impliqus. Un algorithme, un programme dont le temps d'excution crot comme une puissance de la taille des donnes est considr comme efficace, le problme qu'il rsout comme facile. En revanche, la solution d'un problme difficile requiert un temps qui crot exponentiellement avec la taille des donnes (comme la valeur du nombre, non comme le nombre de chiffres ou de bits). La dcomposition d'un nombre entier en facteurs premiers (la factorisation) est sans doute un problme difficile. L'algorithme naf consiste essayer systmatiquement tous les diviseurs. Le temps de calcul crot comme la racine carre du nombre considr. Pour l'instant, on ne connat pas d'algorithme qualitativement beaucoup plus rapide. titre d'exemple, calculer le produit de deux nombres premiers de 64 et 65 chiffres ne prend que quelques microsecondes. partir du nombre de 129 chiffres obtenu (environ 400 bits), retrouver les facteurs a pris des mois avec un rseau de gros ordinateurs. Mme si la puissance de calcul a doubl depuis, la factorisation d'un nombre de 150 chiffres prendrait encore des mois. La solution d'un problme d'checs, la recherche d'un lment dans une liste non trie sont aussi des problmes complexes. En raison de sa difficult et de la simplicit du problme inverse, la factorisation est utilise dans les systmes cryptographiques. La multiplication du message, cod comme un nombre, par une cl secrte suffit le rendre inaccessible. Le destinataire peut en prendre connaissance par une simple division. La plupart des systmes cryptographiques modernes reposent sur ce principe. Un algorithme de factorisation efficace aurait des consquences conomiques incalculables.

La logique quantique
Si les ordinateurs traditionnels sont peu efficaces pour factoriser, c'est parce qu'ils ne traitent qu'une information la fois. On peut faire fonctionner en parallle plusieurs processeurs, mais la mthode est limite : pour rendre facile la factorisation, il faudrait autant de calculateurs que de diviseurs essayer! On remplace un temps de calcul exponentiel par un cot exponentiel, tout aussi insupportable. Exploiter, dans un ordinateur, les proprits de la mcanique quantique permettrait peut-tre de contourner cette difficult. Pour en savoir plus, voir l'article informatique quantique.


www.batuta.com/- . )(

http://www.larousse.fr/encyclopedie/divers/informatique/61302

10/11

1/3/2014
LAROUSSE
Jaim e 106 055

Encyclopdie Larousse en ligne - informatique de information et automatique

Tweets
oscar barrera @OscarBarreraM 12h @ModernCuisine @laroussecuisine @curtis_stone @ChefsArsenal @FoodRev Squash/sage/feta with roasted garlic chicken pic.twitter.com/Fi5KlPd9vc
Afficher la Photo

LAROUSSE Saviez-vous que l'expression "tre fier comme un pou" ne faisait pas rfrence l'insecte ? Pou devrait s'crire poul (avec un l final muet) qui dsignait le mle de la poule, avant que on nom ne devienne coq en rfrence son cri...Le coq promne en effet firement sa crte parmi les poules.
il y a 21 heures

LAROUSSE
google.com/+larousse

Suivre
+ 2 217

+1

Larousse Cuisine @laroussecuisine Le Larousse des Blogs Culinaires is out! paper.li/laroussecuisin


Retweet par OMAX6MUM FOOD

22h

Index

Qui sommes-nous

Nous contacter

Charte d'utilisation

Support

Le site des ditions Larousse

Crdits

MYBOOX Larousse

http://www.larousse.fr/encyclopedie/divers/informatique/61302

11/11

S-ar putea să vă placă și