Canalblog
Suivre ce blog Administration + Créer mon blog

Le Blog de Nadjib

3 juin 2008

La guerre

                                                       La guerre

                                                                                                                                                                                                 1-La guerre est un conflit armé, opposant au moins deux groupes sociaux organisés. Elle se                 traduit ainsi par des combats armés, plus ou moins dévastateurs, et implique directement ou indirectement des tiers. Elle qualifie donc tous les conflits, ayant pour principales caractéristiques, la force physique, les armes, la tactique, la stratégie ou la mort de certains de ses participants (soldats, membres des MLN, résistants, Franc-tireur etc.) ou de tiers (civils, employés et membres des associations d'aide humanitaire, etc.).

A*La guerre d'Algérie se déroule de 1954 à 1962 et débouche sur l'indépendance de l'Algérie, colonie française de 1832 à 1848, puis partie intégrante du territoire de la République.

B*La guerre de Viêtnam

Il débuta en février 1959, lorsque les anciens membres de la guérilla viêt-minh, demeurés au Sud, décidèrent de reprendre les armes et de renverser le gouvernement dictatorial du Viêtnam-du-Sud. Le conflit se transforma ensuite en une guerre ouverte entre le Viêtnam-du-Sud et le Viêtnam-du-Nord, puis en un conflit international limité. Les États-Unis et quelque quarante autres pays soutinrent le Viêtnam-du-Sud en lui fournissant des troupes et des munitions, tandis que l'URSS et la république populaire de Chine apportaient leur appui au Viêtnam-du-Nord et au Viêt-công. La guerre affecta aussi le Laos, où le Pathet Lao communiste combattit le gouvernement de 1965 à 1973 et parvint à abolir la monarchie en 1975!; ainsi que le Cambodge, où le gouvernement du général Lon Nol s'écroula en 1975 face aux Khmers rouges.

2-Guerre froide: longue période qui va de la fin de

la Deuxième Guerre

mondiale jusqu'à la chute du mur de Berlin (1989). Conflit larvé, marqué par une rivalité et un affrontement sans pour autant mener à une guerre générale. Deux camps, chacun dirigé par une superpuissance, s'affrontaient:

L'Ouest, dirigé par les
États-Unis. On y retrouvait la plupart des pays d'Europe de l'Ouest, le Canada, l'Australie et le Japon. L'Organisation du traité de l'Atlantique Nord (OTAN) constituait le bras militaire de ce camp en Europe. Ses pays se caractérisent par une économie de marché et une démocratie libérale.

L'Est, dirigé par l'
Union des républiques socialistes soviétiques. On y retrouvait la plupart des pays d'Europe de l'Est, la Chine,

la Corée du Nord, le Vietnam et Cuba. Le Pacte de Varsovie constituait le bras militaire de ce camp en Europe. Ses pays se caractérisaient par une économie planifiée et par système politique à parti unique.

3-12 mars 1947 : discours Truman sur l'endiguement.
. Septembre 1947 : doctrine Jdanov.
. Septembre 1947 : création du Kominform.
. 1948 : signature de l'OEA.
. Juin 1948-Mai 1949 : blocus de Berlin.
. 1949 : création de

la RFA

puis de

la RDA.
.

1949 : signature de l'Alliance Atlantique.
. 1949 : 1ère bombe A soviétique.
. 1949 : signature du COMECON (ou CAEM).
. 1er octobre 1949 : proclamation de

la République Populaire

de Chine communiste par Mao.
. Juin 1950-27 juillet 1953 : guerre de Corée.
. 1951 : signature de l'ANZUS.
. 1953 : 1ère bombe H soviétique.
. 31 juillet 1954 : signature des accords de Genève sur l'Indochine.
. 1954 : création de l'OTASE.
. 1955 : conférence de Bandoung.
. 1955 : signature du Pacte de Varsovie.
. 1955 : signature du Pacte de Bagdad.
. 1955 : l'Autriche retrouve sa pleine souveraineté.
. 1956 : crise de Suez.
. Octobre-novembre 1956 : insurrection hongroise.
. 1957 : lancement de Sputnik.
. 1959 : Fidel Castro prend le pouvoir à Cuba.
. 1961 : Youri Gagarine, 1er homme dans l'espace.
. 1961 : débarquement raté dans la "baie des cochons".
. 12-13 août 1961 : construction du mur de Berlin.
. Octobre 1962 : crise des fusées de Cuba.
. 1963 : traité de Moscou interdisant les essais nucléaires dans l'atmosphère.
. 1964 : 1ère bombe A chinoise.
. 1967 : guerre des Six Jours.
. 21 août 1968
. 1968 : offensive du Têt au Vietnam.
. 1968 : traité de non-prolifération nucléaire.
. 1970 : OstPolitik.
. 1971 :

la Chine

remplace Taïwan à l'ONU.
. 1972 : Voyage de Nixon en Chine et à Moscou.
. 1973 : accords de Paris, fin de la guerre du Vietnam.
. 1973 : guerre du Kippour.
. 1973 : RFA et RDA sont admises à l'ONU.
. 1973-1975 : conférence d'Helsinki (CSCE).
. 1975 : prise de Saïgon par les Nord-Vietnamiens.
. 1975 : début du génocide perpétré par les Khmers rouges au Cambodge.
. 1977 : déploiement de missiles soviétiques SS 20.
. 1979 : révolution islamique en Iran (Khomeiny).
. 1979 : signature des accords SALT 2.
. 1979 : prise en otage du personnel de l'ambassade des Etats-Unis à Téhéran.
. Décembre 1979 : début de l'invasion soviétique en Afghanistan.
. 1980 : boycott des JO de Moscou par els Etats-Unis.
. 1980 : grèves à Gdansk et constitution du syndicat libre Solidarnosc.
. 1982 : guerre des Malouines.
. 1983 : annonce du projet IDS («guerre des étoiles») par Ronald Reagan.
. 1983 : intervention américaine dans l'île de

La Grenade.
.

1983 : installation des 1ères fusées Pershing en RFA et au Royaume-Uni
. 1984 : boycott des JO de Los Angeles par l'URSS.
. 1985 : Gorbatchev secrétaire général du PCUS, retour à la détente.
. 1987 : signature du traité de Washington (désarmement Est/Ouest).
. 10 novembre 1989 : chute du mur de Berlin.
. 1989 : les troupes soviétiques quittent l'Afghanistan.
. 1989 : sommet de Malte (EU/URSS) confirmant la détente.
. 1990 : traité "2+4".
. 3 octobre 1990 : réunification allemande.
. 1991 : le CAEM et le Pacte de Varsovie sont dissous.
. décembre 1991 : disparition de l'URSS et fin de la guerre froide.

                                    QUESTIONS :                                                                        D’après votre connaissance et au relation du coures :

1-donnez la définition de la guerre et insérez deux exemples des guerres fortunes.

2-Qu’est ce que c’est la guerre froide.

3-Citez les différent partie de cette guerre.

Publicité
Publicité
3 juin 2008

Linguistique Saussuriene

Définition du concept de langage

La fin ultime de Saussure est de proposer une théorie cohérente du langage, qui sera à même de saisir son objet avec la plus grande rigueur et netteté possibles, en distinguant le phénomène linguistique de tout phénomène connexe. Cela amène de Saussure à distinguer le langage des langues. Par langage, de Saussure entend la faculté générale de pouvoir s'exprimer au moyen de signes. Cette faculté n'est pas propre aux langages naturels mais elle caractérise toute forme de communication humaine. Par langue, de Saussure entend en revanche un ensemble de signes utilisés par une communauté pour communiquer : le français, l'anglais ou l'allemand, pour ne citer que quelques exemples.

Mais au delà de cette distinction, de Saussure différencie en outre le langage et la parole. La parole est, pour lui, l'utilisation concrète des signes linguistiques dans un contexte précis. Par ce concept de parole, Saussure tente de distinguer l'usage concret du langage du langage lui-même, entendu comme ensemble de signes.

Diachronie et synchronie

Le langage a une dimension diachronique (évolution des signes au cours du temps) et une dimension synchronique (rapports entre les signes à un instant donné). C'est dans l'étude de ce second aspect que de Saussure a particulièrement innové. Selon lui, la perspective diachronique doit être étudiée, certes, mais elle ne permet pas de rendre compte du fait que le langage est un système. Elle prend en effet uniquement en compte les modifications au cours du temps; l' approche synchronique montre, elle, que la signification des signes dépend de la structure de l'ensemble du langage.

La langue comme système

La théorie linguistique de de Saussure est nettement sémiotique dans la mesure où elle interprète le langage comme un ensemble de signes : le linguiste distingue dans le signe deux éléments: le signifiant et le signifié.

Le signifié

Le signifié désigne le concept, c'est-à-dire une représentation mentale d'une chose. Contrairement à une idée répandue, la langue n'est pas un répertoire de mots qui refléteraient les choses ou des concepts préexistants en y apposant des étiquettes. Si c'était le cas, les mots d'une langue, mais aussi ses catégories grammaticales auraient toujours leur correspondant exact dans une autre. Cette observation conduit Saussure à distinguer signification et valeur : « mouton » et "sheep" ont le même sens, mais non la même valeur, puisque l'anglais pour sa part distingue sheep, l'animal de sa viande mutton; il en est aussi ainsi de l'opposition passé défini (simple)/passé indéfini(composé) qui expriment une opposition d'aspect en anglais ou en castillan, une valeur d'usage (écrit/oral) en français contemporain. Ainsi le contenu (le signifié) est un concept défini négativement du fait de l'existence ou de l'absence dans une langue d'autres concepts qui lui sont opposables.

Le signifiant

Le signifiant désigne l'image acoustique d'un mot. Ce qui importe dans un mot, ce n'est pas sa sonorité en elle-même, mais les différences phoniques qui le distinguent des autres. Sa valeur découle de ces différenciations. Chaque langue construit son lexique à partir d'un nombre limité de phonèmes, caractérisés comme les signifiés, non par leur qualité propre et positive, mais par ce qui les oppose: rouler un "r" en français est sans conséquence pour la compréhension; ne pas le faire en arabe conduit à des confusions, puisque cette langue comporte à la fois une apicale vibrante [r] ("r" roulé) et une fricative vélaire sonore [ġ] (proche du "r grasseyé français). Les mots rasīl (messager) et ġasīl (lessive) ne se distinguent que par l'opposition r/ġ.

Le signe pris dans sa totalité

L'idée fondamentale de Saussure est que le langage est un système clos de signes. Tout signe est défini par rapport aux autres, par pure différence (négativement), et non par ses caractéristiques propres ("positives") : c'est pourquoi de Saussure parle de "système". Nommé pourtant (après sa mort) « père du structuralisme », il n'a jamais, à aucun moment, et c'est notable, utilisé le terme de "structure" : il n'a jamais parlé d'autre chose que de "système".

L'arbitraire du signe

Le langage découpe simultanément un signifiant dans la masse informe des sons et un concept, une "idée", dans la masse informe des concepts.

Le rapport entre le signifiant et le signifié est arbitraire et immotivé : rien, a priori, ne justifie, en français par exemple, qu'à la suite de phonèmes [a-R-b-R] (le signifiant, en l'occurrence, du signe "arbre"), on associe le concept d’"arbre" (qui est ici le "signifié", en termes saussuriens). Aucun raisonnement ne peut conduire à préférer [boef] à [oks] pour signifier le concept de "bœuf". De Saussure du point de vue épistémologique se situe dans le nominalisme.

Les deux axes: rapports syntagmatiques et rapports associatifs

Les unités linguistiques

Un discours étant composé d'une succession de signes, de Saussure pose la question de la délimitation du signe, indispensable à la compréhension de la chaîne parlée (l'oreille ne peut le distinguer s'il relève d'une langue inconnue). Il est ainsi amené à définir l’unité linguistique comme " une tranche de sonorités qui est, à l'exclusion de ce qui précède et de ce qui suit, le signifiant d'un certain concept. Ainsi le segment sonore : [ð(ə)laprã] (en alphabet phonétique international) est analysé par un francophone en trois unités linguistiques : "je/la/prends/", ou "je/l/apprends" (le choix entre ces découpages se faisant en fonction du contexte). Pour parvenir à cette analyse, la langue établit entre les unités de sens deux sortes de rapports, indispensables l'un à l'autre.

Les rapports syntagmatiques

Les unités linguistiques s'enchaînent l'une à l'autre dans le déroulement de la chaîne parlée et dépendent l'une de l'autre. Toute combinaison de deux ou plusieurs signes linguistiques constitue un syntagme. Tout signe placé dans un syntagme tire sa valeur de son opposition à ce qui précède, à ce qui suit ou aux deux : "re-lire", "contre tous", "s'il fait beau" sont des syntagmes composés de deux unités ou davantage.

Les rapports associatifs (ou paradigmatiques, dénomination post-saussurienne)

Les éléments ainsi combinés sont par ailleurs associés chez le locuteur à d'autres qui appartiennent à des groupes multiformes : "enseignement" est relié aussi bien à "enseignant"… par parenté qu'à "armement", chargement"… par suffixation identique ou qu'à "apprentissage, éducation" par analogie des signifiés. Alors que les rapports syntagmatiques sont directement observables (in praesentia), les rapports associatifs sont virtuels, sous-jacents (in absentia).

Ces deux types de rapports coopèrent; la coordination dans l'espace (rapports syntagmatiques) contribue à créer des liens associatifs et ceux-ci sont nécessaires au repérage et à l'analyse d'un syntagme. Dans [kevuditil?], [vu] est analysé comme unité de sens parce qu'il s'associe à "te/lui…" qui lui sont opposables : ils pourraient se substituer à [vu] et s'excluent l'un l'autre. Mais sans la présence de ce qui précède et suit (rapport syntagmatique), [vu] ne peut être perçu comme unité de sens : c'est le cas dans le syntagme [jelevu] parce que la combinaison [levu] ne constitue pas un syntagme.

Linguistique et sémiotique

Ferdinand de Saussure a toujours insisté sur les rapports entre linguistique et sémiotique. Par sémiotique ou sémiologie, il entend la science sociale qui étudie les signes et symboles de manière générale. Elle s'intéresse, par exemple, aux actes sociaux ou objets sociaux qui ont une signification symbolique (comme les actes de politesse ou les drapeaux nationaux).

La linguistique n'était aux yeux de Saussure qu'une branche de la sémiotique, le langage étant un système de signes. Cependant la linguistique en constitue la branche la plus développée, et la plus importante, en raison de la complexité du langage humain. Ce qui est intéressant de constater c'est que, malgré la nette séparation effectuée entre langage (comme système abstrait de signes) et parole (comme usage concret de ce système), de Saussure a nettement défini la linguistique comme une science sociale, et le langage comme le produit d'une pure convention sociale.

31 mai 2008

Hisoire de la linguistique

HISTOIRE DE LA LINGUISTIQUE

1) Grammaire des grammairiens grecs

: orientée vers les problèmes d’écriture,

2) Philologie

la construction des phrases et la morphologie.

Trop sensible à ce qu’il faut dire : normative

: commence aussi avec les grecs autour de la bibliothèque

3) Fin 18

ème

d’Alexandrie : étude des textes

Ne s’intéresse pas vraiment à la langue mais simplement à la langue écrite.

, développement de la grammaire comparée, fondée par BoppSystème de la conjugaison du sanskrit, 1816) : étude comparative des langues.

But

: expliquer une langue à partir de la comparaison

avec d’autres langues.l’indoeuropéen:

Langue non attestée, reconstruite à partie de langues parlées en Inde et en

Europe. Les langues indo-européennes forment un vaste ensemble linguistique,

divisé en groupe

,Sans_titre

La grammaire comparée est comparative

sans être historique, c’est-à-dire quedévelopper exactement comme les

4) Fin 19

ème

: travaux sur les langues romanes ; un groupe de jeunes linguistesnéo-grammairiens (exigeants sur les principes historiques) ; Bréal :Meillet : études sur le domaine indo-européen.

5) Linguistique structurale :

F de Saussure (1857-1913),

cours de linguistique

générale

, publié par ses étudiants, édité pour la première fois en 1916.langue est un phénomène social, le code commun à tous les membres d’unelangue est essentielle et nécessaire à la parole

Thèse de la linguistique structurale :

La langue n’est pas un répertoire de mots

(une nomenclature) ; la langue est un système de signes

Un

système

est un ensemble homogène d’éléments, dont chacun est déterminé,

Langage

Langue Parole

négativement ou différentiellement, par l’ensemble des rapports qu’il entretient

avec les autres éléments.

Concepts clés :

La

communauté linguistique (un « trésor » déposé chez les sujets)

La

allemands :

créateur du terme sémantique ;

chacune des langues comparée est censée se

autres.

C’est à partir de là que l’on a regroupé les langues (sanskrit, grec, latin, persan,

germanique…) comme remontant à une langue hypothétique commune :

(

31 mai 2008

Concept

Qu’est-ce que "la linguistique"

Godzich (1974)

"La linguistique a consisté en de vaines tentatives de définitions de concepts variés dont l’unique dénominateur commun a été leur résistance à l’acte de définition, de sorte qu’on a pu récemment écrire (Kramsky, 1969) que la linguistique est cette science qui est aux prises avec ses définitions. Il suffit, en effet, de considérer l’abondance et la diversité des définitions proposées pour le phonème, la syllabe, et, plus récemment, la phrase, pour comprendre "qu’on est pessimiste quant à la possibilité de définir quoi que ce soit en linguistique."

Lyons (1968: 1)

"Linguistics may be defined as the scientific study of language (…) by scientific study it is meant its investigation by means of controlled and empirically verifiable observations and with reference to some general theory of language-structure."

La linguistique est l'étude du langage humain. Elle se distingue donc en cela de la grammaire qui, elle, est la description du fonctionnement d'une langue donnée. La linguistique a pour but d'aller au delà de cela ; elle est apparue au XVIIe siècle et est due à un rejet de l'idée de l'époque selon laquelle la grammaire latine était la science du langage par excellence Un linguiste est donc une personne qui étudie les mécanismes du langage. Au sens large, la linguistique englobe toutes les sciences du langage. Dans un sens plus restreint, la linguistique s'oppose à la grammaire dite traditionnelle, en ce sens que celle-ci est normative (ou prescriptive) tandis que celle-là est descriptive. Alors que la grammaire juge les énoncés en termes d'adéquation à une norme donnée, la linguistique se contente de décrire. Le travail descriptif peut se faire selon trois axes principaux :

  • études en synchronie et diachronie : l'étude synchronique d'une langue s'intéresse seulement à cette langue à un moment donné de son histoire, à un seul de ses états. Par opposition, étudier une langue — ou une famille de langues — en diachronie revient à s'intéresser à son histoire et aux changements structurels qu'elle a subis ;
  • études théoriques et appliquées : la linguistique théorique étudie la création de structures permettant la description individuelle de langues ainsi que les théories tentant de cerner leurs constantes universelles ;
  • études contextuelles et indépendantes : bien que les termes désignant cette dichotomie ne soient pas clairement fixés, on peut la décrire comme suit : l'étude contextuelle s'intéresse aux interactions entre le langage et le monde, tandis que l'étude indépendante considère le langage pour lui-même, indépendamment de ses conditions extérieures.
31 mai 2008

Transcription Phonétique

Alphabet phonétique international

L'alphabet phonétique international (API) est un alphabet utilisé pour la transcription phonétique des sons du langage parlé. Contrairement aux nombreuses autres méthodes de transcription qui se limitent à des familles de langues, l'API est prévu pour couvrir l'ensemble des langues du monde. Développé par des phonéticiens britanniques et français sous les auspices de l'Association phonétique internationale, il a été publié en 1888. Sa dernière révision date de 2005.

Principes généraux [modifier]

La transcription phonétique en API consiste à découper la parole en segments sonores supposés atomiques, et à employer un symbole unique pour chacun de ceux-ci, en évitant les multigrammes (combinaisons de lettres, comme le son ch du français, noté [ʃ] ou le gli italien, transcrit [ʎ]).

Exemple de transcription utilisant l'alphabet phonétique international : « endurer » dans quelques langues.

languemot écritphonétiquephonologie
français endurer [ɑ̃.d̪y.ˈʁe] /ɑ̃.dy.re/
allemand dulden [ˈdʊl.dn̩] /ˈdʊl.dən/
anglais tolerate [ˈtʰɒl.əɹ.eɪt] /ˈtɒl.ər.eɪt/
espagnol aguantar [a.ɰwan̪.ˈt̪aɾ] /a.ɡuan.ˈtaɾ/
néerlandais verdragen [vɛɹ'draɣɘn̩] /vɛɹ.'dra.ɣɘn̩/
mandarin 忍 rěn [ʐən˨˩˦] /ren3/

Publicité
Publicité
31 mai 2008

Phonétique-Phonologie

Phonétique et phonologie

La distinction phonétique / phonologie est issue de la tradition structurale fonctionnaliste.

Phonétique

Phonologie

Étude des sons de la parole appelés phones Étude des sons à valeur linguistique, phonèmes en relation avec un signifié. Les traits phoniques sont appréhendés par rapport à leur valeur distinctive.

31 mai 2008

Appareil Phonatoire

app_phonatoire

L'appareil phonatoire fonctionne schématiquement comme un instrument à vent. Le son de la voix est en fait l'air pulmonaire qui vibre dans les cordes vocales et résonne dans la bouche, le pharynx et les fosses nasales.

24 mai 2008

Informatique

1

L'informatique (information automatique) désigne l'automatisation du traitement de l'information par un système, concret (machine) ou abstrait (on peut parler d'automate). Dans son acception courante, l'informatique désigne l'ensemble des sciences et techniques en rapport avec le traitement de l'information. Dans le parler populaire, l'informatique peut aussi désigner à tort ce qui se rapporte au matériel informatique (l'électronique), et la bureautique.

À ce sujet on attribue une phrase à Edsger Dijkstra qui résume assez bien cela :

« L'informatique n'est pas plus la science des ordinateurs que l'astronomie n'est celle des télescopes.
(en anglais : Computer science is no more about computers than astronomy is about telescopes.) »

La discipline scientifique désignée par le terme informatique fait partie des sciences formelles comme les mathématiques ou la logique. Aujourd'hui, la distinction entre ces trois disciplines est floue, mais l'on peut identifier l'informatique à travers les principales questions abordées :

  • qu'est-ce que le calcul ?
  • que peut-on calculer ?
  • comment calculer efficacement ?
  • comment décrire un algorithme de calcul ?
  • comment représenter un certain objet pour pouvoir le traiter?

On peut trouver des racines à la science informatique dans de nombreux domaines anciens des mathématiques (systèmes de numération, division euclidienne, construction à la règle et au compas, etc). Cependant, la discipline n'a émergé qu'à partir des années 1930 à travers une série de travaux fondateurs (Church, Gödel, Herbrand, Kleene,Turing) qui ont aboutit à la première formalisation générale de ce qu'est le calcul. La force de cette formalisation est de faire converger plusieurs points de vue vers une même et unique notion :

Ces trois points de vue donnent un sens très général à la notion de calcul et la thèse aujourd'hui largement acceptée est qu'elle capture tout traitement réalisable mécaniquement.

Le second acte de naissance de l'informatique est bien entendu la réalisation concrète des premiers ordinateurs dans les années 1940, puis le développement de leur fabrication avec l'avènement de l'électronique numérique pour en faire aujourd'hui un domaine technologique à part entière. Il s'agit bien d'un second acte de naissance car, si les capacités intrinsèques des ordinateurs actuels sont les mêmes que celle du modèle théorique des années 30, leur rapidité de traitement, leur coût (financier, mais aussi en terme de place, de ressources nécessaires, etc), leur longévité et leur fiabilité ont été considérablement améliorés, ouvrant un vaste champ de possibilités auparavant impensables.

Des professions aussi diverses que concepteur, analyste, développeur, responsable d'exploitation, ingénieur système, technicien de maintenance matérielle ou logicielle, chercheur en informatique ou directeur d'un centre de calcul, relèvent du domaine de l'informatique. Néanmoins, le terme informaticien désigne le plus souvent ceux qui conçoivent, déploient et mettent en œuvre des solutions.

Terminologie

Origine

Le terme informatique est un mot-valise créé en mars 1962 par Philippe Dreyfus, ancien directeur du Centre National de Calcul Électronique de Bull dans les années 1950, qui, en 1962, a utilisé pour la première fois ce terme dans la désignation de son entreprise « Société d'Informatique Appliquée » (SIA). à partir des mots « information » et « automatique ».

En France, l'usage officiel du mot a été consacré par Charles de Gaulle qui, en Conseil des ministres, a tranché entre « informatique » et « ordinatique », et le mot fut choisi par l'Académie française en 1967 pour désigner cette nouvelle discipline. En juillet 1968, le ministre fédéral de la Recherche scientifique d'Allemagne, Gerhard Stoltenberg, prononça le mot Informatik lors d'un discours officiel au sujet de la nécessité d'enseigner cette nouvelle discipline dans les universités de son pays, et c'est ce mot qui servit aussitôt à nommer certains cours dans les universités allemandes. Le mot informatica fit alors son apparition en Italie et en Espagne, de même qu'informatics au Royaume-Uni.

Pendant le même mois de mars 1962 Walter F. Bauer inaugura la société américaine Informatics Inc. qui, elle, déposa son nom et poursuivit toutes les universités qui utilisèrent ce nom pour décrire la nouvelle discipline, les forçant à se rabattre sur computer science, bien que les diplômés qu'elles formaient fussent pour la plupart des praticiens de l'informatique plutôt que des scientifiques au sens propre. L'Association for Computing Machinery, la plus grande association d'informaticiens au monde, approcha même Informatics Inc. afin de pouvoir utiliser le mot informatics pour remplacer l'expression computer machinery, mais l'entreprise déclina l'offre. La société Informatics Inc. cessa ses activités en 1985, achetée par Sterling Software.

Évolution récente

L'évolution récente tend à employer plutôt l'expression STIC en français, pour sciences et technologies de l'information et de la communication.

Le mot communication tend à donner une importance excessive aux échanges et aux accès, par rapport aux contenus des bases de données de connaissances, dans une optique de gestion de connaissances (knowledge management).

C'est la raison pour laquelle certains experts, comme Bernard Besson, préfèrent remplacer TIC par l'expression TICC, pour technologies de l'information, de la communication et de la connaissance.

Terminologie anglo-saxonne

La traduction anglaise de informatique est computer science, littéralement « science du calculateur ». En français, l'expression science du calcul (computing science) fait plutôt penser à informatique scientifique.

En anglais les termes distincts suivants sont utilisés :

  • Informatics (science de l'information) : Ce qui ressort de l'étude des systèmes, biologiques ou artificiels, qui enregistrent, traitent et communiquent l'information. Ceci comprend l'étude des systèmes neuraux, aussi bien que les systèmes informatiques.
  • Computer science (l'Informatique théorique) : Ce qui ressort de l'épistémologie procédurale, soit notamment de l'étude des algorithmes, et donc indirectement des logiciels et des ordinateurs.
  • Computer engineering (Génie informatique) : ce qui ressort de la fabrication et de l'utilisation du matériel informatique.
  • Software engineering (Génie logiciel) : Ce qui ressort de la modélisation et du développement des logiciels ; ceci comprend deux aspects : les données et les traitements ; les deux aspects sont liés dans la mise en pratique des traitements de données (Data Processing). En France, en pratique, l'expression ingénierie informatique correspond plutôt à software engineering, soit l'ingénierie logiciel.
  • Information technology engineering (Génie des technologies de l'information) : ce qui ressort de l'intégration des techniques et des technologies relatif à l'information et reliées à l'informatique ainsi qu'à l'internet (par exemple : le e-business)
  • Information Technology (Technologies de l'information) : Représente l'évolution des techniques et des technologies reliées à l'informatique.

Il existe plusieurs termes anglais pour désigner le concept d'« informatique ». Certains comme automatic data processing ou electronic data processing et leur abréviation reflètent une vision plus ancienne et ne sont plus guère utilisés. Même data processing est parfois considéré par certains informaticiens professionnels comme propre à la langue des administrateurs et des non-informaticiens (dans le jargon du métier, costards ou, en anglais, suits). Quant à informatics, il est davantage employé en Europe, selon certaines sources.[2]

On trouve d'autres variantes peu attestées; c'est le cas de computing science, electronical data processing, ordinatique, technologie des ordinateurs ou science de l'informatique.

Il faut dire que les concepts et la terminologie ont suivi l'évolution de la réalité. Ainsi, les ordinateurs, qui effectuaient autrefois des opérations relativement simples de calcul sur des données, traitent de façon de plus en plus complexe, aujourd'hui, de l'information autrement plus significative (connaissances et savoir-faire). De la désignation informatique, on est passé peu à peu à celle de technologies de l'information. On voit poindre, dans certains milieux, des appellations comme technologies ou nouvelles technologies de l'information et de la communication qui cèderont peut-être leur place à une autre dénomination qui reflètera le traitement des connaissances, des savoir-faire et même de « l'intelligence ». Progressivement le terme informatique glisse vers un sens plus restreint relié aux aspects techniques.

Domaines d'application de l'informatique

Le traitement de l'information s'appliquant à tous les domaines d'activité, on pourra les trouver associés au mot informatique. Ainsi on pourra parler d'informatique médicale quand ces outils sont utilisés par exemple dans l'aide au diagnostic, et ce champ d'activité se rapportera plutôt à l'informatique scientifique décrit ci-dessous; ou bien on parlera d'informatique bancaire; il s'agira alors soit des systèmes d'information bancaire qui relèvent plutôt de l'informatique de gestion, de la conception et de l'implantation de produits financiers qui relève plutôt de l'informatique scientifique et des mathématiques, ou encore de l'automatisation des salles de marché qui en partie relève de l'informatique temps réel. On peut schématiquement distinguer les grands différents types suivants :

  • L'informatique de gestion : elle consiste à piloter les processus de gestion et de management dans les entreprises, dans tous les domaines d'activité : payes (employés, ouvriers, cadres) et gestion des ressources humaines, administration des ventes, des achats (déclaration de TVA) gestion de la relation client, gestion de la production et des approvisionnements, tenue de stocks ; des entrepôts de produits usinés, des en cours de fabrication, de l'inventaire permanent et des inventaires de fin d'exercice, carnet de commandes, marketing, finances… Ce domaine est de loin celui qui représente la plus forte activité, ce qui n'a pas toujours été perçu en France.
Jusqu'en 1965, la mécanographie, et par la suite la simple mécanisation de la mécanographie connue sous le vocable « informatique fiabilisée par la transistorisation », savait faire tous ce qui est énuméré ci-dessus, sauf de la comptabilité générale avec suivi des créances innové par Le lettrage conversationnel 1962 en Grandes entreprises.
Gilbert Bitsch, chef de projets à la SACM de Mulhouse, réalisa le premier positionnement de compte sur une tabulatrice IBM 421, réalisation qui ouvrait la comptabilité à l'informatique. Cette révolution en gestion mit fin à l'ère des ateliers de machines comptable en grandes entreprises.
  • L'informatique scientifique, qui consiste à aider les ingénieurs de conception dans les domaines de l'ingénierie industrielle à concevoir et dimensionner des équipements à l'aide de programmes de calcul : réacteurs nucléaires, avions, automobiles (langages souvent employés : historiquement le Fortran, de plus en plus concurrencé par C et C++). L'informatique scientifique est surtout utilisée dans les bureaux d'étude et les entreprises d'ingénierie industrielle car elle permet de simuler des scénarios de façon rapide et fiable. La Scuderia Ferrari s'est équipée en 2006 avec un des plus puissants calculateurs du monde afin de permettre les essais numériques de sa formule 1 et accélérer la mise au point de ses prototypes.
  • L'informatique temps réel : elle consiste à définir les logiciels de pilotage de systèmes en prise directe avec le monde physique : historiquement d'abord dans l'aéronautique, le spatial, l'armement, le nucléaire, mais maintenant universellement répandu avec la miniaturisation des circuits : automobile, machine à laver, etc.
  • L'ingénierie des connaissances (en anglais knowledge management) : il s'agit d'une forme d'ingénierie informatique qui consiste à gérer les processus d'innovation, dans tous les domaines, selon des modèles assez différents de ceux jusqu'alors employés en informatique de gestion. Cette forme d'ingénierie permettra peut-être de mieux mettre en cohérence les trois domaines gestion, temps réel, et scientifique dans l'organisation des entreprises. Elle s'intéresse plus au contenu et à la qualité des bases de données et de connaissances qu'à l'automatisation des traitements. Elle se développe déjà beaucoup aux États-Unis, mais ceci n'est pas encore tout-à-fait perçu en France.
  • Il faut enfin citer les applications du renseignement (intelligence en anglais) économique et stratégique, qui font appel aux technologies de l'information, notamment dans l'analyse du contexte, pour la recherche d'informations (moteurs de recherche). D'autre part, dans une optique de développement durable, il est nécessaire de structurer les relations avec les parties prenantes, ce qui fait appel à d'autres techniques telles que les protocoles d'échange et les moteurs de règles.

Histoire

Les origines

Depuis des millénaires, l'Homme a créé et utilisé des outils l'aidant à calculer (abaque, boulier, etc.). Parmi les algorithmes les plus anciens, on compte des tables datant de l'époque d'Hamurabi (env. -1750). Les premières machines mécaniques apparaissent entre le XVIIe et le XVIIIe siècle. La première machine à calculer mécanique réalisant les quatre opérations aurait été celle de Wilhelm Schickard au XVIe siècle, mise au point notamment pour aider Kepler à établir les tables rudolphines d'astronomie.

En 1642, Blaise Pascal réalisa également une machine à calculer mécanique qui fut pour sa part commercialisée et dont neuf exemplaires existent dans des musées comme celui des Arts et métiers et dans des collections privées (IBM).

La découverte tardive de la machine d'Anticythère montre que les Grecs de l'Antiquité eux-mêmes avaient commencé à réaliser des mécanismes de calcul en dépit de leur réputation de mépris général pour la technique (démentie d'ailleurs par les travaux d'Archimède).

Cependant, il faudra attendre la définition du concept de programmation (illustrée en premier par Joseph Marie Jacquard avec ses métiers à tisser à cartes perforées, suivi de Boole et Ada Lovelace pour ce qui est d'une théorie de la programmation des opérations mathématiques) pour disposer d'une base permettant d'enchaîner des opérations élémentaires de manière automatique.

La mécanographie

Une autre phase importante fut celle de la mécanographie, avec l'apparition des machines électromécaniques alimentées par cartes perforées de l'Allemand Hollerith, à la fin du XIXe siècle. Elles furent utilisées à grande échelle pour la première fois par les Américains lors du recensement de 1890 aux États-Unis, suite à l'afflux des immigrants dans ce pays lors de la seconde moitié du XIXe siècle. Les Allemands étaient probablement bien équipés en machines mécanographiques avant la Seconde Guerre mondiale. Ces équipements, installés par ateliers composés de trieuses, interclasseuses, perforatrices, tabulatrices et calculatrices connectées à des perforateurs de cartes ont dû leur apporter une certaine supériorité pour la construction des armements. Toutefois, ceci n'a pas été examiné en profondeur par les historiens. Leur moindre mérite n'est pas la réussite du programme. On ne pouvait pas encore parler d'informatique, car les traitements étaient exécutés à partir de techniques électromécaniques et basés sur l'usage de lampes radio ; anodes, cathodes, triodes etc. La chaleur dégagée par ces lampes rendait ces ensembles peu fiables.

Science des nombres et Système de numération

Examen de quelques systèmes numériques de jadis à nos jours.

  • Du système binaire inventé par G. Boole, utilisé par les ordinateurs au dénombrement restreint du 1-2-3 pour dire beaucoup à partir de 4 en usage chez les primitifs, les hommes ont utilisé des systèmes numériques qui indiquent le degré de culture ou de vigilance des peuples auprès desquels ils étaient en application.
  • Les Sumériens utilisaient le système sexagésimal encore utilisé de nos jours pour mesurer l’heure qui compte 60 minutes divisées en 60 secondes. Il fut repris par les Grecs pour leurs calculs astronomiques, dans le calcul des angles et du temps.
  • Les Romains se servaient de leurs 10 doigts et pratiquaient le système décimal pour constituer des centuries de légionnaires. Ils marquaient les milliers par un cercle barré verticalement. Déformé ce signe a donné le « M » pour désigner 1 000 et la moitié de ce symbole pour le « D » pour désigner 500. Le système décimal en application chez les Romains sans la connaissance des chiffres arabes, ne facilitait pas la tâche arithmétique des intendants chargés de faire les comptes.
  • Les Celtes pour leur part allaient jusqu'à utiliser en plus les dix doigts de pieds, ce qui élargissait leur système numérique à 20. Les derniers Celtes sur le continent, de nos jours, utilisent encore ce système pour apprécier toutes les valeurs quantitatives de la vie courante.
  • Lors d'un safari poils, plumes et aux phacochères au Sénégal, on peut découvrir le système quincal utilisé par les Sérères. Pourquoi émanant des Sérères ? Parce que les Sérères incarnent la tribu de chasseurs au Sénégal. La population sénégalaise comprend quatre ethnies principales. En plus des Sérères, on y rencontre des Wolofs l'ethnie dominante, leur langue étant reconnue langue nationale et le français fait office de langue officielle. Les Toucouleurs et les Peuls forment les deux autres ethnies. Aux Sérères incombaient traditionnellement le rôle de pourvoyeurs de gibier à l'égard des autres ethnies, elles de culture agricole et pastorale. Par hordes, les Sérères effectuaient des déplacements en chassant de village en village armé de courts bâtons, d'arcs et de lances. Le gibier abattu ; pintades, perdreaux et pigeons, l'étaient par ce bâton qu'ils lançaient en virtuose dès que le gibier traqué prenait son envol dans la savane. Phacochères et autres bêtes à sabots étaient chassés à l'arc, à la lance et achevés à la sagaie ou à l'épieu par les porteurs et les traqueurs. Le système numérique originel des Sérères est quincal. Il est aisé de deviner le pourquoi de cette pratique. Dans l'exécution de leur activité, l'une des mains seulement était disponible pour des occupations annexes. L'autre restait à serrer toujours une arme, le bâton, la sagaie, la lance... pour compter. Den - niet - nient - njar - gurun ; a cinq se fait le report : gurun-den etc. Le produit de la chasse était troqué contre des produits agricoles, textiles, en somme contre des produits de première nécessité pour ces chasseurs ambulants qui cultivaient le souci de se faire respecter. Les bijoux et la céramique occupaient une place de choix dans le troc, ces dames occupent encore et toujours lors de rencontres de tout genre le premier rang pour ne pas figurer parmi les laissés-pour-compte.
  • Les Juifs pratiquaient le système numéral le plus élaboré. En exploitant les 12 phalanges des huit doigts décomptés à l'aide des pouces. Ils ont institué la grosse, une unité de mesure encore en vigueur pour certaines marchandises. On y arrive en se servant par exemple du pouce de la main gauche pour décompter les phalanges. Arrivé à la dernière phalange du petit doigt, 4 × 3, permettent d'enregistrer la première douzaine à l'aide du pouce de la main droite qui pointe sur la première phalange de l'index de la main droite. Ce système permet ainsi de compter jusqu'à 144.

Des tablettes d'argile servaient de document aux scribes, assis sur les quais de débarquements pour les prises en charge des arrivages ou dans les entrepôts lors de la sortie ou de l'entrée des marchandises. Le Romain marquait d'un trait à 10, le Celte à 20 et le juif à 144 arrivé à chaque fin de son système numéral pour enregistrer jusqu'à la dernière pièce les mouvements à enregistrer.

George Boole, mathématicien anglais (1815-1864), fut l’inventeur du système binaire. Sans son système, il n'y aurait pas d'ordinateurs transistorisés qui fonctionnent grâce à des 0 et des 1, qui permettent d'aller en calculs à l'infini.

L'informatique moderne

L'ère des ordinateurs modernes commença avec les développements de l'électronique pendant la Seconde Guerre mondiale, ouvrant la porte à la réalisation concrète de machines opérationnelles. Au même moment, le mathématicien Alan Turing théorise le premier ce qu'est un ordinateur, avec son concept de machine universelle de Turing.

L'informatique est donc un domaine fraîchement développé, même s'il trouve ses origines dans l'antiquité (avec la cryptographie) ou dans la machine à calculer de Blaise Pascal, au XVIIe siècle. Ce n'est qu'à la fin de la Seconde Guerre mondiale qu'elle a été reconnue comme une discipline à part entière et a développé des méthodes, puis une méthodologie qui lui étaient propres.

Son image a été pendant quelque temps surfaite : parce que les premiers à programmer des ordinateurs avaient été des ingénieurs rompus à la technique des équations différentielles (les premiers ordinateurs, scientifiques, étaient beaucoup utilisés à cette fin), des programmeurs sans formation particulière, parfois d'ailleurs issus de la mécanographie, cherchaient volontiers à bénéficier eux aussi de ce label de rocket scientist afin de justifier des salaires rendus confortables par :

  • le prix élevé des ordinateurs de l'époque (se chiffrant en ce qui serait des dizaines de millions d'euros aujourd'hui compte-tenu de l'inflation, il reléguait au second plan les considérations de parcimonie sur les salaires) ;
  • l'aspect présenté comme peu accessible de leur discipline et un mythe de difficulté mathématique entretenu autour. En fait, les premiers ordinateurs ne se programmaient pas de façon très différente de celle des calculatrices programmables utilisées aujourd'hui dans les lycées et collèges, et maîtrisées par des élèves de quatorze ans mais le domaine était nouveau et l'algorithmique nécessite un certain degré de concentration associé, peut-être à tort, à la réflexion pure.

L'émergence d'un aspect réellement scientifique dans la programmation elle-même (et non dans les seules applications scientifiques que l'on programme) ne se manifeste qu'avec la série The Art of Computer Programming de Donald Knuth, professeur à l'Université de Stanford, à la fin des années 1960, travail monumental encore inachevé en 2004. Les travaux d'Edsger Dijkstra, Niklaus Wirth et Christopher Strachey procèdent d'une approche également très systématique et elle aussi quantifiée.

On demandait à Donald Knuth dans les années 1980 s'il valait mieux selon lui rattacher l'informatique (computer science) au génie électrique — ce qui est souvent le cas dans les universités américaines — ou à un département de mathématiques. Il répondit : « Je la classerais volontiers entre la plomberie et le dépannage automobile » pour souligner le côté encore artisanal de cette jeune science.

Toutefois, la forte scientificité des trois premiers volumes de son encyclopédie suggère qu'il s'agit là plutôt d'une boutade de sa part. Au demeurant, la maîtrise de langages comme Haskell, Ocaml ou même APL demande un niveau d'abstraction tout de même plus proche de celui des mathématiques que des deux disciplines citées.

La miniaturisation des composants et la réduction des coûts de production, associées à un besoin de plus en plus pressant de traitement des informations de toutes sortes (scientifiques, financières, commerciales, etc.) a entraîné une diffusion de l'informatique dans toutes les couches de l'économie comme de la vie de tous les jours.

En France, l'informatique a commencé à vraiment se développer seulement dans les années 1960, avec le Plan Calcul. Beaucoup de choses ont été dites sur ce plan. Comme souvent en Histoire, il peut y avoir des erreurs d'interprétation.

Approche fonctionnelle

Comme énoncé ci-dessus, l'informatique est le traitement automatisé de données par un appareil électronique : l'ordinateur ; les germanophones parlent de elektronische Datenverarbeitung / EDV (« traitement électronique de données »), les anglophones d'information technology / IT (« technologies de l'information »), c'est-à-dire :

  • données ou informations : in fine, l'ordinateur manipule des suites ou des paquets de 0 et de 1 qui servent à représenter toutes sortes d'informations :
la conversion de ces informations en suite de nombres pose le problème du format des données, du codage et des formats normalisés (par exemple, représentations des nombres entiers ou à virgule flottante, encodage des textes en ASCII, Unicode, format TeX ou RTF et polices PostScript ou TrueType pour les textes, formats bitmap, TIFF, JPEG, PNG, etc. pour les images fixes, formats QuickTime, MPEG pour les vidéos, interface MIDI pour la musique...).
  • automatisé : l'utilisateur n'intervient pas, ou peu, dans le traitement des données ; le traitement est défini dans un programme qui se déroule tout seul, l'utilisateur se contente de fournir des paramètres de traitement ; le programme automatique se déroule selon un algorithme, l'établissement de ce programme est le domaine de la programmation.
  • traitement : ces données sont :
    • créées :
    • analysées :
      • nombres : l'analyse des nombres relève du domaine concerné (mathématiques, physique, économie...) ;
      • texte : rechercher les occurrences de mots dans un texte pour en tirer des statistiques, aide à la correction orthographique et/ou grammaticale, et, plus généralement, traitement automatique des langues (TAL) ;
      • images : on peut vouloir identifier un objet (reconnaissance de forme, reconnaissance des caractères ou OCR), ou bien déterminer la surface couverte par une couleur (par exemple pour quantifier une surface recouverte) ;
      • sons : analyse spectrale, reconnaissance vocale.
    • modifiées :
      • nombres : calculs ;
      • texte : modification d'un texte existant, traduction automatique dans une autre langue (ou langage de programmation) ;
      • images : modification du contraste, de la luminosité, des couleurs, effets spéciaux ;
      • sons : application d'effets (réverbération, distorsion, ajustement de la hauteur) ;
        comme il existe, selon les programmes et les besoins, une grande variété de codages possibles pour représenter chaque type d'information, beaucoup de traitements consistent à convertir les données d'un format vers un autre...
    • archivées puis restituées :
      • les moyens et techniques d'archivage varient en fonction de la durée de conservation souhaitée et des quantités de données en jeu : mémoires électroniques, bandes magnétiques, disques magnétiques ou optiques ;
      • les moyens de restitution dépendent de la nature des données : écrans ou imprimantes pour le texte et les images, haut-parleurs ou instruments MIDI pour les sons...

Approche organisationnelle

L'informatique pour l'organisation est un élément d'un système de traitement d'information (les entrées peuvent être des formulaires papier par exemple) et d'automatisation. Depuis Henry Ford, l'automatisation des tâches ayant été identifiée comme un avantage concurrentiel, la question est : que peut-on automatiser ?

Autant il est relativement facile d'automatiser des tâches manuelles, autant il est difficile d'automatiser le travail intellectuel et parfois créatif. L'approche de l'informatique dans une organisation commence donc par l'élucidation des processus, c'est-à-dire la modélisation du métier. Après validation, la MOA (Maîtrise d'Ouvrage) fournit les spécifications fonctionnelles de (l'ouvrage) qui vont servir de référence dans la conception pour la MOE (Maîtrise d'œuvre).

Cette conception sera alors effectuée dans le respect d'un Cycle de développement qui définit les rôles et responsabilités de chaque acteur. Ainsi, les échanges entre MOA et MOE ne se résument pas à la maîtrise des chantiers (tenue des délais et des coûts, et validation des livrables), la MOA et la MOE sont garantes (éventuellement responsables sur un plan juridique) de la cohérence des systèmes d'information, et de l'adéquation des solutions informatiques avec les problèmes utilisateurs finals initialement constatés.

Matériel

On utilise également le terme anglais hardware (littéralement « quincaillerie ») pour désigner le matériel informatique. Il s'agit de tous les composants que l'on peut trouver dans :

1. Les ordinateurs et leurs périphériques : un ordinateur est un ensemble de circuits électroniques permettant de manipuler des données sous forme binaire, représentées par des variations de signal électrique. Il existe différents types d'ordinateurs :

Un IBM PC 5150 datant de 1981, Système d'exploitation IBM-DOS 2.0

Un IBM PC 5150 datant de 1981, Système d'exploitation IBM-DOS 2.0

De bureau ou portables. Ils sont composés d'une unité centrale : un boîtier contenant la carte mère, l'alimentation, des unités de stockage. On y ajoute une console : un écran et un clavier. Divers périphériques peuvent leur être ajoutés, une souris, une imprimante, un scanner, etc.

PC Portable

PC Portable

Des micro-ordinateurs particulièrement puissants et chers, utilisés uniquement pour des besoins professionnels pointus (conception assistée par ordinateur). Ce terme était particulièrement en vogue dans les années 1980-1990. Depuis les années 2000, il n'est guère possible de concevoir une station de travail plus puissante qu'un micro-ordinateur haut de gamme ;

Une armoire abrite l'unité centrale et l'alimentation, une ou plusieurs autres les périphériques de stockage (disque dur, sauvegarde) tandis que les moyens de communication et réseau (routeur, hubs, modem) sont dans la même pièce, mais dans des racks séparés. Une console d'administration (écran, clavier, imprimante) est généralement située dans ce même local ;

Ce sont des ordinateurs qui proposent souvent à des entreprises un endroit de stockage universel pour les utilisateurs connectés aux serveurs. Les serveurs peuvent effectuer des tâches telles que : servir de Pare-Feu, héberger un serveur web (page internet partagée sur le World Wide Web) ou tout simplement pour partager un nombre important d'imprimantes et de périphériques. Les prix des Serveurs sont élevés car le Serveur a été conçu pour rester allumé en permanence, alors le matériel est durable et performant. ;

  • Les PDA (Personal Digital Assistant, encore appelés organiseurs).

Ce sont des ordinateurs de poche proposant des fonctionnalités liées à l'organisation personnelle (agenda, calendrier, carnet d'adresse, etc.). Ils peuvent être reliés à Internet par différents moyens (réseau Wifi, Bluetooth, etc.). ;

Ce sont des ordinateurs qui réunissent tous les périphériques et le matériel pour donner la tâche à l'ordinateur de capter la télévision, écouter de la musique et tout ca sur son écran de télévision, avec généralement une manette à distance. Ce genre de PC est un divertissement familial et est très accessible, bien que leurs prix ont eu tendance à être hauts ces derniers temps, ce type d'ordinateur devient de plus en plus accessible à tous. ;

  • Et bien d'autres appareils.

Dans le domaine de l'informatique embarquée : téléphone, électroménager, automobile, armements militaires, etc. Les cartes à puces, ou l'informatique industrielle.

Logiciel

Le logiciel désigne la partie à première vue immatérielle de l'informatique, l'organisation et le traitement de l'information : les programmes. On s'est en effet vite rendu compte que des machines techniquement très avancées pour leur époque, comme la Bull Gamma 60, restaient invendables tant qu'on n'avait pas de programmes à livrer pour les rendre immédiatement opérationnelles. IBM lança entre 1968 et 1973 une sorte d'ancêtre du logiciel libre avec son ordinateur 1130, politique qui assura à celui-ci par effet boule de neige un succès immédiat et planétaire, mais les conclusions d'un procès antitrust lui interdirent de distribuer bénévolement du logiciel.

Le monde des mainframes classe les logiciels en catégories suivantes :

  • systèmes d'exploitation ;
  • bases de données, comme DB2, Ingres ou Oracle ;
  • programmes de communication, comme NCP ou RSCS ;
  • moniteurs de télétraitement ;
  • systèmes transactionnels, comme CICS ou openUTM ;
  • systèmes de temps partagé, utilisés pour le calcul ou le développement ;
  • compilateurs traduisant les langages en instructions machine et appels système ;
  • tout le reste entrait en une catégorie nommée Logiciels applicatifs.

Plus simplement on distingue généralement trois types de logiciels (par ordre de proximité du matériel) :

On classe aussi les logiciels en libre et propriétaire, bien que les deux soient parfois panachés à des degrés divers. Certains ont une fonction bureautique ou multimédia comme par exemple les jeux vidéo. Certains logiciels ont acquis des noms connus de tous.

Le noyau du système d'exploitation crée le lien entre le matériel et le logiciel. Un logiciel, quand il est fourni sous sa forme binaire, serait utilisable uniquement avec un système d'exploitation donné (car il en utilise les services), et ne fonctionnerait que sur un matériel spécifique (car il en utilise le code d'instructions). Une conception plus récente, depuis le milieu de années 1980, consiste à distribuer les logiciels tous binaires confondus, et à les munir d'un système de licences par jetons ou tokens permettant l'usage de N copies simultanées du logiciel sur le réseau, tous matériels confondus. Cette approche est majoritaire dans le monde UNIX.

À l'initiative de Richard Stallman et du GNU, à partir de 1985, une mouvance de programmeurs refuse cette logique propriétaire et ceux-ci se muent en concepteurs inventifs pour se lancer dans le développement d'outils et de bibliothèques système libres et compatibles avec le système UNIX. C'est pourtant le projet indépendant Linux, initié par Linus Torvalds, basé sur les travaux et les outils du GNU, qui aboutira dans la création d'un système d'exploitation complet et libre appelé GNU/Linux.

Une bonne partie des logiciels actuels fonctionnent dans un environnement graphique pour interagir avec l'utilisateur. La diversité des systèmes informatiques a fait apparaître une technique visant à combiner le meilleur de chacun de ces univers : l'émulateur. Il s'agit d'un logiciel permettant de simuler le comportement d'un autre système dans celui que l'on utilise,

  • soit pour qu'une machine semble être une autre (voir IBM 1130),
  • soit pour simuler le comportement d'un système d'exploitation (par exemple DOS ou Windows sous GNU/Linux).

Le terme anglais est software, à l'origine un jeu de mot entre hardware (« quincaillerie », pour désigner le matériel) et l'opposition soft/hard (mou/dur), opposition entre le matériel (le dur) et l'immatériel (le mou). Les traductions françaises matériel et logiciel rendent parfaitement cette opposition et cette complémentarité.

Le logiciel réalise normalement une fonction attendue de ses utilisateurs. Néanmoins, des effets secondaires (parfois nommés par contresens de traduction effets de bord) existent. Parfois même, certains logiciels sont destinés à nuire, comme les virus informatiques, nommés en anglais, par analogie avec software : malware (qu'on pourrait traduire par le néologisme nuisiciel, ou logiciel malveillant).

La création des logiciels

Un projet informatique s'inscrit dans un cycle de développement qui définit les grandes étapes de la réalisation (planification), de la manière dont on passe d'une étape à l'autre (modèle incrémental, en V, en spirale, méthode up, extreme programming, etc.). Pour les petits projets (ou les petites équipes de développement), cette réflexion est souvent négligée (on se répartit les modules et chacun développe dans son coin). Ceci est une cause fréquente d'erreurs (bogues) et de non-conformité (le produit final n'est pas conforme aux attentes de l'utilisateur). Mais même les énormes projets, avec beaucoup de moyens, sont victimes de cette négligence ; ainsi, l'échec du premier vol d'Ariane 5 fut dû à un problème de logiciel, etc. Un projet peut alors intégrer une approche de la qualité et de la sûreté de fonctionnement des systèmes informatiques afin de contrôler autant que possible le produit final.

Un projet comprend les étapes suivantes (selon le modèle incrémental) :

  • l'établissement d'un cahier des charges qui définit les spécifications auxquelles devra répondre le logiciel ;
  • la définition de l'environnement d'exécution  (architecture informatique) :
    • type(s) d'ordinateur sur lequel le logiciel doit fonctionner (station de calcul, ordinateur de bureau, ordinateur portable, assistant personnel, téléphone portable, guichet automatique de banque, ordinateur embarqué dans un véhicule ;
    • type et version du(des) système(s) d'exploitation sous-jacent ;
    • périphériques nécessaires à l'enregistrement des données et à la restitution des résultats (capacité de stockage, mémoire vive, possibilités graphiques...) ;
    • nature des connexions réseau entre les composants (niveau de confidentialité et de fiabilité, performances, protocoles de communication...) ;
  • la conception de l'application et de ses constituants, et notamment de l'interactivité entre les modules développés : structure des données partagées, traitement des erreurs générées par un autre module... : c'est le domaine du génie logiciel ;
  • la mise en place d'une stratégie de développement :
    • répartition des tâches entre les développeurs ou les équipes de développement, qui vont assurer le codage et les tests ;
  • le plan de test du logiciel, pour s'assurer qu'il remplit bien la mission pour laquelle il a été écrit, dans toutes les conditions d'utilisation qu'il pourra normalement rencontrer, mais aussi dans des cas limites.

Après chacune de ces phases, on peut avoir une étape de recette, où le client va valider les choix et les propositions du maître d'œuvre.

La phase de programmation consiste à décrire le comportement du logiciel à l'aide d'un langage de programmation. Un compilateur sert alors à transformer ce code écrit dans un langage informatique compréhensible par un humain en un code compréhensible par la machine, le résultat est un exécutable. On peut également, pour certains langages de programmation, utiliser un interpréteur qui exécute un code au fur et à mesure de sa lecture, sans nécessairement créer d'exécutable. Enfin, un intermédiaire consiste à compiler le code écrit vers du bytecode. Il s'agit également d'un format binaire, compréhensible seulement par une machine, mais il est destiné à être exécuté sur une machine virtuelle, un programme qui émule les principales composantes d'une machine réelle. Le principal avantage par rapport au code machine est une portabilité théoriquement accrue (il « suffit » d'implanter la machine virtuelle pour une architecture donnée pour que tous les programmes en bytecode puissent y être exécutés), portabilité qui a fait, après sa lenteur, la réputation de Java. Il convient de noter que ces trois modes d'exécution ne sont nullement incompatibles. Par exemple, OCaml dispose à la fois d'un interpréteur, d'un compilateur vers du bytecode, et d'un compilateur vers du code natif pour une grande variété de processeurs. Une fois écrit (et compilé si nécessaire), le code devient un logiciel.

Pour des projets de grande amplitude, nécessitant la collaboration de beaucoup de programmeurs, voire de plusieurs équipes, on a souvent recours à une méthodologie commune (par exemple MERISE) pour la conception et à un atelier de génie logiciel (AGL) pour la réalisation.

Au cours de la programmation et avant la livraison du produit final, le programme est testé afin de vérifier qu'il fonctionne bien (y compris dans des cas d'utilisation en mode dégradé) et qu'il est conforme aux attentes de l'utilisateur final. Les tests intermédiaires permettent de s'assurer que chaque module de code réalise correctement une fonction : ce sont les tests unitaires. Les tests finals qui vérifient le bon enchaînement des modules et des traitements sont des tests d'intégration.

Pour certaines applications demandant un haut niveau de sûreté de fonctionnement, les tests sont précédés d'une étape de vérification, où des logiciels spécialisés effectuent (généralement sur le code source, mais parfois aussi sur le code compilé) un certain nombre d'analyses pour vérifier partiellement le bon fonctionnement du programme. Il n'est toutefois pas possible (et des théorèmes mathématiques montrent pourquoi), de garantir la parfaite correction de tout logiciel par ce moyen et la phase de test reste donc nécessaire. Elle se complète aussi, lorsqu'il s'agit d'une évolution d'une application existante, de nombreux tests automatisés de non-régression. Les tests non plus ne pouvant pas garantir totalement l'absence d'erreurs, il est bon de les compléter par des phases de vérification par relecture : des techniques existent pour essayer de rendre cette vérification exhaustive.

Statistiques : la création d'un logiciel est une tâche ardue ; environ 31% des projets informatiques sont abandonnés avant d'être terminés, plus de 50% des projets coûtent le double du coût initialement estimé et seulement 15% des projets finissent dans les temps et selon le budget défini. Les besoins de seule maintenance de l'existant peuvent prendre jusqu'à 50% des effectifs d'une équipe chargée d'un logiciel (or, c'est là une fonction pénible, ingrate, peu valorisante et qui rebute et démotive souvent les bons programmeurs).

Toutefois avec l'utilisation de méthodes comme la méthode UP ou l'extreme programming, ces statistiques ont tendance à s'améliorer. Notamment, grâce à un développement par itérations successives où les phases d'analyse, de conception, de réalisation et de test se répètent plusieurs fois pendant la durée de vie du projet et produisent à chaque fois un produit exécutable. Le client peut après chacune des itérations "tester" le produit et donner son avis. Ces méthodes permettent ainsi une meilleure gestion des coûts et surtout de la qualité tout en réduisant fortement les risques de non conformité avec les souhaits du client.

Traitement de l'information

L'information, pour être traitée, doit être :

  • représentée par un codage :
    • on utilise un système de numération binaire, où l'élément unitaire informationnel est le bit (contraction de l'anglais binary digit : chiffre binaire). Les bits sont généralement regroupés par huit, pour constituer des octets (ou bytes). Un octet peut être représenté par la séquence des bits qui le constituent (par exemple : 00101110) ou par une paire de valeurs hexadécimales (pour le même exemple : 2E), plus compact. Le choix du binaire ne résulte pas de la mystique, mais tout simplement d'utiliser de simples circuits de commutation, qui ont de très larges tolérances et par conséquent de faibles coûts ;
    • on représente la structuration de l'information pour permettre des échanges entre composants logiciels et entre composants matériels. Pour cela, on définit des langages et des formalismes de représentation.
  • stockée dans des systèmes permanents (mémoires dites de masse) ou non (mémoires dites volatiles).

Échanges de données : protocoles et normes

Les protocoles définissent une manière de procéder, notamment pour codifier la façon dont deux entités communiquent (modules ou couches logicielles, périphériques, etc.). On parle notamment de protocole de communication lorsqu'on veut définir des mécanismes de contrôle sur la manière dont l'échange d'information est réalisé.

Un protocole peut ainsi définir :

  • un langage de description d'instructions et de données graphiques (exemple : AGP) ;
  • un standard de commandes et de flux d'information pour une mémoire de masse (exemples : SCSI, FireWire, IDE, Serial ATA) ;
  • des échanges entre le processeur et des cartes d'extension (exemples : PCI, PCI Express, ISA) ;
  • des modalités de transfert d'information entre périphériques (exemple : USB) ou sur un réseau TCP/IP, Internet, ATM, X.25) ;
  • des commandes entre un client et un serveur (exemples : POP3, IMAP, HTTP, FTP …) ;
  • des échanges de données informatisés spécifiques (exemples : EDI, EAI, X.400, X.500).

Certains protocoles sont définis par des normes pour permettre l'interopérabilité des matériels ou de logiciels les mettant en œuvre. D'autres normes définissent, toujours dans le domaine de l'échanges de données :

  • des langages de représentation d'information sans pour autant définir la manière dont cette information peut être échangée (exemples : ASN.1, XML) ;
  • des architectures de réseaux (exemples : Modèle OSI, WiFi, Ethernet, Token-Ring).

Stockage des données

En matière de stockage d'information, on distingue le dispositif permettant de l'enregistrer physiquement (périphériques et composants) de la manière dont on structure et représente l'information pour faciliter son traitement.

Mémoire de masse
Mémoire volatile
Organisation des données en vue du stockage

La distribution de matériels et logiciels informatique

Historiquement l'informatique a été distribuée (revendue) par les grands constructeurs qui traitaient en direct avec leurs clients ; la plupart de ceux-ci étant des grands comptes ou des organismes publics. Au fur et à mesure de la baisse des prix des systèmes, le marché s'est élargi, obligeant les constructeurs à se structurer pour mieux diffuser leur produit et à s'appuyer sur des partenaires. Ces partenaires étaient au départ mono-marque et travaillaient souvent sous la forme d'agent semi-exclusif puis ils se sont transformés au fil du temps en revendeurs indépendants multi-marques.

Aujourd'hui la distribution des produits informatiques est faite sous la forme de multiples canaux de distribution, parmi lesquelles on compte la vente directe, le e-commerce, les chaînes de revendeurs, les groupements de revendeurs, la vente par correspondance.

Les grossistes informatiques ont un rôle clef dans la distribution informatique et sont un point de passage quasi obligé pour les sociétés qui ont choisi la vente indirecte (par un réseau de revendeurs). Les grossistes, qu'ils soient généralistes ou spécialisés, adressent la multitude de petits points de vente ou les sociétés de service pour lesquelles l'activité de négoce représente un volume d'activité faible.

La France compte environ 40 000 sociétés informatiques et télécoms dont près de 15 000 ont une activité de distribution.

Il faut noter que si le nombre de sociétés distribuant des produits informatique ne cessent de s'étendre cela l'est beaucoup plus au profit de la distribution structurée visant le grand public que des revendeurs indépendants dont le nombre ne cesse de décroitre et dont l'activité se tourne de plus en plus vers la notion de société de service informatique comme les SSII.

10  9

24 mai 2008

RéseauInformatique

reseaux_20_9_

Un réseau informatique est un ensemble d'équipements reliés entre eux pour échanger des informations. Par analogie avec un filet (un réseau est un « petit rets », c'est-à-dire un petit filet), on appelle nœud (node) l'extrémité d'une connexion, qui peut être une intersection de plusieurs connexions (un ordinateur, un routeur, un concentrateur, un commutateur).

Indépendamment de la technologie sous-jacente, on porte généralement une vue matricielle sur ce qu'est un réseau. De façon horizontale, un réseau est une strate de trois couches : les infrastructures, les fonctions de contrôle et de commande, les services rendus à l'utilisateur. De façon verticale, on utilise souvent un découpage géographique : réseau local, réseau d'accès et réseau d'interconnexion.

Infrastructures

Les infrastructures ou supports peuvent être sur des câbles dans lesquels circulent des signaux électriques, l'atmosphère (ou le vide spatial) où circulent des ondes radio, ou des fibres optiques qui propagent des ondes lumineuses. Elles permettent de relier « physiquement » des équipements assurant l'interconnexion des moyens physiques qui sont définis par des protocoles. Les équipements d'un réseau sont connectés directement ou non entre eux, conformément à quelques organisations types connues sous le nom de topologie de réseau. Les principaux types de réseaux filaires pour les réseaux informatiques utilisent les protocoles suivant qui proviennent du standard Ethernet :

Plusieurs normes définissent les modalités de fonctionnement des réseaux hertziens, comme par exemple la norme Wi-Fi (IEEE 802.11).

Les courants porteurs en ligne (CPL) permettent quant à eux de transporter des flux d'information sur un réseau électrique local.

Protocoles et services

Les protocoles de communication permettent de définir de façon standardisée la manière dont les informations sont échangées entre les équipements du réseau : il s'agit de procédures qui contrôlent le flux d'information entre deux équipements. Des logiciels spécifiques qui gèrent ces protocoles sont installés sur les équipements d'interconnexion comme les commutateurs réseau, les routeurs, les commutateurs téléphoniques, les antennes GSM, etc. Les fonctions de contrôle peuvent être assurées par des protocoles de signalisation ou des tables de routage.

Les services se basent sur les protocoles pour fournir, par exemple :

  • des transferts de textes (SMS...)
  • ou de données (Internet...),
  • des communications vocales (téléphone...),
  • ou des diffusions d'images (télé...).

Sous réseau

Un réseau (ne pas confondre ce terme avec celui qui sert à désigner la couche n°3 dans le modèle OSI de l'ISO ou la couche Réseau dans la pile de protocoles Internet) ou sous réseau peut être composé de plusieurs réseaux ou sous réseaux à base d'équipements matériels. Dans le protocole IP les membres d'un même sous réseau ou réseau possèdent le même identifiant, calculable à partir de l'adresse IP et du masque de sous réseau. L'utilisation d'une architecture comprenant des sous-réseaux permet une gestion du parc informatique plus aisée (un sous-réseau par service ou par salle, par exemple) ou un broadcast sélectif.

Découpage géographique

Les réseaux informatiques sont classés suivant leur portée :

  • le réseau personnel (PAN) relie des appareils électroniques personnels ;
  • le réseau local (LAN) relie les ordinateurs ou postes téléphoniques situés dans la même pièce ou dans le même bâtiment ;
  • le réseau métropolitain (MAN) est un réseau à l'échelle d'une ville ;
  • le réseau étendu (WAN) est un réseau à grande échelle qui relie plusieurs sites ou des ordinateurs du monde entier

Egalement (à titre indicatif):

  • le réseau régional (RAN) qui a "pour objectif de couvrir une large surface géographique. Dans le cas des réseaux sans fil, les RAN peuvent avoir une cinquantaine de kilomètres de rayon, ce qui permet, à partir d'une seule antenne, de connecter un très grand nombre d'utilisateurs. Cette solution devrait profiter du dividende numérique, c'est à dire des bandes de fréquences de la télévision analogique, qui seront libérés, après le passage au tout numérique, fin 2011 en France".

Découpage fonctionnel

Un réseau peut être classé en fonction de son utilisation et des services qu'il offre. Ce découpage recoupe également la notion d'échelle. Ainsi, pour les réseaux utilisant les technologies Internet (famille des protocoles TCP/IP), la nomenclature est la suivante :

  • Intranet : le réseau interne d'une entité organisationnelle
  • Extranet : le réseau externe d'une entité organisationnelle
  • Internet : le réseau des réseaux interconnectés à l'échelle de la planète

Catégories de réseau informatique

Il existe plusieurs façons de catégoriser un réseau informatique.

Les réseaux informatiques peuvent être catégorisés en terme d'étendue :

Les réseaux informatiques peuvent aussi être catégorisés par relation fonctionnelle entre les composants :

Ils peuvent également être catégorisés par topologie de réseau :

Les réseaux informatiques peuvent être implémentés en utilisant plusieurs piles de protocoles, ou avec des combinaisons de médias et de couches de protocoles. Une liste des protocoles existants est disponible à Protocole de communication et IEEE 802.

Sujets connexes:

reseaux

18 mai 2008

L'internet

referencement_site_internet

Internet est le réseau informatique mondial qui rend accessibles au public des services comme le courrier électronique et le World Wide Web. Ses utilisateurs sont désignés par le néologisme « internaute ». Techniquement, Internet se définit comme le réseau public mondial utilisant le protocole de communication IP (Internet Protocol).

Internet ayant été popularisé par l'apparition du World Wide Web, les deux sont parfois confondus par le public non averti. En réalité, le web est une des applications d'Internet, comme le sont le courrier électronique, la messagerie instantanée et les systèmes de partage de fichiers poste à poste.

Par ailleurs, du point de vue de la confidentialité des communications, il importe de distinguer Internet des intranets, les réseaux privés au sein des entreprises, administrations, etc., et des extranets, interconnexions d'intranets pouvant emprunter Internet.Internet

Publicité
Publicité
Le Blog de Nadjib
Publicité
Publicité