Le Cloud Computing

Mais où va l’Informatique: le Cloud Computing

Pour comprendre l’avenir de l’informatique, il faut d’abord comprendre quels produits et technologies occuperont le devant de la scène dans les années à venir. Bien que rien ne soit jamais sûr, l’examen des tendances actuelles et des projections peut aider à anticiper l’évolution de l’informatique.
Pour beaucoup de travailleurs de l’information, l’une des plus grandes répercussions peut venir des appareils qu’ils utilisent pour réaliser leur travail. La fin des années 2000 a été marquée par une hausse fulgurante de la popularité des smartphones dans l’entreprise, suivie par la tablette dès 2010. Aujourd’hui, les tablettes réussissent là où les netbooks ont échoué, en offrant une alternative plus « mobile » aux ordinateurs portables.

Big data

Top Big Data Tools to be used in 2020Littéralement les  « Grosses données », est une expression anglophone utilisée pour désigner des ensembles de données qui deviennent tellement volumineux qu’il  devient difficiles de travailler avec les outils classiques de gestion de base de données.

トランザクション処理がデータの整合性を保証してくれる
undefined
Les perspectives du traitement des big data (la capture, le stockage, la recherche, le partage, l’analyse et la visualisation des données) sont énormes, notamment pour l’analyse d’opinions politiques ou de tendances industrielles, la génomique, l’épidémiologie ou la lutte contre la criminalité ou la sécurité.
Le phénomène Big data est considéré comme l’un des grands défis informatiques de la décennie 2010-2020.
Il engendre ainsi  une dynamique importante tant par l’administration, que par les technologies mises en œuvre.
L’une des répercussions les plus fortes sur l’informatique d’entreprise sera sans doute l’amélioration des outils servant à collecter, traiter et mesurer le big data Les entreprises ont accès à des données potentiellement illimitées et à de nouveaux outils pour les éclairer sur des perspectives jusque-là inexploitées.
Selon une étude récente d’IDC, le marché des services analytiques devrait représenter 70,8 milliards de dollars en 2016, avec une progression annuelle de 14,3 %.
Un marché essentiellement externe, les organisations devant faire face à l’émergence de nouvelles technologies non maîtrisées, à une absence en interne de ressources pour l’analyse (statisticiens, mathématiciens, etc.), et à la présence de sociétés spécialisées dans ce domaine.
Au sein de ce marché, l’infrastructure – serveurs, stockage, réseaux, logiciels – et les services spécifiques au Big Data devraient représenter 23,8 milliards de dollars, en progression annuelle de 31,7 %.
Quant au stockage – simplement dédié à l’analytique – la part de marché est estimée à 6 milliards de dollars.
Le concept de virtualisation en quelques mots
La virtualisation est une technologie qui rompt le lien entre les différents éléments d’un poste informatique.
On distingue virtualisation d’applications et virtualisation de postes de travail.
Le concept de « virtualisation » couvre l’ensemble des techniques permettant de dissocier les caractéristiques physiques d’un système matériel ou logiciel des applications orientées utilisateurs.illustration of the concept of Virtualization [7] | Download Scientific ...
La virtualisation est utilisée pour permettre le fonctionnement de plusieurs machines virtuelles disposant chacune de leur système d’exploitation spécifique partageant la même infrastructure physique.
Le concept couvre différents aspects :
On peut ainsi virtualiser les serveurs (émulation des OS), le stockage (simplification de gestion), les application (simplification de l’administration) ou encore le poste client (optimisation du TCO, coût de possession)…

Virtualisation du serveur

Pour mieux rentabiliser son parc informatique et utiliser plus efficacement les ressources des serveurs disponibles, il est intéressant de les « virtualiser ». Pour cela, par un principe d’émulation, une couche logiciel isole les ressources physiques des systèmes d’exploitation. Ceux-ci s’exécutent alors sur des « machines virtuelles ». Par ce principe plusieurs systèmes d’exploitation peuvent cohabiter sur une même machine, indépendamment l’un de l’autre. A titre d’exemple concret, voir les solutions de virtualisation de serveur Vmware.

 

VMwareTutorial - What is VMware and Physical Topology of Virtual ...

Le Cloud c’est quoi?

Migrer son informatique «Legacy» vers le cloud public : comment démarrer, immédiatement. Première partie, les infrastructures - Louis Naugès

VMware Integrated OpenStack (VIO) Aims to Provide Simplified ...L’informatique est encore en train de se transformer, elle se centralise à nouveau avec l’avènement des data centers, et surtout, elle se dématérialise et devient « l’informatique en nuage» ou « Cloud Computing » en anglais.
La puissance informatique devient virtuelle et se consomme où et quand on en a besoin et devient extensible.
Une étude a été menée en septembre 2015 auprès de 813 personnes en France, en Italie, en Allemagne, en Scandinavie, au Royaume-Uni, aux États-Unis et au Canada.
OpenStack est un ensemble de logiciels open source permettant de déployer des infrastructures de cloud computing (infrastructure en tant que service). La technologie possède une architecture modulaire composée de plusieurs projets corrélés (Nova, Swift, Glance…) qui permettent de contrôler les différentes ressources des machines virtuelles telles que la puissance de calcul, le stockage ou encore le réseau inhérents au centre de données sollicité.VMware Integrated OpenStack 3.0 Announced (VIO) | ESX Virtualization
Le projet est porté par la Fondation OpenStack, une organisation non-commerciale qui a pour but de promouvoir le projet OpenStack ainsi que de protéger et d’aider les développeurs et toute la communauté OpenStack.
De nombreuses entreprises ont rejoint la fondation OpenStack. Parmi celles-ci on retrouve : Canonical, Red Hat, SUSE, eNovance, AT&T, Cisco, Dell, HP, IBM, Yahoo!,Oracle, Orange, Cloudwatt, EMC, VMware, Intel, NetApp.
C’est un logiciel libre distribué selon les termes de la licence Apache.
79% des entreprises françaises envisagent ou ont déjà migré sur un Cloud privé OpenStack
En Australie également, les projets OpenStack se multiplient. Il y a dix ans la plupart des chercheurs travaillaient sur un PC haut de gamme et espéraient qu’il y ait suffisamment d’espace disque pour exécuter leurs applications témoigne dans The Register Andrew Howard du National Computing Infrastructure, un des plus gros développement d’OpenStack en Australie. Son datacenter propose 30 Po de stockage distribué en mode OpenStack. Maintenant, dit Andrew Howard « vous exécutez votre calcul et vos données sont stockées dans un centre national. Vous avez plus de puissance de calcul que dans votre environnement local, et vous récupérez vos données via le réseau. »

Mais où se trouve ce Cloud en réalité?

Le Cloud peut être un serveur dans un Datacenter, comme il peut être une combinaison de plusieurs Sites répartis sur plusieurs continents. Le client n’a plus besoin de connaître l’emplacement de ses données tant que le responsable du Cloud s’engage à offrir un service de qualité tout en gardant la confidentialité des données qu’il héberge.
À mesure que les employés deviendront de plus en plus mobiles, la demande en services de cloud augmentera également. Le cloud computing et la mobilité ne sont pas interdépendants, mais ils bénéficient l’un de l’autre s’agissant d’encourager la productivité et la collaboration.
L’informatique est encore en train de se transformer, elle se centralise à nouveau avec l’avènement des data centers,
et surtout, elle se dématérialise et devient « l’informatique en nuage» ou « Cloud Computing » en anglais.
La puissance informatique devient virtuelle et se consomme où et quand on en a besoin et devient extensible, tout ceci grâce à l’Internet.

Où se trouvent ces ressources informatiques, qui ne sont plus en local ? Certaines sont-elles en France ?

Elles ont beau être « dans le nuage », elles sont bien sur Terre, dans des datacenters géants qui font une bonne dizaine de fois la taille d’un terrain de football, et qui sont remplis de machines. Chez Microsoft, deux datacenters sont actuellement en cours de construction. Nous en possédons un en Europe, à Dublin, qui a coûté 500 millions de dollars, et nous avons un backup à Amsterdam, que nous louons à des hébergeurs. Plus un datacenter est loin de l’utilisateur, plus le temps de réponse est long. On sait augmenter la bande passante mais pas diminuer le temps de latence des requêtes. Pour le grand public, en gros seules des messageries sont hébergées en France.
VMware Cloud on AWS – More details emerging – The Fluffy Admin

Le problème, c’est que les données sont détenues par un petit nombre d’entreprises, et que l’accès repose sur le maintien d’une connexion internet.

Les grands acteurs du cloud sont en effet peu nombreux. Google, Amazon, Microsoft, Salesforce. Pour plus de sécurité, pour les entreprises, il existe des clouds privés, qui ne sont pas partagés. L’objectif est d’avoir les mêmes bénéfices, mais de garder le contrôle de son environnement. Ce type de services est proposé par de nombreux acteurs, comme les hébergeurs, IBM…

En ce qui concerne le grand public, est-ce possible de savoir où se trouvent les données stockées ?

L’internaute lambda ne peut pas savoir. Ces données peuvent aussi bouger. Aucun engagement n’est pris à ce niveau là vis-à-vis du grand public.

Définitions du cloud computing

En France, la commission de terminologie (La Commission générale de terminologie et de néologie est une assemblée française de personnalités bénévoles au centre d’un dispositif interministériel dont la mission est de favoriser l’enrichissement de la langue française. Placée sous l’autorité du Premier ministre, elle a été créée par le décret no 96-602 du 3 juillet 1996 relatif à l’enrichissement de la langue française. Sa mission, outre l’enrichissement du vocabulaire spécialisé par la création terminologique et la néologie, est de favoriser l’utilisation de la langue française, notamment dans les domaines économique, juridique, scientifique et technique, mais aussi de participer au développement de la francophonie.) l’a défini comme
« le mode de traitement des données d’un client, dont l’exploitation s’effectue par l’internet, sous la forme de services fournis par un prestataire ». Elle constitue « une forme particulière de gérance de l’informatique, dans laquelle l’emplacement et le fonctionnement du nuage ne sont pas portés à la connaissance des clients» (JORFdu 6 juin 2010).Cloud computing
  Définition de l’UIT: « Le Cloud Computing est un modèle permettant   aux utilisateurs de ce service d’avoir un accès réseau ubiquiste,   pratique et à la demande à un ensemble partagé de ressources   informatiques configurables (réseaux, serveurs, stockage,   applications et services) et qui peut être rapidement approvisionné   et libéré avec un effort minimal de gestion ou de l’interaction du prestataire de service. Cloud Computing permet des services Cloud ». (2012).

Le Cloud Computing désigne une infrastructure informatique dans laquelle les données et les logiciels sont conservés et traités à distance dans le data center du fournisseur d’informatique en nuage ou dans des centres interconnectés au moyen d’une excellente bande passante indispensable à la fluidité du système, accessibles en tant que service par le biais d’Internet.
NIST Cloud Computing Definition. | Download Scientific DiagramSelon le NIST (National Institute of Standards and Technology) aux Etats-Unis [le NIST (source Wikipedia) est une agence du Département du Commerce des États-Unis.Son but est de promouvoir l’économie en développant des technologies, la métrologie et des standards de concert avec l’industrie. Cette agence a pris la suite en 1988 du National Bureau of Standards, fondé en 1901 avec substantiellement les mêmes missions]:
«L’informatique en nuage offre un accès réseau universel, pratique et à la demande à un ensemble partagé de ressources informatiques configurables, telles que des réseaux, serveurs, systèmes de stockage, applications et services rapidement disponibles par le biais d’un effort de gestion minimal ou d’une interaction réduite de la part du prestataire de services ». (2009)
L’UIT-T a formé un groupe d’étude (FG) sur la normalisation du Cloud Computing qui a terminé son étude préliminaire formée d’un rapport en sept parties (Février 2012).

1)Introduction à l’écosystème du Cloud Computing, définitions, taxonomies, exemples de cas et Tout ce qu'il y a à savoir sur le cloud computingconditions de haut niveau ;

2) Conditions fonctionnelles et architecture de référence ;

3) Exigences et architecture de l’infrastructure du Cloud ;

4) Analyse et gestion des ressources du Cloud ;

5) Sécurité du Cloud ;

6) Vues d’ensemble sur les organisations de normalisation impliquées dans le Cloud ;

7) Avantages du Cloud pour les télécommunications et perspectives pour les TIC.

L’informatique en nuage se caractérise par

  • Le matériel est détenu par le fournisseur de service Cloud et non par l’utilisateur
  • Une flexibilité immédiate en fonction des besoins de l’utilisateur
  • Une mutualisation des ressources au sein d’un data center
  • Une virtualisation des systèmes
  • Un usage à la demande
  • Une accessibilité par le biais d’un réseau depuis n’importe quel point géographique
  • Une possibilité de paiement à l’usage (pay per use)

Le cloud computing avenir de l’informatique?

Nicolas Carr “Nos estamos volviendo menos inteligentes, más cerrados de mente e ...est devenu célèbre après avoir publié un article, puis un livre sur le thème : Does IT matter? ( Est-ce que l’informatique estDoes IT Matter?: Information Technology and the Corrosion of ... importante ?)Carr se fait remarquer à partir de 2003 lorsque sont publiés successivement son article « IT Doesn’t Matter » dans la Harvard Business Review, et son livre Does IT Matter? Information Technology and the Corrosion of Competitive Advantage aux éditions Harvard Business School Press (le titre des deux publications joue sur les deux acceptions du terme « IT » : comme article défini ou comme acronyme pour Information technology).PPT - Building IT Leadership: Revisiting Key Issues PowerPoint ... Dans ces deux publications, qui feront l’objet d’intenses débats, il soutient l’idée que l’importance des technologies de l’information dans le monde des affaires a diminué à mesure que ces dernières devenaient plus communes, standardisées et abordables ; leur usage ne permet plus de bénéficier d’un avantage compétitif réel, ce qui induit de revoir à la baisse les dépenses qui y sont associées, ou au moins de cesser de courir après les innovations technologiques pour elles-mêmes (« Follow, don’t lead »)
Nicholas Carr Does It Matter Pdf EditorLe deuxième livre de Nicholas Carr, The Big Switch: Rewiring the World, From Edison to Google, est publié en janvier 2008 par W. W. Norton. Il examine les conséquences économiques et sociales de l’émergence du cloud par rapport à celles provoquées par l’avènement de l’électricité au xxe siècle.
Le même mois, Carr devient membre du Comité de conseil éditorial de l’Encyclopædia Britannica.

Waterwheel à Burden Iron Works, Troy, New York; Henry Burden –

The Big Switch, un titre difficile à traduire, surtout après avoir compris que le mot “Switch” est utilisé pour parler de l’informatique et de l’énergie électrique.
L’avenir de l’informatique = “On the Cloud”
La première partie du livre, les 7 premiers chapitres, est une remarquable démonstration de l’évolution des infrastructures informatiques “on the cloud” et des applications vers une logique SaaS, Software as a Service”.
Nicolas Carr reprend l’analogie entre l’évolution de l’électricité et de l’informatique. Au milieu du XIX siècle, chaque entreprise industrielle fabriquait son énergie ;
IL cite en exemple la plus grande roue hydraulique du monde de 20 mètres de haut, construite par Henry Burden, pour fabriquer des clous pour les rails et des fers pour les chevaux.
50 ans plus tard, cette roue était immobile inutile, remplacée par de l’énergie électrique, grâce aux inventions de Thomas Edison.
Samuel Insull
30 ans plus tard, les “utilities” électriques, créées par Samuel Insull, un collaborateur d’Edison,
fonctionnant en courant alternatif et à partir de centrales très puissantes, avaient marginalisé les petites centrales locales en courant continu d’Edison.
Nicolas Carr pronostique que l’informatique va, rapidement, suivre une évolution similaire :
Les entreprises ont créé leur propre énergie informatique à l’époque des Mainframes et du client serveur
Les progrès des réseaux et du Web vont, rapidement, rendre obsolètes les centres de calcul construits par les entreprises pour leurs propres usages.
L’essentiel de l’énergie informatique mondiale sera, très rapidement, fournie par les “centrales nucléaires informatiques” construites à coups de milliards de dollars par Google, Amazon, eBay ou Microsoft.

Qu’est-ce que le Cloud Computing ?

Selon la NIST, le cloud computing c’est 5 caractéristiques clés:Defining On-Prem, IaaS, PaaS and SaaS: Which is right for you?

 

Définitions de la terminologie Microsoft

Toute cette terminologie peut prêter à confusion, nous avons donc mis en place un court dictionnaire pour aider les organisations à mieux comprendre quelles fonctionnalités de leur pile sont réellement gérées par elles ou par Microsoft lorsqu’elles choisissent entre On-Prem, IaaS, PaaS ou SaaS.

Infrastructure en tant que service
Marché de l’infrastructure en tant que service (IaaS) 2021 Tendances ...Capacité de provisionnement du stockage, des réseaux, du traitement ainsi que d’autres ressources où l’utilisateur peut déployer et exécuter des logiciels.

Plate-forme en tant que service
Guide pratique de la plate-forme en tant que service: Qu'est-ce que le ...Un modèle de cloud computing qui permet à l’utilisateur de développer, exécuter, gérer et déployer des applications au sein d’une infrastructure cloud, en utilisant des technologies prises en charge, sans créer et maintenir ladite infrastructure.

Logiciel en tant que service Le logiciel en tant que service
(SaaS) est un modèle de distribution de logiciels dans lequel un fournisseur tiers héberge des applications et les met à la disposition des clients sur Internet.

Sur place

Le logiciel sur site (« sur site ») est installé et s’exécute sur des ordinateurs dans les locaux de l’organisation qui utilise le logiciel, plutôt que dans une installation distante.

Application
Ensemble d’instructions qu’un ordinateur ou un périphérique utilise pour effectuer une tâche spécifique, telle que le traitement de texte, la comptabilité ou la gestion des données.

Données
Représentation de concepts tels que des faits ou des instructions de manière formalisée, adaptée à la communication, à l’interprétation ou au traitement.

Runtime
Période pendant laquelle un programme est en cours d’exécution. Il commence lorsqu’un programme est ouvert (ou exécuté) et se termine lorsque le programme est fermé ou fermé.

Middleware
est un logiciel informatique qui fournit des services aux applications logicielles au-delà de ceux disponibles à partir du système d’exploitation.

Système d’exploitation Logiciel qui contrôle l’allocation et l’utilisation des ressources matérielles telles que la mémoire, le temps de l’unité centrale de traitement (CPU), l’espace disque et les périphériques. Le système d’exploitation est la base sur laquelle les programmes sont construits.

Virtualisation
Action de créer une version virtuelle (plutôt que réelle) de quelque chose, y compris des plates-formes matérielles informatiques virtuelles, des périphériques de stockage et des ressources de réseau informatique.

Serveurs
Ordinateur qui fournit des ressources partagées, telles que des fichiers ou des imprimantes, aux utilisateurs réseau.

Stockage
Périphérique capable de conserver des données en vue d’une récupération ultérieure.

Mise en réseau Sous-catégorie Outils de développement contenant des applications pour aider les développeurs à gérer les aspects réseau
de la création d’une application.

Vous pouvez lire plus de définitions de Microsoft ici.

4 modèles de déploiement

Les différents types de modèles de déploiement de cloud computing sont :

  1. Nuage public
  2. Nuage privé
  3. Nuage hybride
  4. Nuage communautaire
  5. Multi-cloud

Cloud public

Global public cloud surges 26 percent - On Point EnterprisesPour les entreprises nécessitant un accès rapide aux ressources informatiques sans coût initial important, les services d’un Cloud public constituent une option idéale. Avec un Cloud public, votre entreprise achète des services de calcul, de stockage et de réseau virtualisés sur l’Internet public d’un fournisseur de services Cloud. Cela peut vous aider à accélérer les délais de mise sur le marché, à évoluer rapidement et à bénéficier de l’agilité permettant d’essayer rapidement de nouvelles applications et services.

Comme les services de Cloud publics sont payés à l’utilisation, ils ne nécessitent qu’un investissement minimal pour commencer. Ils sont également faciles à faire évoluer, car vous pouvez simplement acheter davantage de capacité en fonction de vos besoins. Les services de Cloud publics sont particulièrement utiles pour les charges de travail exécutées pendant une courte période, par exemple, une start-up qui ne peut pas attendre des mois pour prouver sa viabilité peut acheter exactement la quantité de service de calcul dont elle a besoin, pour la durée exacte de ce besoin. De plus, votre équipe informatique n’aura pas besoin d’assurer la maintenance du matériel.

Les fournisseurs de services Cloud les plus importants comprennent aujourd’hui Amazon Web Services, Microsoft Azure, Alibaba Cloud, Google Cloud et IBM. Il existe toute une gamme de fournisseurs parmi lesquels choisir, grands ou petits, offrant chacun leur propre gamme de services.

Toutefois, certaines charges de travail ne peuvent pas être traitées dans un Cloud public, par exemple, les applications existantes qu’il est trop difficile ou risqué de migrer. Ainsi, le Cloud privé reste un élément essentiel de votre stratégie Cloud.

Cloud privé

Hébergement Cloud [2020] Comparatif des meilleurs hébergeurs en etats unisSi vous cherchez un contrôle maximum de vos ressources et données, ainsi que la solution la plus rentable sur le long terme, un Cloud privé est probablement votre meilleur choix.

Un Cloud privé est hébergé dans votre centre de données et mis à jour par votre équipe informatique. Comme votre organisation achète et installe le matériel, cela implique des dépenses en capital importantes. Cela nécessite également une gestion et des coûts d’exploitation continus. Toutefois, le traitement de charges de travail sur un Cloud privé peut offrir un coût total de possession inférieur, car vous fournissez davantage de puissance de traitement avec moins de matériel. Un Cloud privé vous fournit également la prise en charge d’applications existantes qui ne peuvent pas être placées dans le Cloud public.

Votre Cloud privé vous permet aussi de contrôler comment les données sont partagées et stockées. Il s’agit souvent de la meilleure option si vous vous souciez de la sécurité du Cloud, car vous pouvez gérer la gouvernance des données, vous assurer du respect des réglementations et protéger vos précieuses propriétés intellectuelles.

De plus, votre Cloud privé vous permet d’accéder aux données à la demande, assurant la fiabilité et la prise en charge des charges de travail stratégiques. Et comme vous pouvez contrôler comment les ressources sont utilisées, vous pouvez répondre rapidement aux exigences changeantes des charges de travail.

Cloud hybride

What is Hybrid Cloud Computing? - InspirationSeek.comUn Cloud hybride associe des environnements de Cloud public et de Cloud privé en leur permettant de se communiquer les données et applications. Cela aide les entreprises à faire évoluer les services simplement entre leur propre infrastructure et le Cloud public.

 

 

 

 

Multicloud

MultCloud: Manage all Cloud Drives from one location - gHacks Tech NewsCompte tenu de tous les types de charges de travail, chacun accompagné de ses propres exigences, de nombreuses entreprises utilisent une combinaison de services de différents fournisseurs de services Cloud, y compris des ressources de leur propre Cloud privé. Cette pratique est connue comme une approche multicloud.

Le multicloud vous offre davantage de flexibilité en termes de prix, d’offres de services, de capacités et d’emplacement géographique. Avec une planification soigneuse, une stratégie multicloud peut apporter à votre organisation davantage de cohérence, quels que soient les services consommés. Le multicloud nécessite une couche logicielle permettant de gérer et d’orchestrer les différents environnements Cloud, par exemple, Anthos* de Google Cloud.

En bref, une approche multicloud hybride vous offre le meilleur de ce qu’un Cloud privé et un Cloud public ont à offrir, avec la souplesse permettant de traiter les charges de travail à l’endroit le plus logique.

Caractéristiques communes du cloud computing

Characteristics of Cloud Computing - YouTubeLe Cloud Computing est un modèle permettant un accès réseau ubiquitaire, pratique et à la demande à un pool partagé de ressources informatiques configurables (par exemple, réseaux, serveurs, stockage, applications et services) qui peuvent être rapidement provisionnés et libérés avec un effort de gestion minimal ou une interaction avec le fournisseur de services. Ce modèle de cloud computing est composé de cinq caractéristiques essentielles, de trois modèles de services et de quatre modèles de déploiement.

Libre-service à la demande.

Un consommateur peut fournir unilatéralement des capacités informatiques, telles que l’heure du serveur et le stockage en réseau, selon les besoins, automatiquement sans nécessiter d’interaction humaine avec chaque fournisseur de services.

Accès large au réseau.

Des fonctionnalités sont disponibles sur le réseau et accessibles via des mécanismes standard qui favorisent l’utilisation par des plates-formes hétérogènes de clients minces ou épais (par exemple, téléphones mobiles, tablettes, ordinateurs portables et postes de travail).

Mise en commun des ressources.

Les ressources informatiques du fournisseur sont regroupées pour servir plusieurs consommateurs à l’aide d’un modèle multi-locataires, avec différentes ressources physiques et virtuelles assignées et réaffectées dynamiquement en fonction de la demande des consommateurs. Il y a un sentiment d’indépendance de localisation dans la mesure où le client n’a généralement aucun contrôle ou connaissance sur l’emplacement exact des ressources fournies, mais peut être en mesure de spécifier l’emplacement à un niveau d’abstraction plus élevé (par exemple, pays, état ou centre de données). Des exemples de ressources incluent le stockage, le traitement, la mémoire et la bande passante réseau.

Élasticité rapide.

Les capacités peuvent être provisionnées de manière élastique et libérées, dans certains cas automatiquement, pour évoluer rapidement vers l’extérieur et vers l’intérieur en fonction de la demande. Pour le consommateur, les capacités disponibles pour le provisionnement semblent souvent illimitées et peuvent être appropriées en toute quantité à tout moment.

Service mesuré.

Les systèmes Cloud contrôlent et optimisent automatiquement l’utilisation des ressources en tirant parti d’une capacité de mesure à un niveau d’abstraction approprié au type de service (par exemple, stockage, traitement, bande passante et comptes d’utilisateurs actifs). L’utilisation des ressources peut être surveillée, contrôlée et signalée, offrant une transparence à la fois pour le fournisseur et le consommateur du service utilisé.

Pourquoi choisir le Cloud privé
Le modèle de déploiement du Cloud public et du Cloud privé diffère.
Les Clouds publics, tels que ceux d’Amazon Web Services ou de Google Compute Engine, partagent une infrastructure informatique à travers différents utilisateurs, unités d’affaires ou entreprises.
Cependant, ces environnements informatiques partagés ne sont pas adaptés pour toutes les entreprises, tels que celles ayant des informations sensibles, des problèmes de sécurité, des exigences de disponibilité ou des exigences de gestion.
Au lieu d’avoir leur propre Data Centers, ces entreprises peuvent transférer une partie de leurs données existantes vers un Cloud privé.
Inconvénients du Cloud Privé
Mais les Clouds privés présentent certains inconvénients : le déploiement du Cloud privé a les mêmes dépenses de dotation, de gestion, d’entretien et d’investissement que les Data Centers dont l’entreprise serait propriétaire. Le Cloud privé n’est donc que l’externalisation du Data Center.
Cependant, les frais du Cloud privé incluent la virtualisation, les logiciels de Cloud et des outils de gestion.
Le Cloud hybride
Une entreprise peut également utiliser un mix entre les services du Cloud privé et celui d’un Cloud public : le Cloud hybride.
Cela permet aux utilisateurs d’accroître leurs besoins informatiques au-delà du Cloud privé afin de faire des tests, de profiter des puissances de calculs ou même de réduire le coût de stockage de certaines données non sensibles.
Les Clouds privés les plus connus sont Microsoft Private Cloud, VMware, OpenStack, CloudStack et Platform9.
Le Cloud public est plus sécurisé que les Data Centers privés !
Le Cloud public est plus sécurisé que les Data Centers privés !publicprivécloud
En règle générale, les entreprises privées ont tendance à ne faire confiance qu’à leurs propres infrastructures pour la sécurité informatique de leurs données. Pourtant, dans les faits, les Data Centers du Cloud public s’avèrent plus sécurisés. 
Pour une entreprise dont la confidentialité des données est d’une importance capitale, il est difficile de faire confiance à un tiers au point de lui déléguer le stockage intégral de ces données.
Par habitude, par méfiance, les sociétés préfèrent généralement entreposer leurs données dans les disques durs de leurs propres Data Centers.
Il est d’autant plus difficile de s’en remettre aux fournisseurs de Cloud public, dont les méthodes de sécurités sont volontairement gardées secrètes.
Cependant, en réalité, le Cloud public est globalement plus fiable et sécurisé que les Data Centers privés.
Le Cloud public, plus proactif et moderne
Pour cause, les fournisseurs de Cloud public comme Amazon Web Services ou Microsoft Azure ont conscience d’être des cibles de choix pour les hackers de tous bords.
Ils sont donc extrêmement prudents, minutieux et focalisés sur la sécurité de leurs serveurs. La plupart utilisent des méthodes de sécurité systémiques.
Ils tentent de prévoir les éventuelles attaques en utilisant des technologies de filtrage par motif ou encore des systèmes d’intelligence artificielle.
Le Cloud privé, souvent obsolète et trop disparate
À l’inverse, les entreprises privées ne sont pas suffisamment proactives face aux attaques informatiques de plus en plus fréquentes.
En outre, leurs Data Centers reposent généralement sur un mélange de technologies datées.
L’ensemble manque de cohésion, et l’ancienneté des dispositifs en fait généralement des cibles accessibles pour les cybercriminels.
Ces infrastructures internes sont donc moins fiables et sécurisées que les Data Centers du Cloud public, plus récents et mieux structurés en plus d’être moins chers et plus flexibles.
En novembre 2015, le groupe Hilton en a fait la fâcheuse expérience.
Les terminaux de paiement électroniques de la chaîne hôtelière ont été hackés à cause d’une brèche, permettant aux coupables de récupérer des informations sur les cartes de crédit des clients.
Pour cause, malgré tout l’argent investi par Hilton dans son système de sécurité informatique, la firme n’a pas réussi à s’adapter à l’évolution des cyberattaques.
Des dispositions supplémentaires indispensables
Malgré tout, pour être vraiment efficace, le Cloud nécessite également de prendre des mesures de sécurité supplémentaires. Il est vivement recommandé d’avoir recours au chiffrement, ou encore à un système de Gestion des Identités et Accès (IAM).

Principales tendances du Cloud en 2023

La principale tendance en matière de cloud computing ? La multiplication

5 Best Predicted Cloud Computing Trends in 2019Dans un article récent, Gartner a prédit que plus de 85 % des organisations adopteront les principes du « cloud-first » d’ici 2025. Aujourd’hui, une part importante du développement logiciel intègre le cloud computing d’une manière ou d’une autre. Le développement de logiciels est un domaine qui évolue rapidement. Les développeurs doivent se tenir au courant des dernières tendances en matière de cloud computing pour rester pertinents dans le secteur. Ils peuvent récolter les avantages et exécuter pleinement une stratégie numérique si les ingénieurs logiciels, les responsables informatiques, les ingénieurs DevOps et les administrateurs système travaillent constamment à l’optimisation des systèmes, même si le cloud computing évolue constamment.

La tendance vers les serveurs cloud hybrides

Arumtec, Expert en Virtualisation VMware / Notre approche du Cloud HybrideLes serveurs cloud hybrides combinent la force des serveurs clouds publics et privés et vous permettent de créer une architecture informatique sur mesure qui s’étend sur plusieurs environnements différents. Auparavant, vous deviez faire un compromis entre les serveurs clouds publics et privés en fonction de ce qui correspondait aux exigences de votre application. Le cloud public offre un accès efficace aux données, une évolutivité quasi illimitée, aucun investissement en capital et des services payables à l’utilisation. Un cloud privé est le premier choix pour la gestion de données sensibles qui nécessitent un accès et un contrôle surveillés.

Avec une approche hybride, vous pouvez créer une solution personnalisée de cloud public-privé. Vous n’êtes pas coincé avec un seul fournisseur et pouvez adopter le meilleur des deux mondes. Vous pouvez également choisir les services de plusieurs vendeurs ou fournisseurs de clouds et intégrer des solutions multi-clouds.

En 2020, les analystes ont prédit que la moitié des déploiements de clouds seraient hybrides d'ici 2025.
En 2020, les analystes ont prédit que la moitié des déploiements de clouds seraient hybrides d’ici 2025. (Source : Statista.)

 

Le cloud devient plus intelligent grâce à l’IA

Robot Ia Utilisant La Technologie De Cloud Computing Pour Stocker Des ...L’intelligence artificielle (IA) aide les ingénieurs de données à gérer les nombreuses données stockées dans le cloud et à maintenir la qualité des données. Elle détermine de manière autonome les modèles de données et obtient des informations à appliquer à l’ensemble de l’entreprise. Ces capacités élèvent l’analyse des données au niveau supérieur.Ứng dụng của Cloud Computing trong xu hướng thời đại Cộng đồng | ViCloud Le cloud computing piloté par l’IA fournit également une automatisation intelligente et surveille les flux de travail critiques. Les développeurs peuvent exploiter les services d’IA existants fournis par les fournisseurs de cloud computing pour ajouter des capacités de parole, de vision et de prise de décision aux applications. De nombreuses plateformes de cloud computing sont livrées avec des solutions d’IA existantes qui permettent aux développeurs d’intégrer des applications d’apprentissage machine (Machine Learning ou ML) de pointe sans avoir besoin d’une expertise en ML.

Principaux acteurs et modèles économiques

Cloud : 10 acteurs se partagent 77% du marché

Pendant la pandémie de Covid-19, AWS, Microsoft Azure, et quelques autres géants de la tech ont enregistré une croissance sans précédent sur les services de cloud computing et affirment leur domination sur le marché.

Photographie d'un ordinateur. Le marché des services cloud est dominé par les hyperscalers américains : AWS, Microsoft et Google.
Le marché des services cloud est dominé par les hyperscalers américains : AWS, Microsoft et Google. Crédit : Myriam Jessier / Unsplash

La mise en place d’un télétravail généralisé depuis plus d’un an a stimulé le secteur des services cloud. Du côté des particuliers, le streaming vidéo et les jeux en ligne ont rencontré un franc succès. Du côté des entreprises, les services cloud se sont imposés comme la solution pour la poursuite des activités à distance. Microsoft a vu la demande de ses services cloud exploser de 775%. L’urgence a encore plus accentué les traits d’un marché déjà déséquilibré. Les effets de lock-in mis en place par les grands du marché se sont révélés plus prolifiques que jamais.

Le marché des services cloud est dominé par des géants américains et chinois, appelés hyperscalers. Fin 2019, une dizaine d’acteurs se partageaient 77% du marché mondial. Amazon Web Services (AWS) est le premier acteur à s’être lancé dans le marché et, fin 2019, il en détenait 33% des parts. La force d’AWS réside dans la diversité des services : business intelligence, big data, stockage, sécurité, etc. Toujours en 2019, Microsoft détenait 18% du marché, Google Cloud 8%, IBM 6%, Alibaba 5%, Salesforce 3%, et pour finir Oracle et Tencent ex æquo avec 2% des parts de marché chacun. « Tout le monde a envie de faire du cloud parce que c’est une excellente manière de se rendre indispensable », considère Maxime Guedj, ingénieur, entrepreneur et co-auteur de Déclic, Comment profiter du numérique sans tomber dans le piège des géants du web.

Cloud : combien pèsent les hyperscalers en 2021 ?

Les « trois grands » du cloud ont publié leurs résultats trihyperscalers cloud résultats financiers T2 2021mestriels.

Où en sont leurs activités respectives ?

Comment un hyperscaler peut-il augmenter sa marge ? Entre autres, en allongeant la durée de vie utile de ses serveurs. Illustration chez AWS : en passant de trois à quatre ans, la branche cloud d’Amazon a réduit de 2,7 milliards de dollars ses charges de dépréciation et d’amortissement sur l’exercice 2020. Et augmenté son bénéfice net de 2 milliards.

Google a lui aussi activé ce levier. Il en fait part dans ses derniers résultats financiers (du 2e trimestre 2021). Sans préciser l’ampleur des gains. Mais en évoquant un effet positif sur le résultat d’exploitation de son activité cloud. Celui-ci reste dans le rouge, à -591 M$, du fait notamment des charges de rémunération. Mais il l’est nettement moins qu’il y a un an (-1,426 milliard).

Sur le volet revenus, Google Cloud a atteint un nouveau record trimestriel, à 4,628 milliards de dollars (environ 7,5 % du C. A. d’Alphabet). À 54 %, son taux de croissance annuelle est en hausse, mais n’atteint pas celui de la publicité (+84 % sur YouTube ; +68 % sur le search et autres). Il faut dire que celle-ci avait subi, au 2e trimestre 2020, l’impact du Covid.

Google T2 2021

Google Cloud compte aussi pour une bonne partie des produits constatés d’avance (assimilables à des acomptes ; 3,2 milliards de dollars au 30 juin 2021). Et plus globalement, des revenus prévisionnels liés aux contrats avec engagement : 35,3 milliards de dollars au 30 juin 2021. Dont environ la moitié devrait être comptabilisée en C. A. sous 24 mois.

AWS pèse trois Google Cloud

AWS aussi atteint un nouveau record de chiffre d’affaires : 14,809 milliards de dollars sur le trimestre. Soit 27 % du C. A. global d’Amazon (+ 1 point en un an). Il franchit par ailleurs officiellement les 50 milliards de revenus sur 12 mois glissants. Côté résultat opérationnel, c’est là aussi du jamais-vu (4,193 milliards ; +25 %). Mais la marge se réduit (-2,8 points, à 28,3 %). L’effet de change n’y est pas étranger (226 millions de dollars de manque à gagner).

AWS T2 2021

 

Concernant Azure, pas de chiffres précis. Microsoft l’inclut dans le segment « Intelligent Cloud », qui comprend aussi SQL Server, Windows Server, Visual Studio, System Center et GitHub. Ses revenus trimestriels s’élèvent à 17,375 milliards de dollars. Ils affichent un taux de croissance (+30 %) légèrement supérieur à ceux des deux autres segments. À savoir « Productivity and Business Processes » (essentiellement Office, Dynamics et LinkedIn) et « More Personal Computing » (informatique cliente). Même dynamique pour le résultat opérationnel : +46 %, à 7,787 milliards. Inférieur néanmoins à celui du segment « Productivity and Business Processes ». Le reflet des investissements en R&D cloud.

Microsoft T2 2021 cloud

Au sein de la famille « Intelligent Cloud », Azure, nous affirme-t-on, a enregistré des revenus en augmentation de 51 % par rapport au 2e trimestre 2020. Une performance de l’ordre de LinkedIn (hors solutions marketing), de Dynamics 365 et du search (hors coûts d’acquisition). Elle est du même niveau sur l’ensemble de l’exercice fiscal 2021 de Microsoft, achevé le 30 juin. +50 % en l’occurrence, au sein d’un segment « Intelligent Cloud » qui dégage 60,08 milliards de revenus (+24 %) et 26,126 milliards de résultat d’exploitation (+43 %). La marge augmente là aussi essentiellement grâce au prolongement de la durée de vie de certains équipements.

Illustration principale © vladimircaribb – Adobe Stock

  Quelle architecture de sécurité, aujourd’hui (demain ?)

Comment contourner les risques de sécurité liées au passage au cloud?Vue d’ensemble de la sécurité du cloud

La sécurité du cloud est un ensemble de procédures et de technologies conçues pour faire face aux menaces externes et internes pesant sur la sécurité des entreprises. Les entreprises ont besoin de sécuriser le cloud à mesure qu’elles déploient leur stratégie de transformation numérique et qu’elles intègrent, dans leur infrastructure, des outils et services basés sur le cloud.

Ces dernières années, les expressions « transformation numérique » et « migration vers le cloud » sont entrées dans le vocabulaire courant des entreprises. Si ces deux expressions recouvrent parfois des réalités différentes selon les organisations, elles ont un dénominateur commun : la nécessité de changer.

À mesure que les entreprises adoptent ces concepts et s’engagent dans l’optimisation de leur approche opérationnelle, elles sont confrontées à de nouveaux défis pour équilibrer les niveaux de productivité et la sécurité. Bien que les technologies modernes aident les organisations à développer leurs fonctionnalités en dehors des limites de l’infrastructure sur site, la transition vers des environnements principalement basés sur le cloud peut avoir de lourdes implications si elle ne s’effectue pas en toute sécurité.

Pour trouver le bon équilibre, il faut comprendre comment les entreprises modernes peuvent bénéficier de l’utilisation de technologies cloud interconnectées tout en déployant de bonnes pratiques de sécurité du cloud.

Quels sont les principaux risques de sécurité du cloud ?

Et si le Cloud était votre meilleur allié ? Sécurité du Cloud

La plupart des risques de sécurité du cloud appartiennent à l’une de ces catégories générales suivantes :

  • Exposition ou fuite de données
  • Un utilisateur non autorisé de l’extérieur de l’organisation a accès aux données internes
  • Un utilisateur interne autorisé a un accès trop important aux données internes
  • Une attaque malveillante, telle qu’une attaque DDoS ou une infection par un logiciel malveillant, paralyse ou détruit l’infrastructure du cloud

L’objectif d’une stratégie de sécurité du cloud est de réduire au maximum la menace posée par ces risques en protégeant les données, en gérant l’authentification et l’accès des utilisateurs, et en restant opérationnel face à une attaque.

Quelles sont certaines des technologies clés pour la sécurité du cloud ?

Une stratégie de sécurité dans le cloud doit inclure toutes les technologies suivantes :

Le chiffrement : le chiffrement est une méthode consistant à brouiller les données afin que seules les parties autorisées puissent comprendre les informations. Si un attaquant pirate le cloud d’une entreprise et trouve des données non chiffrées, il peut effectuer un nombre illimité d’actions malveillantes avec ces données : les divulguer, les vendre, les utiliser pour mener d’autres attaques, etc. Cependant, si les données de l’entreprise sont chiffrées, l’attaquant ne trouvera des données brouillées inutilisables à moins qu’il n’en découvre la clé de déchiffrement (ce qui relève quasiment de l’impossible). De cette façon, le chiffrement permet d’éviter les fuites et l’exposition de données, même lorsque d’autres mesures de sécurité échouent.

Les données peuvent être chiffrées au repos (lorsqu’elles sont stockées) ou en transit (lorsqu’elles sont envoyées d’un endroit à un autre). Les données du cloud doivent être chiffrées au repos et en transit afin que les attaquants ne puissent pas les intercepter et les lire. Le chiffrement des données en transit doit concerner à la fois les données circulant entre un cloud et un utilisateur, et les données voyageant d’un cloud à un autre, comme dans un environnement cloud multi-cloud ou cloud hybride. De plus, les données doivent être chiffrées lorsqu’elles sont stockées dans une base de données ou via un service de stockage cloud.

Si les clouds d’un environnement multi-cloud ou cloud hybride sont connectés au niveau de la couche réseau, un VPN peut chiffrer le trafic entre eux. S’ils sont connectés au niveau de la couche application, le chiffrement SSL/TLS doit être utilisé. Le SSL/TLS devra également chiffrer le trafic entre un utilisateur et un cloud (voir Qu’est que le HTTPS ?).

Gestion des identités et des accès (IAM) :Gestion des identités et des accès (IAM)  les produits suivent l’identité d’un utilisateur et ce qu’il est autorisé à faire. Ils autorisent les utilisateurs et refusent l’accès aux utilisateurs non autorisés si nécessaire. L’IAM est extrêmement important dans le cloud computing, car l’identité et les privilèges d’accès d’un utilisateur déterminent s’il peut accéder aux données, et non l’appareil ou l’emplacement de l’utilisateur.

L’IAM aide à réduire le risque que des utilisateurs non autorisés aient accès aux actifs internes et des utilisateurs autorisés dépassent leurs privilèges. Une bonne solution IAM contribuera à atténuer plusieurs types d’attaques, notamment la prise de contrôle de comptes et les attaques d’initiés (lorsqu’un utilisateur ou un employé abuse de son accès pour exposer des données).

L’IAM peut inclure plusieurs services différents ou un seul service qui combine toutes les fonctionnalités suivantes :

Pare-feu : un pare-feu cloud fournit une couche de protection autour des ressources cloud en bloquant le trafic web malveillant. Contrairement aux pare-feux traditionnels, qui sont hébergés sur site et défendent le périmètre du réseau, les pare-feu cloud sont hébergés dans le cloud et forment une barrière de sécurité virtuelle autour de l’infrastructure cloud. La plupart des pare-feux d’applications web entrent dans cette catégorie.

Les pare-feu cloud bloquent les attaques DDoS, l’activité de bots malveillants et les exploits de vulnérabilité. Cela réduit les risques de cyberattaque paralysant l’infrastructure cloud d’une entreprise.

Quelles sont  les menaces majeures dans le cloud

Plusieurs études menées par des spécialistes tels que ISACA (Information Systems Audit and Control Association) et CSA (Cloud Security Alliance) ont permis d’identifier douze points qui constituent les menaces majeures à la sécurité des données et à celles des applications en cloud.

  • L’existence de brèches de sécurité tant sur l’une des couches logiques du Datacenter que celles issues d’erreurs humaines ;
  • La fragilité dans la gestion des accès et des identités, bien que certains fournisseurs renforcent les interfaces d’authentification avec d’autres moyens tels que les certificats, les smartcards, la technologie OTP et bien d’autres ;
  • L’utilisation d’API non sécurisées pour l’intégration des applications avec les services cloud ;
  • L’exploit de vulnérabilités des systèmes d’exploitation sur les serveurs du cloud et même sur les applications hébergées ;cloud-security-600x459-7979d
  • Le piratage de compte, qui est un vieux type d’attaque informatique, vient avec une forte recrudescence depuis l’avènement d’Internet et encore celui du cloud computing ;
  • Une action malveillante initiée en interne dans les effectifs du fournisseur. Une personne malveillante dans l’équipe de gestion du Datacenter peut facilement nuire à la confidentialité et l’intégrité des environnements hébergés ;
  • Les menaces persistantes avancées (en anglais, APT : Advanced Persistent Threats) qui consistent en une forme d’attaque où le hacker réussit à installer d’une façon ou d’une autre un dispositif dans le réseau interne de l’organisation, à partir duquel il peut extirper des données importantes ou confidentielles. C’est une forme d’attaque difficile à détecter pour un fournisseur de services cloud ;
  • La perte de données qui peut être causée par une attaque informatique (logique) du Datacenter, une attaque physique (incendie ou bombardement), une catastrophe naturelle, ou même simplement à un facteur humain chez le fournisseur de services, par exemple en cas de faillite de la société ;
  • Les insuffisances dans les stratégies internes d’adoption ou de passage au cloud. Les entreprises ou les organisations ne prennent pas souvent en compte tous les facteurs de sécurité liés à leur fonctionnement avant de souscrire à un service cloud. Certaines négligences, tant au niveau du développement d’application qu’au niveau de l’utilisation basique, leur sont parfois fatales ;
  • Utilisation frauduleuse des technologies cloud en vue de cacher l’identité et de perpétrer des attaques à grande échelle. Généralement, il s’agit de comptes créés pendant les périodes d’évaluation (la plupart des FAI proposent 30 jours d’essai gratuits) ou des accès achetés frauduleusement ;
  • Le déni de service qui est une attaque qui consiste à rendre indisponible un service par une consommation abusive des ressources telles que les processeurs, la mémoire ou le réseau. L’idée, pour le pirate, c’est de réussir à surcharger les ressources du Datacenter en vue d’empêcher d’autres utilisateurs de profiter des services ;
  • Les failles liées à l’hétérogénéité des technologies imbriquées dans l’architecture interne du cloud, et l’architecture externe d’interfaçage avec les utilisateurs.

Source :
Rapport du CSA
Rapport de l’ISACA

La sécurité dans le cloud une responsabilité partagée

Un guide complet sur la sécurité du Cloud en 2022

La sécurité du Cloud englobe les technologies, les contrôles, les processus et les politiques qui se combinent pour protéger vos systèmes, données et infrastructures basés sur le Cloud. Il s’agit d’un sous-domaine de la sécurité informatique et, plus largement, de la sécurité de l’information.

Il s’agit d’une responsabilité partagée entre vous et votre fournisseur de services de Cloud. Vous mettez en œuvre une stratégie de sécurité dans le Cloud pour protéger vos données, respecter la conformité réglementaire et protéger la vie privée de vos clients. Celle-ci vous protège à son tour contre les conséquences financières, juridiques et sur la réputation des violations et des pertes de données.

Modèle de responsabilité partagée pour la sécurité du Cloud (Source de l’image : Synopsys)

La sécurité dans le Cloud est une exigence essentielle pour toutes les organisations. Surtout avec les dernières études de l’ISC2 indiquant que 93 % des organisations sont modérément ou extrêmement préoccupées par la sécurité dans le Cloud, et qu’une organisation sur quatre a confirmé un incident de sécurité dans le Cloud au cours des 12 derniers mois.

Un guide complet sur la sécurité du Cloud en 2023 (risques, meilleures pratiques, certifications)

Un guide complet sur la sécurité du Cloud en [year] (risques, meilleures pratiques, certifications)

La sécurité du Cloud englobe les technologies, les contrôles, les processus et les politiques qui se combinent pour protéger vos systèmes, données et infrastructures basés sur le Cloud. Il s’agit d’un sous-domaine de la sécurité informatique et, plus largement, de la sécurité de l’information.

Il s’agit d’une responsabilité partagée entre vous et votre fournisseur de services de Cloud. Vous mettez en œuvre une stratégie de sécurité dans le Cloud pour protéger vos données, respecter la conformité réglementaire et protéger la vie privée de vos clients. Celle-ci vous protège à son tour contre les conséquences financières, juridiques et sur la réputation des violations et des pertes de données.

Modèle de responsabilité partagée pour la sécurité du Cloud
Modèle de responsabilité partagée pour la sécurité du Cloud (Source de l’image : Synopsys)

La sécurité dans le Cloud est une exigence essentielle pour toutes les organisations. Surtout avec les dernières études de l’ISC2 indiquant que 93 % des organisations sont modérément ou extrêmement préoccupées par la sécurité dans le Cloud, et qu’une organisation sur quatre a confirmé un incident de sécurité dans le Cloud au cours des 12 derniers mois.

Dans cet article, nous allons créer un guide complet sur la sécurité dans le Cloud. Vous explorerez les risques de sécurité liés au passage au Cloud, comprendrez pourquoi la sécurité du Cloud est nécessaire et découvrirez les meilleures pratiques en matière de sécurité du Cloud. Nous aborderons également des sujets tels que la manière d’évaluer la sécurité d’un fournisseur de services dans le Cloud et d’identifier les certifications et la formation nécessaires pour améliorer votre sécurité dans le Cloud.

Comment fonctionne la sécurité dans le Cloud ?

La sécurité dans le Cloud est une interaction complexe de technologies, de contrôles, de processus et de politiques. Une pratique qui est hautement personnalisée en fonction des exigences uniques de votre organisation.

Il n’existe donc pas d’explication unique qui englobe le « fonctionnement » de la sécurité dans le Cloud.

A Model for Securing Cloud Workloads
A Model for Securing Cloud Workloads (Image source: HyTrust)

Heureusement, il existe un ensemble de stratégies et d’outils largement établis que vous pouvez utiliser pour mettre en place une solide sécurité dans le Cloud, notamment

Gestion des identités et des accès

Toutes les entreprises doivent disposer d’un système de gestion des identités et des accès (IAM) pour contrôler l’accès aux informations. Votre fournisseur de cloud computing s’intégrera directement à votre IAM ou proposera son propre système intégré. Un IAM combine des politiques d’authentification et d’accès des utilisateurs à plusieurs facteurs, vous aidant à contrôler qui a accès à vos applications et à vos données, ce à quoi ils peuvent accéder et ce qu’ils peuvent faire à vos données.

Sécurité physique

La sécurité physique est un autre pilier de la sécurité dans le Cloud. Il s’agit d’une combinaison de mesures visant à empêcher l’accès direct et la perturbation du matériel hébergé dans le centre de données de votre fournisseur de cloud computing. La sécurité physique comprend le contrôle de l’accès direct par des portes de sécurité, une alimentation électrique ininterrompue, la vidéo en circuit fermé, des alarmes, le filtrage de l’air et des particules, la protection contre les incendies, etc.

Renseignement, surveillance et prévention des menaces

Le renseignement sur les menacesles systèmes de détection d’intrusion (IDS), et les systèmes de prévention des intrusions (IPS) constituent l’épine dorsale de la sécurité dans le Cloud. Les outils de renseignement sur les menaces et les IDS offrent des fonctionnalités pour identifier les attaquants qui ciblent actuellement vos systèmes ou qui constitueront une menace future. Les outils IPS mettent en œuvre des fonctionnalités permettant d’atténuer une attaque et de vous avertir de sa survenance afin que vous puissiez également y répondre.

Cryptage

En utilisant la technologie du Cloud, vous envoyez des données vers et depuis la plateforme du fournisseur de Cloud, souvent en les stockant dans leur infrastructure. Le cryptage est une autre couche de la sécurité dans le Cloud pour protéger vos données, en les encodant lorsqu’elles sont au repos et en transit. Cela garantit que les données sont quasiment impossibles à déchiffrer sans une clé de décryptage à laquelle vous seul avez accès.

Test de vulnérabilité et de pénétration du Cloud

Une autre pratique pour maintenir et améliorer la sécurité dans le Cloud est des tests de vulnérabilité et de pénétration. Ces pratiques impliquent que vous – ou votre fournisseur – attaquiez votre propre infrastructure de Cloud afin d’identifier toute faiblesse ou exploitation potentielle. Vous pouvez ensuite mettre en œuvre des solutions pour corriger ces vulnérabilités et améliorer votre position en matière de sécurité.

Micro-Segmentation

La micro-segmentation est de plus en plus courante dans la mise en œuvre de la sécurité dans le Cloud. Il s’agit de la pratique consistant à diviser votre déploiement dans le Cloud en segments de sécurité distincts, jusqu’au niveau de la charge de travail individuelle.

En isolant les charges de travail individuelles, vous pouvez appliquer des politiques de sécurité flexibles pour minimiser les dommages qu’un attaquant pourrait causer, s’il y avait accès.

Pare-feu de nouvelle génération

Les pare-feu de nouvelle génération sont une autre pièce du puzzle de la sécurité dans le Cloud. Ils protègent vos charges de travail en utilisant les fonctionnalités traditionnelles des pare-feux et des fonctionnalités avancées plus récentes. La protection traditionnelle du pare-feu comprend le filtrage de paquets, l’inspection d’état, le proxy, le blocage d’IP, le blocage de noms de domaine et le blocage de ports.

Les pare-feu de nouvelle génération ajoutent un système de prévention des intrusions, une inspection approfondie des paquets, un contrôle des applications et une analyse du trafic crypté pour assurer une détection et une prévention complètes des menaces.

Architecture d'hébergement de Kinsta
Architecture d’hébergement de Kinsta

Ici, chez Kinsta, nous sécurisons tous les sites derrière le pare-feu de la plateforme Google Cloud (GCP). Offrant une protection de pointe et la possibilité de s’intégrer plus étroitement aux autres solutions de sécurité GCP.

La sécurité est une préoccupation pour toutes les entreprises qui, si c’est négligé, peut avoir un impact significatif sur la réputation et les résultats. Découvrez les 7 risques de sécurité du cloud computing ⛈⚙️CLICK TO TWEET

7 Risques de sécurité du cloud computing

Que vous opériez ou non dans le Cloud, la sécurité est une préoccupation pour toutes les entreprises. Vous serez confronté à des risques tels que le déni de serviceles logiciels malveillants, L’injection SQL, les violations de données et les pertes de données. Tous ces éléments peuvent avoir un impact significatif sur la réputation et les résultats de votre entreprise.

Lorsque vous passez au Cloud, vous introduisez un nouvel ensemble de risques et changez la nature des autres. Cela ne signifie pas que le cloud computing n’est pas sécurisée. En fait, de nombreux fournisseurs de cloud computing offrent un accès à des outils et des ressources de sécurité très sophistiqués auxquels vous ne pourriez pas accéder autrement.

Cela signifie simplement que vous devez être conscient de l’évolution des risques afin de les atténuer. Examinons donc les risques de sécurité propres au cloud computing.

1. Perte de visibilité

La plupart des entreprises accèdent à une gamme de services de Cloud par l’intermédiaire de plusieurs appareils, services et géographies. Ce type de complexité dans une installation de cloud computing – sans les outils appropriés en place – peut vous faire perdre la visibilité de l’accès à votre infrastructure.

Sans les processus appropriés en place, vous pouvez perdre de vue qui utilise vos services en ligne. Y compris les données auxquelles ils accèdent, qu’ils téléversent et téléchargent.

Si vous ne pouvez pas le voir, vous ne pouvez pas le protéger. Ce qui augmente le risque de violation et de perte de données.

2. Violations de conformité

Avec l’augmentation du contrôle réglementaire, vous devrez probablement respecter une série d’exigences de conformité strictes. En passant au Cloud, vous introduisez le risque des violations de conformité si vous ne faites pas attention.

Nombre de ces réglementations exigent que votre entreprise sache où se trouvent vos données, qui y a accès, comment elles sont traitées et comment elles sont protégées. D’autres réglementations exigent que votre fournisseur de services de Cloud détienne certaines références de conformité.

Un transfert négligent de données vers le cloud, ou un transfert vers le mauvais fournisseur, peut mettre votre organisation dans un état de non-conformité. Cela peut avoir de graves répercussions juridiques et financières.

3. Absence de stratégie et d’architecture de sécurité du Cloud

Il s’agit d’un risque de sécurité dans le Cloud que vous pouvez facilement éviter, mais que beaucoup n’ont pas. Dans leur hâte de migrer les systèmes et les données vers le cloud, de nombreuses organisations deviennent opérationnelles bien avant que les systèmes et les stratégies de sécurité ne soient en place pour protéger leur infrastructure.

Ici, chez Kinsta, nous comprenons l’importance d’un état d’esprit axé sur la sécurité lors du passage au cloud. C’est pourquoi Kinsta fournit des migrations WordPress gratuites pour assurer que votre transition vers le cloud est à la fois sécurisée et évite les temps d’arrêt prolongés.

Veillez à mettre en place une stratégie et une infrastructure de sécurité conçues pour que le cloud soit aligné avec vos systèmes et vos données.

4. Menaces d’initiés

Vos employés, entrepreneurs et partenaires commerciaux de confiance peuvent constituer certains de vos plus grands risques en matière de sécurité. Ces menaces internes ne doivent pas nécessairement avoir une intention malveillante pour causer des dommages à votre entreprise. En fait, la majorité des incidents d’initiés sont dus à un manque de formation ou à une négligence.

Bien que vous soyez actuellement confronté à ce problème, le passage au cloud change le risque. Vous contrôlez vos données à votre fournisseur de services de Cloud et introduisez une nouvelle couche de menace interne de la part des employés du fournisseur.

5. Violations contractuelles

Tout partenariat contractuel que vous aurez établi comportera des restrictions sur l’utilisation des données partagées, leur stockage et les personnes autorisées à y accéder. Vos employés qui déplacent involontairement des données restreintes dans un service de Cloud sans autorisation pourraient créer une rupture de contrat qui pourrait entraîner des poursuites judiciaires.

Assurez-vous de lire les conditions générales de vos fournisseurs de services de Cloud. Même si vous avez l’autorisation de transférer des données vers le cloud, certains fournisseurs de services incluent le droit de partager toute donnée téléversée dans leur infrastructure. Par ignorance, vous pourriez involontairement violer un accord de non-divulgation.

6. Interface utilisateur d’application non sécurisée (API)

Lorsque vous utilisez des systèmes d’exploitation dans une infrastructure de Cloud, vous pouvez utiliser une API pour mettre en œuvre le contrôle. Toute API intégrée dans vos applications web ou mobiles peut offrir un accès en interne au personnel ou en externe aux consommateurs.

Ce sont les API orientées vers l’extérieur qui peuvent introduire un risque de sécurité dans le Cloud. Toute API externe non sécurisée est une passerelle offrant un accès non autorisé aux cybercriminels qui cherchent à voler des données et à manipuler des services.

L’exemple le plus marquant d’une API externe non sécurisée est le Scandale de Cambridge Analytica de Facebook. L’API externe non sécurisée de Facebook a permis à Cambridge Analytica d’accéder aux données des utilisateurs de Facebook.

7. Mauvaise configuration des services de Cloud

La mauvaise configuration des services de Cloud est un autre risque potentiel pour la sécurité du Cloud. Avec la gamme et la complexité croissantes des services, ce problème prend de l’ampleur. Une mauvaise configuration des services de Cloud peut entraîner l’exposition publique, la manipulation ou même la suppression de données.

Parmi les causes communes, citons la conservation des réglages de sécurité et de gestion de l’accès par défaut pour les données hautement sensibles. D’autres incluent une gestion d’accès mal adaptée donnant accès à des personnes non autorisées, et un accès aux données mutilées où les données confidentielles sont laissées ouvertes sans autorisation.

Pourquoi la sécurité du Cloud est nécessaire

L’adoption massive de la technologie de Cloud, combinée à un volume et à une sophistication toujours plus grands des cyber-menaces, est à l’origine du besoin de sécurité dans le Cloud. Si l’on réfléchit aux risques de sécurité liés à l’adoption de la technologie dans le Cloud – décrits ci-dessus – l’incapacité à les atténuer peut avoir des conséquences importantes.

Mais tout n’est pas négatif, la sécurité dans le Cloud peut aussi offrir des avantages importants. Examinons pourquoi la sécurité dans le Cloud est une exigence essentielle.

Les menaces pour la cybersécurité continuent de s’accroître

L’une des forces motrices des pratiques sécurisées dans le Cloud est la menace toujours croissante des cybercriminels, tant en volume qu’en sophistication. Pour quantifier cette menace, un rapport sur la sécurité du cloud de l’ISC2 a révélé que 28 % des entreprises ont connu un incident de sécurité du cloud en 2019. Avec le gouvernement britannique signalant également que 32 % des entreprises britanniques ont subi une attaque sur les systèmes au cours des 12 derniers mois.

Prévention des violations et des pertes de données

Une conséquence de ces cyber-menaces accrues est l’accélération de la fréquence et du volume des violations et des pertes de données. Rien qu’au cours des six premiers mois de 2019, le rapport sur les menaces émergentes de Norton a souligné que plus de 4 milliards d’enregistrements ont été violés.

Une perte ou une violation de données peut avoir des implications juridiques, financières et de réputation importantes. IBM estime maintenant le coût moyen d’une violation de données à 3,92 millions de dollars US dans son dernier rapport.

Éviter les violations de conformité

Nous avons déjà mentionné comment la sécurité dans le Cloud comporte le risque de violations de la conformité. Pour démontrer les implications de la non-conformité, il suffit d’observer l’organisme fédéral allemand de surveillance de la vie privée qui a récemment infligé à 1&1 Telecommunications une amende de 9,55 millions d’euros pour violation du règlement général de l’UE sur la protection des données (RGPD).

Maintenir la continuité des activités

Une bonne sécurité dans le Cloud contribue à maintenir la continuité de vos activités. La protection contre les menaces telles que les attaques par déni de service (DDoS). Les interruptions de service imprévues et les temps d’arrêt du système interrompent la continuité de vos activités et ont une incidence sur vos résultats. Une étude de Gartner estime ce temps d’arrêt à une moyenne de 5 600 $ américains par minute.

Avantages de la sécurité dans le Cloud

Au-delà de la protection contre les menaces et de l’évitement des conséquences de mauvaises pratiques, la sécurité dans le Cloud offre des avantages qui en font une exigence pour les entreprises. Parmi ces avantages, on peut citer :

1. Sécurité centralisée

De la même manière que l’informatique dématérialisée (cloud computing) centralise les applications et les données, la sécurité dématérialisée centralise la protection. Elle vous aide à améliorer votre visibilité, à mettre en place des contrôles et à mieux vous protéger contre les attaques. Elle améliore également la continuité de vos activités et la reprise après sinistre en ayant tout en un seul endroit.

2. Réduction des coûts

Un fournisseur de services de Cloud réputé vous proposera du matériel et des logiciels intégrés destinés à sécuriser vos applications et vos données 24/24. Vous n’aurez donc pas besoin d’investir des sommes importantes dans votre propre installation.

3. Administration réduite

Le passage au Cloud introduit un modèle de responsabilité partagée en matière de sécurité. Cela peut permettre de réduire considérablement le temps et les ressources investis dans l’administration de la sécurité. Le fournisseur de services dans le Cloud assumera la responsabilité de la sécurité de son infrastructure – et de la vôtre – au niveau du stockage, de l’informatique, de la mise en réseau et de l’infrastructure physique

4. Fiabilité accrue

Un fournisseur de services de Cloud de premier plan offrira du matériel et des logiciels de sécurité dématérialisée de pointe sur lesquels vous pourrez compter. Vous aurez accès à un service continu où vos utilisateurs pourront accéder en toute sécurité aux données et aux applications depuis n’importe où, sur n’importe quel appareil.

Meilleures pratiques pour la sécurité du Cloud

Lorsque vous transférez vos systèmes vers le Cloud, de nombreuses mesures de sécurité et les meilleures pratiques restent les mêmes. Toutefois, vous serez confrontés à une nouvelle série de défis que vous devrez surmonter afin de maintenir la sécurité de vos systèmes et données dans le Cloud.

Pour vous aider à relever ce défi, nous avons compilé une série de meilleures pratiques de sécurité pour les déploiements dans le Cloud.

La sécurité dématérialisée est un sous-domaine de la sécurité informatique et, plus largement, de la sécurité de l’information. Découvrez ces meilleures pratiques pour les déploiements basés sur le Cloud ! ☁️🔐CLICK TO TWEET

Choisir un fournisseur de confiance

Les meilleures pratiques en matière de sécurité dans le Cloud reposent sur la sélection d’un fournisseur de services de confiance. Vous souhaitez vous associer à un fournisseur de services dans le Cloud qui offre les meilleurs protocoles de sécurité intégrés et qui se conforme aux plus hauts niveaux des meilleures pratiques du secteur.

Un fournisseur de services qui vous propose une place de marché de partenaires et de solutions afin d’améliorer encore la sécurité de votre déploiement.

La marque d’un fournisseur de confiance se reflète dans l’éventail des certifications et de la conformité en matière de sécurité qu’il détient. Tout bon fournisseur met ces informations à la disposition du public. Par exemple, tous les grands fournisseurs comme Amazon Web ServicesAlibaba CloudGoogle Cloud (qui alimente Kinsta), et Azure offrent un accès transparent où vous pouvez confirmer leur conformité et leurs certifications en matière de sécurité.

Au-delà de cela, de nombreux facteurs entrent en jeu dans le choix d’un fournisseur de confiance. Nous abordons ce sujet plus loin dans l’article, avec une liste de contrôle des dix principaux facteurs permettant d’évaluer la sécurité de tout fournisseur de services en ligne.

Comprendre votre modèle de responsabilité partagée

Quand vous vous associez à un fournisseur de services de Cloud et que vous transférez vos systèmes et vos données vers le Cloud, vous concluez un partenariat de responsabilité partagée pour la mise en œuvre de la sécurité.

Une partie essentielle des meilleures pratiques consiste à examiner et à comprendre votre responsabilité partagée. Découvrir quelles tâches de sécurité vous incombent et quelles tâches seront désormais prises en charge par le fournisseur.

Il s’agit d’une échelle mobile selon que vous optez pour le Software as a Service (SaaS), le Platform as a Service (PaaS), l’Infrastructure as a Service (IaaS) ou pour un centre de données sur site.

Modèle de responsabilité partagée de la plateforme Google Cloud
Modèle de responsabilité partagée de la plateforme Google Cloud

Les principaux fournisseurs de services en nuage comme AWSAzureGoogle Cloud Platform, et Alibaba Cloud publient ce qui est connu comme un modèle de responsabilité partagée en matière de sécurité. Garantir la transparence et la clarté. Veillez à revoir votre modèle de responsabilité partagée des fournisseurs de services de Cloud.

Examinez vos contrats et accords de niveau de service (SLA) avec les fournisseurs de services en ligne

Vous ne devriez peut-être pas envisager de revoir vos contrats et accords de niveau de service dans le cadre des meilleures pratiques de sécurité. Les contrats SLA et les contrats de services de Cloud ne sont qu’une garantie de service et de recours en cas d’incident.

Les conditions générales, les annexes et les appendices qui peuvent avoir une incidence sur votre sécurité sont beaucoup plus nombreux. Un contrat peut faire la différence entre le fait que votre fournisseur de services de Cloud soit responsable de vos données et qu’il en soit le propriétaire.

Selon le McAfee 2019 Cloud Adoption and Risk Report, 62,7 % des fournisseurs de Cloud ne précisent pas que les données des clients sont la propriété de ces derniers. Cela crée une zone d’ombre juridique où un fournisseur pourrait revendiquer la propriété de toutes vos données téléversées.

Vérifiez à qui appartiennent les données et ce qu’il advient de celles-ci si vous mettez fin à vos services. Cherchez également à savoir si le fournisseur est tenu d’offrir une visibilité sur les événements et les réponses en matière de sécurité.

Si vous n’êtes pas satisfait de certains éléments du contrat, essayez de négocier. Si certains ne sont pas négociables, vous devez déterminer si le fait d’accepter est un risque acceptable pour l’entreprise. Si ce n’est pas le cas, vous devrez rechercher d’autres options pour atténuer le risque par le biais du cryptage, de la surveillance ou même d’un autre fournisseur.

Formez vos utilisateurs

Vos utilisateurs constituent la première ligne de défense dans le domaine de l’informatique dématérialisée sécurisée. Leur connaissance et leur application des pratiques de sécurité peuvent faire la différence entre protéger votre système ou ouvrir une porte aux cyberattaques.

Comme meilleure pratique, assurez-vous de former tous vos utilisateurs – personnel et parties prenantes – qui accèdent à vos systèmes aux pratiques sécurisées de l’informatique dématérialiée. Sensibilisez-les à la manière de repérer les logiciels malveillants, d’identifier les e-mails de phishing et les risques de pratiques non sécurisées.

Pour les utilisateurs plus avancés – tels que les administrateurs – directement impliqués dans la mise en œuvre de la sécurité dans le Cloud, envisagez une formation et une certification spécifiques au secteur. Vous trouverez plus loin dans le guide une série de certifications et de formations recommandées en matière de sécurité dans le Cloud.

Contrôle de l’accès des utilisateurs

Mettre en œuvre un contrôle étroit des accès des utilisateurs par le biais de politiques est une autre bonne pratique de sécurité dans le Cloud. Elle vous aide à gérer les utilisateurs qui tentent d’accéder à vos services de Cloud.

Vous devez partir d’un lieu de confiance zéro, en ne donnant aux utilisateurs que l’accès aux systèmes et aux données dont ils ont besoin, rien de plus. Pour éviter la complexité lors de la mise en œuvre des politiques, créez des groupes bien définis avec des rôles attribués pour n’accorder l’accès qu’aux ressources choisies. Vous pourrez ainsi ajouter des utilisateurs directement à des groupes, plutôt que de personnaliser l’accès pour chaque utilisateur individuel.

Sécurisez vos points de terminaison (Endpoints) d’utilisateur

Un autre élément de la meilleure pratique en matière de sécurité dans les nuages est la sécurisation des points de terminaison de vos utilisateurs. La majorité des utilisateurs accèdent à vos services de Cloud par le biais de navigateurs web. Il est donc essentiel que vous introduisiez une sécurité avancée côté client pour que les navigateurs de vos utilisateurs restent à jour et protégés contre les exploitations.

Vous devriez également envisager de mettre en œuvre une solution de sécurité des points d’accès pour protéger les appareils de vos utilisateurs finaux. Vital avec l’explosion des appareils mobiles et le télétravail, où les utilisateurs accèdent de plus en plus à des services de Cloud par le biais d’appareils n’appartenant pas à l’entreprise.

Recherchez une solution qui comprend des pare-feu, des antivirus et des outils de sécurité Internet, de sécurité des appareils mobiles et de détection des intrusions.

Maintenir la visibilité de vos services en ligne

L’utilisation des services de Cloud peut être diverse et éphémère. De nombreuses organisations utilisent de multiples services de Cloud à travers un éventail de fournisseurs et de zones géographiques. Des recherches suggèrent que les ressources du Cloud ont une durée de vie moyenne de 2 heures.

Ce genre de comportement crée des angles morts dans votre environnement de Cloud. Si vous ne pouvez pas le voir, vous ne pouvez pas le sécuriser.

Veillez à mettre en place une solution de sécurité dans le Cloud qui offre une visibilité de l’ensemble de votre écosystème. Vous pourrez alors surveiller et protéger l’utilisation du Cloud dans l’ensemble de vos ressources, projets et régions disparates par le biais d’un seul portail. Cette visibilité vous aidera à mettre en œuvre des politiques de sécurité granulaires et à atténuer un large éventail de risques.

Mettre en œuvre le cryptage

Le cryptage de vos données est une bonne pratique de sécurité, quel que soir l’endroit où vous vous trouvez. En utilisant les services de Cloud, vous exposez vos données à un risque accru en les stockant sur une plateforme tierce et en les envoyant dans les deux sens entre votre réseau et le service de Cloud.

Veillez à mettre en œuvre les niveaux de cryptage les plus élevés pour les données en transit et au repos. Vous devriez également envisager d’utiliser vos propres solutions de cryptage avant de téléverser des données sur le Cloud, en utilisant vos propres clés de cryptage pour garder un contrôle total.

Un fournisseur de cloud computing peut offrir des services de cryptage intégrés pour protéger vos données contre les tiers, mais cela leur permet d’accéder à vos clés de cryptage.

Kinsta exploite une approche entièrement cryptée pour mieux protéger ses solutions d’hébergement sécurisé. Cela signifie que nous ne prenons pas en charge les connexions FTP, mais seulement les connexions cryptées SFTP et les connexions SSH (voici la différence entre FTP et SFTP).

Mettre en œuvre une politique de sécurité de mots de passe forts

Une solide politique de sécurité des mots de passe est la meilleure pratique, quel que soit le service auquel vous accédez. La mise en œuvre de la politique la plus stricte possible est un élément important pour empêcher les accès non autorisés.

Au minimum, tous les mots de passe doivent comporter une lettre majuscule, une lettre minuscule, un chiffre, un symbole et un minimum de 14 caractères. Obliger les utilisateurs à mettre à jour leur mot de passe tous les 90 jours et à le paramétrer de manière à ce que le système se souvienne des 24 derniers mots de passe.

Une telle politique de mots de passe empêchera les utilisateurs de créer des mots de passe simples, sur de multiples dispositifs, et permettra de se défendre contre la plupart des attaques par force brute.

Comme niveau supplémentaire de protection et de bonnes pratiques en matière de sécurité, vous devez également mettre en œuvre l’authentification multifactorielle. Obligation pour l’utilisateur d’ajouter deux – ou plus – éléments de preuve pour authentifier son identité.

Utiliser un courtier en sécurité pour l’accès au Cloud (CASB)

L’utilisation d’un CASB devient rapidement un outil central pour mettre en œuvre les meilleures pratiques de sécurité dans le Cloud. Il s’agit d’un logiciel qui se situe entre vous et votre ou vos fournisseurs de services de Cloud pour étendre vos contrôles de sécurité dans le Cloud.

Un CASB vous offre un ensemble d’outils sophistiqués de sécurité dans le Cloud pour vous permettre de visualiser votre écosystème dans le Cloud, d’appliquer les politiques de sécurité des données, de mettre en œuvre l’identification et la protection des menaces et de maintenir la conformité.

Vous en saurez plus sur le fonctionnement d’un CASB plus loin dans le guide, y compris une liste des 5 principaux fournisseurs de CASB.

Les dix principales recommandations de la liste de contrôle de sécurité pour les clients du Cloud

Lors de la migration vers le Cloud et du choix d’un fournisseur de services, l’un des facteurs les plus importants à prendre en compte est la sécurité. Vous partagerez et / ou stockerez les données de votre entreprise avec le fournisseur de services que vous aurez choisi.

Vous devez avoir la certitude que vos données sont sécurisées. Il existe d’innombrables facteurs de sécurité à prendre en compte, depuis le partage des responsabilités jusqu’à la question de savoir si les normes de sécurité du fournisseur sont à la hauteur. Ce processus peut être décourageant, surtout si vous n’êtes pas un expert en sécurité.

La sécurité ne doit jamais être négligée ! Obtenez cette liste de contrôle des 10 principaux aspects de sécurité lors de l’évaluation d’un fournisseur de services cloud 📌🔐CLICK TO TWEETPour vous aider, nous avons établi une liste des 10 principaux contrôles de sécurité à effectuer lors de l’évaluation d’un fournisseur de services de Cloud.

1. Protection des données en transit et des données au repos

Lors du passage à un service en Cloud, un élément clé de la sécurité est la protection des données en transit entre vous (l’utilisateur final) et le fournisseur. Il s’agit d’une double responsabilité pour vous et le fournisseur. Vous aurez besoin d’une protection du réseau pour empêcher l’interception des données et d’un cryptage pour empêcher un attaquant de lire les données si elles sont interceptées.

Recherchez un fournisseur de services qui vous offre un ensemble d’outils pour vous aider à crypter facilement vos données en transit et au repos. Cela garantira le même niveau de protection pour tout transit de données interne au sein du fournisseur de services de Cloud, ou pour le transit entre le fournisseur de services de Cloud et d’autres services où les API peuvent être exposées.

2. Protection des actifs

Lorsque vous choisissez un fournisseur de services de Cloud, vous devez comprendre l’emplacement physique où vos données sont stockées, traitées et gérées. Ceci est particulièrement important suite à la mise en œuvre de la politique d’accès aux données des gouvernements et de l’industrie des réglementations comme le RGPD.

Pour garantir la protection de vos actifs, un bon fournisseur disposera d’une protection physique avancée dans son centre de données pour défendre vos données contre tout accès non autorisé. Il veillera également à ce que vos données soient effacées avant que des ressources ne soient réapprovisionnées ou éliminées pour éviter qu’elles ne tombent entre de mauvaises mains.

3. Visibilité et contrôle

Un facteur clé de la sécurité est la possibilité de voir et de contrôler ses propres données. Un bon prestataire de services vous proposera une solution qui vous offrira une visibilité totale de vos données et des personnes qui y accèdent, quels que soient l’endroit où elles se trouvent et le lieu où vous vous trouvez.

Votre fournisseur doit offrir la surveillance des activités afin que vous puissiez découvrir les changements de configuration et de sécurité dans votre écosystème. En plus de prendre en charge la conformité avec l’intégration de solutions nouvelles et existantes.

4. Marché de la sécurité et réseau de partenaires de confiance

Pour sécuriser le déploiement de votre Cloud, il vous faudra plus d’une solution ou d’un partenaire. Un bon fournisseur de services de Cloud vous permettra de trouver et de vous connecter facilement à différents partenaires et solutions par le biais d’une place de marché.

Cherchez un fournisseur dont la place de marché offre un réseau de partenaires de confiance ayant fait leurs preuves en matière de sécurité. La place de marché devrait également proposer des solutions de sécurité qui permettent un déploiement en un seul clic et qui sont complémentaires pour sécuriser vos données, qu’elles soient exploitées dans le cadre d’un déploiement en Cloud public, privé ou hybride.

5. Gestion sécurisée des utilisateurs

Un bon fournisseur de services de Cloud offrira des outils qui permettent une gestion sécurisée des utilisateurs. Cela permettra d’empêcher l’accès non autorisé aux interfaces et aux procédures de gestion afin de garantir que les applications, les données et les ressources ne sont pas compromises.

Le fournisseur de services de Cloud devrait également offrir des fonctionnalités permettant de mettre en œuvre des protocoles de sécurité qui séparent les utilisateurs et empêchent tout utilisateur malveillant (ou compromis) d’affecter les services et les données d’un autre.

6. Intégration de la conformité et de la sécurité

Lorsqu’on envisage un fournisseur de services de Cloud, la sécurité et la conformité vont de pair. Ils doivent répondre à des exigences de conformité globales qui sont validées par un organisme tiers. Vous voulez un fournisseur de services dans le Cloud qui suit les meilleures pratiques du secteur en matière de sécurité de Cloud et qui, idéalement, détient une certification reconnue.

Le programme STAR (Security, Trust, and Assurance Registry) de la Cloud Security Alliance est un bon indicateur. De plus, si vous travaillez dans un secteur hautement réglementé – où les normes HIPPA, PCI-DSS et le RGPD peuvent s’appliquer – vous devrez également identifier un fournisseur ayant une certification spécifique à l’industrie.

Pour que vos efforts de mise en conformité soient à la fois rentables et efficaces, le fournisseur de services de Cloud doit vous offrir la possibilité d’hériter de ses contrôles de sécurité dans vos propres programmes de conformité et de certification.

7. Identité et authentification

Votre fournisseur de services de Cloud doit s’assurer que l’accès à toute interface de service est limité aux seules personnes autorisées et authentifiées.

Lorsque vous examinez les fournisseurs, vous souhaitez un service offrant des fonctionnalités d’identité et d’authentification, notamment un identifiant et un mot de passe, une authentification à deux facteurs, des certificats clients TLS et une fédération d’identité avec votre fournisseur d’identité existant.

Vous souhaitez également pouvoir restreindre l’accès à une ligne dédiée, à une entreprise ou à un réseau communautaire. Un bon fournisseur ne fournit une authentification que par des canaux sécurisés – comme le HTTPS – pour éviter l’interception.

Veillez à éviter les services dont les pratiques d’authentification sont faibles. Cela exposera vos systèmes à un accès non autorisé entraînant le vol de données, la modification de votre service ou un déni de service. Évitez également l’authentification par courrier électronique, HTTP ou téléphone.

Ces derniers sont extrêmement vulnérables à l’ingénierie sociale et à l’interception d’identité et des justificatifs d’authentification.

8. Sécurité opérationnelle

Lorsque vous choisissez un service de cloud computing, recherchez un fournisseur qui met en œuvre une sécurité opérationnelle solide pour détecter et prévenir les attaques. Cette sécurité doit couvrir quatre éléments essentiels :

Configuration et gestion des changements

Vous voulez un prestataire qui offre une transparence sur les actifs qui composent le service, y compris les configurations ou les dépendances éventuelles. Il doit vous informer de toute modification du service susceptible d’affecter la sécurité afin de garantir l’absence de vulnérabilités.

Gestion des vulnérabilités

Votre fournisseur doit disposer d’un processus de gestion des vulnérabilités pour détecter et atténuer toute nouvelle menace pesant sur son service. Vous devez être tenu informé de ces menaces, de leur gravité et du calendrier prévu pour leur atténuation, y compris leur résolution.

Surveillance de la protection

Tout prestataire digne de ce nom disposera d’outils de surveillance avancés pour identifier toute attaque, abus ou dysfonctionnement du service. Ils prendront des mesures rapides et décisives pour faire face à tout incident, et vous tiendront informés des résultats.

Chez Kinsta, nous sommes fiers de fournir les normes de sécurité opérationnelle les plus élevées pour les solutions d’hébergement. Cela comprend la mise en œuvre des dernières mises à jour de sécurité, la surveillance continue du temps de fonctionnement, des sauvegardes automatiques, et des mesures actives et passives pour stopper toute attaque sur sa lancée.

Résultat : votre site est surveillé et sécurisé 24/7.

Gestion des incidents

Votre fournisseur idéal aura une gestion d’incidents pré-planifiée en place pour les types d’attaques les plus courants. Ils seront prêts à déployer ce processus en réponse à toute attaque.

Un itinéraire de contact clair vous sera indiqué pour signaler tout incident, avec un calendrier et un format acceptables.

9. Sécurité du personnel

Vous avez besoin d’un fournisseur de services de Cloud dont le personnel est digne de confiance, car il aura accès à vos systèmes et à vos données. Le fournisseur de services de Cloud que vous aurez choisi fera l’objet d’une procédure de contrôle de sécurité rigoureuse et transparente.

Ils doivent pouvoir vérifier l’identité de leur personnel, le droit au travail et vérifier les éventuelles condamnations pénales. Idéalement, vous voulez qu’ils se conforment aux normes de contrôle établies localement dans votre pays, telles que BS 7858:2019 pour le Royaume-Uni ou le formulaire I-9 aux États-Unis.

En plus du contrôle, vous voulez un prestataire de services qui s’assure que son personnel comprend ses responsabilités inhérentes en matière de sécurité et suit régulièrement des formations. Il doit également avoir une politique visant à réduire au minimum le nombre de personnes qui ont accès à vos services et qui peuvent les affecter.

10. Utilisation sécurisée du service

Vous pouvez choisir un fournisseur de services de Cloud doté d’une sécurité de pointe tout en subissant une brèche due à une mauvaise utilisation du service. Il est important de comprendre où se situent les responsabilités en matière de sécurité lorsque vous utilisez le service.

Votre niveau de responsabilité sera influencé par votre modèle de déploiement du Cloud, la façon dont vous utilisez les services et les caractéristiques intégrées de chaque service.

Par exemple, vous avez d’importantes responsabilités en matière de sécurité au sein de l’IaaS. En déployant une instance de calcul, il vous incomberait d’installer un système d’exploitation moderne, de configurer la sécurité et d’assurer les correctifs et la maintenance en continu. Il en va de même pour toute application que vous déployez sur cette instance.

Assurez-vous donc de bien comprendre les exigences de sécurité du service que vous avez choisi et toutes les options de configuration de sécurité qui s’offrent à vous. Veillez également à former votre personnel à l’utilisation sécurisée des services que vous avez choisis.

La réglementation du Cloud Computing

Le Cloud pour les administrations

L’informatique en nuage (Cloud computing) est une formidable opportunité pour accélérer la transformation numérique des administrations. À travers sa doctrine « Cloud au centre », l’État encourage l’ensemble des acteurs publics à se saisir de son potentiel afin de développer une nouvelle génération de services numériques de qualité, tout en protégeant au mieux les données des entreprises et des citoyens français. Au-delà des technologies et des offres de services, c’est un changement de culture qui s’engage, afin que les équipes projets et les développeurs inscrivent les opportunités du cloud dans leurs pratiques professionnelles au quotidien.

Cloud au centre : la doctrine de l’État

Avec l’adoption de la doctrine « Cloud au centre », le Gouvernement fait du Cloud un prérequis pour tout nouveau projet numérique au sein de l’État ou refonte substantielle de l’architecture applicative existante. L’objectif : accélérer la transformation numérique au bénéfice des usagers et dans le strict respect de la cybersécurité et de la protection des données des citoyens et des entreprises.

L’informatique en nuage va au-delà d’un simple socle d’hébergement : elle sous-tend toute une culture, depuis le mode de production des applications (mode produit, DevOps) jusqu’aux principes d’architecture à la base de la conception de ces nouveaux services (architecture nativement cloud).

Accélérer la transformation numérique de l’État

Le Cloud est essentiel pour accompagner et accélérer l’évolution des pratiques de développement de produits numériques de l’État. La doctrine Cloud au centre coordonnée par le ministère de la Transformation et de la Fonction publiques permet d’inscrire ce virage durablement dans les directions du numérique des ministères, et plus largement auprès de tous les acteurs de l’État.

L’adoption du Cloud doit permettre de faciliter la maîtrise de la chaîne de production des services numériques et ainsi conduire à équiper les agents de meilleurs outils de travail numériques, plus collaboratifs, et d’améliorer, en continu, les démarches des usagers en ligne, qu’ils soient citoyens ou entreprises.

L’inscription durable du virage vers le Cloud poursuit un objectif principal : répondre aux attentes légitimes des Français d’exemplarité de l’État en matière de protection de leurs données ainsi qu’en terme de garantie de la continuité du service public, deux prérequis à leur confiance dans le service public numérique.

La doctrine Cloud au centre

Avec cette doctrine, le Cloud devient dorénavant le mode d’hébergement et de production par défaut des services numériques de l’État, pour tout nouveau produit numérique et pour les produits connaissant une évolution substantielle. Les recrutements et les programmes de formation continue destinés aux agents publics dans la filière économique comporteront un volet Cloud. La doctrine prévoit également, et c’est une condition nécessaire à sa mise en œuvre opérationnelle, d’être inscrite dans la gouvernance des activités du numérique de chaque administration.

Les services numériques des administrations doivent être hébergés sur l’un des deux cloud interministériels internes de l’État ou sur les offres de Cloud proposées par les industriels satisfaisant des critères stricts de sécurité.

Notamment, chaque produit numérique manipulant des données sensibles, qu’elles relèvent des données personnelles des citoyens français, des données économiques relatives aux entreprises françaises, ou d’applications métiers relatives aux agents publics de l’État, doit impérativement être hébergé sur le cloud interne de l’État ou sur un cloud commercial qualifié SecNumCloud par l’ANSSI et protégé contre toute réglementation extracommunautaire.

Le passage au Cloud est également une occasion de renforcer la résilience des produits numériques des administrations, au service de la continuité du service public. Les administrations peuvent donc dès à présent s’appuyer sur une diversité de technologies, de fournisseurs et d’infrastructures pour préparer des plans de continuité et de reprise d’activité pouvant être activés en cas d’incident.

Avec « Cloud au centre », l’État se dote d’une doctrine complète, engageant résolument les administrations sur la voie d’une transformation numérique de qualité tout en renforçant la souveraineté de l’État et la protection des données des Français.

 

Cloud computing et consommation d’énergie

Ces centres de traitements absorbent également une grande quantité d’énergie : ainsi, Microsoft a récemment conclu un contrat avec General Electric pour acheter toute la production de son nouveau parc éolien de 37 mégawatts en Irlande pour les 15 prochaines années afin d’alimenter ses centres de traitements dédiés au cloud. L’Irlande s’attend désormais à ce que les centres de traitements représentent 15 % de la demande énergétique totale d’ici 2026, contre moins de 2 % en 2015.

Quelles sont les grandes entreprises de cloud computing ?

S’agissant des IaaS et PaaS, les grands fournisseurs de cloud computing ne sont pas si nombreux. Amazon Web Services fait la course en tête, suivi par le peloton composé d’Azure de Microsoft, de Google, d’IBM et d’Alibaba. Bien que ces derniers bénéficient d’une croissance rapide, leurs revenus combinés restent inférieurs à ceux d’AWS, d’après des données du Synergy Research Group.

Synergy Research Group

Selon le cabinet d’analyses 451 Research, de nombreuses entreprises auront pour stratégie d’utiliser AWS et un autre fournisseur de cloud computing ; c’est ce qu’il appelle la politique AWS + 1. Ces grands acteurs domineront la prestation des services de cloud computing : Gartner affirme que deux tiers des dépenses dans les services de cloud computing seront réparties entre les dix principaux fournisseurs de cloud public jusqu’en 2021.

Il convient également de noter que même si toutes ces entreprises vendent des services de cloud computing, elles ont des points forts et des priorités qui divergent. AWS est particulièrement performant dans l’IaaS et la PaaS, mais aspire à remonter vers les bases de données. Par comparaison, Microsoft met surtout l’accent sur les SaaS grâce à Office 365 et ses autres logiciels qui visent essentiellement à améliorer la productivité des utilisateurs finaux, mais il essaie également d’accroître rapidement son offre d’IaaS et de PaaS à travers Azure.

Google (qui propose également des outils de productivité bureautique) se situe quelque part entre les deux. Les activités de cloud computing d’IBM et d’Oracle combinent aussi des SaaS et des offres davantage axées sur l’infrastructure. Il existe un grand nombre d’entreprises qui proposent des applications à travers le cloud suivant un modèle de SaaS, Salesforce étant probablement la plus connue d’entre elles.

La guerre des prix du cloud computing

Le coût de certains services de cloud computing (notamment des machines virtuelles) diminue régulièrement grâce à la concurrence continue entre ces grands acteurs. Des éléments indiquent que les baisses de prix pourraient s’étendre à d’autres services tels que le stockage et les bases de données, car les fournisseurs de cloud computing veulent mettre la main sur les charges de travail imposantes qui sont transférées hors des centres de traitements des entreprises vers le cloud. Ce sera probablement une bonne nouvelle pour les clients, d’autant que les prix pourraient baisser encore plus, car il reste une marge très confortable, y compris dans les domaines les plus basiques des services d’infrastructure de cloud computing, tels que le déploiement de machines virtuelles.

Quel est l’avenir du cloud computing ?

En dépit de sa longue histoire, le cloud computing est encore à un stade d’adoption relativement précoce. De nombreuses entreprises se demandent encore quelles applications y transférer et quand. Toutefois, l’utilisation est vouée à augmenter, à mesure que les entreprises accepteront plus volontiers l’idée que leurs données se situent ailleurs que sur un serveur dans leur sous-sol.

L’avenir du cloud computing : 5 tendances à connaître (selon OZITEM)

L’avenir du cloud computing : 5 tendances à connaître

Les analystes de Gartner considèrent que 85 % des organisations adopteront une stratégie cloud-first, d’ici 2025. L’utilisation de services de cloud computing est un élément fondamental pour que les entreprises atteignent leurs objectifs. En effet, le cloud computing permet le traitement des données stockées dans le cloud, dans le but de les valoriser. Cette solution numérique se présente sous la forme de services informatiques. Par exemple, une solution de conteneurisation basée sur l’IaaS (Infrastructure-as-a-Service) ou une autre de déploiement de logiciels cloud basée sur le modèle PaaS (Platform-as-a-Service).

Pour mener à bien leur stratégie digitale, les structures doivent se tenir informées des dernières tendances en matière de cloud computing. Qu’est-ce que le cloud hybride et le multicloud ? En quoi consiste une architecture serverless ? Que propose l’edge computing ? Quelle est la relation entre l’intelligence artificielle et le cloud ? Quelle est l’importance de la sécurisation de ces services dématérialisés ? Découvrons ces tendances du cloud computing !

Les services d’hébergement dans le cloud

Combiner le cloud privé et public avec le cloud hybride

Pour commencer, le cloud hybride et le multicloud sont les hébergements phares de l’année 2023. La solution hybride allie l’utilisation d’un cloud privé et d’un cloud public, tandis que le multicloud se compose de plusieurs clouds de même type. Ces deux modèles d’hébergement apportent des services personnalisés, qui peuvent être combinés. De plus, elles ne sont pas gérées par un seul fournisseur, ce qui sécurise davantage leurs activités.

Tout d’abord, les entreprises utilisent le cloud hybride pour profiter des avantages des serveurs virtuels publics et privés. Alors qu’avec le cloud privé, elles assurent la protection de leurs données sensibles et disposent d’architectures parfaitement adaptées à leurs besoins. Quant au cloud public, les entreprises bénéficient d’un accès aux ressources informatiques, de la flexibilité et de la rentabilité. Ce modèle permet d’exécuter et de contrôler les charges de travail en interne, tout en étant capable de répondre à une hausse ponctuelle des activités.

Multiplier des services cloud du même type avec le multicloud

Ensuite, le multicloud correspond à l’usage de plusieurs clouds publics ou privés. Puisqu’aucun service ne répond pleinement aux exigences d’une structure, le recours au multicloud est souvent nécessaire. Par exemple, une entreprise choisit la performance d’un logiciel en tant que service PaaS chez un fournisseur. Puis, elle se tourne vers un autre prestataire pour son Software-as-a-Service (SaaS), comme le CRM, car elle l’estime plus adapté aux besoins de ses métiers.

Pour ces deux types d’hébergement cloud, les serveurs exploités sont connectés à l’aide d’une technologie cloud standardisée ou appartenant à l’organisation cliente. Ce système exécute leurs applications et leurs données entre les différents services de cloud computing. Il se charge également de la portabilité entre les multiples fournisseurs. L’usage du cloud hybride et du multicloud est un bon départ pour développer une approche cloud-native.

L’architecture Serverless Computing

Le serverless computing (calcul sans serveur) est un modèle d’architecture permettant aux développeurs de créer et d’exécuter des applications cloud, sans avoir à gérer une infrastructure physique. En effet, l’infrastructure en tant que service PaaS est hébergée chez un fournisseur cloud. Ce dernier offre un accès à de la puissance de calcul, de l’espace de stockage ou encore à un système d’exploitation, nécessaires au déploiement de ces applications.

En fonction des besoins des développeurs, ces ressources informatiques peuvent être mises à échelle simplement et quasi instantanément. L’hébergement dans le cloud permet donc de répondre à une hausse d’activité ponctuelle et aussi d’éviter de consommer des ressources non utilisées. En plus, les fournisseurs de services cloud ne facturent aux structures clientes que ce qui est consommé.

Le serverless computing promet aux développeurs une concentration exclusive sur leur cœur de métier. Le seul prérequis est de rendre son code compatible avec l’infrastructure cloud de son fournisseur. Le déploiement simplifié et accéléré des applicatifs exploitant ce modèle d’architecture fait du serverless computing une tendance de plus en plus populaire.

L’edge computing et l’Internet des objets

Faire face à l’expansion de l’Internet des objets

Le marché mondial des objets connectés est en pleine expansion. Le récent rapport intitulé Le monde de l’Internet des objets : des dynamiques à maîtriser estime une multiplication de son chiffre d’affaires par dix, entre les années 2018 et 2028. En effet, le marché de l’Internet des objets (IoT) passerait de 130 milliards à 1 500 milliards de dollars sur cette période.

L’utilisation massive des objets connectés entraîne une explosion du volume de leurs données. Quel est le risque de cette augmentation ? La bande passante entre les datacenters et les objets connectés menace de saturer. Par conséquent, la latence du traitement de leurs informations serait plus grande. Comme une réactivité quasi immédiate est nécessaire, ce risque de saturation doit être évité.

Stocker et traiter les données avec l’edge computing

Ce défi fait de l’edge computing (traitement des données à la périphérie du réseau) une autre tendance du cloud computing pour les années à venir. Plutôt que d’envoyer les données des objets connectés vers des serveurs distants, ce système propose d’en traiter une partie sur une infrastructure décentralisée. Ainsi, les informations sont stockées et analysées au plus proche de leur source, soit par les objets eux-mêmes, soit par une machine virtuelle locale.

Cette solution cloud réduit donc la latence de traitement des données et désengorge le trafic de l’ensemble du réseau. En effet, elle évite le déplacement d’un volume important de ces informations vers des serveurs distants, ce qui est également plus sécurisé. C’est pourquoi l’edge computing contribue à l’amélioration du service du cloud computing.

Finalement, l’utilisation combinée du cloud computing et de l’edge computing participe fortement à la transformation numérique des organisations.

L’intelligence artificielle intégrée dans le cloud

Dans la même dynamique que celle des objets connectés, l’intelligence artificielle (IA) connaît une expansion récente. L’IA correspond à un ensemble de technologies qui permet aux machines virtuelles intelligentes d’imiter des capacités humaines. Elle traite une masse volumineuse de données du big data, dans le but de les valoriser. Quel est son lien avec le cloud computing ?

La propagation actuelle de l’intelligence artificielle est rendue possible avec l’hébergement de son algorithme dans des services de cloud computing. Ainsi, elle bénéficie des serveurs, du réseau et d’un espace de stockage de données dans le cloud. La dématérialisation de l’infrastructure matérielle de l’IA réduit les dépenses liées à son achat et son entretien. Elle devient alors accessible à un plus grand nombre d’utilisateurs.

De nos jours, la combinaison de l’intelligence artificielle avec les technologies cloud est une stratégie nécessaire pour rester compétitif. En effet, les projets data-driven sont obligatoires pour les entreprises qui souhaitent s’adapter rapidement aux changements du marché. Par exemple, des modèles de plateforme en tant que service PaaS sont proposés avec des IA intégrées. Ces offres cloud permettent aux développeurs de déployer des applications web de machine learning.

La sécurisation des services de cloud computing

Pour terminer, l’accélération de la digitalisation des entreprises s’accompagne d’une augmentation des cyberrisques. Ces structures ont donc l’obligation de déployer une stratégie de sécurité numérique, en parallèle de leurs objectifs de transformation digitale. Les responsables informatiques doivent rechercher les failles des services de cloud computing utilisés, pour établir des mesures proactives.

Évaluer les risques du cloud computing

Malgré les nombreux avantages du cloud computing, son adoption présente de multiples menaces concernant la sécurité des données traitées. Effectivement, des informations confidentielles peuvent être modifiées, corrompues, rendues publiques ou partiellement, voire totalement effacées. Les risques sont :

  • La perte de contrôle. L’organisation peut perdre la gouvernance opérationnelle de ses bases de données, liée à l’externalisation de leur traitement chez un fournisseur cloud. En plus, la structure ne connaît pas forcément la politique de sécurisation de ses services hébergés.
  • Les erreurs humaines. Sans intention malveillante, une personne interne à une entreprise peut modifier ou supprimer accidentellement des informations.
  • Les intrusions internes. Les employés sont la cible d’attaques cybercriminelles. Avec la technique de deepfake, le hacker usurpe l’identité d’un salarié dans le but de récupérer des données confidentielles auprès de son collègue, comme des codes d’authentification.
  • Les attaques externes. Les composants de sécurité des structures ne sont pas adaptés à certaines cyberattaques. Les pirates du web utilisent des moyens toujours plus sophistiqués pour mener leurs actions. L’entreprise ne réalise pas forcément les dégâts immédiats.
  • Les pannes des services informatiques. Des catastrophes naturelles, comme une inondation ou un incendie, peuvent venir endommager, voire détruire les centres de données.

Prévenir les menaces des services cloud

Face aux multiples risques, le renforcement de la cybersécurité des structures est une priorité pour 2023. En effet, l’adoption du cloud computing s’accompagne de mesures préventives de protection des données. Par exemple, les organisations intègrent des services d’accès sécurisé en périphérie (SASE), aussi hébergés dans un environnement cloud. L’architecture SASE assure la connexion sécurisée entre les services cloud et les éléments organisationnels, comme les personnes.

De plus, les sociétés anticipent des solutions de récupération des informations endommagées ou volées. Après une erreur humaine, une catastrophe naturelle, une cyberattaque ou un autre sinistre, le Cloud Disaster Recovery (CDR) garantit la restauration complète et rapide des systèmes. Pour cela, le CDR se base sur la sauvegarde des données, mais également des programmes et des configurations.

 Références

[1]http://www.nist.gov/itl/csd/cloud-102511.cfm
[2] http://blog.dropbox.com/?p=846 et http://www.dropbox.com/security
[3] http://phx.corporate-ir.net/phoenix.zhtml?c=97664&p=irol-newsArticle&ID=1072981
[4]http://www.zdnet.fr/actualites/cloud-et-patriot-act-microsoft-susceptible-de-transmettre-des-donnees-aux-etats-unis-39762281.htm
[5]http://www.01net.com/editorial/534667/dropbox-victime-d-une-faille-de-securite-beante/
[6] http://www.enisa.europa.eu/act/rm/files/deliverables/cloud-computing-risk-assessment
[7] http://www.wuala.com/fr
[8] http://www.dcg.ethz.ch/publications/srds06.pdf
[9] http://crypto.stanford.edu/~dabo/papers/encsearch.pdf
[10] http://www.forbes.com/forbes/2009/0713/breakthroughs-privacy-super-secret-encryption.html et http://pages-perso.esil.univmed.fr/~bonnecaze//VETO/primitives_crypto.pdf, p23 et 24
[11] Article 38 de l’ordonnance 2011-1012 du 24 août 2011: http://legifrance.gouv.fr/affichTexte.do?cidTexte=JORFTEXT000024502658&categorieLien=id
[12]http://www.ifop.com/media/poll/2979-1-study_file.pdf
[13]http://cloud-computing.developpez.com/cours-tutoriels/
[14]http://www.config.fr/press/Livre_Blanc_Cloud_Computing_Securit%C3%A9.Vdef.pdf
[15]https://www.clusif.asso.fr/fr/production/ouvrages/pdf/CLUSIF-Cloud-2010-Securite.pdf
[16]http://nauges.typepad.com/my_weblog/2016/03/3-d%C3%A9cisions-simples-radicales-pour-amorcer-la-modernisation-de-son-si.html
[17]http://www.figer.com/Publications/nuage.htm#.V1g6EfntlBd
[18]https://fr.wikiversity.org/wiki/Cloud_computing_et_entreprise
[19]http://www.cnet.com/au/how-to/onedrive-dropbox-google-drive-and-box-which-cloud-storage-service-is-right-for-you/
[20]http://connect.ed-diamond.com/MISC/MISC-060/Introduction-au-Cloud-Computing-risques-et-enjeux-pour-la-vie-privee
[21]http://www.afnor.org/liste-des-evenements/agenda/2014/decembre/les-premieres-normes-internationales-sur-le-cloud-computing-rencontre-exclusives-le-2-decembre-a-st-denis
[22]http://fr.slideshare.net/TechnetFrance/microsoft-private-cloud-faites-voluer-votre-datacenter-vers-un-centre-de-services-18668179
[23]https://www.akamai.com/fr/fr/solutions/why-akamai/cloud-security.jsp
[24]http://fr.slideshare.net/nicolashennion/cours-dintroduction-au-cloud-computing
[25]http://fr.slideshare.net/nicolashennion/cours-dintroduction-au-cloud-computing?next_slideshow=3
[26]http://www.aiservice.fr/suppression-virus-depannage-installation-maintenance-informatique-paris-5eme-75005-big-data-en-chiffre-24-milliards-de-dollars-2016
[27]http://www.datacentermap.com/cloud/sql-cloud.html
[28]http://www.zdnet.fr/dossier/saas-faire-les-bons-choix-4000237287.htm
[29]http://www.lemagit.fr/ressources/Collaboratif
[30]http://www.coe.int/fr/web/commissioner/-/do-not-switch-human-rights-off
[31]http://www.internetactu.net/2009/01/23/nicolas-carr-est-ce-que-google-nous-rend-idiot/
[32]http://michelvolle.blogspot.fr/search/label/Informatisation


Sauvegardez vos documents en ligne gratuitement!

Cloud Gratuit

Société Taille Espace Observations
GiGa 500 Go Pour une fois que l’on peut faire cocorico, il ne faut pas hésiter. GiGa, un service français propose 500Go, oui 500Go gratuitement. L’offre payante est intéressante aussi.
Mega 50 Go Le sulfureux Kim Dotcom propose 50gb gratuits. Attention, son précédent site avait été fermé par les autorités du jour au lendemain, laissant les utilisateurs dans la panade!
sfshare 50 Go Sfshare propose 50gb gratuitement.
HubiC 25 Gb Le mastodonte français de l’hébergement web propose un service de cloud en ligne gratuit de 25 Gb!!! Quelques petits soucis techniques mais qui sont en voie de disparition, une offre illimitée à un prix défiant toute concurrence, un des rares opérateurs français à soutenir si vos données sont sensibles, en effet, en cas de recours, s’adresser à une société domiciliée en France est important! Si vous parrainez des proches, vous pouvez augmenter votre espace jusqu’à 50 Go.
Bajoo 25 Go EDIT 29/04/2016: Le logiciel consomme beaucoup de ressources (merci Adel pour ton commentaire)….25Go de stockage parait-il en France gratuitement. Attention car mentions légales vides..
pCloud 20 Go 20Gb gratuits stockés en Suisse. Que demande le peuple????
Google Drive 17 Go Google propose un espace gratuit pratique de 15gb. Véritable couteau suisse, les diverses applications google vous permettent d’ouvrir vos fichiers facilement, même sans les logiciels propriétaires habituels tels qu’Excel ou Word.
OneDrive 5 Go Microsoft a rattrapé son retard dans le cloud avec une offre multiplateforme. Pratique si vous avez déja une adresse hotmail ou outlook.
Yandex Disk 10 Gb 10 gb chez l’une des plus grosses sociétés internet russe. Yandex, c’est d’abord un moteur de recherche, mais ils font aussi de l’analytics et autres. Ils se lancent dans le stockage, c’est cool!
Box.com 10Gb Box est le concurrent numéro 1 de Dropbox! A noter que si vous avez acheté un téléphone samsung galaxy s3 ou un LG nexus4, vous pouvez avoir un compte gratuit beaucoup plus important.
Syncplicity 10 Gb
pCloud 20 Go 20Gb gratuits stockés en Suisse. Que demande le peuple????
Google Drive 17 Go Google propose un espace gratuit pratique de 15gb. Véritable couteau suisse, les diverses applications google vous permettent d’ouvrir vos fichiers facilement, même sans les logiciels propriétaires habituels tels qu’Excel ou Word.
OneDrive 5 Go Microsoft a rattrapé son retard dans le cloud avec une offre multiplateforme. Pratique si vous avez déja une adresse hotmail ou outlook.
Yandex Disk 10 Gb 10 gb chez l’une des plus grosses sociétés internet russe. Yandex, c’est d’abord un moteur de recherche, mais ils font aussi de l’analytics et autres. Ils se lancent dans le stockage, c’est cool!
Box.com 10Gb Box est le concurrent numéro 1 de Dropbox! A noter que si vous avez acheté un téléphone samsung galaxy s3 ou un LG nexus4, vous pouvez avoir un compte gratuit beaucoup plus important.
Syncplicity 10 Gb
Mediafire 10 Gb 10 gb gratuitement chez MediaFire!
Flipdrive 10 Gb 10 gb gratuitement chez Flipdrive! Pas de programme à installer, tout se fait en ligne. Vous pouvez partager vos fichiers avec qui vous voulez…
Ozibox 10 Gb 10 gb gratuitement chez Ozibox! Fonctionnement pareil que Dropbox, à savoir un programme windows qui synchronise un répertoire.
Digiposte, le cloud de La Poste 5 Go Service basé en France, par une institution créée en 1576, donc peu de chance que le service disparaisse 😉 Pratique pour déposer des copies de documents d’identité ou documents précieux. Hébergé en France!
Apple iCloud 5 Gb gratuit nécessite identifiant Apple Le service d’Apple, à ma connaissance il faut un iphone ou imac pour en profiter à fond.
Amazon Cloud Drive 5 Gb Le mastondonte Amazon vous offre 5 Gb, qualité de service au top.
Cubby 5 Gb
Bitcasa 5 Gb Bitcasa propose 5gb gratuitement, par contre pas de partage sécurisé, 3 accés max et pas de streaming.
Idrive 5 Gb Idrive propose 5Gb.
HiDrive 5 Gb HiDrive, de la société STRATO, propose 5Gb gratuits sur leurs serveurs en Allemagne.
Sync.com 5 Gb
Jottacloud 5 Gb ent.
SpiderOak 2 Gb Recommandé par Edward Snowden, le consultant de la NSA, pour le respect de la vie privée.
Dropbox 2Gb (si vous parrainez vos amis vous gagnez du stockage) Excellent service de cloud. Ca marche bien, ca ne rame pas. Le fait de gagner de l’espace en parrainant ses amis est très pratique pour augmenter son espace gratuitement.

 

Qu’est-ce que ChatGpt

Introduction

En fait, ChatGPT est un outil conversationnel établi à partir d’une intelligence artificielle (IA).

ChatGPT est donc un programme informatique qui peut comprendre et répondre à des questions en utilisant le langage naturel.

Il a été Développé par OpenAI qui est une société spécialisée dans l’IA.

ChatGPT est capable d’échanger sous forme de messages.

Il répond à des questions, mais il peut aussi générer du contenu écrit en réponse à une commande écrite de texte précis, appelée « prompt » en anglais.

ChatGpt peut travaille dans plusieurs langues, nous pouvons échanger avec lui en français.

Les ChatBot, c’est quoi

Le mot « chatbot » n’appartient pas au lexique de la langue française. En effet, c’est un néologisme par composition qui est issu de l’association de deux mots anglais : chat et bot.  Ces derniers ont chacun leur signification. Par exemple, « chat » signifie en français « discussion » (to chat = discuter). Pour ce qui est du mot bot, il n’est que la forme abrégée de robot en anglais. Le résultat d’une telle composition devrait donner « chatrobot ».

Pour faire simple, on a plutôt préféré « chatbot » qui, d’ailleurs, sonne mieux.

Un chatbot est donc un robot de discussionrobot conversationnel, ou encore agent conversationnel, dont le but est de converser avec un humain via un tchat.

Résultat d’images pour les chatbots c'est quoi Un chatbot est un programme informatique qui simule et traite une conversation humaine (écrite ou parlée), permettant aux humains d’interagir avec des terminaux digitaux comme s’ils communiquaient avec une personne réelle.

Un chatbot est doté d’une intelligence artificielle qui est programmé pour envoyer des output dès la réception d’un input.

En d’autres termes, c’est un programme qui est chargé d’envoyer des réponses lorsqu’il reçoit des questions par exemple.

En réalité, ce programme assure un échange avec un utilisateur dans le but de répondre éventuellement à ses questions.

Aujourd’hui nous passons tous un temps fou sur les applications  de messagerie : WhatsApp, Slack, Facebook Messenger, Snapchat, Instagram… à tel point que le temps passé sur les Tchats a dépassé depuis quelques années le temps passé sur les réseaux sociaux.

Histoire des Chatbots

Un chatbot (à prononcer « tchate-botte »), appelé parfois assistant virtuel, est un programme informatique qui simule une conversation (« chat » en anglais) avec une personne, à l’écrit ou à l’oral. Quand un utilisateur lui pose une question ou formule une commande, le chatbot lui répondra ou exécutera l’action demandée.

C’est Alain Turing, mathématicien et cryptologue britannique qui émet pour la première fois l’idée qu’une machine puisse interagir avec un humain en imitant une conversation.

Il développe alors le Test de Turing qui consiste à mesurer la capacité d’un ordinateur à se comporter comme un humain. Le principe du test est de faire communiquer un humain avec une machine et avec un autre être humain. Si à la fin du test ; la personne n’est pas en mesure de savoir qui est la machine et qui est l’humain, la machine réussit le test de Turing.

Le premier agent conversationnel a été conçu aux Etats Unis en 1966 par un informaticien et il s’appelait Eliza.Capture d'écran d'une conversation avec ELIZA

ELIZA fonctionne par reconnaissance de formes et substitution des mots-clés dans les phrases produites. Typiquement, une affirmation « A » peut recevoir en retour la question « Pourquoi dites-vous que A ? ». Quelques connaissances de rattachement entre mots lui permettent de renvoyer l’interlocuteur à un sujet plus large. « Parlez-moi de votre famille » est la réponse donnée à toute question comportant un mot-clé comme « mère » ou « fils ».

À noter que ces transformations sont plus simples en anglais, langue de fonctionnement d’ELIZA.

 

C’est un peu le père spirituel des Chatbots.

Le premier Bot capable de passer le test de Turing fût le Chatbot d’Eugene Goostman, un informaticien russe imitant un enfant de 13 ans. Cette victoire qui eut lieu en 2014 fut cependant critiquée mais cela montre que les évolutions dans ce domaine sont fulgurantes.

Aujourd’hui les chatbots sont populaires dans les applications de messagerie instantanée.

Les chatbots se sont beaucoup améliorés depuis. Ils exploitent les technologies d’IA notamment le Deep Learning, le traitement automatique du langage et les algorithmes d’apprentissage automatique (Machine Learning). Les plus généralistes ont besoin d’énormes volumes de données pour apprendre une langue. Plus un utilisateur interagit avec la machine, plus la reconnaissance de la parole ou du texte améliore sa réponse.

Les chatbots peuvent être « stateless » ou « statefull ».

Dans le premier cas, le chatbot aborde chaque interaction comme s’il s’agissait d’un nouvel utilisateur.

Dans le deuxième, le chatbot est plus sophistiqué : les interactions passées lui servent à contextualiser ses prochaines réponses.

Aujourd’hui, une entreprise qui dote ses services d’un chatbot n’a que peu de code à écrire. En effet, plusieurs prestataires permettent aux développeurs de créer des interfaces de conversation quasiment clefs en mains pour tout type d’application.

Les applications de chatbot mobiles comme Siri d’Apple ou Cortana de Microsoft sont plutôt qualifiés d’assistants virtuels.

Quelques exemples de Chatbots

 

En Chine avec Wechat,Toutes les images la messagerie numéro 1 là-bas avec plus d’un milliard d’utilisateurs. Les Chatbots Wechat permettent déjà de réserver un taxi, de prendre RDV avec un docteur, de payer dans les supermarchés, de réserver un vol et plein d’autres choses.

WeChat (/wiˈtʃæt/) ou Weixin (en chinois : 微信 ; pinyin : Wēixìn ; litt. « micro-message » ; prononcé : /u̯eɪ̯˥ ɕin˥˩/ ) est une application mobile de messagerie textuelle et vocale développée par le géant chinois Tencent Holdings Limited. Elle permet également les appels audio et vidéo. L’application est très populaire en Chine et compte plus d’un milliard de comptes dans le monde en . Elle est disponible dans d’autres langues depuis , date du lancement en dehors de la Chine. Weixin est le nom chinois de l’application lancée par l’entreprise Internet chinoise Tencent. Son expansion en 2013 à l’international comprend l’Inde notamment

L’application génère maintenant 700 millions d’activités de géolocalisation par jour.

L’ application a été lancée en janvier 2011.

De nombreux experts en média social expliquent que l’application mobile a un fort potentiel marketing pour les marques mais aussi pour les jeux ou encore le m-commerce sachant que WeChat est différent de Weibo, une plateforme de microblogage chinoise.

Wechat a par exemple déjà dépassé Sina Weibo en nombre de requêtes sur Google en 2013.

La plateforme WeChat est réputée pour la surveillance et la censure des contenus échangés par ses utilisateurs, y compris pour les comptes enregistrés hors de Chine.

OUIBot, le chatbot de la SNCF

capture écran de ouibot chatbot de la SNCFEn 2017, OUI.sncf a lancé OUIbot, un robot conversationnel permettant d’améliorer l’expérience client de ses usagers.

Accessible sur le site de OUI.sncf, mais aussi WhatsApp, Facebook Messenger ou encore Google Home, OUIbot a pour vocation d’être partout où le client se trouve.

Le chatbot permet de réserver des billets de train, de trouver les meilleurs tarifs et de télécharger ses billets dans la conversation.

OUIbot répond chaque jour à plus de 10 000 clients. Loué pour la qualité de ses réponses et de ses recommandations, il a remporté le prix Best Robot Experience en 2019.

Louis et Lucie, les chatbots d’Air France

exemple du chatbot d'air franceEn considérant que les bagages sont le deuxième thème le plus fréquent lors des demandes d’assistance sur les réseaux sociaux, Air France a décidé de lancer un chatbot spécialement dédié à cette thématique.

Louis répond donc aux questions des clients sur Messenger concernant la politique vis-à-vis des bagages de la compagnie et fournit le statut d’un bagage retardé.

Quelques mois après la naissance de Louis, Air France a déployé Lucie, un chatbot « inspirationnel » qui donne des idées de voyage aux clients et les redirige vers le site pour réserver.

 

 

 Ariane, chatbot de l’Ircantec

capture écran du chatbot arianeDéveloppé en 2013, Ariane est un chatbot destiné à répondre aux questions des utilisateurs du site de l’Ircantec, une caisse de retraite complémentaire.

Le but est de diminuer le nombre de contacts humains sur les questions les plus fréquentes, en particulier celles concernant l’accès à l’espace personnel. Ariane enregistre ainsi plus de 11 000 conversations chaque mois et a permis d’améliorer sensiblement l’expérience utilisateur du site.

 

QU’EST-CE QU’UN CHATBOT IA ?

Les chatbots d’intelligence artificielle sont des chatbots formés pour avoir des conversations de type humain en utilisant un processus connu sous le nom de traitement du langage naturel (NLP). Avec la PNL, le chatbot IA est capable d’interpréter le langage humain tel qu’il est écrit, ce qui lui permet de fonctionner plus ou moins par lui-même.

En d’autres termes, le logiciel de chatbot IA peut comprendre le langage en dehors des commandes préprogrammées et fournir une réponse basée sur les données existantes. Cela permet aux visiteurs du site de mener la conversation, en exprimant leur intention dans leurs propres mots.

Au niveau de base, un chatbot IA reçoit des données d’entrée qu’il interprète et traduit en une sortie pertinente. Ainsi, si un visiteur du site pose une question, le chatbot IA analysera son intention, ainsi que d’autres facteurs tels que le ton et le sentiment, puis tentera de fournir la meilleure réponse possible.

Pour ce faire, le chatbot IA a besoin d’accéder à des tonnes de données conversationnelles. C’est pourquoi les chatbots IA doivent passer par une période de formation où un programmeur leur apprend à comprendre le contexte des mots d’une personne. C’est cette compréhension qui permet au chatbot de répondre à des requêtes complexes de manière naturelle et conversationnelle.

Maintenant que vous connaissez les bases du fonctionnement d’un chatbot IA, avec le bon logiciel en place, vous pouvez créer une expérience conversationnelle qui fournit les bonnes informations aux visiteurs de votre site au bon moment.

L'assistant virtuel de Google dans un objet connectéSiri, Cortana, Now, M, Alexa... la guerre des assistants virtuels est déclarée | Les EchosChatbot Guide- Types, Benefits, Uses, Cost and Technology Stack

Ils répondent aux noms de Cortana, Siri, Alexa ou Google Assistant et sont en train de modifier en profondeur notre vie quotidienne.

Les assistants virtuels vont permettre d’atteindre un niveau véritablement individuel de relation. Les avancées dans la diminution du taux d’erreur de la reconnaissance vocale, la traduction en temps réel et surtout la compréhension contextuelle (qui permet à l’intelligence artificielle de relier des réponses isolées en ensembles logiques) vont permettre une fluidité des conversations entre utilisateurs et assistants virtuels.

Robots vocaux

Un bot vocal est un canal de communication voix-texte et texte-parole alimenté par l’IA et la compréhension du langage naturel (NLU). La technologie IA aide à identifier les principaux signaux vocaux et à déterminer la réponse conversationnelle optimale. Le moteur de synthèse vocale (TTS) complète ensuite l’interaction en convertissant le message en audio ou en voix.

Ces robots sont programmés pour compléter l’ensemble du processus de compréhension de la parole et de réponse d’une manière humaine. Les assistants vocaux ou les chatbots vocaux fournissent un modèle de communication sophistiqué que l’on peut rapidement mettre en œuvre dans divers outils de service client, y compris la réponse vocale interactive (IVR), le libre-service et les bases de connaissances en ligne .

Les chatbots hybrides

Un chatbot hybride est un mélange harmonieux de chatbot et de chat en direct qui combine le meilleur des deux mondes. Un représentant du service client sera disponible dans le chat en direct pour répondre aux questions des clients, qui peuvent être trop complexes ou nuancées pour l’automatisation seule.

Un composant d’IA dans un chatbot réplique les conversations en fonction de la façon dont il est programmé et des besoins de la conversation. D’autre part, un chatbot hybride initiera une conversation de chat automatisée et tentera de résoudre la requête de l’utilisateur aussi rapidement et simplement que possible. S’il ne fonctionne pas comme prévu, un représentant du service client peut intervenir à tout moment ou dans le domaine où le chatbot ne peut pas terminer la tâche.

Chatbots de messagerie sociale

Avec l’essor des nouvelles interfaces de médias sociaux, les organisations peuvent désormais déployer un algorithme d’IA sur toutes les plateformes de messagerie préférées de leurs clients. Cela inclut Facebook Messenger, Twitter, Instagram, ainsi que des applications de messagerie comme WhatsApp et WeChat. Il permet une expérience en ligne plus agréable pour les clients et un engagement accru pour l’entreprise, le tout sans alourdir la charge de travail d’un centre de contact.

Chatbots basés sur des menus

Le type de chatbot le plus rudimentaire utilisé est celui qui est basé sur la navigation pilotée par menu. La plupart du temps, ces chatbots suivent un arbre de décision fixe qui s’affiche au consommateur sous forme de boutons cliquables. Ces chatbots (comme les menus automatisés du pavé numérique sur les téléphones que nous utilisons régulièrement) demandent à l’utilisateur de faire plusieurs choix et de cliquer sur les options appropriées pour arriver à la solution finale.

Bien que ces chatbots soient adéquats pour répondre aux questions fréquemment posées, qui représentent la plupart des demandes d’assistance, ils peuvent échouer dans des scénarios plus complexes. S’il y a trop d’éléments ou trop d’expertise en jeu, le chatbot basé sur un menu peut ne pas être en mesure d’aider les utilisateurs à trouver la bonne réponse. Il est également important de noter que les chatbots basés sur des menus sont les plus lents à offrir une véritable valeur au consommateur, mais ils sont simples et abordables pour démarrer.

Chatbots de compétences

Un chatbot de compétences est un autre type de bot qui peut effectuer un ensemble spécifique de tâches, une fois que vous avez étendu ses capacités à l’aide d’un logiciel de compétences prédéfini. Par exemple, le chatbot peut être en mesure de fournir des informations météorologiques, d’éteindre les lumières de votre chambre lorsqu’il est connecté à un appareil électroménager intelligent, de commander des courses en ligne, etc. Avec l’accès au code source de la compétence, les développeurs peuvent construire leurs propres chatbots de compétences et les intégrer. avec d’autres plateformes.

Chatbots basés sur des mots clés

Les chatbots basés sur des mots clés peuvent écouter ce que les visiteurs saisissent et répondre correctement, contrairement aux chatbots basés sur des menus. Ces chatbots utilisent des mots-clés personnalisables et le NLP pour détecter les déclencheurs d’action dans la conversation afin de comprendre comment répondre de manière appropriée au consommateur. Cependant, face à de nombreuses demandes similaires, ces chatbots peuvent échouer. Les chatbots pourraient commencer à faiblir s’il y a des répétitions de mots clés dans de nombreuses demandes associées.

C’est pourquoi les chatbots qui combinent l’identification des mots-clés et la navigation par menus ou boutons deviennent de plus en plus populaires. Si la fonctionnalité de détection de mots clés échoue ou si l’utilisateur a besoin d’une aide supplémentaire pour trouver une réponse, ces chatbots offrent aux utilisateurs la possibilité de saisir directement des commandes via des boutons de navigation cliquables. Il s’agit d’une solution de contournement efficace lorsque le bot ne peut pas détecter les mots-clés dans l’entrée saisie.

Chatbots basés sur des règles

Un chatbot basé sur des règles est idéal pour les entreprises qui connaissent déjà les types de demandes que leurs clients poseront. Les flux de discussion sont créés à l’aide de la logique si/alors, et vous devez d’abord établir les exigences linguistiques du chatbot. Les conditions d’évaluation des mots, la structure des mots, les synonymes, etc. sont les principes essentiels de sa fonctionnalité. Les clients recevront une assistance rapide si une demande entrante relève de ces paramètres.

Il est important de noter qu’il est de la responsabilité du développeur de couvrir autant que possible chaque permutation et combinaison d’une requête – sinon, le chatbot ne sera pas en mesure de comprendre le consommateur ou d’y répondre.

Chatbots contextuels alimentés par l’IA

Les chatbots contextuels peuvent saisir le contexte d’un chat et déterminer la signification correcte de la demande de l’utilisateur. Il peut également rappeler les interactions précédentes et utiliser ces informations pour maintenir la pertinence tout en interagissant avec des clients réguliers. Les bots contextuels peuvent garantir que les utilisateurs réguliers ont une expérience cohérente. En outre, il peut conserver des informations sur l’intention de l’utilisateur recueillies sur de nombreuses plates-formes et canaux, garantissant que le contexte de la conversation correspond aux besoins du consommateur à chaque point de contact.

Les chatbots contextuels sont connectés à la base de données centralisée d’un site ou d’une application, généralement un système de gestion de la relation client (CRM) ou une plateforme de données client (CDP). Cela leur permet de récupérer des informations critiques sur une personne avec laquelle ils discutent, telles que le nom, l’emplacement ou l’historique des achats de la personne.

 

ChatGpt

Une image d'un téléphone avec ChatGPT et le logo d'OpenAI visible.

chatgpt-resultat-birthday(d’après le site https://www.sales-hacking.com/)

Le générateur de texte par intelligence artificielle d’OpenAIlogo OpenAI

 

ChatGPT est un prototype d’agent conversationnel utilisant l’intelligence artificielle spécialisé dans le dialogue. Le chatbot a été développé par OpenAI, une société cocréée par Elon Musk en 2015 et valorisée à près de 29 milliards de dollars américains en 2023. Le sigle ChatGPT signifie Generative Pre-trained Transformer en anglais, ou « Transformateur Générique Pré-entraîné » en français.

 

Essentiellement, ChatGPT est un chatbot basé sur l’IA qui peut répondre à n’importe quelle question. Il comprend des sujets complexes, comme la physique, les maths et le développement informatique.

Il peut résoudre des tâches de niveau universitaire, mais aussi générer des articles de blog, des paroles de chansons, des pages HTML, etc.

Il s’agit d’un guide complet sur la compréhension et l’utilisation de ChatGPT.

Vous apprendrez comment accéder à ChatGPT, comment commencer à l’utiliser, quels sont ses principaux cas d’utilisation et comment vous pouvez en tirer profit.

De plus, vous apprendrez quels sont ses inconvénients et à quoi pourrait ressembler l’avenir de l’IA.

ChatGPT est un chatbot IA basé sur le dialogue, capable de comprendre le langage humain naturel et de générer des textes écrits d’une précision impressionnante, dignes d’un humain.

ChatGPT peut expliquer la physique quantique ou écrire un poème sur commande, une prise de contrôle complète de l’IA n’est pas exactement imminente.

Fonctionnalités de ChatGPT

  • Chatbot a des capacités de traitement du langage naturel
  • Génère du texte
  • Déboguer et corriger les erreurs de code
  • Traduit le texte entre les langues
  • Se souvient de la conversation précédente avec l’utilisateur
  • La capacité de générer un meilleur contexte sur la base des instructions de suivi
  • Résume les paragraphes ou le contenu
  • Résoudre des équations mathématiques
  • Explique des concepts complexes dans un langage simple

Il s’agit de la dernière évolution d’IA génératrices de texte GPT:

 

Chat GPT significationRésultat d’images pour Greg Brockman, président d'OpenAI

Selon Greg Brockman, président d’OpenAI, plus d’un million d’utilisateurs se sont inscrits à ChatGPT dans les cinq jours qui ont suivi son lancement dernièrement à titre de test.

Les réseaux sociaux ont été animés par des réactions souvent stupéfaites face aux capacités du programme, ainsi que par des réactions amusées ou inquiètes de sa puissance.

ChatGPT est capable de :

  • Répondre à vos questions,
  • Reconnaître ses erreurs,
  • Contester des prémisses incorrectes,
  • Rejeter des demandes inappropriées.

Quelques exemples de requêtes possibles sur ChatGPT : rédiger un long texte sur un sujet spécifique, faire une synthèse d’un long document, suggérer un plan détaillé pour un cours, rédiger un email avec votre style d’écriture, générer des idées pour vous aider à trouver de l’inspiration, résoudre un calcul complexe, écrire un récit fictif avec plusieurs personnages, identifier des bugs de code pour les développeurs, etc.

Cet IA conversationnelle repose sur la technologie de génération de langage naturel : GPT-3.5. Ce modèle est similaire à InstructGPT qui est entraîné à suivre une instruction dans un guide afin de pouvoir

Le modèle GPT-3 original a été entraîné sur un ensemble de données de plus de 8 millions de pages web et a été capable de générer du texte cohérent et formaté de manière cohérente dans une variété de langues et de formats.

GPT-3 est l’abréviation de Generative Pre-training Transformer 3. Il s’agit d’un modèle deWhat is the difference between Deep Learning and Machine Learning ... Deep Learning composé d’algorithmes capables de reconnaître des modèles de données et qui peuvent également apprendre par le biais d’exemples. À ce titre, il est considéré comme un réseau neuronal artificiel avec une mémoire à long terme.

Le GTP-3 utilise ses algorithmes pour générer du texte. Ces algorithmes ont été préalablement formés à l’aide d’une énorme base de données.

Il évalue et traite toutes les données qu’il reçoit afin de combler les lacunes en matière d’information.

Le GTP-3 a été décrit comme la percée la plus importante et la plus utile en matière d’intelligence artificielle depuis des années. Il semble être – bien qu’il soit encore dans sa version bêta – le modèle d’intelligence artificielle le plus puissant actuellement disponible.

ChatGPT est une variante du modèle GPT qui a été spécifiquement conçue pour être utilisée dans les chatbots et les systèmes d’IA conversationnelle. Il est entraîné sur un grand ensemble de données de conversations par chat et est capable de générer des réponses appropriées, cohérentes, voire très pertinentes.

Outre la génération de réponses, ChatGPT peut également être utilisé pour des tâches telles que la traduction, le résumé de texte, l’écriture de code informatique et la réponse à des questions.

Il s’agit d’un outil puissant pour créer des chatbots et d’autres systèmes d’IA conversationnels capables d’interagir avec les utilisateurs de manière naturelle et cohérente.

Qu’est ce qu’un prompt sur Chat GPT ?

Illustration d'un "prompt-based model " en Natural Language Processing
Illustration d’un « prompt-based model » en Natural Language Processing – Source : https://arxiv.org/pdf/2107.13586.pdf

Un prompt sur Chat GPT est une question ou une phrase qui sert de départ à un chatbot pour initier une conversation avec un utilisateur. Il peut s’agir d’un message d’accueil, d’une invitation à poser une question ou d’une suggestion de sujet de discussion. Le chatbot utilisera ensuite des algorithmes de traitement du langage naturel pour comprendre et répondre de manière appropriée à la demande de l’utilisateur.

Pour faire un prompt sur chat GPT, voici les étapes à suivre :

  1. Déterminez le sujet de conversation que vous souhaitez aborder avec votre chatbot. Cela peut être lié à votre entreprise, à votre produit ou service, ou à tout autre sujet qui pourrait intéresser vos utilisateurs.
  2. Écrivez une question ou une phrase qui servira de départ à la conversation. Assurez-vous qu’elle est claire et concise, et qu’elle incite l’utilisateur à réagir.
  3. Enregistrez votre prompt dans le logiciel de chatbot que vous utilisez. Cela peut être fait manuellement en entrant la phrase dans le logiciel, ou en utilisant une commande vocale pour la dictée.
  4. Testez votre prompt en utilisant le chatbot pour vous assurer qu’il fonctionne correctement et qu’il est capable de comprendre et de répondre de manière appropriée à l’utilisateur.
  5. Modifiez ou ajustez votre prompt si nécessaire en fonction des résultats de vos tests.

Qui a créé ChatGPT ?

Cette nouvelle IA est le tout dernier chatbot de la fondation OpenAI, organisme de recherche indépendant fondé par Elon Musk.

Musk a cofondé la startup avec d’autres investisseurs de la Silicon Valley, dont le spécialiste du capital-risque technologique Sam Altman, fin 2015, en déclarant que le centre de recherche ferait « progresser l’intelligence numérique de la manière la plus susceptible de profiter à l’humanité », selon un article de blog de l’époque.

Sam Altman et Elon Musk OpenAI
Sam Altman et Elon Musk

Le PDG de Twitter a depuis quitté le conseil d’administration et pris ses distances avec l’entreprise, tweetant dimanche qu’après avoir « appris » qu’OpenAI accédait à la base de données de la plateforme pour « s’entraîner », il a mis un frein à cette activité.

« Nous avons besoin de mieux comprendre la structure de gouvernance [et] les plans de revenus pour l’avenir », a-t-il déclaré.

« OpenAI a été lancé en tant que logiciel libre et à but non lucratif. Ni l’un ni l’autre ne sont encore vrais.  »

gpt-3 open ai

Lorsqu’on parle de logiciels de machine learning, on pense souvent à des plateformes qui peuvent nous aider à analyser des données ou à faire des prédictions.

Du progiciel de gestion intégré qui assure une meilleure gestion des stocks au logiciel de gestion de la relation client qui stimule les relations avec les clients et les ventes, les logiciels de machine learning ont un éventail d’applications dans le monde des affaires.

Cependant, dernièrement, une intelligence artificielle appelée GPT-3 a fait l’objet d’une grande attention en raison de son potentiel à changer la façon dont nous interagissons avec les machines.

GPT-3 est un réseau neuronal créé par OpenAI, un laboratoire de recherche en intelligence artificielle.

 

 

 

 

openAI homepage

L’objectif de GPT-3 est de permettre aux développeurs de créer plus facilement des applications plus intelligentes, en leur permettant d’exploiter la puissance du machine learning.

Cela a donné lieu à divers cas d’utilisation de GPT-3, allant de la génération automatique de code à l’écriture par l’IA de logiciels qui comprennent le contexte et peuvent offrir des suggestions en conséquence.

Comment fonctionne GPT-3 ?

Comme l’explique Jay Alammar, un modèle de langage analyse et génère du texte.

Pour ce faire, il se fonde sur un système d’autocomplétions : en fonction des mots précédents, l’algorithme va essayer de prédire le prochain mot, puis le suivant.

Mais avant de pouvoir réaliser ces prédictions, le modèle doit suivre un entraînement que l’on peut diviser en deux phases.

 

 

 

Étape 1 : analyse de textes

Dans un premier temps, le programme analyse des milliards de textes pour obtenir un certain niveau de “compréhension” de la langue.

Étape 2 : prédiction de mots et répétition

Ensuite, on demande à l’algorithme de prédire la suite de groupes de mots ou de phrases. Si l’algorithme prédit le mauvais mot, on le lui indique et montre le bon mot. Le programme va prendre en compte l’erreur et répéter le processus des millions de fois jusqu’à obtenir une prédiction correcte à chaque fois.

Entraînement de GPT-3 - Jay Alammar (2018)

                                                                                                            Entraînement de GPT-3 – Jay Alammar (2018)

 

La force de GPT-3 réside dans son entraînement, car le modèle a traité une quantité gigantesque de données. Grâce à cela, il n’a pas besoin de beaucoup d’instructions pour générer du contenu lisible.

Comment fonctionne ChatGPT ?

ChatGPT est un chatbot basé sur GPT (Generative Pre-training Transformer).

GPT est un modèle de langage entraîné sur une grande base de données, qui peut être utilisé pour effectuer diverses tâches comme :

  • la génération de texte,
  • la traduction et
  • la compréhension de questions.

Le modèle de ChatGPT fonctionne en utilisant l’apprentissage par renforcement pour apprendre à répondre de manière cohérente à des questions et à des commentaires sur divers sujets.

Lorsqu’il reçoit une entrée de l’utilisateur, il utilise sa connaissance préalable et ses compétences en traitement du langage naturel pour générer une réponse cohérente.

Le modèle est capable de « apprendre » de manière autonome en interagissant avec les utilisateurs et en s’adaptant à leurs réponses.

fonctionnement chat gpt

Sur quoi le chat GPT est-il formé ?

Chat GPT s’appuie sur NLP (Natural Language Processing). C’est un excellent outil pour les chercheurs et les développeurs travaillant sur divers projets NLP, et il a de nombreuses tâches, domaines et applications spécifiques disponibles pour travailler.Il est bien formé sur des données biaisées et impartiales, sous la forme de textes provenant de livres, d’articles et de sites Web. Chat GPT peut reproduire les sorties de données et la fiabilité, ce qui est crucial pour de nombreuses applications sensibles et d’autres systèmes Al précieux. Cependant, il est toujours sujet aux erreurs et aux biais et dépend de ses données de formation – fournies en 2021.En tant qu’êtres humains, nous interagissons de plus en plus avec des machines alimentées par Al, et Chat GPT est une révolution dans le domaine de l’Al. C’est un modèle robuste et particulièrement avancé grâce à ses capacités de deep-learning et de NLP. En fin de compte, il peut générer des réponses de type humain et est facilement compréhensible pour les utilisateurs. Je pensais que ça ne faisait pas toujours les choses bien.

Modèle d’apprentissage de ChatGPT

 

Le modèle de ChatGPT est conçu pour être utilisé dans des chatbots et des assistants virtuels, où il peut être utilisé pour répondre à des questions et offrir de l’aide à l’utilisateur de manière autonome. Il peut également être utilisé dans d’autres contextes, tels que la génération de texte et la traduction automatique.

OpenAI a déclaré que la nouvelle IA a été créée en mettant l’accent sur la facilité d’utilisation. « Le format de dialogue permet à ChatGPT de répondre aux questions de suivi, d’admettre ses erreurs, de contester les prémisses incorrectes et de rejeter les demandes inappropriées », a déclaré l’organisme de recherche dans un communiqué la semaine dernière.

Les applications du monde réel pourraient inclure la génération de contenu pour les sites web, la réponse aux demandes des clients, la fourniture de recommandations ainsi que la création de chatbots automatisés.

Sam Altman, PDG d’OpenAI, a déclaré que le système était « une première démonstration de ce qui est possible ».  »

Bientôt, vous pourrez avoir des assistants utiles qui vous parlent, répondent à vos questions et vous donnent des conseils.

Plus tard, vous pourrez avoir quelque chose qui ira accomplir des tâches pour vous. Enfin, vous pourrez avoir quelque chose qui ira découvrir de nouvelles connaissances pour vous.

L’utilisation de ChatGPT est-elle gratuite ?

Oui, l’utilisation de ChatGPT est actuellement gratuite pendant la période d’évaluation d’OpenAI.

L’entreprise espère utiliser les feedbacks pour améliorer ChatGPT et proposer par la même occasion une offre payante.

Pour essayer ChatGPT :

  1. Visitez le site officiel ici
  2. Créer un compte
  3. Sélectionnez « Usage Personnel »
  4. Choisissez la fonction que vous désirez – pour une conversation, cliquez sur Q&A
  5. Cliquez sur Ouvrir
  6. Écrivez vos questions
  7. Cliquez sur Envoyer et attendez que la réponse apparaisse – cela peut prendre quelques secondes.

Comment se servir de Chat GPT ?

ChatGPT est une plateforme de chatbot puissante et intuitive alimentée par l’IA qui peut être utilisée par des débutants et des utilisateurs avancés.

Voici les étapes simples à suivre pour accéder à Chat GPT :

  1. Créez un compte sur chatgpt.com. Une fois que vous aurez complété l’inscription, vous obtiendrez un compte gratuit contenant des modèles pré-entraînés et tout ce dont vous avez besoin pour commencer à construire votre chatbot.
  2. Utilisez le tableau de bord pour créer vos propres modèles personnalisés ou modifier ceux existants afin qu’ils répondent aux besoins de votre entreprise et de vos clients. Vous pouvez sélectionner des modèles pré-entraînés, personnaliser les entrées d’utilisateur et surveiller la qualité du résultat au fur et à mesure qu’il se développe.
  3. Connectez le bot à Facebook Messenger, Slack ou d’autres plates-formes en un seul clic afin qu’il soit disponible pour les clients et les collaborateurs sur le lieu de travail numérique qu’ils préfèrent.
  4. Évaluez l’efficacité du bot en effectuant des tests continus pour améliorer constamment l’expérience client et veillez à ce que le chatbot réponde correctement aux questions posées par les utilisateurs humains et non humains tout en respectant également la politique de confidentialité de votre entreprise .

En suivant ces étapes simples, vous pouvez profiter pleinement des fonctionnalités offertes par ChatGPT, être prêt rapidement et facilement générer une excellente expérience client grâce aux bots !

On a demandé à ChatGpt de se décrire lui-même

 

 

ChatGPT peut Expliquer un concept complexe en termes simples

L’une des principales raisons d’utiliser un chatbot IA comme ChatGPT est qu’il peut simplifier des sujets complexes.

Par exemple, si vous êtes novice en matière de crypto-monnaies et que vous cherchez un moyen plus facile de comprendre de quoi il s’agit, vous pouvez utiliser ChatGPT.

Jetez un coup d’œil :

chatgpt explication

Il explique des concepts complexes en termes simples que tout le monde peut comprendre.

Il générera des résultats TRÈS rapidement, ce qui vous évitera de passer des heures à rechercher ces sujets sur Google.

De plus, il est extrêmement facile d’utiliser des outils comme ChatGPT. Tout ce que vous avez à faire est d’entrer quelques données et ChatGPT suivra votre commande.

La capacité d’expliquer des sujets complexes en termes simples peut être utile aux enseignants, aux étudiants, aux chercheurs, aux propriétaires de sites web, etc.

ChatGPT peut faire de la Recherche d’informations

Si vous lui faites confiance, vous utilisez ChatGPT pour trouver des réponses à vos questions au lieu d’utiliser un moteur de recherche !

Gardez à l’esprit que l’IA de ChatGPT est entraînée avec des données provenant d’événements principalement antérieurs à 2021.

Cela signifie qu’elle ne sait rien de la météo actuelle ou d’autres tendances récentes. Néanmoins, elle peut traiter n’importe quel type d’information factuelle très bien !

Par exemple, demandons à ChatGPT de lire les 50 premières décimales de Pi.

calculs mathématiques réalisés par ChatGPT

ChatGPT peut trouver des idées créatives

Vous voulez trouver des idées créatives pour la fête du 31 décembre entre amis ?

ChatGPT peut vous y aider.

Jetez un coup d’œil :

idées créatives chatgpt

De même, vous pouvez demander à ChatGPT N’IMPORTE QUELLE idée créative et il vous la donnera probablement.

Note rapide : ChatGPT est formé pour refuser les demandes inappropriées. Posez donc des questions appropriées et obtenez des réponses pertinentes.

L’avantage de ChatGPT est qu’il se souvient de ce que l’utilisateur a dit plus tôt dans la conversation.

Jetez un coup d’œil à la conversation suivante avec ChatGPT :

conversation chatgpt

On peut utiliser ChatGPT pour générer du code

Vous pouvez utiliser ChatGPT pour générer du code ou corriger les erreurs dans votre code existant.

Essayons-le avec un exemple.

Imaginons que vous souhaitiez créer des flocons de neige à l’aide de JavaScript, il vous suffit d’entrer les données et ChatGPT générera instantanément le code pour vous.

Jetez un coup d’œil :

chatgpt écriture code 1
chatgpt écriture code 2
chatgpt écriture code 3

Comme vous pouvez le voir ci-dessus, ChatGPT peut être utilisé pour générer un texte de type code dans le cadre d’un projet plus vaste.

Vous pouvez l’utiliser pour générer des commentaires ou de la documentation sur le code ou pour générer des extraits de code qui suivent une syntaxe ou un style spécifique.

ChatGPT pourrait-il remplacer les humains ?

Certains pensent que les professions qui dépendent de la production de contenu pourraient devenir obsolètes, notamment les dramaturges, les professeurs, les programmeurs et les journalistes.

Dans les jours qui ont suivi sa sortie, des universitaires ont généré des réponses à des questions d’examen qui, selon eux, obtiendraient des notes complètes si elles étaient soumises par un étudiant de premier cycle, et des programmeurs ont utilisé l’outil pour résoudre des bugs ou des manières de coder dans n’importe quel langage informatique en quelques secondes.

La capacité de générer un texte écrit semblable à celui d’un être humain a suscité des suggestions selon lesquelles cette technologie pourrait remplacer les journalistes.

CHATGPT remplace humains ?

Toutefois, à son stade actuel, le chatbot n’a pas la nuance, l’esprit critique ou la capacité de prise de décision éthique qui sont essentiels à un journalisme réussi.

Sa base de connaissances actuelle prend fin en 2021, ce qui rend certaines requêtes et recherches inutiles.

ChatGPT peut également donner des réponses totalement fausses et présenter des informations erronées comme des faits, en écrivant des « réponses à l’apparence plausible mais incorrectes ou insensées », concède la société.

OpenAI affirme qu’il est difficile de résoudre ce problème, car il n’existe pas de source de vérité dans les données utilisées pour former le modèle et la formation supervisée peut également être trompeuse « car la réponse idéale dépend de ce que le modèle sait, plutôt que de ce que le démonstrateur humain sait ».

Seul le temps nous dira ce que l’avenir de l’IA nous réserve et si ChatGPT est en mesure de nous voler nos emplois dans le futur.

Comment commencer avec ChatGPT ?

L’accès à ChatGPT est facile. Pour le moment, ChatGPT est disponible gratuitement pour tout le monde en s’inscrivant.

Pour commencer à utiliser ChatGPT, rendez-vous sur le site d’OpenAI ChatGPT.

acceder a chat gpt

 

connexion sur ChatGPT
Si vous n’avez pas encore de compte, assurez-vous de vous inscrire à OpenAI.

Une fois Après vous être inscrit, vous pouvez déjà commencer à utiliser ChatGPT.

Vous n’avez pas besoin de compétences techniques pour utiliser ChatGPT. Tout ce que vous devez faire, c’est commencer à lui poser des questions comme vous le feriez auprès de n’importe qui.

OpenAI a mis ChatGPT à la disposition du public.

Mieux encore, le service est gratuit. Mais personne ne sait s’ils en feront un jour un outil payant, à l’instar de ce qu’ils ont fait pour GPT3 ou du générateur d’images DALL-E 2.

De plus, comme ChatGPT est encore dans la phase de recherche initiale, il est possible qu’OpenAI le refuse pendant un certain temps.

Rendez-vous sur chat.openai.com pour commencer à créer !

Cela ouvre la vue du chatGPT qui ressemble à ceci :

Interface de chatGPT

En bas de la page, il y a un champ de discussion où vous pouvez commencer à écrire des messages.

Par exemple, demandons à l’outil de trouver les paroles d’une chanson :

tuto chat gpt

Plutôt impressionnant, n’est-ce pas ?

L’objectif principal de ChatGPT est d’avoir une IA conversationnelle à laquelle vous pouvez demander n’importe quoi.

L’exemple ci-dessus est impressionnant, c’est certain, mais générer des paroles est loin d’être la seule chose que ChatGPT peut faire.

Au lieu de cela, vous pouvez avoir une conversation complète avec l’outil.

Non seulement ChatGPT sait tout, mais il se souvient aussi de vos conversations. Vous pouvez par exemple lui demander de générer un texte ou un code et lui demander ensuite d’y apporter des améliorations.

Par exemple, j’ai demandé à ChatGPT de trouver des noms de startups.

Mais comme les noms qu’il génère sont longs, je lui ai demandé de les raccourcir.

Voici à quoi ressemble la conversation :

exemple conversation générée par ChatGPT

 

Avant de passer aux cas d’utilisation de ChatGPT, parlons rapidement des avantages et des inconvénients de cette technologie.

Avantages et inconvénients – ChatGPT

ChatGPT est un modèle de langage impressionnant, capable de produire du texte et du code comme jamais auparavant.

Il fait un excellent travail pour trouver des réponses aux questions délicates et est capable de les représenter de manière convaincante.

Mais comme les prédécesseurs de ChatGPT, la technologie présente encore de nombreuses lacunes et insuffisances. Ces limitations sont bien reconnues par OpenAI car elles sont clairement énoncées sur la page d’accueil de ChatGPT.

Avantages de ChatGPT

  • ChatGPT fait preuve d’une compréhension pointue non seulement de la langue , mais aussi des langages de développement informatique.
  • ChatGPT peut résoudre des problèmes de développement et même écrire des preuves mathématiques.
  • ChatGPT offre une manière transparente et naturelle d’avoir une conversation avec l’IA.
  • L’utilisation de cette technologie est gratuite pour le moment et ne nécessite qu’une inscription.
  • ChatGPT est déjà impressionnant même s’il n’en est qu’à ses débuts… C’est vraiment prometteur !
  • ChatGPT est un chatbot AI polyvalent que vous pouvez utiliser comme assistant IA pour rationaliser votre processus de création de contenu et même les flux de travail de développement de logiciels.

Inconvénients de ChatGPT

  • ChatGPT a un ton de voix convaincantmême lorsque les faits sont faux. Il peut produire une réponse qui semble correcte sur le plan factuel, même si elle ne l’est pas. Selon le niveau de connaissance de l’utilisateur, cela peut être difficile à dire. Il faut du temps pour analyser les réponses de ChatGPT et voir ce qui est faux et ce qui est vrai.
  • Si vous utilisez souvent ChatGPT, vous remarquerez que certains modèles et certaines phrases se répètent dans le texte. Cela peut conduire à la production de contenu dupliqué ou de contenu qui se répète structurellement.
  • Parfois, ChatGPT se bloque et ne sait clairement pas comment répondre à vos questions. Mais il suffit de modifier un ou deux mots pour qu’il produise une réponse.
  • Il y a une énorme demande pour ChatGPT car c’est un service gratuit pour le moment. Cela peut entraîner des temps d’arrêt ou des retards.
  • Dans l’ensemble, ChatGPT vient de sortir et est loin d’avoir atteint sa forme finale. Il peut être biaisé, il ne sait pas comment poser des questions de clarification, et il peut aussi produire des résultats plutôt verbeux !

Les 5 limites de ChatGPT

Le fonctionnement de ChatGPT comporte quelques limites. Il est essentiel de les connaître afin de comprendre la qualité des résultats obtenus.

  1. La limite principale de ChatGPT réside dans l’âge de ses données. L’outil ne va pas chercher les réponses sur Internet à la volée, mais s’appuie sur une base de connaissance qui n’a pas été mise à jour… depuis 2021. Vous n’obtiendrez donc pas de réponse sur les événements survenus depuis ; et les résultats pourront être incorrects si les données ont été modifiées depuis.
  2. À l’origine, les données utilisées par ChatGPT sont issues d’Internet (articles, sites web, conversations publiques…) : elles ne sont donc pas parfaites et peuvent intégrer des biais ou des erreurs, voire pousser ChatGPT à générer des réponses offensantes ou inappropriées.
  3. Pour répondre à un maximum de requêtes formulées par les internautes, les données intégrées par ChatGPT couvrent des thématiques très variées. Cependant, sa connaissance de chaque sujet reste limitée, il ne pourra donc pas répondre précisément à des questions très pointues sur un domaine particulier.
  4. ChatGPT génère du contenu en se basant sur d’autres contenus existants : les résultats générés ne sont donc jamais parfaitement originaux. Il s’agit de déclinaisons orientées de contenus déjà existants.
  5. Enfin, comme tout modèle de langage naturel, ChatGPT génère parfois des réponses grammaticalement correctes, mais dénuées de sens. Quoi que vous souhaitiez faire avec les réponses obtenues, selon le degré de qualité attendu, une relecture et des ajustements humains seront très souvent nécessaires !

Cas d’utilisation – ChatGPT

ChatGPT peut écrire du code, résoudre des équations mathématiques et rédiger tout type de contenu textuel en général.

Examinons quelques-uns des cas d’utilisation les plus prometteurs de la nouvelle technologie ChatGPT.

Dois-je utiliser l’IA pour écrire avec ChatGPT ?

L’IA et le traitement du langage naturel ont évolué à pas de géant au cours des deux dernières années.

De nos jours, vous pouvez facilement écrire un article de blog avec l’IA. En fait, tout ce que vous avez à faire, c’est de trouver un sujet.

Utilisation de ChatGPT

Mais ce n’est pas ce que vous devez faire (du moins pas encore) !

Le recours excessif à l’IA lors de la rédaction d’articles de blog ou d’autres types de contenu écrit peut poser plusieurs problèmes.

L’un des principaux problèmes est que le contenu généré par l’IA manque souvent de créativité, d’une perspective unique et de l’expérience que les auteurs humains peuvent apporter à un sujet.

En outre, il peut en résulter un contenu terne et inintéressant pour les lecteurs.

Plus important encore, ce type de contenu n’est pas utile aux lecteurs : les mêmes informations sont déjà disponibles dans d’innombrables autres ressources.

De plus, le contenu généré par l’IA n’est pas toujours exact ou conforme aux faits, ce qui peut être problématique si le contenu est utilisé pour une prise de décision importante ou d’autres tâches critiques.

C’est particulièrement grave si l’auteur ne connaît pas bien le sujet et que l’IA produit une réponse d’apparence réaliste qui est tout simplement fausse.

Je n’ai pas utilisé ChatGPT pour générer cet article de blog.

Au lieu de cela, j’ai utilisé l’outil de manière extensive et j’ai fait des captures d’écran et d’autres illustrations pour générer un article vraiment utile, et pas seulement un bloc de texte optimisé pour les mots clefs que personne ne veut lire.

Téléchargement de ChatGPT pour Windows et Mac

Il s’agit d’une application simple qui fait vivre ChatGPT dans votre barre de menus.

Application ChatGPT sur Mac

Vous pouvez utiliser Cmd+Shift+G (Mac) ou Ctrl+Shift+G (Win) pour l’ouvrir rapidement de n’importe où.

Télécharger : GitHub de l’application ChatGPT

Résumé – ChatGPT

En résumé, vous avez appris ce qu’est la nouvelle technologie à la mode appelée ChatGPT et comment l’utiliser.

L’une des réalisations les plus impressionnantes dans le domaine de l‘IA des chatbots est ChatGPT d’OpenAI.

OpenAI de ChatGPT

Il s’agit d’une nouvelle IA conversationnelle capable de produire un contenu textuel unique à partir des instructions de l’utilisateur.

Elle peut résoudre des problèmes de développement et de mathématiques, ainsi que rédiger des articles de blog ou même des landing pages.

Même si l’iA de ChatGPT est impressionnante, elle n’est pas encore au point à 100% ! ChatGPT possède encore de nombreuses limites.

Parfois, il vous donne une réponse qui est incorrecte dans les faits, mais il le fait de manière si convaincante qu’il est difficile de s’en rendre compte.

Une chose est sûre : L’IA en est encore à ses débuts et fait déjà des choses que nous n’aurions jamais cru possibles.

Afin de s’assurer d’obtenir un contenu unique pour éviter tout doute de plagiat, l’utilisation d’un logiciel de détection de contenu généré par l’IA est une bonne option.

Avantages de ChatGPT

  • ChatGPT fait preuve d’une compréhension pointue non seulement de la langue , mais aussi des langages de développement informatique.
  • ChatGPT peut résoudre des problèmes de développement et même écrire des preuves mathématiques.
  • ChatGPT offre une manière transparente et naturelle d’avoir une conversation avec l’IA.
  • L’utilisation de cette technologie est gratuite pour le moment et ne nécessite qu’une inscription.
  • ChatGPT est déjà impressionnant même s’il n’en est qu’à ses débuts… C’est vraiment prometteur !
  • ChatGPT est un chatbot AI polyvalent que vous pouvez utiliser comme assistant IA pour rationaliser votre processus de création de contenu et même les flux de travail de développement de logiciels.

Inconvénients de ChatGPT

  • ChatGPT a un ton de voix convaincantmême lorsque les faits sont faux. Il peut produire une réponse qui semble correcte sur le plan factuel, même si elle ne l’est pas. Selon le niveau de connaissance de l’utilisateur, cela peut être difficile à dire. Il faut du temps pour analyser les réponses de ChatGPT et voir ce qui est faux et ce qui est vrai.
  • Si vous utilisez souvent ChatGPT, vous remarquerez que certains modèles et certaines phrases se répètent dans le texte. Cela peut conduire à la production de contenu dupliqué ou de contenu qui se répète structurellement.
  • Parfois, ChatGPT se bloque et ne sait clairement pas comment répondre à vos questions. Mais il suffit de modifier un ou deux mots pour qu’il produise une réponse.
  • Il y a une énorme demande pour ChatGPT car c’est un service gratuit pour le moment. Cela peut entraîner des temps d’arrêt ou des retards.
  • Dans l’ensemble, ChatGPT vient de sortir et est loin d’avoir atteint sa forme finale. Il peut être biaisé, il ne sait pas comment poser des questions de clarification, et il peut aussi produire des résultats plutôt verbeux !

alternatives à ChatGPT

Les meilleures solutions pour remplacer ChatGPT et générer des textes par IA.

alternatives-light-chatgpt-1

YouChat

Un générateur de texte gratuit pour remplacer ChatGPT

Résultat d’images pour YouChat

YouChat est un chatbot similaire à ChatGPT qui est capable de répondre à des requêtes textuelles. Par exemple, vous pouvez lui demander de vous suggérer des idées ou bien de vous rédiger un email. YouChat est une alternative intéressante à ChatGPT car pour chaque réponse, l’IA conversationnelle affiche les sources utilisées (fichiers ou sites web). YouChat est accessible en ligne gratuitement,sans création de compte requise.

Chatsonic

Une alternative à ChatGPT avec des données plus récentes

Chatsonic, o novo rival do ChatGPT

Chatsonic est un générateur de texte semblable à ChatGPT. Son principal avantage : il peut répondre à des requêtes sur des tendances ou des événements récents car il se base sur des données provenant directement de Google Search. Il est aussi capable de générer des images (illustrations abstraites ou réalistes) et de répondre à l’oral si nécessaire. Chatsonic est payant mais propose une version d’essai gratuite pour tester ses différentes fonctionnalités.

Chatsonic n’est pas soumis aux mêmes limitations que ChatGPT. « ChatGPT est limité par des entrées de formation ou des données qui ne peuvent pas être mises à jour aussi souvent. Alors que Chatsonic est une version avancée et puissante capable de suivre l’actualité, vous donnant un avantage en termes de précision et de fiabilité », selon Writesonic, le site Web derrière Chatsonic.

Chatsonic génère également de l’art

Une autre caractéristique impressionnante apportée par chatsonic est sa capacité à générer de l’art numérique. Après ChatGPT, le prochain développement majeur dans le monde de l’IA serait l’avènement de l’IA générative.

Les modèles d’IA comme DALL-E2, Stable Diffusion et Midjourney sont à l’origine de la révolution générative de l’IA, qui ne devrait que s’améliorer.

Magic Write

Générez des idées de texte directement dans Canva

image

Canva dispose d’un générateur de texte par IA nommé Magic Write (Écriture Magique en français). Cet outil similaire à ChatGPT peut par exemple : rédiger des textes jusqu’à 500 mots, continuer la rédaction d’un paragraphe commencé, créer des listes d’idées ou bien encore transformer des mots clés en un texte complet. Magic Write est intégré à Canva Docs, et est accessible gratuitement pour un nombre limité de requêtes.

Simplified AI Writer

Un générateur de texte pour vos sites et réseaux sociaux

Logo Simplified AI Writer

Simplified AI Writer propose différents générateurs de texte en fonction de vos besoins : e-commerce, branding, publicités, sites web, blog, réseaux sociaux. Par exemple, l’outil peut vous générer des idées de titres d’articles ou bien des idées pour votre prochaine vidéo YouTube. Comme ChatGPT, l’outil IA peut générer de longs textes explicatifs ou bien résumer des idées par listes à puces. Simplified AI Writer propose une version gratuite (avec un nombre de crédits limités par mois).

Apprendre le HTML et le CSS3

Classé dans : Non classé | 0

Apprendre rapidement le HTML5 et le CSS3

Cliquez dans la diapo pour progresser mas pas sur un lien.

Apprendre le HTML

Pour ceux qui veulent plus de détails cliquez ici ->   Le HTML5 en long et en large

Le HMTL signifie « HyperText Markup Language ». Il s’agit du langage qui est interprété par tous les navigateurs webs et qui a été inventé pour unifier le travail des développeurs. Le langage contient des markups (balises) qui permettent d’identifier des zones, d’appeler des images, des vidéos, etc. d’où le nom du langage HTML.

HTML 5 (HyperText Markup Language version 5) est la dernière révision majeure du HTML. Cette version a été finalisée en 2014. Il faut noter en parallèle la formidable évolution du CSS avec de nombreuses nouvelles propriétés.
Désormais les choses sont claires : le HTML ne s’occupe que du contenu et le CSS gère la mise en forme. Cependant les balises B,I,S, U (gras, italique, barré, souligné) sont encore admises.

Historique

Créateur : Tim Berners-Lee, en 1989.

3 mars 1989 : Tim Berners-Lee invente le World Wide Web

Podcast / C'est arrivé le. 13 mars 1989 : Tim Berners-Lee invente le ...

Génie de l’informatique, le jeune homme britannique effectue un stage au Cern (le Conseil européen pour la recherche nucléaire) alors qu’il n’a que 25 ans.

Rapidement, il crée les liens hypertextes. Il se rend compte par la suite que les chercheurs du monde entier ont du mal à s’échanger leurs notes et leurs travaux.
Il réfléchit donc à un moyen facile de transférer ces données grâce à Arpanet, l’ancêtre d’internet.
Il invente alors le lien URL, le langage HTML et le protocole HTTP, et donne ainsi naissance au World Wide Web.
C’est le fameux « www » qui se trouve au début des adresses internet. Un système qui s’est depuis généralisé dans le monde entier.

En 1980, il a 25 ans et est engagé pour 6 mois au Cern, le Conseil européen pour la recherche nucléaire.

C’est au cours de ce stage à Genève qu’il met au point le lien hypertexte, qui permet de créer une connexion directe entre un mot-clé et un dossier qui y est rattaché.

Neuf ans plus tard, Tim Berners-Lee s’aperçoit que les chercheurs du monde entier qui travaillent pour le Cern ont du mal à échanger des dossiers et des notes.

Robert Cailliau — Wikipédia
Robert Cailliau

Avec un collègue belge, Robert Cailliau, il réfléchit à une solution.

Le 13 mars 1989, il présente à son supérieur un projet intitulé « Gestion de l’information : Une proposition ».

Il propose d’intégrer le concept de lien hypertexte à Arpanet, l’ancêtre d’internet, qui relie les différents centres de recherche du monde.

Le supérieur de Tim écrit au feutre rouge sur le rapport : « Vague mais prometteur ». Tim a l’autorisation de se lancer dans ses recherches.

Il baptise alors son projet : World Wide Web (la toile mondiale).

Il développe les trois principales technologies du Web.

Les liens URL pour donner une adresse aux pages, le langage HTML pour les afficher et le protocole HTTP pour les lier entre elles.

Ca y est, le Word Wide Web est né.

Il a aussi l’intuition que, pour que son système fonctionne, il faut que son protocole soit universel. Donc gratuit. Il convainc alors le Cern d’ouvrir sa découverte à tout le monde en partageant son travail en open source. Très vite, en décembre 1994, Berners-Lee est débauché par le très prestigieux Massachusetts Institute of Technology, près de Boston, pour tenir la chaire de Computer Communication Compatibility. Il s’établit avec femme et enfants à Concord, à une demi-heure de la capitale de l’Etat. Au MIT, le chercheur acharné poursuit son idée de développer un espace de partage pour tous fondé sur l’interaction. Le www prend définitivement forme.

Pengertian Internet, Sejarah dan Perkembangannya - IDwebhost
De nombreuses personnes confondent (à tort) Internet et le Web. 
Il faut savoir que le Web fait partie d'Internet.
Internet est un grand ensemble qui comprend, entre autres : le Web, les e-mails, la messagerie instantanée, etc.
Tim Berners-Lee n'est donc pas l'inventeur d'Internet, c'est « seulement » l'inventeur du Web.


HTML et CSS

d’après https://www.alsacreations.com/
et  https://www.apprendre-html-et-css.com/

HTML 5 (HyperText Markup Language version 5) est la dernière révision majeure du HTML. Cette version a été finalisée en 2014. Il faut noter en parallèle la formidable évolution du CSS avec de nombreuses nouvelles propriétés.
Désormais les choses sont claires : le HTML ne s’occupe que du contenu et le CSS gère la mise en forme. Cependant les balises B,I,S, U (gras, italique, barré, souligné) sont encore admises.

Comment organiser ses fichiers ?

Maintenant que nous sommes équipés pour coder, nous allons devoir créer un environnement pour y mettre nos fichiers.

En ce qui concerne le HTML et le CSS, vous pouvez coder où vous voulez sur votre ordinateur. Je vous invite donc à créer un dossier par projet, dans lequel vous allez retrouver les fichiers de votre site internet.

Créez donc un dossier nommé : Mon premier site.
À l’intérieur, vous allez trouver 3 dossiers et 2 fichiers :

  • un dossier nommé images,Notre arborescence de fichiers.
  • un dossier nommé fonts,
  • un dossier nommé js,
  • un fichier nommé index.html,
  • un fichier nommé style.css.

 

Notre arborescence de fichiers.

LE DOSSIER IMAGES

Ce dossier va contenir toutes les images de votre site.
Attention ! Il est important de mettre les images dans ce dossier. Si vous voulez utiliser une image de votre bibliothèque de photos, copiez-la et collez-la dans ce dossier.

En effet, si vous laissez votre photo ailleur sur votre disque dur, lors de la mise en production celle-ci ne sera pas mise en ligne et les internautes ne pourront pas la voir !

LE DOSSIER FONTS

Ce dossier contiendra les polices de caractère utilisées sur votre site internet. En effet, les internautes n’ont pas forcement les mêmes polices d’installées que vous. Pour qu’ils puissent voir la même chose que vous sans avoir à installer de nouvelles fonts, nous allons les mettre à disposition sur notre site.

LE DOSSIER JS

Ce dossier contiendra les codes en javascript de votre site. Nous ne verrons pas dans ces cours comment coder en JS, mais vous allez rapidement en avoir besoin 😉

LE FICHIER INDEX.HTML

Il s’agit de la page d’accueil de votre site.
Attention ! Il est important de nommer ce fichier index. Il s’agit d’une norme, tous les serveurs cherchent en premier un fichier nommé comme ça. S’il n’y en a pas, un message d’erreur apparaîtra.

Notez l’extension de fichier .html
Tous nos fichiers de code HTML auront cette extension.

Pour créer ce fichier :

  1.  Ouvrez SubliText 3.
  2.  Créez une nouvelle page avec Ctrl + N.
  3.  Enregistrez cette page avec Ctrl + S.
  4.  Dans la boite de dialogue qui vient d’être ouverte, sélectionnez le dossier Mon premier site et nommez le index.html.

LE FICHIER STYLE.CSS

Il s’agit du fichier dans lequel nous allons coder en CSS.
Il est important de noter que le HTML et le CSS ne se codent pas dans le même fichier.

Pour créer ce fichier, la manipulation est la même :

  1.  Ouvrez SubliText 3.
  2.  Créez une nouvelle page avec Ctrl + N.
  3.  Enregistrez cette page avec Ctrl + S.
  4.  Dans la boite de dialogue qui vient d’être ouverte, sélectionnez le dossier Mon premier site et nommez le style.css.

Nous allons commencer notre apprentissage du HTML qui permet  la création de sites WEB par le plus important : le contenu !

HTML est un langage à balises

L’Hypertext Markup Language, généralement abrégé HTML, est le format de données conçu pour représenter les pages web.

C’est un langage de balisage permettant d’écrire de l’hypertexte, d’où son nom.

En informatique, les langages de balisage représentent une classe de langages spécialisés dans l'enrichissement d'information textuelle.

Ils utilisent des balises, unités syntaxiques délimitant des séquences de caractères à l'intérieur d'un flux de caractères (par exemple un fichier texte).

L'inclusion de balises permet de transférer à la fois la structure du document et son contenu.

 Cette structure est compréhensible par un programme informatique, ce qui permet un traitement automatisé du contenu.

HTML permet également de structurer sémantiquement et de mettre en forme le contenu des pages, d’inclure des ressources multimédias dont des images, des formulaires de saisie, et des programmes informatiques.

Il permet de créer des documents interopérables avec des équipements très variés de manière conforme aux exigences de l’accessibilité du web.

Il est souvent utilisé conjointement avec des langages de programmation (JavaScript) et des formats de présentation (feuilles de style en cascade).

HTML est initialement dérivé du Standard Generalized Markup Language (SGML).

Les pages créées ne seront pas très agréables à voir mais elles seront lisibles par tous : autant par les navigateurs graphiques ou textes / oraux / brailles, que des moteurs de recherches et autre robots d’indexation…

HTML signifie HyperText Markup Language.

En clair, c’est un langage (format de fichier) qui permet d’écrire des pages internet, et cela au moyen de balises (Markup, en anglais).

Exemple : pour indiquer un titre, on utilise la balise H1.

   On dit que ce texte est contenu dans la balise H1. 

  En pratique, il est entouré par deux morceaux de textes : <h1>Mon titre</h1>.

  On dit que <h1> est la balise ouvrante, et </h1> la balise fermante qui correspond à la   première.

Il existe des balises pour entourer les titres, les paragraphes, les liens, les listes, les tableaux, les cellules de tableaux, les images, etc.

Les balises peuvent s’imbriquer les unes dans les autres pour former une hiérarchie.

Exemple courant : une liste est décrite par une balise UL, et chaque ligne est délimitée par une balise LI, qui est comprise à l’intérieur de la balise de liste, comme nous le verrons plus tard.

En HTML il existe deux sortes de balises :

Les blocs : On passe à la ligne avant et après le bloc. Il s’agit des paragraphes.
Les blocs peuvent contenir d’autres blocs, mais aussi des passages en ligne,

Les passages en ligne : pour donner la signification d’un mot ou groupe de mots à l’intérieur d’un bloc ou paragraphe, ou d’un autre passage en ligne : on ne va évidemment pas à la ligne.
Ceux-ci ne peuvent contenir que des balises elles-mêmes en ligne.

Les balises de titre, de paragraphe, de liste et de ligne de liste sont des balises « bloc » : elles occupent 100 % de la largeur de la page, et le contenu débute toujours une nouvelle ligne.

Il est aussi à noter que les balises peuvent être imbriquées, comme c’est le cas de la balise de liste et des balises de « ligne de liste ».

Les balises en ligne, quant à elles, se fondent dans le texte et n’ont pas forcément une forme rectangulaire fixe, comme c’est le cas du lien de la figure : la balise est découpée en deux morceaux à cause du retour à la ligne.

Les balises en ligne sont par exemple des liens, des balises permettant d’insister sur une partie du texte (mise en gras, italique…) ou même des images.

Par défaut, les images se fondent dans le texte, à la manière des émoticônes dans une discussion en ligne.

Voici un schéma récapitulatif de la différenciation des balises dites « bloc » et « en ligne ».

Maintenant que le navigateur sait cela, nous rentrons dans la structures balisée du HTML : on commence par ouvrir une balise <html>, et on la referme à la fin du fichier avec </html> : après cette balise de fin, plus rien ne doit apparaître.

Voici le squelette (mince, pour l’instant) de toute page HTML

À l’intérieur (entre la balise ouvrant et fermante), on trouve :

Un entête (<head> en anglais ; idem : il faut le refermer avec </head>) qui contient des descriptions et informations annexes qui ne sont pas affichées : se sont les métadonnées,

Puis, un corps (<body> et on referme aussi </body>) : c’est ce qui sera affiché ou lu par les navigateurs.

Dans notre entête, se trouvent des métadonnées.

Pour commencer on ne verra que la plus importante : la balise title pour indiquer au navigateur le titre à afficher dans la barre de titre de la fenêtre, et pour indiquer aux moteurs de recherche le titre à afficher lorsque votre page sera retournée dans les résultats d’une recherche.

<title>Ceci est le titre de la page</title>

Pour le moment, rien n’est encore affiché dans la fenêtre du navigateur.

Il faut ensuite remplir le corps (balise <body>, positionnée juste après la balise fermante </head>) avec du contenu.

Globalement, notre contenu est composé de plusieurs types de données : des titres plus ou moins importants, des paragraphes, des listes, des liens, des images ou des tableaux…

L’élément fondamental des pages internet est bien entendu le texte, hormis pour les sites de jeux Flash et autres divertissements, bien sûr !

Tout texte dans une page HTML doit toujours être contenu dans une balise bloc : un paragraphe, une liste, etc. Et jamais directement dans le <body> !

Voyons donc les balises principales :

  • <p></p> (Paragraphe) : la plupart des textes de vos pages s’y trouvent,
  • <pre></pre> (Paragraphe pré-formaté) : cette balise est presque identique à celle ci-dessus, à la différence près que les espaces, tabulations et autre retours à la ligne sont gardés tel quels.

En pratique vous ne l’utiliserez presque jamais, sauf pour inclure des exemples de code, si bien sûr votre site est destiné à des programmeurs, <br> (Saut de ligne, BReak line, en anglais) : c’est une balise seule (pas besoin de la fermer avec un éventuel </br> par exemple).

Parfois vous aurez besoin d’aller à la ligne dans vos paragraphes (ou dans une ligne de liste…).

Voyons donc un petit exemple, en regardant le code HTML et le résultat produit :

le code html:

 

 

 

 

 

 

le résultat produit dans le navigateur:

 

 Squelette d’une page HTML5

La langage HTML manipule des balises (markup) :

<!DOCTYPE html>

<html>
	<head>
		<!-- en-tête de la page -->
		<!-- encodage des caractères -->
		<meta charset="UTF-8">
		<title>Titre de la page web</title>
	</head>

	<body>
		<!-- corps de la page -->

	</body>
</html>

 Quelques règles de syntaxe

Toute balise ouverte doit être refermée :

<p>contenu de la balise</p>

<p> est la balise ouvrante, </p> est la balise fermante.

Certaines balises sont vides (elles n’ont pas de contenu), la fermeture se fait alors immédiatement :

<br>
<img src="velo.jpg" alt="vélo">

La valeur des attributs doit être entourée de guillemets ou d’apostrophes :

<img src='velo.jpg' alt='vélo'>
<a href="http://fr.wikipedia.org">Un lien hypertexte vers le site de Wikipédia</a>

Les balises doivent être correctement imbriquées :

<p>Cette syntaxe est <strong>bonne</strong></p>
<p>Cette syntaxe est <strong>mauvaise</p></strong>

 Eléments de type bloc et de type en-ligne (inline)

Eléments de type bloc

Par défaut, les éléments de type bloc sont affichés par le navigateur avec un saut de ligne au début et à la fin.

Exemples : <h1>, <p>, <ul>, <table>, <hr>, <pre>, <form> …

Le code suivant affichera deux paragraphes, l’un en dessous de l’autre :

<p>Premier paragraphe.</p><p>Deuxième paragraphe.</p>

Eléments de type inline

Les éléments de type inline se placent normalement l’un à côté de l’autre (pas de saut de ligne).

Exemples : <strong>, <em>, <a>, <img>, <sup>, <sub> …

Propriétés

Les éléments de type bloc peuvent contenir des éléments de type bloc ou de type inline.

Exceptions : les paragraphes <p> et les titres <h1> … ne peuvent contenir que des éléments inline.
Donc pas de titres dans un paragraphe, pas de paragraphes dans un paragraphe !

Exemple : un élément bloc <p> (paragraphe) qui contient un élément inline <strong> :

<p>Ceci est <strong>important</strong></p>

Les éléments inline ne peuvent contenir que des éléments inline.

Exemple : un élément inline <a> (lien hypertexte) qui contient un élément inline <strong> :

<p><a href="http://fr.wikipedia.org">Un <strong>lien hypertexte</strong> vers le site de Wikipédia</a></p>

Un outil de vérification de la syntaxe

Pour vérifier que votre page Web est conforme aux spécifications HTML5, rendez-vous sur le site du W3C (World Wide Web Consortium) : http://validator.w3.org

Pour une page Web locale (pas encore publiée sur le Web) :

Validate by File Upload → Check

S’il y a des erreurs, elles vous seront indiquées, avec des explications (en anglais, of course).

Conseil : vérifier et corriger systématiquement vos pages Web avec cet outil.
C’est contraignant au début, mais cela vous fera prendre rapidement de bonnes habitudes.

DIFFÉRENCES ENTRE LE HTML ET LE CSS

Voilà à quoi ressemble un bout de code HTML :

<p>
	Un super paragraphe avec <strong>du texte en gras</strong>.
</p>

Et à quoi ressemble du CSS :

p{
	color: red;
}

Si on devait comparer un site internet avec une maison, le HTML serait les fondations et les parpaings, sans aucunes finitions. En soit, la maison serait bien construite et fonctionnelle, mais elle serait un peu austère, sans commodités.

Le CSS serait la décoration d’intérieur. Le coup de peinture qui rend votre maison agréable à vivre.

Ces deux langages sont donc indispensables :

  • Le HTML pose les bases de votre site. C’est lui qui va dire au navigateur internet qui est quoi, et comment l’interpréter.
  • Le CSS rend toute la donnée brute HTML plus jolie et plus facilement lisible.

Mise en page avec les feuilles de style CSS

Les règles de style CSS permettent de personnaliser les couleurs, de définir les polices de caractères, de positionner les éléments les uns par rapport aux autres, etc.

Insertion des styles dans les balises HTML

On peut incorporer les styles CSS directement dans les balises HTML avec l’attribut style.
Cette technique est simple mais peu pratique.

Exemple :

<!DOCTYPE html>

<html>
    <head>
        <meta charset="UTF-8">
        <title>Une page web en HTML5</title>
    </head>

    <body style="background-color: beige; font-family: 'Times New Roman';">
            
        <h2 style="text-align: center; color: brown;">Les feuilles de style CSS</h2>
                
        <p style="margin-left: 100px;">Bonjour à tous !<br>
        Ceci est un exemple d'utilisation des feuilles de style <span style="color: blue; font-weight: bold;">CSS</span> (Cascade Style Sheet).</p>
    
    </body>
</html>

Note : <span> est un élément inline générique.
Il existe aussi un élément bloc générique : <div>

Lier des styles à partir d’une feuille séparée

C’est la technique la plus efficace, celle que l’on rencontre dans la plupart des sites Web.

Reprenons l’exemple précédent :

– Code HTML :

<!DOCTYPE html>

<html>
    <head>
        <meta charset="UTF-8">
        <title>Une page web en HTML5</title>
        <link rel="stylesheet" type="text/css" href="style.css">
    </head>

    <body>
            
        <h2>Les feuilles de style CSS</h2>
                
        <p>Bonjour à tous !<br>
        Ceci est un exemple d'utilisation des feuilles de style <span class="important">CSS</span> (Cascade Style Sheet).</p>
    
    </body>
</html>

Notes :
L’élément <link> fait le lien avec la feuille de style CSS (ici le fichier externe style.css)
L’attribut class de l’élément <span> permet d’utiliser des règles CSS personnalisées.

– Code CSS :

La feuille de style se trouve dans le fichier style.css
La syntaxe du langage CSS est très simple à comprendre :

body {
background-colorbeige;
font-family'Times New Roman';
}

h2 {
text-aligncenter;
colorbrown;
}

{
margin-left100px;
}

/* classe */
.important {
colorblue;
font-weightbold;
}

LES BALISES

Une balise est composée de deux éléments :

  • Une balise ouvrante
  • Une balise fermante.

Prenons par exemple une phrase : Portez ce vieux whisky au juge blond qui fume.
Nous allons l’encadrer entre deux balises paragraphe <p> :

<p>Portez ce vieux whisky au juge blond qui fume.</p>

Vous pouvez voir que notre phrase est précédée de la balise ouvrante <p> ; et suivie de la balise fermante </p>

Les balises sont constituées d’une valeur entre deux chevrons : < et >.

Notez le / dans la balise fermante. Il est important : c’est lui qui défini si une balise est ouvrante (par son absence) ou fermante (par sa présence).

 

Ainsi, notre navigateur sait que Portez ce vieux whisky au juge blond qui fume. est un paragraphe et sera interprété comme tel.

LA SÉMANTIQUE

On a vu plus haut comment baliser des éléments avec un exemple de paragraphe. Il existe beaucoup de balises, chacune servant à baliser un contenu spécifique.

Vous trouverez par exemple des balises pour :

  • des titres,
  • des listes,
  • des tableaux,
  • des formulaires,

Le but premier en HTML est de respecter la sémantique de vos éléments. Ainsi, il ne faut pas utiliser une balise pour autre chose que sa valeur !
Par exemple, vous n’allez pas utiliser une balise titre pour encadrer une image, ou une balise paragraphe pour encadrer une liste.

Il est très important de respecter une bonne sémantique ! Et cela pour deux raisons :

  1.  Pour que les navigateur interprètent bien les éléments et ne se trompent pas sur leur valeur.
  2.  Pour optimiser le référencement naturel de votre site internet.

LES ATTRIBUTS

Il est possible d’ajouter des attributs aux balises. Ces attributs servent à donner des informations compémentaires (nous verront plus tard à quoi ils peuvent servir) :

<p attr="push">Portez ce vieux whisky au juge blond qui fume.</p>

Notez ici le attr="push" qui a été ajouté à la balise ouvrante. C’est notre attribut.
Il se compose toujours d’une propriété (avant le =) et d’une valeur (après le =, entre les ").
Elle est toujours ajoutée à la balise ouvrante, et non pas la fermante !

On peut avoir pleins de types d’attributs différents :

  • id="exemple"
  • class="valeur"
  • src="path/to/file.ext"
  • href="http://www.url.ext"

RÉCAPITULATIF

Voilà un schéma récapitulatif du fonctionnement des balises HTML :

Fonctionnement des balises HTML.

EXCEPTIONS : LES BALISES AUTOFERMÉES

Certaines balises sont autofermées. C’est à dire qu’elles n’ont qu’une seule balise ouvrante, et aucune balise fermante.
Voilà la liste de ces balises :

  • <area />
  • <br />
  • <hr />
  • <img />
  • <input />
  • <link />
  • <meta />
  • <param />

Notez la présence du / avant le second chevron >. Les balises auto fermantes en sont pourvue.

Qu’est-ce que c’est HTML5 ?

Comme son nom l’indique, HTML 5 est le successeur de HTML 4. Le travail sur HTML 5 a commencé fin 2003 grâce à un groupe de travail indépendant qui préconisait une approche pragmatique, le WhatWG, contrairement au W3C qui misait tous ses efforts sur XHTML 2. Ce n’est qu’en 2007 que le W3C accepte la vision HTML5 en intégrant en son sein ce groupe de travail. Les principes de conception sont clairs : simplifier l’usage de HTML, officialiser les pratiques courantes, et assurer un maximum de rétro-compatibilité.

Le W3C c’est quoi déjà ?

Le World Wide Web Consortium, abrégé W3C, est un organisme de standardisation à but non-lucratif, fondé en octobre 1994 comme un consortium chargé de promouvoir la compatibilité des technologies du World Wide Web telles que HTMLXHTMLXMLRDFCSSPNGSVG et SOAP. Le W3C n’émet pas des normes au sens européen, mais des recommandations à valeur de standards industriels. Parmi les membres du W3C on compte les plus grands acteurs du Web actuels tels que Microsoft, IBM, Opera, Google, Apple, etc.

Quelles sont les nouveautés ?

Une grande nouveauté annoncée au niveau structurel des éléments est signalée dans l’introduction du brouillon de HTML5 : The new content model concepts (replacing HTML 4’s block and inline concepts).

Les notions de type « en ligne » et « bloc » semblent donc remplacées par un nouveau schéma, les éléments HTML sont à présent uniquement regroupés en catégories, sachant que les éléments peuvent apparaître dans plusieurs catégories :

  • Metadata content
  • Flow content
  • Sectioning content
  • Heading content
  • Phrasing content
  • Embedded content
  • Interactive content

kind of content in HTML 5

Ainsi, au vu de cette nouvelle organisation, le code suivant est parfaitement valide car l’élément <a> peut entourer des paragraphes, des listes, des tableaux voire des sections entières :

<aside>
 Welcome!
 <a href="about.html">
  This is home of...
  <h1>The Falcons!</h1>
  The Lockheed Martin multirole jet fighter aircraft!
 </a>
 This page discusses the F-16 Fighting Falcon's innermost secrets.
</aside>

Rappelons également que HTML5, en tant que digne successeur de HTML 4.01, offre la même permissivité que sa version transitionnal : il n’est pas systématiquement nécessaire de fermer tous les éléments. Ainsi, les éléments <p><dd><dt><li><optgroup><option><rt><rp><td><th><tr><thead> et <tfoot> n’ont pas besoin de balise fermante pour être valides. Même s’il est toujours recommandé de bien organiser votre code et de faire confiance aux bonnes pratiques établies jusqu’à présent. Seule la forme d’écriture XHTML 5 obligera à fermer ces éléments, mais il est très contraignant de s’y conformer.

Les balises principales

Doctype

Le doctype est simplifié :

<!DOCTYPE html>

 Plus d’informations sur l’élément Doctype

Il n’est pas sensible à la casse (on peut écrire <!doctype html> par exemple), et son rôle est uniquement d’éviter un rendu en mode «Quirks» (ou mode de compatibilité) pour les anciens navigateurs.

a conception d’une page web en suivant la philosophie du standard HTML5 spécifié par le W3C (ou du standard vivant tel que désigné par le WhatWG) répond à quelques réflexes de base. La structure d’un document (l’imbrication des balises à la racine) est simplfiiée pour répondre aux attentes pragmatiques des intégrateurs et webdesigners.

Un document HTML5 minimal

Sans surprise, les bases d’un code HTML5 ressemblent beaucoup à celles rédigées à l’aide des précédentes versions HTML 4 et XHTML 1.x. Rétro-compatibilité oblige. On y retrouve donc un doctype suivi des éléments les plus courants: <html><head><title><meta><link><script> et <body>.

<!doctype html>
<html lang="fr">
<head>
  <meta charset="utf-8">
  <title>Titre de la page</title>
  <link rel="stylesheet" href="style.css">
  <script src="script.js"></script>
</head>
<body>
  ...
  <!-- Le reste du contenu -->
  ...
</body>
</html>

Le doctype

La première ligne d’en-tête a été considérablement simplifiée. On peut maintenant retenir un doctype par coeur, sans avoir à le copier-coller.

<!doctype html>

Ce doctype allégé a été mûrement testé et réfléchi : il permet toujours – pour les anciens navigateurs – de rester dans le mode d’interprétation conforme aux standards et d’éviter le mode quirks. On peut remarquer qu’il n’y a pas d’allusion à un quelconque numéro de version. Son rôle est toujours de préciser quel est le type de document qui va suivre, afin de permettre au navigateur de savoir quel langage de la vaste famille SGML il devra interpréter.

L’élément racine <html>

C’est lui qui va recueillir les deux principaux éléments de la hiérarchie : <head> et <body>.

L’attribut lang (sur <html>)

On a tendance à l’oublier : l’attribut lang précise la langue utilisée pour le contenu de la page, lorsqu’il est placé sur la racine <html>.

<html lang="fr">

Une langue bien indiquée sera utile ainsi aux synthèses vocales (pour adopter le bon accent).

Les fameux <head> et <body>

À ce niveau, le code HTML peut être divisé en deux parties : l’en-tête située entre les balises <head> et </head>, qui regroupe toutes les méta-informations, c’est-à-dire les données qui ne sont pas représentées directement à l’écran dans le rendu du document, mais qui lui sont tout de même liées : le titre dans <title> (extrêmement recommandé), les autres méta-informations variées (facultatives : mots-clés, description générale de la page) dans zéro ou plusieurs <meta>, et éventuellement <link><script> ou <style>.

La deuxième partie comprend le corps à proprement parler, c’est-à-dire <body>. On y retrouvera tout le reste du contenu HTML, structuré par des balises variées – selon ce que l’on aura à y placer – et dont l’apparence sera affectée par les styles CSS chargés dans <link> et/ou <style>.

L’attribut charset (sur <meta>)

Préciser l’encodage des caractères est primordial pour exploiter la bonne page de code et ne pas se retrouver avec les caractères spéciaux ou accentués. Le choix de l’UTF-8 est désormais préconisé par le W3C pour tous les protocoles échangeant du texte sur internet (dont HTML).

<meta charset="utf-8">

On retrouvera donc très souvent ce codage de caractères, par contre il faut toujours veiller à ce que l’éditeur permettant de coder en HTML (que ce soit un IDE tout-en-un ou un simple éditeur de texte) enregistre le fichier avec le bon encodage, et non en Latin-1 (alias ISO-5589-1) ou ANSI si la balise <meta> indique UTF-8.

Veillez à toujours placer cette déclaration d’encodage avant toutes les autres balises contenues dans la section <head>. En effet, celles-ci sont immédiatement concernées, par exemple <title> qui peut déjà faire appel à des caractères en UTF-8 ; ceci également dans un but de sécuriser l’interprétation des caractères spéciaux et prévenir les injections de contenu indésirables.

L’élément <link>

Dans la majorité des cas, une balise <link> placée dans l’en-tête permet de mettre en relation la page avec d’autres documents externes. La plupart du temps cela concerne les feuilles de style CSS externes avec une relation du type stylesheet, mais il est aussi possible de définir d’autres types de relations (par exemple avec authoriconprefetchnextprev, etc).

<link rel="stylesheet" href="style.css">

En HTML5, il n’est plus strictement obligatoire de spécifier l’attribut type.

Pour inclure directement des instructions CSS dans le document HTML sans passer par un fichier externe, <style> est à votre service. Cependant, il vaut mieux faire confiance à un fichier indépendant : il n’y aura qu’un seul code à maintenir pour de multiples pages (voire pour tout le site), et la mise en cache par le navigateur n’en sera que plus efficace.

L’élément <script>

Cet élément permet d’ajouter des scripts (JavaScript) qui vont s’éxécuter côté client dans le navigateur dès leur chargement.

<script src="script.js"></script>  

En HTML5, il n’est plus obligatoire de spécifier l’attribut type. Celui-ci est de toute manière interprété par défaut en text/javascript par tous les navigateurs.

Les autres éléments HTML5

Une fois la structure de base préparée, il est temps de commencer à y placer d’autres éléments HTML pour le contenu à proprement parler : paragraphes, listes, liens, images, vidéos, tableaux de données, formulaires, etc. La majorité des éléments HTML sont toujours au rendez-vous dans HTML5, qui se voit complété par quelques nouveautés pour le balisage. Par exemple :

  • Éléments de section <section><article><header><footer><nav> et <aside>
  • Élément <datalist>
  • Éléments <details> & <summary>
  • Éléments <figure> & <figcaption>
  • Éléments média <audio> et <video> complétés par <source>
  • Élément <canvas>
  • Éléments <meter><output> et <progress>
  • Élément <time> et <mark>
  • Et tous les autres, que l’on peut retrouver dans une liste complète maintenue par le W3C : HTML : The Markup Language

Pour rappel, tous les nouveaux éléments HTML5 ne sont pas nécessairement reconnus de façon native et cohérente par tous les navigateurs (même les plus récents). Pour certains, il sera possible de trouver des alternatives avec des compléments en JavaScript. Pour d’autres, il faudra patienter jusqu’à une implémentation totale, et évaluer le risque selon le besoin : un nouvel élément sera-t-il tout de même consultable, masqué, ou géré de façon erronée ?

Pour juger de l’état de la prise en charge par les navigateurs, fiez-vous à Caniuse.com qui dresse des tableaux de support complets, ou bien encore à HTML5Please, qui indique de façon rationnelle par rapport aux parts de marché ce qu’il est possible d’utiliser en production pour un maximum de visiteurs.

Templates et boilerplates

Des modèles réfléchis et structurés existent pour faciliter le démarrage d’un nouveau projet web autour de HTML5, et de ses futures évolutions. Ils reprennent la structure globale d’un document, en y ajoutant quelques bonnes pratiques, avec parfois des fichiers de configuration pour le serveur et des feuilles de styles de base, voire même des librairies JavaScript.

HTML5 Boilerplate

HTML5 Boilerplate

HTML5 Boilerplate

Initializr

Initializr

Initializr par Jonathan Verrecchia

HTML KickStart

HTML Kickstart

HTML KickStart par 99lime

Bootstrap

Bootstrap

Bootstrap (par la team Twitter)

Schnaps.it

Schnaps.it (par la team Alsacréations)

Jetez-vous à l’eau !

Comme on peut le constater, démarrer un document HTML5 est facilement abordable, et reste rétro-compatible, pour peu que les nouveaux éléments soient intégrés de façon intelligente. Étant donné que cette nouvelle version du langage embarque la grande majorité des éléments déjà connus par les précédentes moutures, il n’y aura pas de risque de s’y aventurer progressivement.

HTML5 propose de nouveaux éléments qui ont pour objectif de faciliter l’intégration de médias, d’utiliser des composants plus dynamiques sans avoir besoin de faire appel – à plus long terme – à des extensions propriétaires (Flash, Java, Silverlight). Le balisage propose également d’obtenir une meilleur sémantique, avec tous les aspects bénéfiques qui en découlent (accessibilité, référencement, syndication, interprétation par les moteurs de rendu, etc.)

Section

L’élément <section> permet de définir les grandes sections d’un document comme par exemple les chapitres, les en-tête et pied-de-page, ou toute autre section dans un document. Il peut être combiné avec les éléments h1, h2, h3, h4, h5, et h6 pour une meilleure définition de la structure du document.

Documentation sur l’élément Section

Article

<article> représente un texte indépendant, une portion de contenu, comme par exemple un article de journal, de blog ou de forum.

<article>
  <p>
    <a href="http://www.alsacreations.com/actu/lire/746-xhtml-est-mort-vive-html.html">
    XHTML est mort, vive HTML !</a>
    <br /> 
    Sous ce titre quelque peu provocateur (et faux) se cache une réalité officielle :
    le W3C vient d'annoncer que ses travaux sur XHTML 2 se termineront en 2009.
  </p>
</article>

Documentation sur l’élément Article

Aside

L’élément <aside> est destiné au contenu tangentiel, une sorte de bonus au contenu principal, que ce soit pour un article ou l’ensemble d’un document HTML.

<aside>
  <h1>Archives</h1>
  <ul>
    <li><a href="/archives/09/05/">Mai 2009</a></li>
    <li><a href="/archives /09/06/">Juin 2009</a></li>
    <li><a href="/archives /09/07/">Juillet 2009</a></li>
  </ul>
</aside>  

Documentation sur l’élément Aside

Header

L’élément <header> représente l’en-tête d’une section ou d’une page.

Documentation sur l’élément Header

Footer

L’élément <footer> représente le pied de page d’une section ou d’une page pour mettre les informations concernant l’auteur, les mentions légales…etc.

Documentation sur l’élément Footer

Nav

L’élément <nav> représente une section de liens de navigation.

<nav>
  <ul>
    <li><a href="index.php">Page d'accueil</a></li>
    <li><a href="contact.php">Contact</a></li>
  </ul>
</nav>

Documentation sur l’élément Nav

Figure

L’élément <figure> peut être utilisé pour regrouper des éléments tels que des images ou des vidéos avec leur légende <figcaption>.

<figure>
  <img src="/images/chaton.jpg" alt="Oh le beau chaton" />
  <figcaption>Un petit chat mignon tout plein</figcaption>
</figure>

Documentation sur l’élément Figure

D’autres nouvelles balises

<embed><mark><meter><progress><time><command><details><datalist><keygen><bb><output><ruby>, <rt> et <rp> <datatemplate><rule><nest><summary> et <details>

Nouveaux types de l’élément input

De nouveaux types pour l’attribut type="" de la balise <input> voient le jour. Ils visent à faciliter la saisie des données par l’utilisateur :

datetimedatetime-localdatemonth , weektimenumberrangeemailurlsearchcolor

Exemple : <input type="date"> devrait permettre d’afficher un calendrier pour sélectionner une date.

Attributs​

Glisser-déposer

L’attribut draggable permet de rendre un élément déplaçable.

 Documentation sur l’attribut draggable

Contenteditable

Cet attribut indique qu’une zone est éditable. L’utilisateur peut en changer le contenu et manipuler le balisage.

 Documentation sur l’attribut Contenteditable

Spellcheck

Cet attribut active ou non la correction orthographique.

Il existe d’autres nouveaux attributs HTML5 spécifiques à certains éléments uniquement (par exemple ping sur <a>charset sur <meta>), ou bien applicables à tous. Par exemple contextmenuhiddendata-*, etc.

Médias et applications web (APIs et DOM)

<audio> et <video>

Ces éléments sont utilisés pour les contenus multimédia.

<audio>
  <!-- Deux formats disponibles par ordre de priorité: -->
  <source src="trappeur.ogg" type="audio/ogg">
  <source src="trappeur.aac" type="audio/aac">
  <!-- Contenu alternatif si élément audio ou formats non supportés dans le navigateur: -->
  <a href="trappeur.ogg">Télécharger <cite>Avant j'étais trappeur</cite></a>
  de David TMX (format Ogg Vorbis)
</audio>

Documentation sur l’élément video
Documentation sur l’élément audio

Canvas

Illustration des canvas

L’élément <canvas> a été introduit afin de pouvoir créer des éléments graphiques 2D en Javascript à la volée. Il permet de mettre en place une zone pour les dessins ou les applications graphiques.

Documentation sur l'élément Canvas
Applications web hors-ligne (Offline web apps)
Une API permet d'activer les applications web hors connexion.
Géolocalisation

L’API Géolocalisation introduite par le W3C permet aux pages web d’interroger le navigateur sur la position de l’utilisateur (latitude, longitude).

Les éléments et attributs devenus obsolètes

  • <frame><frameset><noframes> (jugés néfastes à l’utilisabilité et l’accessibilité)
  • <acronym> disparaît au profit de <abbr>
  • accesskey (dans <a><area><button><input><label><legend> et <textarea>)
  • longdesc (dans <img> et <iframe>)
  • name (dans <img><form> et <a>)
  • language (dans <script>)
  • summary (dans <table>)
  • <basefont><big><center><font><s><strike><tt><u>etc…

Les éléments redéfinis

  • <a> (pour les ancres)
  • <menu> (c’est en fait un élément réhabilité de HTML2)
  • <b><i><small><strong> (section de texte lue ou interprétée différemment du texte « normal »)
  • <hr>
  • etc…

A quoi cela va bien pouvoir servir ?

Les nouveaux sites pourront adopter les balises telles que <header> pour remplacer les <div id= "header"> que l’on trouve sur la plupart des sites construits actuellement.

Les éléments header et footer

Les éléments sont plus spécifiques et permettent une structure commune des sites et ainsi une meilleure accessibilité puisqu’une structure commune permettra entre autre aux synthétiseurs vocaux de se développer et aux personnes mal voyantes de se repérer plus facilement. De nouvelles fonctionnalités permettront aussi d’utiliser HTML et uniquement HTML en natif, au lieu d’y implémenter toute une série de plugins JavaScript voire d’extensions propriétaires.

Qui l’utilise déjà ?

Tous les navigateurs ont d’ores et déjà implémenté certains de ces éléments, mais HTML est un standard vivant, en évolution constante, notamment du côté des API. La liste des navigateurs et de leur niveau de compatibilité avec les différents éléments est consultable sur Wikipedia et il est possible de rechercher des fonctionnalités spécifiques sur le site Caniuse.com. Pour savoir s’il est risqué ou réalise d’utiliser telle ou telle partie de HTML5, consultez HTML5Please.

Audio et vidéo en HTML5

Avant HTML5, les fichiers audios étaient ajoutés aux pages Web, intégrant le fond sonore à l’aide du tag <bgsound>. Le fichier a été lu lors de l’affichage de la page et l’utilisateur n’a pas eu la possibilité de le désactiver. Avec l’avènement de la nouvelle balise <audio> en HTML5, les fichiers audios sont ajoutés avec une interface logicielle intégrée, et il n’est pas nécessaire de connecter des modules tiers.

Comment ajouter de l’audio à une page Web

Pour ajouter des fichiers audios à une page Web, utilisez l’élément <audio>. Le chemin d’accès au fichier audio est indiqué par l’attribut src, et l’attribut control ajoute un panneau de configuration (bouton de démarrage, défilement, contrôle du volume).

Dans le code, cela ressemble à ceci:

<audio src="name.ogg" controls></audio>

Codecs audio et formats de fichiers audio

Étant donné que tous les navigateurs ne prennent pas en charge tous les formats audios, le fichier audio est codé à l’aide de codecs spéciaux (programmes de conversion de données numériques au format d’un fichier audio ou d’un flux audio) et ajoute des fichiers simultanément via la balise <source> avec l’attribut src.

Lorsque vous spécifiez différents formats de fichier, nous vous recommandons de spécifier le type MIME pour chaque fichier afin de permettre au navigateur de localiser le fichier qu’il prend en charge. Définit le type MIME à l’aide de l’attribut type.

Exemple

<!DOCTYPE html>
<html>
 <head>
   <title>Titre du document</title>
 </head>
 <body>
   <audio controls>
     <source src="https://fr.w3docs.com/build/audios/jingle_bells.ogg" type="audio/ogg">
     <source src="https://fr.w3docs.com/build/audios/audio.mp3" type="audio/mpeg">
   </audio>
   <p>Cliquez sur le bouton</p>
 </body>
</html>

Les formats audios les plus populaires sont les suivants :

MP3 – Le format audio le plus populaire qui utilise une compression avec perte et vous permet de réduire la taille du fichier plusieurs fois. Malgré leur popularité parmi les utilisateurs, les chaînes de télévision et les stations de radio utilisent des codecs ISO-MPEG plus modernes, tels que AAC ou MPEG-H.

AAC (Advanced Audio Codec) — codec fermé, analogue au format MP3, mais comparé à ce dernier, AAC offre une qualité sonore supérieure avec un taux de compression identique ou supérieur.

Ogg Vorbis — format libre open source pris en charge par Firefox, Opera et Chrome. Offre une bonne qualité sonore mais n’est pas largement prise en charge par les lecteurs matériels.

Comment ajouter des fichiers vidéos

Avant la norme HTML5, des plug-ins tiers, tels que QuickTime, RealPlayer ou Flash, étaient utilisés pour ajouter de la vidéo au site. En HTML5, une nouvelle balise <video> a été ajoutée. Elle permet d’insérer des insertions vidéo dans une page Web.

Dans le code, cela ressemble à ceci:

<video src="example.webm." controls></video>

L’attribut src indique l’URL du fichier et l’attribut controls est utilisé pour afficher les contrôles. (Plus d’informations sur les attributs de la balise <video>).

Codecs vidéo et formats de fichiers vidéo

Chaque navigateur prend en charge un codec spécifique. Par conséquent, pour assurer la lecture vidéo dans tous les navigateurs, le fichier vidéo doit être placé dans plusieurs formats. Comme dans le cas des fichiers audio, les formats de fichier vidéo sont contenus dans les formats d’élément <source>, en commençant par le plus préféré. De plus, pour chaque fichier vidéo, vous devez spécifier le type MIME, spécifié par l’attribut type.

Pour vous assurer que le navigateur peut gérer les fichiers vidéo, créez un fichier .htaccess dans le dossier contenant la page Web définissant les types MIME de la vidéo :

Exemple

<!DOCTYPE html>
<html>
 <head>
   <title>Titre du document</title>
   <style>
     video {
     width: 300px;
     height: 220px;
     border: 1px solid #666;
     }
   </style>
 </head>
 <body>
   <video controls>
     <source src=”http://techslides.com/demos/sample-videos/small.ogv” type=video/ogg>
     <source src="/build/videos/arcnet.io(7-sec).mp4" type=video/mp4>
   </video>
   <p>Quelques informations sur le vidéo</p>
 </body>
</html>

Il existe actuellement 3 formats vidéos principaux : MP4 / MPEG-4, OGG et WebM +. Les codecs sont utilisés pour compresser les données vidéo et les restaurer.

Pour le fichier vidéo MPEG-4, le codec vidéo H.264 et le codec audio AAC sont utilisés. Pour utiliser les codecs, vous devez obtenir une licence.

Pour le fichier vidéo Ogg, le codec vidéo Theora et le codec audio open source Vorbis sont utilisés.

Pour les fichiers vidéo WebM +, le codec vidéo VP8 et le codec audio Vorbis sont utilisés. Aucune licence n’est requise pour les utiliser.

La balise <video> n’est pas prise en charge par tous les navigateurs. Pour lire la vidéo dans Safari, les plug-ins installés sont respectivement Microsoft Media Player et Apple QuickTime.

Comment ajouter des sous-titres et des légendes

Les sous-titres et les légendes sont ajoutés aux fichiers audio et vidéo à l’aide de l’élément <track>, utilisé comme élément enfant de <audio> et <video>.

<!DOCTYPE html>
<html>
  <head>
    <title>Titre du document</title>
    <style>
      video {
      width: 300px; 
      height: 200px;
      border: 1px solid #666;
      }
    </style>
  </head>
  <body>
    <video controls muted src="https://fr.w3docs.com/apprendre-html//build/videos/arcnet.io(7-sec).mp4">
      <track default kind="subtitles" srclang="en" src="/build/videos/arcnet.io(7-sec).mp4"/>
    </video>
    <p>Lorem Ipsum est simplement un texte factice de l'industrie de l'impression et de la composition. Lorem Ipsum est le texte factice standard de l'industrie depuis les années 1500, quand un imprimeur inconnu a pris une galère de type et l'a brouillé pour en faire un cahier de caractères. Il a survécu non seulement à cinq siècles, mais aussi au saut dans la composition électronique, demeurant essentiellement inchangé.</p>
  </body>
</html>
Pour aligner le lecteur vidéo sur la page, placez l’élément <video> dans le conteneur <div>, assignez une classe pour laquelle définir la largeur et la hauteur, en fonction de la taille de votre vidéo.

Les bases du CSS

Les sélecteurs et les propriétés

Maintenant, nous allons voir comment styliser les pages écrites en HTML.
Alors que le HTML sert à structurer notre contenu au moyen de balises, le CSS sert lui à mettre en forme ce contenu.

OÙ CODER EN CSS

Nous allons maintenant quitter nos fichiers .html pour ouvrir style.css.
En effet, le CSS est à coder de préférence dans les fichiers type .css.

Avant toute chose, il va falloir dire à notre fichier .html où se trouve notre feuille de style .css. Pour cela, nous allons ajouter une ligne de code dans la balise <head> :

<link rel="stylesheet" type="text/css" href="style.css" />

Cette balise <link> est autofermante. Elle contient 3 attributs :

  • rel : qui défini la relation entre le fichier .html et le fichier lié. Ici, il s’agit de notre feuille de style.
  • type : qui définit le type de document lié. Ici, il s’agit d’un fichier .css.
  • href : permet d’indiquer le chemin vers notre fichier.

LES SÉLECTEURS

La première chose à définir en CSS est le sélecteur. Il s’agit de l’élément auquel nous allons appliquer un style :

p{}

Ici, je choisis de cibler les balises de type paragraphe. J’utilise donc le même sélecteur qu’en HTML : p.
Notez les crochets { et } qui suivent notre sélecteur. Ils définissent l’endroit où nous allons entrer les propriétés de style.

LES PROPRIÉTÉS

Les propriétés permettent de choisir quels aspects nous allons styliser. Par exemple, il est possible de changer la couleur, la police de caractère, la taille, le fond, …
Ici, nous allons modifier la couleur de notre texte avec color:

p{
	color: ;
}

Les propriétés se mettent entre les crochets { et }, à la ligne avec une tabulation d’indentation.
La propriété est suivie de : qui permet de lui attribuer une valeur.

Les attributs ne peuvent être inventés. Vous ne pouvez pas taper un mot en anglais en espérant que ça marchera. Nous verrons dans les cours suivants les propriétés les plus utilisées.

LES VALEURS

Nous allons maintenant changer la couleur de notre paragraphe. pour cela, nous allons entrer une couleur (ici red) à notre propriété :

p{
	color: red;
}

Et voilà le résultat :

Exemple de texte en rouge.

La valeur doit se mettre après les :. Aussi, il faut un ; pour fermer la ligne et pouvoir passer une autre propriété.

PLUSIEURS PROPRIÉTÉS ET SÉLECTEURS

Il est possible de définir plusieurs propriétés à un sélecteur. Pour cela, il faut les emplier, les uns à la suite des autres. Par exemple, nous allons changer la taille et la couleur de nos balises p :

p{
	color: red;
	font-size: 16px;
}

Si vous devez styliser différents sélecteurs, vous pouvez les mettre les uns après les autres :

p{
	color: red;
	font-size: 16px;
}
li{
	color: green;
	font-size: 14px;
}

RÉCAPITULATIF

Voilà un schéma récaptitulatif du fonctionnement du CSS :

Schéma de fonctionnement du CSS

L’héritage des propriétés

L’héritage est l’une des notions les plus importantes en CSS. Elle signifie que tout élément HTML va hériter des propriétés CSS de son parent.

Prenons une balise <div> dans laquelle nous allons mettre un paragraphe :

<div>
	<p>
		Un super paragraphe.
	</p>
</div>

Si j’applique des propriétés à la <div>, la balise <p> en héritera.
Par exemple, je vais appliquer une couleur de texte blue :

div{
	color: blue;
}

En faisant ça, le texte dans ma balise <p> devient bleu :

Un super paragraphe.

Bien cibler un élément

Vous l’avez compris, avec l’héritage des propriétés, l’un des plus gros challenges en CSS est de bien cibler son sélecteur. Pour cela, plusieurs sélecteurs nous sont mis à disposition.

X Y

Il est possible de cibler un élément contenu dans un autre élément.
Par exemple, si j’ai un paragraphe dans une <div> et un autre à l’extérieur :

<div>
	<p>
		Un super paragraphe dans une div.
	</p>
</div>
<p>
	Un mega paragraphe solo.
</p>

Pour cibler uniquement le paragraphe dans ma div, je vais utiliser :

div p{
	color: red;
}

Ce qui me donne :

Un super paragraphe dans une div.

Un mega paragraphe solo.

X > Y

Dans le cas où j’aurais plusieurs éléments imbriqués de même nature compris dans ma <div>, je peux utliser > pour cibler celui qui est imbriqué directement après mon élément référent.

Par exemple, j’ai ici :

  • un paragraphe hors de ma <div>,
  • un paragraphe directement dans ma <div>,
  • un paragraphe dans une section qui est comprise dan ma <div>.
<div>
	<p>
		Un super paragraphe dans une div.
	</p>
	<section>
		<p>
			Un super paragraphe dans une section qui est dans une div.
		</p>
	</section>
</div>
<p>
	Un mega paragraphe solo.
</p>

Pour cibler uniquement le paragraphe dans ma <div>, sans impacter celui présent dans la <section>, je vais ajouter un > dans mon CSS :

div > p{
	color: red;
}

Voilà le résultat :

Un super paragraphe dans une div.

Un super paragraphe dans une div.

Un mega paragraphe solo.

X + Y

Le sélecteur + permet de cibler un élément placé directement après un autre.
Par exemple, nous allons cibler uniquement les paragraphes situés directement après les titres de niveau 2 :

<h2>
	Un titre de niveau 2
</h2>
<p>
	Un super paragrahe rouge.
</p>
<p>
	Un super paragraphe.
</p>
<h2>
	Un titre de niveau 2
</h2>
<p>
	Un super paragraphe rouge.
</p>
h2 + p{
	color: red;
}

Voilà le résultat :

UN TITRE DE NIVEAU 2

Un super paragraphe.

Un super paragraphe.

UN TITRE DE NIVEAU 2

Un super paragraphe.

X ~ Y

À la différence du +, le sélecteur ~ permet de cibler n’importe quel élément Y qui se trouve derrière l’élément X.
Par exemple, nous allons ici cibler tous les paragraphes situés derrière les balises <h2> (et pas seulement ceux situés directement après).

<p>
	Un super paragrahe.
</p>
<h2>
	Un titre de niveau 2
</h2>
<p>
	Un super paragraphe rouge.
</p>
<p>
	Un super paragraphe rouge.
</p>
<h3>
	Un titre de niveau 3
</h3>
<p>
	Un super paragraphe rouge.
</p>
h2 ~ p{
	color: red;
}

Résultat, seul le paragraphe situé avant le premier <h2> n’est pas ciblé :

Un super paragraphe.

UN TITRE DE NIVEAU 2

Un super paragraphe.

Un super paragraphe.

UN TITRE DE NIVEAU 3

Un super paragraphe.

*

L’étoile * permet de cibler tous les éléments :

*{
	color: red;
}

Ici, tous les élément de ma page auront une couleur rouge.

header *{
	color: green;
}

Ici, tous les élément compris dans le header auront une couleur verte.

MUTUALISATION DES PROPRIÉTÉS

Il est possible d’appliquer plusieur propriétés à des sélecteurs différents en les séparant par des virgules. Par exemple, nous allons pouvoir simplifier :

p{
	color: red;
}
h2{
	color: red;
}
ol li{
	color: red;
}

Par :

p,
h2,
ol li{
	color: red;
}

.class et #id

Nous allons maintenant voir comment cibler un élément en particulier plutôt qu’un type d’élément. Pour cela, nous allons leur donner un nom, puis les cibler en CSS.

Afin d’affiner encore plus le ciblage CSS, il est possible de nommer les balises en HTML. Pour cela, deux choix s’offrent à nous : les .class et les #id.

LES #ID

Pour donner une #id à une balise, nous allons utiliser l’attribut HTML id :

<p id="ma_super_id">
	Un super paragraphe avec <strong>du texte en gras</strong>.
</p>

Attention ! Le nom d’une #id ne doit pas contenir :

  • des espaces,
  • des caractères spéciaux,
  • des accents.

Aussi, il doit commencer par une lettre (non pas un chiffre).

Pour cibler une #id en CSS, nous allons utiliser le sélécteur # :

/* Je cible l'ID #ma_super_id */
#ma_super_id{
	color: red;
}
/* Je cible la balise <p> qui a l'ID #ma_super_id */
p#ma_super_id{
	color: red;
}

Il existe deux manière de cibler une #id.

Attention ! Il ne faut pas mettre d’espace entre p et #ma_super_id. Sinon, cela veut dire que vous ciblez un élément avec l’id #ma_super_id situé dans une balise <p> !

LES .CLASS

De la même manière que les #id, nous allons utiliser l’attribut HTML class :

<p class="ma_super_class">
	Un super paragraphe avec <strong>du texte en gras</strong>.
</p>

Pour cibler une .class en CSS, nous allons utiliser le sélécteur . :

/* Je cible la classe .ma_super_class */
.ma_super_class{
	color: red;
}
/* Je cible la balise <p> qui a la classe .ma_super_class */
p.ma_super_class{
	color: red;
}

Attention ! Il ne faut pas mettre d’espace entre p et .ma_super_class. Sinon, cela veut dire que vous ciblez un élément avec la classe .ma_super_id situé dans une balise <p> !

DIFFÉRENCES ENTRE #ID ET .CLASS

La principale différence entre les #id et les .class relève de leur utilisation.
Une #id doit être unique au document. À partir du moment où vous nommez une élément #ma_super_id, aucun autre élément ne peut avoir cette #id.
Aussi, un élément ne peut avoir qu’une seule #id.

Une .class peut être utlisée sur plusieurs éléments, de nature dirrérente.
Par exemple, nous pouvons créer une class .red pour donner une couleur rouge :

.red{
	color: red;
}

Pour ensuite l’appliquer à plusieurs éléments :

<p class="red">
	Un super paragraphe avec <strong>du texte en gras</strong>.
</p>
<p class="red">
	Un autre mega paragraphe rouge.
</p>
<ul>
	<li>
		Élément de liste
	</li>
	<li class="red">
		Élément de liste rouge
	</li>
	<li>
		Élément de liste
	</li>
	<li>
		Élément de liste
	</li>
</ul>

Il est aussi possible de cumuler les .class :

/* Couleur rouge */
.red{
	color: red;
}
/* Texte en capitale */
.capitale{
	text-transform: uppercase;
}
<p class="red">
	Un super paragraphe avec <strong>du texte en gras</strong>.
</p>
<p class="red capitale">
	Un autre mega paragraphe rouge.
</p>
<ul>
	<li class="capitale">
		Élément de liste
	</li>
	<li class="red">
		Élément de liste rouge
	</li>
	<li>
		Élément de liste
	</li>
	<li>
		Élément de liste
	</li>
</ul>

Le Théorème de Gödel

Classé dans : Connaissance | 0

Le Théorème de Gödel

Kurt Gödel (1906-1978) est un logicien et mathématicien austro-américain. On connaît surtout de lui deux théorèmes dits d’incomplétude en logique mathématique. Mais on lui doit aussi des travaux en relativité générale, notamment sa fameuse solution des équations d’Einstein décrivant un univers en rotation.
Gödel est né en 1906 à Brno. Il étudie à Vienne à partir de 1924 et établit son théorème d’incomplétude en 1930, pour le publier en 1931. Il émigre aux Etats-Unis en 1940 et occupe un poste à l’Institute for Advanced Studies. Cet emploi lui laisse beaucoup de temps de libre, et à côté de ses travaux de logique, il se consacre beaucoup à la philosophie.

Jusqu'au début du siècle les mathématiciens étaient persuadés qu'on pouvait, un peu à la manière des écoliers en géométrie, démontrer toutes les vérités mathématiques par déduction.

Gödel a démontré en 1931 deux résultats mathématiques :
=> Il se peut que dans certains cas, on puisse démontrer une chose et son contraire (inconsistance).
=> Il existe des vérités mathématiques qu’il est impossible de démontrer (incomplétude)

Le plus célèbre de ces résultats est le second, qu’on appelle théorème d’incomplétude de Gödel.

Les théorèmes d’incomplétude de Gödel sont deux théorèmes célèbres de logique mathématique, démontrés par Kurt Gödel en 1931. On se posait alors la question de savoir si les systèmes axiomatiques proposés pour démontrer toutes les théories mathématiques connues pouvaient démontrer leur propre consistance logique. En gros, pouvait-on être sûr que l’on n’aurait jamais des démonstrations contradictoires d’un énoncé de mathématique déduit d’un des systèmes d’axiomes censés fonder les mathématiques ?

GÖDEL s’attaque à la démonstration de la cohérence de l’analyse, à l’aide de moyens
finis. Son idée est de démontrer la cohérence relative de l’analyse, et de l’arithmétique, cette dernière étant de démonstration plus aisée.
• Il s’ appuiera à cette fin sur l’axiomatique de PEANO. Le projet évoluera en suite, et GÖDEL
va finalement décider de prouver que la démontrabilité et la non contradiction
peuvent, même indirectement, être exprimées dans le langage objet de la
théorie, sans que cela entraîne des contradictions fatales

Peut-on tout démontrer en mathématiques ?

 La notion de démonstration
« Démontrer » implique d’établir de façon rigoureuse la vérité d’un énoncé ou d’une idée par la voie de la déduction, en les rattachant par un lien nécessaire à d’autres propositions ou idées évidentes ou déjà démontrées.

Quand on fait des mathématiques, on manipule des énoncés.

Un énoncé est une suite de symboles ou une phrase ayant un sens mathématique précis.

Par exemple 2 + 2 = 4 ou « Il existe une infinité de nombres premiers » sont des énoncés mathématiques.

Un énoncé mathématique est soit vrai, soit faux : par exemple 2 + 2 = 5 est un énoncé faux.

Quand on considère un énoncé mathématique, on ne sait pas forcément à l’avance s’il est vrai ou faux.

Le travail du mathématicien, c’est justement d’essayer de savoir lesquels sont vrais et lesquels sont faux. Et pour cela, il utilise un outil : il fait des démonstrations.

Si un mathématicien arrive à démontrer un énoncé, on considère que cet énoncé est « vrai ».

S’il démontre le contraire, alors on dit que l’énoncé est faux.

Les mathématiques reposent donc sur l’idée que si un énoncé est vrai, alors il doit en exister une démonstration, et il n’y a plus qu’à la trouver. Mais est-on sûr que tout ce qui est « vrai » est forcément « démontrable » ? Se pourrait-il qu’il existe des choses vraies mais indémontrable ?

Le grand mathématicien David Hilbert,

Les conceptions scientifiques de David Hilbert ont une grande influence sur les mathématiciens de son époque.

Emil du Bois-Reymond.jpg
Emil du Bois-Reymond

Hilbert s’oppose fermement au pessimisme scientifique prôné en particulier par le physiologiste Emil du Bois-Reymond, pour qui il est des questions en sciences qui resteront toujours sans réponse, une doctrine connue sous le nom d’« Ignorabimus » (du latin ignoramus et ignorabimus : « Nous ne savons pas et nous ne saurons jamais »). Hilbert, pour qui « il n’y a pas d’Ignorabimus en sciences naturelles », propose, au contraire, dans une allocution de 1930, de s’appuyer sur un slogan resté célèbre : « Nous devons savoir, nous saurons » (Wir müssen wissen. Wir werden wissen).

Description de cette image, également commentée ci-après
Georg Cantor Georg Cantor est un mathématicien allemand, né le 3 mars 1845 à Saint-Pétersbourg et mort le 6 janvier 1918 à Halle. Il est connu pour être le créateur de la théorie des ensembles.
Young frege.jpg
Gottlob Frege, Friedrich Ludwig Gottlob Frege, né le 8 novembre 1848 à Wismar et mort le 26 juillet 1925 à Bad Kleinen, est un mathématicien, logicien et philosophe allemand, créateur de la logique moderne

La découverte de paradoxes dans les théories proposées par Cantor et Frege sur les fondements des mathématiques ébranle la confiance en ceux-ci. Certes, on a de nouvelles théories des ensembles qui sont exemptes des paradoxes connus, mais comment s’assurer qu’on n’en trouverait pas de nouveaux ? 

 

L'intuitionnisme est une philosophie des mathématiques que L. E. J. Brouwer a élaborée au début du xxesiècle.
Index alphabétique
L. E. J.Brouwer
Pour Brouwer, les mathématiques sont une libre création de l'esprit humain et tous les objets qu'elles manipulent doivent être accessibles à l'intuition.

 L'intuitionnisme a pour conséquence une profonde remise en cause des mathématiques, notamment en refusant l'infini actuel : un nombre réel ne peut être représenté comme une suite infinie de décimales qu'à la condition de disposer d'un moyen effectif de calculer chacune de ces décimales ; 
on parle alors de réel constructif.
Sur le plan logique l'intuitionnisme n'accepte pas le raisonnement par l'absurde ou le tiers exclu pour 
la raison que ces principes permettent de démontrer des propriétés de façon non constructive : par exemple si on veut démontrer l'existence d'un nombre réel satisfaisant une certaine propriété, on peut raisonner par l'absurde, supposer qu'un tel réel n'existe pas, en déduire une contradiction et conclure que donc un tel réel existe, mais cette démonstration ne donne aucune indication sur la façon dont on pourrait calculer ce réel. 
Pour un intuitionniste on a juste démontré que l'existence d'un tel réel n'est pas contradictoire, mais pas que ce réel       existe.
La caractéristique distinctive fondamentale de l’intuitionnisme est son interprétation de ce que signifie « être vrai » pour une affirmation mathématique. 
Dans l'intuitionnisme originel de Brouwer, la vérité d'une affirmation mathématique est une affirmation subjective: une affirmation mathématique correspond à une construction mentale, et un mathématicien ne peut affirmer la vérité d'une affirmation qu'en vérifiant la validité de cette construction par intuition. 
L'imprécision de la notion intuitionniste de vérité conduit souvent à des interprétations erronées de sa signification.
Pour un intuitionniste, l'affirmation selon laquelle un objet possédant certaines propriétés existe est une affirmation qu'un objet possédant ces propriétés peut être construit. Tout objet mathématique est considéré comme le produit d'une construction d'un esprit, et donc l'existence d'un objet équivaut à la possibilité de sa construction. Cela contraste avec l'approche classique pour laquelle l'existence d'une entité peut être prouvée en réfutant sa non-existence. 
Pour l'intuitionniste, ce n'est pas valable; la réfutation de l'inexistence ne signifie pas qu'il soit possible de trouver une construction pour l'objet putatif, comme cela est nécessaire pour affirmer son existence. En tant que tel, l’intuitionnisme est une forme de constructivisme mathématique, mais ce n'est pas la seule.

Exemple de paradoxe infini : l’hôtel de Hilbert
Exemple de paradoxe infini : l’hôtel de Hilbert L’infini est un sujet d’étude qui ne cesse de surprendre. Contrairement aux autres domaines des mathématiques, le travail n’y est pas seulement déductif. Comme l’a compris Gödel, il faut en trouver les règles par l’essai d’axiomes et des théories nouvelles. Le vertige que l’exploration des totalités infinies nous fait éprouver et l’étonnement dont on est saisi par les limitations logiques rencontrées constituent des plaisirs intellectuels souvent dérangeants.
L’hôtel de Hilbert.(d'après JEAN-PAUL DELAHAYE MATHÉMATICIEN INFORMATICIEN)
 Cette expérience de pensée est généralement attribuée au mathématicien David Hilbert (1862 - 1943)
HotelHilbert_Hotel

L'hôtel de Hilbert, ou hôtel infini de Hilbert, illustre une propriété paradoxale des ensembles infinis en mathématique, qui est que, contrairement à ce qui se passe pour les ensembles finis, une partie stricte peut avoir autant d'éléments que le tout.
Supposons qu'un hôtel (fictif) possède un nombre infini de chambres, numérotées par nombre entier à partir de 1, et toutes occupées. 
Malgré cela, l'hôtelier peut toujours accueillir un nouveau client.
Arrive un client. « Pas de problème, lui répond l'hôtelier. Installez-vous dans la chambre 0. Je demande au client de la chambre 0 de passer dans la chambre 1, à celui de la chambre 1 de passer dans la chambre 2, etc. »
L'accueil dispose bien sûr d'un téléphone spécial qui permet de téléphoner simultanément à toutes les chambres en demandant au client de la chambre n de passer en n+1.
 Le nouveau client a pu être reçu.
Dix minutes plus tard arrive un car (infini, bien sûr) de nouveaux clients qui demandent à passer la nuit dans l'hôtel. « Pas de problème », répond l'hôtelier au chauffeur du car, et il utilise son téléphone pour demander au client de la chambre n de passer dans la chambre 2n. Il indique alors au chauffeur du car que le voyageur numéro i de son car peut disposer de la chambre 2i+1 (qui est    effectivement libre, puisque toutes les chambres de numéro impair ont été libérées).
Une demi-heure plus tard arrive un groupe plus important constitué d'une infinité de cars, chacun ayant à leur bord une infinité de passagers. « Pas de problème, je vous arrange ça », répond        l'hôtelier. Il téléphone au client de la chambre i de passer dans la chambre 2i+1 (ce qui libère toutes les chambres ayant un numéro pair) et donne la consigne suivante au responsable du groupe    d'autocars : le passager numéro i du bus j doit occuper la chambre 2i+1(2j+1).
 Tout se passe bien, et jamais deux voyageurs différents ne se sont vu attribuer la même chambre.

David Hilbert (1927)
David Hilbert (1927)

Hilbert s’oppose également violemment à l’intuitionnisme du mathématicien néerlandais Brouwer, que promeut ce dernier pour résoudre la crise des fondements, et qui est une remise en cause radicale de ceux-ci.

Le programme de Hilbert

Pour régler la question des fondements, Hilbert conçoit un programme dont il établit les prémisses en 1900 dans l’introduction à sa célèbre liste de problèmes, le second problème étant celui de la cohérence de l’arithmétique.

Credit: Gamma-Rapho via Getty Images/Charles CICCIONE
Henri Poincaré

Lors du deuxième congrès international des mathématiciens, tenu à Paris en août 1900, David Hilbert entendait rivaliser avec le maître des mathématiques françaises, Henri Poincaré, et prouver qu’il était de la même étoffe.

Il présenta une liste de problèmes qui tenaient jusqu’alors les mathématiciens en échec. Ces problèmes devaient, selon Hilbert, marquer le cours des mathématiques du xxe siècle, et l’on peut dire aujourd’hui que cela a été grandement le cas.

Publiée après la tenue du congrès, la liste définitive comprenait 23 problèmes, aujourd’hui appelés les problèmes de Hilbert.

Il développe ensuite ce programme dans les années 1920, avec ses collaborateurs.

Tant que l’on manipule le fini, les mathématiques sont sûres.

L’arithmétique élémentaire (en un sens qui doit se préciser) est sûre. Pour justifier l’utilisation d’objets abstraits ou idéaux, en particulier infinis, il suffit de montrer que la théorie qui les utilise est cohérente, mais bien sûr cette cohérence doit elle-même être démontrée par des moyens finitaires.

On peut alors affirmer l’existence de ces objets. Cette approche est ce que l’on a appelé le « formalisme ».

Le théorème de complétude, démontré par Kurt Gödel dans sa thèse en 1929, indique sommairement que l’on ne pourra trouver de nouveaux principes de raisonnement purement logiques autres que ceux déjà connus. Cela semble aller dans le sens de Hilbert. D’autres résultats qu’Hilbert obtient avec Wilhelm Ackermann dans les mêmes années semblent aller également dans ce sens.

Mais, même si Hilbert n’a pas explicitement formalisé le système des mathématiques finitaires, on considère généralement qu’il s’agissait d’une théorie arithmétique, sans préciser plus avant, une théorie qui satisfaisait les conditions des deux théorèmes d’incomplétude que Gödel expose en 1930 et publie en 1931, théorèmes devenus célèbres depuis.

Le second théorème d’incomplétude montre que l’on ne peut pas prouver dans cette théorie sa propre cohérence, et donc certainement pas celle de théories plus fortes qui assureraient la fondation des mathématiques.

C’est donc l’échec du programme de Hilbert. Il est d’ailleurs probable que Gödel, motivé par le programme de Hilbert, avait tout d’abord voulu prouver la cohérence de l’arithmétique.

 Gödel mit donc fin à cet espoir en démontrant que tout système axiomatique permettant de faire de l’arithmétique devait contenir des propositions qui ne pouvaient être démontées, ou réfutées, en utilisant le système axiomatique en question.

Si l’on décidait qu’une de ces propositions était un autre axiome, on aurait un nouveau système, mais qui contiendrait lui aussi des propositions dont la vérité ou la fausseté sont indécidables.

Paradoxalement, on sait que certaines de ces propositions indécidables sont vraies, mais on ne peut le démontrer.
C’est souvent en ces termes que l’on parle « du » théorème d’incomplétude de Gödel, mais il s’agit en fait de son premier théorème d’incomplétude.

Le second théorème, lui, affirme que dans un système axiomatique donné permettant de faire de l’arithmétique, la proposition concernant la non-contradiction de ce système (c’est-à-dire le fait qu’on ne pourra jamais en déduire deux propositions mathématiques contradictoires) est elle-même indécidable.

Modèles et théories(d’après D. Kuperbe)

La notion de « vrai » était considérée comme quelque chose comme un attribut d’ universel et d’intrinsèque à un objet . En fait la notion de « vrai »est relative à ce qu’on appelle un « modèle ». Pour l’arithmétique, il n’y a pas trop de débat sur quel est le modèle. Mais par exemple pour la géométrie, il y a plusieurs choix ! Le modèle classique est celui de la géométrie euclidienne.

Pour trouver un système d’axiomes qui colle avec ce modèle, il faut prendre le 5ème axiome d’Euclide dans sa forme familière (une seule parallèle à une droite passe par un point donné extérieur à cette droite). Mais si vous changez de modèle, par exemple la géométrie riemannienne, il vous faut un autre système d’axiomes qui va bien, et que l’on peut obtenir en modifiant le 5ème axiome (aucune parallèle ne passe par un point donné extérieur à cette droite).

Euclide d’Alexandrie

axiome d'Euclide

 

 

 

 

 

 

 

Peano, Giuseppe (1858-1932) -- from Eric Weisstein's World of ...
Peano, Giuseppe (1858-1932)

Donc si on choisit d’ajouter aux axiomes de Peano une proposition indécidable fausse, on obtient un système d’axiomes qui ne représente plus correctement l’arithmétique. 

La définition axiomatique des entiers naturels de Peano peut être décrite par les cinq axiomes  :

  1. L’élément appelé zéro et noté 0 est un entier naturel.
  2. Tout entier naturel n a un unique successeur, noté s(n) ou Sn qui est un entier naturel.
  3. Aucun entier naturel n’a 0 pour successeur.
  4. Deux entiers naturels ayant le même successeur sont égaux.
  5. Si un ensemble d’entiers naturels contient 0 et contient le successeur de chacun de ses éléments, alors cet ensemble est N.

Le premier axiome permet de poser que l’ensemble N des entiers naturels n’est pas vide, le troisième qu’il possède un premier élément et le cinquième qu’il vérifie le principe de récurrence.

C'est en 1899 seulement que l'arithmétique des nombres cardinaux fut axiomisée par le mathématicien italien Giuseppe Peano. Peano pose cinq axiomes, formulés à l'aide de trois termes non définis, mais supposés connus. Ces trois termes sont :

Un théorème mathématique a ceci de remarquable que sa démonstration une fois établie vaut nécessairement et éternellement. Le théorème de Pythagore sera toujours vrai quelque soit le temps et le lieu. En ce sens, on peut bien y voir un modèle de raisonnement valide c’est-à-dire un idéal de vérité.
Toutefois quel usage peut-on faire de ce modèle hors du raisonnement mathématique comme tel ?  La notion de modèle présuppose que les mathématiques puissent servir de norme ou de règle pour toute démonstration. Quel que soit l’objet du raisonnement, le modèle serait transférable et imitable.

Postulats et axiomes

Un axiome est quelque chose qui est considéré comme vrai mais sans preuve clairement définie. Vous savez juste que c’est vrai; tout le monde est d’accord avec cela, mais personne ne peut prouver qu’il a raison ou réfuter qu’il est incorrect. Dans une note plus formelle, la définition d’un axiome peut être donnée comme une proposition qui est évidemment vraie. Par exemple, le cinquième axiome d’Euclide, «Le tout est supérieur à la partie», est évident pour quiconque.

Un postulat est identique à un axiome, une proposition qui est évidemment vraie. La déclaration «Un segment de ligne droite peut être tracé reliant deux points quelconques» est le premier postulat du livre d’Euclide «Elements»..

Ce mot n’est plus utilisé en mathématique; il est plutôt remplacé par hypothèse ou conjecture. Il est toujours utilisé en physique théorique ou en philosophie.

Le cinquième postulat d’Euclide relatif aux droites parallèles est rebaptisé aujourd’hui: axiome d’Euclide ou axiome des parallèles.

La différence entre les termes axiome et postulat ne réside pas dans sa définition, mais dans sa perception et son interprétation. Un axiome est une affirmation commune et générale ayant une signification et un poids inférieurs. Un postulat est une déclaration plus significative et concerne un domaine spécifique. Puisqu'un axiome a plus de généralité, il est souvent utilisé dans de nombreux domaines scientifiques et connexes.

Axiome est un terme archaïque (beaucoup) ancien, tandis que postulat est un nouveau terme en mathématiques..

Épistemologie de l'informatique

La démonstration mathématique repose sur des principes ou des points de départ (postulats et axiomes) eux-mêmes indémontrables. L’argument repose sur une régression à l’infini : pour démontrer, il faut raisonner en partant de principes. Or si ces principes sont démontrables alors il faut les démontrer au moyen d’autres principes qui eux-mêmes doivent être démontrés et ce, à l’infini. Par conséquent, la démonstration doit partir de principes qui eux-mêmes ne peuvent être démontrés. Il n’y a donc pas de démonstration parfaite au sens où tout serait démontré et tout défini. Ceci n’invalide pas la portée démonstrative des mathématiques mais permet de penser leur idéal comme relatif et non absoluPascal part de l’idée d’une mathématique idéale pour montrer les limites de la mathématique réelle et la nécessité de recourir à un autre ordre que le raisonnement pour s’assurer de la vérité de leurs principes.

Enfin la crise contemporaine des fondements en mathématique confirme l’idée selon laquelle leur rigueur formelle repose toujours en dernier sur des énoncés indécidablesGödel montre que la non-contradiction d’un système formel figure parmi ses indécidables. Il y a une incomplétude des mathématiques du point de vue de leur fondement.

 

Qu’est-ce qu’un objet mathématique ?

Tout le monde a une idée de ce qu’est un cercle, ou un nombre,  mais ces objets ne se rencontrent pas dans le monde réel: ce sont des constructions de l’esprit humain.Parfois, ces constructions sont inspirées par la réalité  (on peut facilement se représenter une sphère en observant une bulle de savon), mais la porte reste ouverte à l’imagination.
On appellera ces objets des modèles.
Plus précisément, un modèle sera constitué d’un ensemble (fini ou infini) d’objets, ainsi que de relations entre ces objets, comme par exemple l’ensemble des entiers naturels munis de la relation «plus petit que». De la même manière que les biologistes étudient les organismes vivants, les modèles sont les sujets d’études de la science mathématique. Comment réussir à progresser dans la connaissance de ces modèles?
Puisque ce sont des constructions de  l’esprit, on est tenté de faire des déductions purement logiques. Par exemple prenons le modèle des entiers naturels ordonnés :
1, 2, 3 , 4, 5, ……
Si l’on sait que 0 est le plus petit entier naturel, alors on peut en déduire qu’il est plus petit que 5 !
Mais ce type de raisonnement suppose toujours quelque chose de déjà connu.
Quelles déductions pourrait-on faire, si au départ on ne sait rien ?
Il nous faut donc partir d’une base de connaissance : les Axiomes.
Ils sont un ensemble d’énoncés sur notre modèle que nous admettons sans démonstration.
Ce sont souvent des énoncés qui nous semblent évidents dans le modèle que l’on veut étudier.
Cependant, évidents ou non, nous sommes
obligés de les admettre sans preuve pour qu’ils servent de base à des déductions.
Un ensemble d’axiomes s’appelle une théorie.
Par exemple, la géométrie euclidienne que l’on apprend au collège/lycée est une théorie permettant de prouver des théorèmes sur le modèle du plan euclidien contenant des points, droites, cercles, triangles, etc.
L’un des axiomes de cette théorie est:
«Etant donnés 2 points A et B, il existe toujours une unique droite passant par A et B».
On peut voir une théorie comme une description du modèle que l’on veut étudier, au moyen d’axiomes.
On dit qu’une théorie admet un modèle M si tous les axiomes de la théorie sont vrais dans M.
Les théorèmes obtenus par déduction
le seront aussi, si le système de déduction est raisonnable (on ne s’attardera pas sur ce point ici).
Une démonstration(ou preuve) d’un énoncé P est une suite de déductions se basant sur les axiomeset aboutissant à la conclusion que est vrai.
Parfois, on utilisera le mot «théorie» pour désigner non seulement les axiomes, mais aussi tous les théorèmes qui en découlent.En effet, choisir les axiomes fixe instantanément l’ensemble des théorèmes: les conséquences logiques des axiomes ne dépendent pas du fait qu’on trouve une démonstration ou pas!

Imaginez que vous deviez décrire votre chambre dans un petit texte.
Celui qui le lira pourra répondre à certaines questions qu’on lui posera («où est le lit ?», «de quelle couleur est la lampe de bureau ?»).
Le but d’une théorie est le même : décrire un modèle au moyen d’axiomes, de manière à ce que l’on puisse reconstruire ses propriétés par déduction.
Le modèle mathématique correspond donc à la chambre, et la théorie à la description que vous en
faites.
Par exemple si vous dites dans votre description «Tous les objets électriques de ma chambre sont blancs» et «J’ai une radio», on peut démontrer l’énoncé «Il y a une radio blanche», en utilisant les deux axiomes et un raisonnement déductif.
Attention, plusieurs théories sont possibles pour un même modèle (il existe plusieurs manières de décrire la même chambre). C’est au mathématicien de choisir sa théorie, de manière à ce qu’elle décrive le mieux possible le modèle qu’il veut étudier.

Les qualités d’une bonne théorie

Toutes les théories ne se valent pas : elles peuvent décrire plus ou moins bien le modèle, ou même être complètement absurdes.
Elles peuvent aussi être trop compliquées à écrire pour être utilisables en pratique.

Point de vue mathématique

On dit qu’une théorie est complète si elle permet de répondre à n’importe quelle question que l’on peut poser.
Par exemple si votre chambre est vide, ce ne sera pas difficile de la décrire complètement.
Notons qu’on va se restreindre ici aux questions dont la réponse est «oui» ou «non», c’est-à-dire des énoncés qui sont soit vrais, soit faux dans le modèle.
Cela signifie que dans une théorie complète, pour tout énoncé P, on peut toujours trancher sur la véracité de P.
Autrement dit, on peut toujours démontrer soit que P est vraie, soit que P est fausse.
Dans le cas contraire, la théorie est incomplète: vous avez pu oublier de dire s’il y a une fenêtre.
Un lecteur de votre description ne pourra ni affirmer qu’il y a une fenêtre, ni affirmer qu’il n’y en a pas.
Une théorie incomplète est une théorie dans laquelle il existe des énoncés P tels que ni P, ni son contraire ne peuvent être démontrés.
Un tel énoncé P est alors dit indécidable dans la théorie(ou indépendant des axiomes de la théorie).
Dans ce cas, nous sommes sûrs que plusieurs modèles différents peuvent correspondre à notre théorie.
En effet, si la description d’une chambre ne se prononce pas sur la présence d’une fenêtre, alors elle pourrait représenter une chambre sans fenêtre, mais aussi une chambre avec fenêtre
De plus, la théorie est cohérente si ses théorèmes ne se contredisent pas entre eux.
Par exemple, vous ne pouvez pas déclarer que toute votre chambre est blanche, puis affirmer ensuite que le plafond est rouge.
Une théorie incohérente n’a aucune valeur mathématique: si elle permet de démontrer un énoncé et son contraire, alors elle ne peut décrire aucun modèle, car dans un modèle chaque énoncé est soit vrai soit faux.
Pour cette raison, si une théorie admet un modèle, alors elle est forcément cohérente.
La réciproque est également vraie (mais c’est un résultat difficile) : si une théorie est cohérente, alors elle admet un modèle.Bien sûr, l’idéal est d’avoir une théorie à la fois cohérente et complète.
Ainsi, l’on connaitra aussi parfaitement que possible notre modèle, via quelques déductions logiques.

Point de vue pratique

Pour l’instant, nous n’avons imposé aucune restriction sur l’ensemble d’axiomes.
A priori, il pourrait donc être infini, et très compliqué.
Rien ne nous empêche même de déclarer «je prends comme axiome tout ce qui est vrai dans mon modèle».
Ceci nous permettrait d’obtenir facilement une théorie cohérente et complète: dans le modèle chaque énoncé est soit vrai, soit faux.
Cependant, cela ne nous avance pas beaucoup en pratique, car nous ne savons même pas reconnaître les axiomes de notre théorie
On pourrait se restreindre à un nombre fini d’axiomes, mais il se trouve que ceci nous limiterait un peu trop.
On veut parfois avoir une infinité d’axiomes pour définir certaines notions, comme la récurrence sur les nombres entiers par exemple.
Cependant, dans cet exemple, il nous est facile de
reconnaître nos axiomes, car ils sont tous définis selon le même schéma.
Il est donc parfois raisonnable en pratique d’utiliser une infinité d’axiomes.
Où placer la limite entre les théories «raisonnables» et celles qui ne le sont pas?
La réponse est déjà esquissée plus haut: on veut être capable de reconnaître les axiomes de notre théorie.
Formellement, cela veut dire qu’il existe un algorithme (par exemple un programme d’ordinateur), qui nous demande un énoncé, et nous répond «oui» si cet énoncé est un axiome et «non» sinon.
Dans la métaphore de la maison, cela correspond à limiter la description à un nombre fini de mots.
La subtilité étant que ces mots ne décrivent pas directement les axiomes, mais le programme capable de les reconnaître (qui doit, lui, être fini).
Une théorie qui possède un ensemble d’axiomes reconnaissable par algorithme est appelée récursivement énumérable(abrégé RE).
Cette notion possède un intérêt supplémentaire.
Si T est une théorie RE et complète, alors on peut montrer qu’il existe un programme qui reconnaît les théorèmes de T (et non plus seulement les axiomes).
Cela signifie que si l’on veut savoir si un énoncé est un théorème de T, pas la peine de réfléchir à une démonstration, un ordinateur peut faire le travail à notre place.
La théorie est alors dite récursive.

Théorème d’incomplétude

Pendant un temps, l’un des buts affichés des mathématiciens a été de trouver une théorie complète et récursive, qui permettrait de décrire complètement l’ensemble des objets mathématiques
couramment étudiés, et d’avoir en plus un procédé mécanique permettant de tranche sur la véracité de tout énoncé.
En 1931, Kurt Gödel mit fin à de tels espoirs, en publiant son fameux Théorème d’incomplétude.
Dans les grandes lignes, ce théorème affirme que toute théorie RE, cohérente et «suffisamment compliquée» est nécessairement incomplète.
L’exemple de la chambre vide a montré pourquoi il ne faut pas que le modèle décrit soit trop simple.
Plus précisément, « suffisamment compliquée» signifie ici que la théorie doit être capable de parler des nombres entiers, avec les notions d’addition et de multiplication. C’est donc plutôt raisonnable, et les mathématiques de tous les jours sont directement concernées.

Théorèmes de Gödel | Math, Learning, Math equations

La démonstration par le codage de Gödel

L’idée qui se trouve au cœur de la démonstration de Gödel est élégante et novatrice.
Il a remarqué qu’une fois la théorie fixée, tout énoncé mathématique et même toute démonstration peut se coder de façon systématique par un simple nombre entier.
Par exemple on pourra utiliser le nombre 153 pour coder l’énoncé « la somme de deux nombres impairs est toujours paire», et le nombre 19765 pour coder une démonstration de cet énoncé.
Gödel décrit précisément comment passer des énoncés aux codes et vice-versa, mais nous n’entrerons pas dans ces détails ici.
Il parvient ensuite à jouer avec ces codes pour créer un énoncé G qui affirme
«G n’est pas démontrable», en parlant de son propre code.
Si l’on pouvait démontrer G, on tomberait sur une
contradiction, puisqu’il affirme justement que c’est impossible.
Et comme le contraire de G est «G est démontrable», on ne peut pas non plus le montrer!
Du coup la théorie est forcément incomplète : ni G, ni son contraire ne peuvent être démontrés.
Cette astuce rappelle les phrases paradoxales comme « cette phrase est fausse».
Le procédé est cependant un petit peu plus subtil ici: G parle de son code et non directement d’elle-même, comme si vous parliez de votre numéro de sécurité sociale.
Ce codage systématique par des nombres entiers pose les bases de l’informatique.
Aujourd’hui cette idée a fait du chemin : nos textes, nos images, nos musiques, sont enregistrés sur nos disques durs sous forme de code binaire, c’est-à-dire de simples nombres écrits en base 2.
Bien avant l’invention de l’ordinateur, Gödel fut l’un des premiers à imaginer un codage universel, et ce pour montrer un théorème de logique pure !

Par la suite, il a d’ailleurs travaillé activement avec d’autre pères de l’informatique comme Alan Turing,

Alan Turing en 1951, trois ans avant sa mort (wikimedia commons)
Alonzo Church
Alonzo Church
John Von Neumann
John Von Neumann

La numération de Gödel et les métamathématiques
La première étape a consisté à assigner à chaque symbole du système formel un nombre différent.
Puis Gödel a trouvé le moyen d’affecter un nombre à chaque formule (en faisant le produit des premiers nombres premiers élevés à la puissance du nombre représentant les symboles qui y figurent), puis à chaque suite de formule.
L’important est de comprendre qu’un nombre de Gödel étant donné, on peut déterminer si c’est une suite de formules (et si oui de quelles formules elle est composée), une formule (et si oui laquelle) ou un symbole.
Inversement, étant donné un symbole, une formule ou une suite de formules, on peut facilement calculer le nombre de Gödel associé.
Tous ces nombres qui représentent des formules ou des suites de formules représentent donc des faits de l’arithmétique, mais nous pouvons aussi nous intéresser à la méta-arithmétique, qui consiste à parler des faits qui concernent l’arithmétique.
Par exemple, dire que
« Pour tout x, il existe y tel que y > 2x »
est un fait arithmétique, c’est à dire un fait qui concerne les nombres entiers. D’un autre côté, dire que
La formule « Pour tout x, il existe y tel que y > 2x » est démontrable en arithmétique
est un fait meta-arithmétiquen, c’est à dire un fait qui concerne l’arithmétique.
Les formules et suites de formules étant représentés par Gödel sous forme de nombres, celui-ci a ainsi pu exprimer des faits méta-arithmétiques par des formules arithmétiques…
Par exemple, dire qu’une formule de nombre de Gödel g1 contient la formule de nombre de Gödel g2 revient plus ou moins, avec la méthode de Gödel à affirmer que g2 est un diviseur de g1, ce qui une propriété arithmétique, exprimant un fait méta-arithmétique.
Gödel a ainsi réussi à exprimer, en utilisant les nombres de Gödel et l’arithmétique (mais la formule reste assez complexe) que :
La formule de nombre de Gödel g1 est démontrable par la suite de formules de nombre de Gödel g2.
Dans la suite, nous appellerons cette formule G.
La preuve d’incomplétude
La suite du raisonnement a été de montrer que si G était était démontrable, alors la négation de G le serait aussi, et inversement. On aurait alors la possibilité de démontrer une formule et son contraire, ce qui est la définition de l’inconsistance vue plus haut. Par conséquent, si on suppose que le système formel employé est consistant (i.e. que l’arithmétique est consistante), alors on ne peut pas démontrer la formule G ni son contraire. On dit que G est indécidable. Or, la formule G dit que la formule G est indémontrable (rappelons la formule)
n : Il n’existe aucun nombre de Gödel qui représente une suite de formule qui soit la démonstration de la formule portant le nombre de Gödel n
Cette affirmation métamathématique (disant que G est indémontrable) est manifestement vraie, comme nous venons de le voir. Et elle est représentée par une formule arithmétique, selon la méthode de Gödel, qui est donc vraie elle aussi…
Gödel a donc au final construit une formule arithmétique qui est vraie, et qu’on ne peut pas démontrer en utilisant un système formel de l’arithmétique si celui-ci est consistant.
En allant un peu plus loin, Gödel a montré que même en posant comme axiome que G soit vraie, on pourrait toujours trouver une formule vraie et indémontrable, ce qui signifie que si l’arithmétique est consistante, non seulement elle est incomplète, mais le sera toujours même si on y ajoute des axiomes supplémentaires.
Inconsistance de l’arithmétique ?
Par un raisonnement un peu similaire, Gödel a construit une formule, exprimée dans le système formel qui affirme que :
Si l’arithmétique est consistante, alors la formule G est vraie.
Puis il démontre cette affirmation, toujours en utilisant le système formel. Ceci implique que si on pouvait démontrer dans le système formel, que l’arithmétique est consistante, alors, en utilisant la preuve donnée par Gödel, il s’en suivrait que G serait démontrable dans le système formel. Or nous venons de voir que ce n’était pas le cas. Par conséquent, c’est qu’il est impossible de démontrer dans le système formel que l’arithmétique est consistante, ce qui a apporté une réponse au problème de Hilbert…

Discussion sur le Théorème

On pourrait dire que si l’on tombe sur un énoncé indécidable, il suffit de la rajouter en axiome pour compléter la théorie.
Cependant le raisonnement de Gödel s’applique aussi dans cette nouvelle théorie où l’on peut construire, de la même manière, un énoncé indécidable(différent du précédent).
A l’époque, les réactions de la communauté ont été plutôt négatives.
Ce résultat a d’abord été perçu comme une remise en question de la toute-puissance mathématique.
Cependant, certains mathématiciens, à commencer par Gödel lui-même, ont vu dans ce résultat une preuve de «l’inépuisabilité» des mathématiques:
puisque chaque ensemble d’axiomes génère ses propres énoncés indécidables, il existera toujours la possibilité d’enrichir nos théories.
La recherche mathématique serait alors sans fin et n’aurait pour seule limite que celle de l’inventivité des
mathématiciens.
Ce théorème a eu un tel retentissement qu’il a parfois été interprété dans d’autres domaines comme un résultat général d’impossibilité scientifique ou philosophique, voire une limitation intrinsèque
et démontrée de la connaissance humaine
Cependant, gardons bien à l’esprit que, d’une part,ce résultat est un théorème de logique mathématique qui ne doit pas être sorti de son contexte.
Les hypothèses et les conclusions sont très précises et ne s’appliquent tout simplement pas à d’autres systèmes que des systèmes formels.
D’autre part, l’incomplétude démontrée par Gödel est toujours relative à une théorie.
Un énoncé indécidable dans une théorie peut parfaitement l’être dans une autre (qui aura, bien entendu, elle aussi ses propres énoncés indécidables).
En revanche, le théorème de Gödel conduit à se poser des questions philosophiques légitimes sur le statut des modèles que l’on veut étudier.
Peut-on vraiment parler sans ambiguïté des propriétés des nombres entiers, comme si ces nombres existaient dans la nature, alors que nous
n’arrivons pas à les axiomatiser complètement?
Les questions de ce genre sont loin d’être tranchées, et divisent la communauté mathématique en différentes écoles de pensée.

Implications en mathématiques

Ce théorème a mis fin a la quête d’une axiomatisation complète des mathématiques, et de l’arithmétique en particulier. Nous pouvons donc dire adieu à notre programme informatique qui répondrait
à toutes les questions mathématiques.
C’est d’ailleurs une bonne nouvelle pour les mathématiciens, car un tel programme aurait signé la fin de leur profession.
Sur l’arithmétique en particulier, l’espoir d’avoir une théorie RE complète semblait raisonnable, et l’on
disposait de candidats sérieux.
Grâce au théorème de Gödel, on sait maintenant
que certains énoncés résistant aux assauts des chercheurs depuis longtemps ont une chance d’être indécidables.
Un exemple parmi d’autres : la conjecture de
Goldbach affirme que tout nombre pair à partir de 4 est la somme de deux nombres premiers
(un nombre est premier s’il a exactement 2 diviseurs : 1 et lui-même).
Par exemple 6=3+3, 16=11+5, 20=17+3,
etc…
Des milliards de nombres ont été testés par ordinateur, mais la preuve générale attend toujours
d’être trouvée, si jamais elle existe !
Il est à noter que des résultats d’indécidabilité avaient été montrés avant le théorème de Gödel (sur la géométrie d’Euclide par exemple), et d’autres ont été obtenus depuis sans y avoir recours (l’un des plus célèbres concerne les différentes tailles possibles d’ensembles infinis).
Ce théorème peut être vu comme une manière de
générer automatiquement un énoncé indécidable
d’un certain genre, mais ne capture pas tous les énoncés indécidables.
En termes de vérité, on énonce parfois le premier théorème de Gödel sous la forme :
L’ensemble des assertions vraies est strictement plus grand que l’ensemble des assertions démontrables.
En fait, il existe des assertions vraies, pour lesquelles il n’y a pas de démonstration (on ne peut arriver à la solution en un nombre fini d’étapes). Autrement dit, la démonstration des assertions indécidables demanderait une infinité d’étapes. Et sans même aller jusqu’à l’indécidable, on peut imaginer facilement des problèmes dont la complexité dépasse l’échelle humaine. Le premier théorème de Gödel dit qu’il n’y a pas de limite à cette complexité, elle peut croître au-delà de toute borne.
Finalement, comme il a été mentionné plus haut, le théorème de Gödel a été l’un des points de départ
de l’informatique.
En particulier, Kurt Gödel a initié avec (entre autres) Alan Turing et Alonzo Church la théorie de la calculabilité, qui trace les limites entre ce qu’un ordinateur peut faire et ce qui lui est impossible.
Les termes «récursif» et «récursivement énumérable» sont d’ailleurs empruntés à cette théorie, et le théorème de Gödel (considéré avec le recul nécessaire) est l’un des premiers énoncés où ces notions sont utilisées de manière formelle.
Pour aller plus loin :

Théorèmes de Gödel | Math, Learning, Math equations

Gödel a également montré que ni l’ axiome du choix ni l’ hypothèse du continuum ne peuvent être réfutées par la théorie des ensembles acceptée de Zermelo-Fraenkel , en supposant que ses axiomes sont cohérents. Le premier résultat a ouvert la porte aux mathématiciens pour assumer l’axiome de choix dans leurs preuves. Il a également apporté d’importantes contributions à la théorie de la preuve en clarifiant les liens entre la logique classique , la logique intuitionniste et la logique modale .

Ce théorème est l’un des plus importants démontrés au XXe siècle. Voici quelques brèves sélections qui vous aideront à commencer à le comprendre. L’article original de Gödel « On Formally Undecidable Propositions » est disponible dans une traduction modernisée . Il est également imprimé depuis Douvres dans une belle édition bon marché . Voir les théorèmes d’incomplétude de Gödel de Wikipedia pour beaucoup plus.

An Incomplete Education - Judy Jones and William Wilson - 3rd Edition ...Judy Jones et William Wilson, Une éducation incomplèteAn Incomplete Education - Judy Jones and William Wilson - 3rd Edition ...

En 1931, le mathématicien d’origine tchèque Kurt Gödel a démontré que dans une branche donnée des mathématiques, il y aurait toujours des propositions qui ne pourraient être prouvées ni vraies ni fausses en utilisant les règles et les axiomes… de cette branche mathématique elle-même. Vous pourrez peut-être prouver toutes les déclarations imaginables sur les nombres dans un système en sortant du système afin de proposer de nouvelles règles et axiomes, mais ce faisant, vous ne ferez que créer un système plus vaste avec ses propres déclarations impossibles à prouver. L’implication est que tout système logique de toute complexité est, par définition, incomplet ; chacun d’eux contient, à un moment donné, plus d’énoncés vrais qu’il ne peut en prouver selon son propre ensemble de règles.

An Incomplete Education Revised Edition Judy Jones and William Wilson ...Le théorème de Gödel a été utilisé pour affirmer qu’un ordinateur ne peut jamais être aussi intelligent qu’un être humain parce que l’étendue de ses connaissances est limitée par un ensemble fixe d’axiomes, alors que les gens peuvent découvrir des vérités inattendues… Il joue un rôle dans les théories linguistiques modernes, qui mettent l’accent sur le pouvoir du langage de proposer de nouvelles façons d’exprimer des idées. Et cela a été interprété comme impliquant que vous ne vous comprendrez jamais entièrement, puisque votre esprit, comme tout autre système fermé, ne peut être sûr de ce qu’il sait de lui-même qu’en s’appuyant sur ce qu’il sait de lui-même.

Carl B. Boyer , Histoire des mathématiques

Cover of: A history of mathematics by Carl B. BoyerGödel a montré que dans un système rigidement logique tel que Russell et Whitehead avaient développé pour l’arithmétique, des propositions peuvent être formulées qui sont indécidables ou indémontrables dans les axiomes du système. Autrement dit, au sein du système, il existe certaines déclarations claires qui ne peuvent être ni prouvées ni réfutées. Par conséquent, on ne peut pas, en utilisant les méthodes habituelles, être certain que les axiomes de l’arithmétique ne conduiront pas à des contradictions… Cela semble d’avance vouer l’espoir d’une certitude mathématique par l’utilisation des méthodes évidentes. L’idéal de la science, qui consiste à concevoir un ensemble d’axiomes à partir desquels tous les phénomènes du monde extérieur peuvent être déduits, est peut-être également voué à l’échec.

Ernest Nagel et James R. Newman , La preuve de Gödel

Cover of: Gödel's proof by Ernest NagelIl a prouvé qu’il était impossible d’établir la cohérence logique interne d’une très grande classe de systèmes déductifs & emdash; arithmétique élémentaire, par exemple &emdash; à moins d’adopter des principes de raisonnement si complexes que leur cohérence interne est aussi sujette à caution que celle des systèmes eux-mêmes… La deuxième conclusion principale est… Gödel a montré que Principia , ou tout autre système au sein duquel l’arithmétique peut être développée, est essentiellement incomplet . En d’autres termes, étant donné n’importe quelensemble cohérent d’axiomes arithmétiques, il y a de vrais énoncés mathématiques qui ne peuvent pas être dérivés de l’ensemble… Même si les axiomes de l’arithmétique sont augmentés par un nombre indéfini d’autres vrais, il y aura toujours d’autres vérités mathématiques qui ne sont pas formellement dérivables de l’ensemble. ensemble augmenté.

Rudy Rucker , L’infini et l’esprit

Cover of: Infinity and the mind by Rudy RuckerLa preuve du théorème d’incomplétude de Gödel est si simple et si sournoise qu’il est presque embarrassant de la raconter. Sa procédure de base est la suivante :

  1. Quelqu’un présente à Gödel un UTM, une machine censée être une Universal Truth Machine, capable de répondre correctement à n’importe quelle question.
  2. Gödel demande le programme et la conception du circuit de l’UTM. Le programme peut être compliqué, mais il ne peut être qu’infiniment long. Appelez le programme P(UTM) pour Program of the Universal Truth Machine.
  3. Souriant un peu, Gödel écrit la phrase suivante : « La machine construite sur la base du programme P(UTM) ne dira jamais que cette phrase est vraie. » Appelez cette phrase G pour Gödel. Notez que G est équivalent à : « UTM ne dira jamais que G est vrai ».
  4. Maintenant, Gödel rit de son grand rire et demande à UTM si G est vrai ou non.
  5. Si UTM dit que G est vrai, alors « UTM ne dira jamais que G est vrai » est faux. Si « UTM ne dira jamais que G est vrai » est faux, alors G est faux (puisque G = « UTM ne dira jamais que G est vrai »). Donc, si UTM dit que G est vrai, alors G est en fait faux et UTM a fait une fausse déclaration. Donc UTM ne dira jamais que G est vrai, puisque UTM ne fait que des déclarations vraies. </li>
  6. Nous avons établi que l’UTM ne dira jamais que G est vrai. Ainsi, « UTM ne dira jamais que G est vrai » est en fait une affirmation vraie. Donc G est vrai (puisque G = « UTM ne dira jamais que G est vrai »). </li>
  7. « Je connais une vérité que l’UTM ne pourra jamais dire », déclare Gödel. « Je sais que G est vrai. L’UTM n’est pas vraiment universel.

Pensez-y & emdash; ça pousse sur toi…

Grâce à son grand génie mathématique et logique, Gödel a pu trouver un moyen (pour tout P(UTM) donné) d’écrire une équation polynomiale compliquée qui a une solution si et seulement si G est vrai. Donc G n’est pas du tout une phrase vague ou non mathématique. G est un problème mathématique spécifique dont nous connaissons la réponse, même si UTM ne la connaît pas ! Ainsi, l’UTM n’incarne pas et ne peut pas incarner une meilleure et ultime théorie des mathématiques…

Bien que ce théorème puisse être énoncé et prouvé de manière rigoureusement mathématique, ce qu’il semble dire est que la pensée rationnelle ne peut jamais pénétrer jusqu’à la vérité ultime ultime … Mais, paradoxalement, comprendre la preuve de Gödel, c’est trouver une sorte de libération. Pour de nombreux étudiants en logique, la percée finale vers une compréhension complète du théorème d’incomplétude est pratiquement une expérience de conversion. C’est en partie un sous-produit de la puissante mystique que porte le nom de Gödel. Mais, plus profondément, comprendre la nature essentiellement labyrinthique du château , c’est, en quelque sorte, s’en affranchir.

Douglas R. Hofstadter , Gödel, Escher, Bach : Une éternelle tresse dorée

Godel, Escher, Bach (first edition).jpgToutes les formulations axiomatiques cohérentes de la théorie des nombres incluent des propositions indécidables…

Gödel a montré que la prouvabilité est une notion plus faible que la vérité, quel que soit le système d’axiomes impliqué…

Comment savoir si vous êtes sain d’esprit ? … Une fois que vous commencez à remettre en question votre propre santé mentale, vous êtes pris au piège dans un vortex de plus en plus serré de prophéties auto-réalisatrices, bien que le processus ne soit en aucun cas inévitable. Tout le monde sait que les fous interprètent le monde via leur propre logique particulièrement cohérente ; comment pouvez-vous dire si votre propre logique est « particulière » ou non, étant donné que vous n’avez que votre propre logique pour se juger ? Je ne vois aucune réponse. Cela me rappelle le deuxième théorème de Gödel, qui implique que les seules versions de la théorie formelle des nombres qui affirment leur propre cohérence sont incohérentes.

L’autre analogue métaphorique du théorème de Gödel que je trouve provocateur suggère qu’en fin de compte, nous ne pouvons pas comprendre notre propre esprit/cerveau… Tout comme nous ne pouvons pas voir nos visages de nos propres yeux, n’est-il pas inconcevable de s’attendre à ce que nous ne puissions pas refléter nos structures mentales complètes dans les symboles qui les réalisent ? Tous les théorèmes limitatifs des mathématiques et la théorie du calcul suggèrent qu’une fois que la capacité à représenter sa propre structure a atteint un certain point critique, c’est le baiser de la mort : cela garantit que vous ne pourrez jamais vous représenter totalement.

Pour aller encore plus loin:
Badreddine Belhamissi, Entre le certain et l’incertain, un siècle de controverses sur la fondation des Mathématiques (et de la physique) ou une petite histoire (un peu ) philosophique de l’ordinateur .

RÉFÉRENCES

K. Gödel, Über formal unentscheidbare Sätze der Principia Mathematica und verwandter Systeme, I.(«Sur les propositions formellement indécidables des Principia Mathematica et des systèmes apparentés ») Monatshefte für Mathematik und Physik, 38 (received 17 novembre 1930, published 1931) Ernest Nagel, James R. Newman, Kurt Gödel, Jean-Yves Girard, «Le théorème de Gödel»Editions du Seuil (1997)

Alan Sokal et Jean Bricmont, «Impostures Intellectuelles». Éditions Odile Jacob, 1997

J.Bouveresse Prodiges et vertiges de l’analogie. De l’abus des belles-lettres dans la pensée, Raisons d’Agir, 1999

Apostolos Doxiadis, Christos H. Papadimitriou, Alecos Papadatos, Annie Di Donna, « Logicomix », Vuibert2010

Blanché et Dubucs, «La logique et son histoire», Armand Colin

Raymond Smullyan, «Les théorèmes d’incomplétude», Dunod

___________
Glossaire:

Système Formel
Un système formel est composé d’une part de conventions qui permettent d’écrire des formules (liste des caractères utilisables et façon de les agencer) et d’autre part de règles de transformation, ou règles d’inférence, qui permettent de transformer une formule en une autre.
Axiome
Dans une théorie, un axiome est une formule de base, que l’on considère vraie sans démonstration. C’est en quelque sorte le « point de départ » qui servira à démontrer des théorèmes.
Théorème
Dans le cadre d’une théorie, un théorème est une formule que l’on peut démontrer comme étant vraie, en partant des axiomes et en procédant par déduction.
Preuve, démonstration
C’est la liste des étapes, non ambiguës (en utilisant les règles d’inférences si on travaille dans un système formel), qui permettent de passer d’une formule supposée vraie à une autre. On obtient alors la preuve que la formule obtenue est vraie.
Méthode axiomatique
Initialement utilisée par Euclide en géométrie, la méthode axiomatique consiste à accepter sans démonstration un petit nombre de vérités (les axiomes) et à les utiliser pour en déduire d’autres choses vraies (théorèmes)
Théorie formelle
Une théorie formelle est composée d’un système formel et d’un ensemble d’axiomes, exprimés dans ce système formel.
Règle d’inférence, règle de transformation
Dans le cadre d’un système formel, les règles d’inférences sont des règles précises, applicables mécaniquement, qui permettent de transformer une formule en une autre, c’est à dire de déduire d’une formule une autre formule.
Consistance
Une théorie formelle est consistante si elle n’admet aucune formule F telle que F et son contraire (non F) puissent être démontrés.
Complétude
Une théorie formelle est complète si il n’existe pas de formule F telle que ni F ni son contraire (non F) ne puissent être démontrés, c’est à dire si tout ce qui est vrai dans la théorie est démontrable dans la théorie.
Machine de Turing
La machine de Turing est le modèle théorique de tous les ordinateurs actuels, et reste particulièrement simple, même si nous ne pouvons pas la détailler ici en quelques lignes.
Programme informatique
Un programme informatique est une suite d’ordres non ambigus qui sont exécutables par une machine de Turing, mais aussi par un être humain, et qui ne laisse aucune part à la réflexion. L’utilisation d’un ordinateur se justifie uniquement par la rapidité d’exécution de ces ordres.

Histoire de l’écriture

Classé dans : Apprendre, Connaissance | 0

INTRODUCTION

Pourquoi l’écriture ?

Le début de l’écriture est lié à la naissance d’un pouvoir fort et centralisé : développement des échanges liés à la naissance des villes et de l’État en Mésopotamie, formation d’une nation autour d’un souverain en Égypte, contexte religieux en Chine, besoin d’un calendrier d’État en Mésoamérique.

Une écriture devenue indispensable comme moyen de communication

Calculis
Enveloppe scellée avec traces de calculii – Photo Cdli

L’écriture est devenue un véritable « besoin » avec le développement d’un système de société hiérarchisée, l’existence d’un pouvoir centralisé, l’émergence des religions.

L’écriture n’est pas une invention technique comme une autre. Par elle les hommes détiennent un pouvoir nouveau, celui de transcender l’espace et le temps, celui de voir la parole. Ils peuvent désormais écrire leur propre histoire. C’est pourquoi elle apparaît au travers des récits mythiques comme chargée d’une énergie divine.

 

 

Les temples, centres de pouvoir religieux mais aussi administratif, vont devoir s’organiser, comptabiliser et mesurer. Les échanges commerciaux entre villes et contrées  se multipliant, il faudra formaliser les actes de ventes. Les « calculis »  (voir ci-dessus), ancêtres  de nos factures, vont assez vite être remplacés par des  tablettes d’argile dont le format va permettre d’indiquer le propriétaire d’un  bien, et d’inventorier la totalité des marchandises.

L’écriture est née il y a 6000 ans dans deux contrées voisines, la Mésopotamie et l’Égypte, de manière presque simultanée mais différenciée. Si les hiéroglyphes égyptiens et les pictogrammes sumériens sont tous les deux formés de petites images, celles-ci sont totalement propres à leur région.

Les calculis Pour faciliter les échanges commerciaux, les marchands utilisaient de petits objets en terre cuite qui représentaient la marchandise accompagnée. Valeurs des calculis : le petit cône valait 1, la petite boule 10, le grand cône 60 et le grand cône percé 600. Pour « sceller » la transaction, ces figurines étaient enfouies dans une masse d’argile arrondie.

Hiéroglyphes antiques de l’Egypte dans le temple de karnak                            ID 24213110 © Mikhail Kokhanchikov | Dreamstime.com
Tablette pictographique précunéiforme
Tablette pictographique précunéiforme                                                        | Photo (C) RMN-Grand Palais (musée du Louvre) /      Franck Raux

Les premiers écrits viennent de Mésopotamie

6000 Avant JC La première écriture analytique

Tablette argile Uruk III
Tablette en argile Uruk III Date de fabrication : Uruk récent (fin IVe mill. Uruk III (?)) (-3500 – -3100). Musée du Louvre

C’est dans les restes des temples des cités d’Uruk et de Lagash (le Pays de Sumer, l’actuel Irak) qu’on retrouve les premières traces d’écriture. Elles sont datées de 3300 ans avant JC. Les sumériens utilisaient des roseaux taillés en pointe (les calames) pour tracer les signes sur des tablettes d’argile.
Cette écriture était composée de pictogrammes ou signes représentant un seul mot ou concept. On a évalué que cette écriture était constituée de plus de 1500 représentations. Les sumériens utilisaient l’écriture pour la rédaction de livres de comptabilité et dénombraient ainsi les possessions du temple comme les sacs de grains, les têtes de bétail…
Pour certains « mots » les sumériens inventaient des idéogrammes en mélangeant deux pictogrammes…

5 700 Avant JC: Le cunéiforme

calame

Elle est dite « cunéiforme », car en forme de clous ou de coins, et est imprimée par l’intermédiaire d’un calame (outil en roseau dont la pointe est triangulaire) sur une tablette en argile humide.

Pour être utilisable, le roseau doit être séché. Cette opération se fait en le maintenant à une température    constante (dans du fumier par exemple), où il perd son eau, et durcit ; de couleur blanchâtre quand il est     récolté, il devient brun-rouge, clair ou foncé, même parfois noir, selon le type de roseau.

Lorsque le roseau est sec, il est taillé, en le plaçant dans la paume de la main et en le coupant en biseau    avec un couteau jusqu'à ce que le bord ait la forme désirée. L'extrémité ainsi obtenue est ensuite ajustée en  fonction de la largeur de bec souhaitée. Enfin, l'extrémité du bec est fendue de quelques centimètres, puis coupée en biseau sur une plaquette à coupe (« makta » chez les ottomans) pour obtenir un angle d'écriture adapté à la main du scribe.

Le calame est retaillé régulièrement car l'extrémité du bec en contact avec le papier s'use rapidement.
Les supports de l’écrit
L’argile est la matière première qui abonde en Mésopotamie,
le long des berges des fleuves Euphrate et Tigre.
L’écriture s’effectue sur les tablettes d’argile à l’aide d’un
poinçon ou d’un calame en roseau à la pointe triangulaire, laissant une trace en forme de coin.
Fabrication du papyrus. Photographie Andy Polaine, 2009.    Licence Creative commons.
Le papyrus est fabriqué en Égypte depuis 2500 ans environ avant
Jésus-Christ. Il est obtenu en entrecroisant, sur deux couches,
de fines tranches tirées de la tige de la plante. L’ensemble est martelé jusqu’à la formation d’une feuille d’un seul tenant, le suc de la plante dégagé par le martelage faisant office de liant. L’assemblage des feuilles aboutit à des rouleaux dont la longueur est variable.
Le parchemin semble provenir de Pergame, ville d’Asie mineure, au IIe siècle avant Jésus-Christ. Sa fabrication était destinée à remplacer le papyrus. Plus solide, plus lisse, utilisable  recto et verso, il reste jusqu’à la fin du Moyen Âge le principal support de l’écriture et de
la calligraphie en Occident.
On l’utilise en Europe à partir du VIIe siècle. Il est fait à   partir de peau de mouton, de chèvre ou de veau et nécessite une préparation longue et fastidieuse. Utilisé d’abord sous forme de rouleau (volumen), les feuilles de parchemin sont ensuite coupées et réunies en cahiers cousus ensemble pour former le codex,  l’ancêtre du livre.

LL’histoire du papier : des origines à aujourd’huie papier
Inventé par les Chinois au IIe siècle de notre ère, le papier est fabriqué à partir de diverses matières végétales : bambou, chiffon de chanvre et de coton.
Le processus de fabrication est resté secret jusqu’au VIIIe siècle.
Sa diffusion arrive en Occident, grâce aux Arabes qui mettent en place une véritable industrie papetière.
Les Chinois fabriquent le papier à partir de fibres  de lin, de chanvre ou d'écorce de mûrier à papier. La xylographie augmente la production de papier, qui se diffuse aux pays voisins, notamment au Japon. Les Arabes installent à Samarcande des papetiers chinois prisonniers de guerre au milieu du VIIIe siècle et cette ville devient un centre de production. L'utilisation de chiffons mis au « pourrissoir » (cuves) où ils macéraient pendant plusieurs semaines avant leur pilonnage par la  pile à maillets dans des moulins à eau, l'encollage puissant, adapté pour l'usage  du calame, viennent de la papeterie arabe.

 

Image de recherche visuelle
Kitāb ṣuwar al-kawākib al-thābitah كتاب صور الكواكب الثابتة Ṣūfī, ʻAbd al-Raḥmān ibn ʻUmarصوفى، عبد الرحمن ابن عمر -190images- Ref: Or 5323 The record is made up of Codex ; ff. iii+86+ii. It was created in 1260-1280. It was written in Arabic. The original is part of the British Library: Oriental Manuscripts.
Caravane de pèlerins à Ramleh (31e Maqamat)
Caravane de pèlerins à Rameleh-Peinture du manuscrit des Maqalat El-Hariri 1236-1237 Mahmud Al Wasiti BNF. Directmedia Publishing GmbH
Toutes les images
                                                               Samarcande

C’est en juillet 751 qu’un événement majeur va modifier l’histoire du papier : la victoire des troupes abbassides sur les troupes chinoises de la dynastie Tang pour le contrôle de la région d’Asie Centrale à Talas (al-atlakh), près de Samarcande.

Empire arabe contre Empire chinois ? La Bataille de Talas (751) - YouTubeLa bataille de Talas est une date symbolique à plusieurs titres : jamais des forces musulmanes n’iront plus à l’est de la rivière Talas, tout comme aucune troupe chinoise n’ira jamais plus à l’ouest. De plus, de nombreux prisonniers chinois furent vendus comme esclaves à Samarcande, Bagdad et Damas. Parmi ces prisonniers, certains connaissaient des techniques chinoises encore tenues secrètes : le papier et la soie. L’utilisation de la fabrication du papier va alors se diffuser dans tout l’empire abbasside, avec la diffusion du Coran et des ouvrages de science et de littérature. On peut affirmer que la révolution du papier permit le développement de l’âge d’or islamique.

Image de recherche visuelle
Catalogue des étoiles fixes, par ʿAbd al-Raḥmân al-Ṣoûfî. Catalogue des étoiles fixes, par ʿAbd al-Raḥmân al-Ṣoûfî. — 1770 — manuscrits Gallica BnF

C’est à partir de là que, grâce à la profusion de chanvre et de lin, deux matières premières particulièrement adaptées à la fabrication du papier, la production de ce matériau s’est répandue dans d’autres cités asiatiques, notamment à Bagdad et à Damas. Le processus de fabrication du papier suivi par les artisans arabes comprenait l’effilage et la macération de chiffons dans l’eau jusqu’à obtention d’une pâte homogène dans laquelle on plongeait un tamis qui retenait les fibres macérées en laissant s’évacuer l’eau. Les feuilles obtenues étaient ensuite pressées et séchées, puis recouvertes d’une pellicule d’amidon de riz afin de les rendre plus réactives à l’encre. À la même période, l’Égypte et l’Afrique du Nord commencent elles aussi à produire leurs premières feuilles de papier en reproduisant les techniques de fabrication du monde arabe. Les techniques arabes se diffusent en Europe occidentale, par l’Espagne musulmane et par l’Italie commerçante. Au XIIIe siècle des marchands de Fabriano commencent à produire par leurs propres moyens. Malgré la résistance des institutions, dont les maîtres préfèrent le parchemin, les moulins à papier prolifèrent, et la collecte du linge usagé, qui en est la matière première, devient l’occupation des chiffoniers. La pile à maillets raffine les chiffons en un à trois jours. Les papetiers italiens introduisent le filigrane et expérimentent avec de nouvelles matières, le chiffon se faisant rare au regard de la demande croissante de papier, avec la diffusion de l’imprimerie.

La diffusion se fera très vite sur la route du papier et de la soie et le pourtour méditerranéen : 50 ans après, vers 794-795 le papier se fabrique à Bagdad sous le règne d’Haroun al-Rachid, puis à Damas et à Tibériade vers 1046 – on parle alors de papier de Tripoli ou de Damas, et sa qualité est considérée comme meilleure que le papier de Samarcande – au Caire avant 1199 où il est utilisé comme emballage de marchandise, et au Yemen au début du XIIIe siècle.

Dans le même temps, plusieurs fabriques de papier s’installent à leur tour en Afrique du Nord – on recense ainsi à Fès au Maroc 104 fabriques de papier avant 1106, et 400 meules à fabriquer du papier entre 1221 et 1240 – et dans l’Espagne andalouse – à Jativa, près de Valence, en 1054 et à Tolède en 1085.

La diffusion du papier provoque une profonde révolution culturelle : jamais les connaissances n’avaient été diffusées avec une telle ampleur, une telle rapidité et pour un moindre coût. Cet essor accompagne l’âge d’or islamique : des milliers d’œuvres sont dorénavant disponibles dans les bibliothèques des grands centres intellectuels tout comme dans les plus humbles madrasas de province ou les plus petites mosquées.

Image illustrative de l’article Cunéiforme
Par Bjørn Christian Tørrissen — Own work by uploader, http://bjornfree.com/galleries.html, CC BY-SA 3.0, https://commons.wikimedia.org/w/index.php?curid=8296178

Une grande inscription cunéiforme trouvée sur le côté sud de la colline du château de Van, à quatre kilomètres à l’ouest de l’actuelle Van, dans l’est de la Turquie. Elle mesure plusieurs mètres de haut et de large, elle a 25 siècles et le message vient du roi perse Xerxès. En vieux persan, babylonien et élamite, il est dit (en gros): « Ahuramazda est le grand dieu, le plus grand dieu qui a créé le ciel et créé la terre et créé les humains

Le cunéiforme a été un élément marquant des cultures du Proche-Orient ancien qui ont développé un rapport à l’écrit et des littératures à partir de ce système.

Les formes stylisées vont disparaître, elles vont être remplacées par l’écriture cunéiforme. Les sumériens vont prendre l’habitude de travailler différemment leurs calames : ils vont les tailler en biseau. En les enfonçant dans l’argile, l’empreinte avait une forme de « clou » d’où on a tiré le nom cunéiforme.
Sumerian Cuneiform - Download From Over 45 Million High Quality Stock ...On a évalué que cette écriture étaient composée de seulement 600 signes.
Ces signes (non figuratifs) vont évoluer vers la représentation d’un son : le phonétisme. Ainsi, en associant une suite de sons, on va pouvoir écrire un mot : l’image du « chat » suivie de l’image du « pot » peuvent exprimer le mot « chapeau »…C’est l’ancêtre du rébus !
Pour aider à la lecture les sumériens utilisaient également des déterminatifs qui permettaient d’indiquer le genre ou le contexte des mots employés.

Le code de Hammourabi

Les premiers signes de la loi du talion sont trouvés dans le Code de Hammurabi, en 1730 avant notre ère, dans le royaume de Babylone.

Cette loi permet ainsi d’éviter que les personnes fassent justice elles-mêmes et introduit un début d’ordre dans la société en ce qui concerne le traitement des crimes.

TALION : vengeance qui consiste à faire subir à l’offenseur un dommage identique à celui qu’il a causé.
La loi du Talion est souvent symbolisée par « œil pour œil, dent pour dent » 
(Encyclopédie Hachette 2001)

Hammurabi 
Hammurabi

Hammourabi ou Hammurabi est le sixième roi de Babylone au XVIIIe siècle av. J.-C. (1792-1750). Hammurabi est un roi de Babylone, faisant partie de la première dynastie babylonienne, régnant de 1792 av. J.-C. à sa mort en 1750 av. J.-C. Il succède à son père, Sin-muballit. Par des faits de guerre, il étend son royaume dans les régions de Sumer et d’Akkad (au nord et au sud de Babylone) et il développe une législation exceptionnelle dont le « Code de Hammourabi » en est le témoin.

Résultat d’images pour Roi HammourabiHAMMURABI statue - 3d print | CGTrader Hammourabi était le sixième empereur des Amorites, et il hérita du trône de son père, Sin-Muballit. Il est né dans la ville de Babylone en 1810 avant JC, aujourd’hui l’Irak. Sa contribution au développement de Babylone a été remarquable.

Hammurabi a étendu son empire des vallées fluviales du Tigre et de l’Euphrate et a gouverné l’empire entier avec force et détermination. Hammurabi a été honoré au deuxième millénaire av. J.-C. au dessus de tous les autres rois et a été déclaré dieu vivant, d’où son nom commun Hammurabi-ili, qui signifie  » Hammurabi est mon dieu « . Hammurabi est connu pour ses trois contributions exceptionnelles qui ont duré longtemps après sa mort : Il a apporté la victoire dans la guerre, il a développé la justice, et il a établi la paix dans tout l’empire.

Code of Hammurabi (by Larry Koester, CC BY)
La stèle de Hammurabi

http://www.louvre.fr/oeuvre-notices/code-de-hammurabi-roi-de-babylone

Hammourabi, debout à gauche, reçoit l’insigne royal des mains de Marduk/Shamash, dieu de Babylone, en faisant signes de prières.

Relief se trouvant sur la partie supérieure de chaque pilier contenant le code de loi d’Hammourabi dans toutes les villes de son royaume. Conservé au Louvre.

Roi et législateur emblématique de l’une des premières civilisations du monde.

babylone 
la ville de Babylone

La majeure partie du développement de la ville de Babylone s’est faite sous le règne d’Hammourabi. Babylone a été la première ville à avoir 200.000 personnes vivant ensemble en même temps, et tandis que d’autres empereurs ont aidé à construire cette population, la contribution d’Hammurabi a été sans doute la plus grande de toutes. Grâce à ses importants travaux de construction, il a donné à Babylone un nouveau look qui a attiré de nombreuses personnes à s’y installer et à jouir d’un niveau de vie qu’elles n’avaient jamais connu auparavant.

Une grande partie de ce que nous savons de la vie quotidienne des citoyens babyloniens provient de 55 lettres probablement écrites par Hammurabi lui-même. Il y parle des défis qu’il a dû relever pour gouverner l’empire, comme la façon de faire face aux inondations et les précautions à prendre en ce qui concerne le calendrier babylonien.

Le Code de Hammurabi était un ensemble de 282 lois inscrites dans la pierre par le roi de Babylone Hammurabi (r. 1795-1750 av. JC) qui conquit puis régna sur l’ancienne Mésopotamie. Bien que son code de droit n’ait pas été le premier, il était le plus clairement défini et influença les lois de nombreuses autres cultures.

Code d’Ur-Nammu

Law Code of King Ur-Nammu
1901. Code de droit du roi Ur-Nammu Osama Shukir Muhammed Amin (Copyright)

 

Le premier code législatif mésopotamien fut le Code d’Urukagina (ou Uruinimgina vers le 24e siècle av. JC), qui n’existe aujourd’hui qu’en fragments. Le Code d’Ur-Nammu, bien qu’il soit également fragmentaire à l’heure actuelle, reste suffisamment cohérent pour donner une compréhension claire de ce que les lois abordent. Les lois furent écrites en cunéiformes sur des tablettes d’argile et suivent un modèle peut-être établi pour la première fois par le Code d’Urukagina qui influencerait également les lois ultérieures d’Eshnunna (c. 1930 av. JC), le code du roi Lipit-Ishtar (r. c. 1870 – c. 1860 av. JC) et celui de Hammurabi.

Le premier ensemble de lois existant en ancienne Mésopotamie est le Code d’Ur-Nammu (alias Ur-Namma) datant d’environ 2100-2050 avant notre ère et établit dans la ville d’Ur soit par le roi Ur-Nammu (r. 2047-2030 av. JC), soit par son fils Shulgi (r. 2029-1982 av. JC). Ces lois furent rédigées par un roi qui régnait sur une population homogène et se basaient sur une compréhension usuelle de ce que l’on attendait des citoyens. Au moment du règne de Hammurabi, la population était plus diversifiée, et son code de droit reflète cela dans sa précision pour s’assurer que tout le monde comprenait ce qu’on attendait d’eux.

Le code de lois d’Hammourabi, un recueil de 282 règles, a établi des normes pour les interactions commerciales et fixé des amendes et des peines pour répondre aux exigences de la justice. Le code d’Hammourabi a été gravé sur une stèle massive en pierre noire en forme de doigt (pilier) qui a été pillée par des envahisseurs et finalement    redécouverte en ont été exhumés par Gustave Jéquier et Louis-Charles Watelin en décembre 1901 et en janvier          1902 à Suse, ancienne capitale de l’Élam, de nos jours située dans le Sud-Ouest de l’Iran.

L’écriture commence en Égypte avec les hiéroglyphes 5000 Avant JC les premiers hiéroglyphes

 

On a commencé à retrouver des documents où figurent des hiéroglyphes qui ont été datés de 3000 ans avant J-C.

On suppose que l’écriture hiéroglyphique est plus ancienne que cette datation.

Les premiers écrits comportent déjà des retransmissions de langue parlée mais ils abordent aussi de nombreux aspects de la civilisation égyptienne : pharmacologie, actes administratifs, éducation…

Cette écriture n’a pas pu se développer aussi complètement en quelques années… l’origine n’est donc pas encore retrouvée mais certainement plus ancienne.

Hieroglyphes sur une paroi de Nekheb en Egypte .
Ces hiéroglyphes représentent deux jaribus d’Afrique avec un ibis chauve au milieu, et une tête de taureau. Photo © YALE UNIVERSITY

On a déterminé 3 sortes de signes dans les textes anciens :
– les pictogrammes, seuls ou en combinaison pour représenter une chose ou une idée,
– les phonogrammes, qui expriment un son,
– les déterminatifs qui aident le lecteur pour la compréhension du texte, en classifiant les 2 sortes de signes précédentes.

Trois systèmes d’écritures coexistent dans l’Égypte antique :

  • Le plus ancien est celui des hiéroglyphes, apparu presque en même temps que l’écriture cunéiforme à la fin du 4e millénaire. Utilisé jusque dans les premiers siècles de l’ère chrétienne (la dernière inscription datée connue se trouve sur un temps de Philae et remonte à 394 ap. J.-C.), il possède un caractère monumental et sacré, et est souvent utilisé dans la pierre ou des matériaux précieux. Les signes hiéroglypheiques peuvent revêtir plusieurs fonctions : représentation d’une idée (idéogrammes), d’un son (phonogramme) ou d’un élément grammatical (déterminatif).
  • Le hiératique dérive directement du système hiéroglyphique et se développe dès les débuts. Plus simple et plus cursif, il permet une reproduction rapide du texte. C’est l’écriture de l’administration et des transactions commerciales, mais elle sert aussi à noter les textes littéraires, scientifiques et religieux. Réalisé d’abord au pinceau puis beaucoup plus tard à la plume et à l’encre, les signes hiératiques couvrent poteries, tablettes de bois, bandes de cuir ou tissus et surtout papyrus.
    On commence à observer une nette différence, parmi les documents datés d’environ 1000 avant J.-C., entre les textes administratifs et les textes littéraires ou religieux ; dans ces derniers, le hiératique se fige en une écriture appliquée de copistes. C’est d’ailleurs pourquoi les Grecs la qualifient de « hiératique » (de hieros, sacré, sacerdotal) à partir du 7e siècle avant J.-C., en effet, elle n’est plus employée que pour la transcription des textes sacrés.
  • C’est le démotique (écriture « populaire ») qui, à partir du 7e siècle av. J.-C., remplace le hiératique dans les documents de la vie quotidienne (administratifs, juridiques, économiques), puis dans la littérature et les ouvrages scientifiques. Plus cursive et simplifiée, possédant des ligatures, elle se lit elle aussi de droite à gauche. La fameuse Pierre de Rosette, datant du 2e siècle avant J.-C., porte ainsi le même texte en hiéroglyphes, en démotique et en grec.

Profitant de ce que les signes sont de forme et de taille différentes, les uns verticaux, les autres horizontaux, certains petits, d’autres plus grands, le lapicide les groupe de façon harmonieuse. Par exemple, au lieu de graver :

qui est l’ordre de lecture régulière, signe après signe, il gravera :

de façon à éviter tout vide disgracieux. De même, l’écriture hiéroglyphique pouvant être tracée indifféremment en lignes, de gauche à droite ou de droite à gauche, comme en colonnes, de haut en bas et commençant soit par la droite, soit par la gauche, l’artiste en tire parti pour disposer son texte symétriquement par rapport à l’architecture. C’est ainsi qu’une porte sera encadrée d’une inscription linéaire sur le linteau et de textes en colonnes, se faisant face, sur les montants. La direction de la lecture est déterminée par la disposition des signes représentant des êtres animés ; on lira donc en allant à la rencontre des personnages ou des êtres animés.

Ainsi, on lit de gauche à droite la phrase :

mais écrite :

elle se lira de droite à gauche.

L’écriture naît plusieurs fois : elle apparaît presque simultanément en Égypte et en Mésopotamie dans la seconde moitié du 4e millénaire avant J.C.

L’alphabet égyptien

L’alphabet hiéroglyphe écrit sur du papyrus de nos jours

Chaque mot était écrit comme il se prononçait, avec seulement des consonnes. Il n’y avait pas de voyelles.L’écriture hiéroglyphique frappe par son caractère esthétique, peu adapté à l’écriture cursive. Il s’agit d’un système mixte, à la fois idéographique et phonographique, où un signe peut représenter une idée ou un son. Malgré l’utilisation par les scribes de systèmes simplifiés, l’écriture hiéroglyphique s’est maintenue pendant près de trois millénaires et demi sans grands changements.

 

 

 

 

 

Afficher l’image source
Détail hiéroglyphe – Louxor -narvikk -Type de licence :Libre de droits
Les hiéroglyphes sont des caractères utilisés dans n’importe lequel des systèmes d’écriture comportant des caractères pictographiques, c’est-à-dire qui représentent des objets reconnaissables.

Cette écriture est née à la fin du 4ème millénaire avant Jésus-Christ. Elle a ensuite été utilisée pendant plus de 3000 ans, avant de se perdre aux environs du 4ème siècle. Il s’agit d’un alphabet qui utilise en guise de lettres des représentations symboliques datant de l’Egypte antique. Ainsi, figures humaines, dessins d’animaux, images de plantes ou de dieux, etc. , tels seront le type de caractères utilisés dans l’écriture égyptienne.

L’écriture hiéroglyphe comporte 24 signes et fonctionne principalement selon le principe de rébus !

Ainsi il existe trois types de signes :

  • Les idéogrammes : ce sont des « signes-mots » associés aux objets ou aux actions
  • Les phonogrammes : ce sont des signes phonétiques pour indiquer les consonnes.
  • Les déterminatifs : ce sont des signes muets qui servent à faciliter la lecture en indiquant le champ lexical du mot en question. En écriture égyptienne, un seul caractère peut donc avoir plusieurs significations.
Peinture égyptienne antique de main sur le papyrus
Chaque mot était écrit comme il se prononçait, avec seulement des consonnes. Il n’y avait pas de voyelles.

Procession funéraire, art égyptien

Rite funéraire – Egypte ancienne

Crédits : Bridgeman Images

L’esprit du défunt descendant dans sa tombe. Papyrus. Nouvel Empire. Vers 1550-1080. Musée du Louvre, Paris.

Ancient Egyptian writing, Egyptian hieroglyphs.
              Anciens Hiéroglyphes égyptiens – Isis, déesse de la vie et de la magie dans le passage du tombeau de Ramsès VI.
Image illustrative de l’article Écriture hiéroglyphique égyptienne
Hiéroglyphes sur le temple de Kôm 

Le mot «hiéroglyphe» signifie littéralement «sculpture sacrée». Les Égyptiens utilisèrent d’abord les hiéroglyphes exclusivement pour des inscriptions sculptées ou peintes sur les murs des temples.

Formule pour unir l'âme d'un défunt à sa momie; dessin : Catherine Fitzpatrick; MCC S98-3518; PCD 2001-283-010
Formule pour unir l’âme d’un défunt à sa momie; dessin : Catherine Fitzpatrick; MCC S98-3518; PCD 2001-283-010

On retrouve aussi cette écriture picturale sur des tombes, des papyrus, des planches de bois recouvertes de stuc,

des tessons de poteries et des fragments de calcaire

On retrouve aussi cette écriture picturale sur des tombes, des papyrus, des planches de bois recouvertes de stuc,

des tessons de poteries et des fragments de calcaireOmbo.Apparue à la fin du IVe millénaire avant notre ère en Haute-Égypte, l’écriture hiéroglyphique est utilisée jusqu’à l’époque romaine, soit pendant plus de trois mille ans. La connaissance des hiéroglyphes se perd avec la fermeture des lieux de culte dits « païens » par l’empereur Théodose Ier vers 380. Des Européens se sont aventurés dans des tentatives de traduction au début du xixe siècle (Johan David ÅkerbladThomas Young), avec des succès incertains, mais il faudra, après la  découverte de la pierre de Rosette, le génie de Jean-François Champollion pour briser, après quatorze siècles, ce qui paraissait être « un sceau mis sur les lèvres du désert »

Jean-François Champollion
Jean-François Champollion                    C’est dans une lettre du 22 septembre 1822 adressée à Dacier que Champollion décrit le système hiéroglyphique égyptien.                                           Portrait de Jean-François Champollion réalisé en 1831 par Léon Cogniet.   Huile sur toile, musée du Louvre, Paris.

Ce n’est qu’au XIXe siècle que les hiéroglyphes égyptiens furent déchiffrés. Plusieurs personnes tentaient de le faire lorsque Jean-François Champollion, un brillant jeune Français, perça le secret de cette écriture ancienne. Un décret émis à Memphis, en Égypte, le 27 mars 196 av. J.-C. fut inscrit sur la pierre de Rosette en trois écritures : hiéroglyphique, démotique et grecque. Après que Thomas Young eut déchiffré le texte démotique, Champollion put, grâce à cette information, découvrir en 1822 le code du texte hiéroglyphique. En 1828, il publia le célèbre Précis qui marqua la première véritable avancée dans ce domaine.

L ‘écriture égyptienne s’écrit et se lit de droite à gauche ou de gauche à droite et de haut en bas ou de bas en haut. Pour repérer le sens de la lecture, il faut regarder comment sont dessiner les signes.
Afin que les scribes écrivent plus vite les hiéroglyphes, ils adoptèrent l’écriture hiératique, qui se représente par des fragments de hiéroglyphe plus facile à rédiger. Celle ci était utilisée principalement dans l’administration.
Durant la XXVI ème dynastie les pharaons adoptèrent une vaste réforme administrative qui vit l’apparition de l’écriture démotique. Celle ci est une simplification de l’hiératique produit par les scribes qui demandait une écriture encore plus rapide et plus simple. Le démotique s’étendit à toute l’Égypte et l’écriture ne servit qu’aux document religieux.
Nous avons appris à déchiffrer les hiéroglyphes grâce à Champollion qui se servit de la pierre de rosette, sur laquelle était inscrit un texte en trois langues ( hiéroglyphe, démotique et grec ).

Les hiéroglyphes sont disposés en colonnes ou en lignes horizontales. Ils se lisent généralement de droite à gauche — mais parfois de gauche à droite — et de haut en bas. Le lecteur peut déterminer l’orientation en regardant les figures animales et humaines — elles sont tournées vers le début du texte. Exemple : si la figure est tournée vers la droite, il faut lire le texte de droite à gauche.

Seated Figure of Hatshepsut
Hatshepsout
Toutânkhamon

On attribuait aux mots et aux noms écrits en hiéroglyphes des pouvoirs magiques. C’est pour cette raison qu’on inscrivait des textes funéraires et le nom des défunts sur les sarcophages et les murs des tombes. Les dieux exauceraient les prières et les personnes seraient protégées du mal. Le nom écrit en hiéroglyphes exprimait l’identité de la personne. S’il était effacé, l’identité de la personne était perdue, ainsi que tout moyen de survie dans l’au-delà. Les noms de pharaons tels que Toutankhamon et la reine Hatshepsout, par exemple, ont été enlevés des murs des temples par leurs successeurs.

En 1323 av. J.-C., un jeune roi égyptien mourait. Il s’appelait Tout.ankh.Amon — «l’image vivante d’Amon». Toutankhamon est le pharaon de l’Égypte ancienne qui nous est le mieux connu. Il était probablement le fils d’Akhenaton, le roi hérétique de la XVIIIe dynastie. Sa mère était probablement la reine Kiya, une des épouses secondaires du roi.

Hatshepsout est la fille aînée du roi Thoutmosis I et de la reine Ahmès. Elle est née avant l’avènement au trône de son père. Dans le récit de sa jeunesse qu’elle a fait graver sur son temple de Deir el-Bahari, elle entend montrer que Thoutmosis I l’avait préparé très jeune au pouvoir 

La pierre de Rosette

 

 

La pierre de Rosette est décrite comme « une pierre de granite noir, portant trois inscriptions… trouvée à Rosette » (al Rachid’) dans un catalogue des artéfacts découverts par l’expédition française et cédés aux troupes britanniques en 1801.

Pierre de Rosette

 La Pierre de Rosette

La pierre de Rosette est un fragment de stèle gravée de l’Égypte antique portant trois versions d’un même texte qui a permis le déchiffrement des hiéroglyphes au XIXᵉ siècle. L’inscription qu’elle comporte est un décret promulgué à Memphis par le pharaon Ptolémée V en 196 av. J.-C. Lorsque les hommes de Pierre-François Bouchard découvrirent cette stèle qui allait changer le monde le 19 juillet 1799,ils ne procédaient pas à des fouilles archéologiques. En réalité, ils réalisaient des travaux de construction de dernière minute. Les soldats français occupaient un fort délabré à Rosette, en Égypte. Ils n’avaient que quelques jours pour préparer leur défense contre les troupes de l’Empire ottoman. Alors qu’ils démolissaient un mur construit à partir des débris des sites antiques égyptiens des alentours, ils découvrirent un grand morceau de pierre recouvert de trois types d’écritures, notamment du grec ancien. Intrigué, Bouchard se demanda si la pierre racontait la même histoire dans trois langues différentes. Il partagea sa trouvaille à des savants français venus sonder l’Égypte en quête de trésors archéologiques. Cette stèle n’était autre que la pierre de Rosette. Les lettres et les symboles soigneusement inscrits dans sa paroi sombre allaient révéler la gloire des anciennes civilisations égyptiennes. Avant tout néanmoins, les experts devaient réussir à déchiffrer ses secrets. Depuis longtemps, les chercheurs s’interrogeaient sur la signification des inscriptions picturales, appelées hiéroglyphes, gravées dans les stèles égyptiennes. Puisque son contenu était identique dans les trois langues, les experts estimaient que la pierre de Rosette pouvait contribuer à percer ce mystère. Ils s’empressèrent donc de traduire les caractères de la pierre. Bien que de nombreux savants de toute l’Europe participèrent à ce déchiffrage,

les deux contributions les plus importantes furent celles du Britannique Thomas Young et du Français Jean-François Champollion.

Thomas Young (scientist) - Wikipedia
Thomas Young

Thomas Young, un polymathe britannique célèbre pour ses découvertes scientifiques, décida d’aborder ce mystère comme un problème mathématique.
Après avoir traduit le grec ancien, il prit des notes détaillées sur les hiéroglyphes et tenta de faire correspondre systématiquement chacun d’entre eux à sa traduction.
Il compara également les glyphes de la pierre à d’autres, gravés dans des statues. Young réussit à identifier les sons phonétiques correspondant à certains des glyphes, à déchiffrer certains caractères et à comprendre comment se formait le pluriel de certains mots.

 

Jean-François Champollion
Jean-François Champollion

Ce fut toutefois le Français Jean-François Champollion, considéré comme le père de l’égyptologie, qui finit par déchiffrer le code en 1822.
Alors que Young n’avait aucune expérience de la langue égyptienne, Champollion, lui, parlait couramment le copte et avait de vastes connaissances sur l’Égypte. Il comprit que les inscriptions démotiques, le troisième système d’écriture figurant sur la stèle,véhiculaient les syllabes et que les hiéroglyphes représentaient les phonèmes coptes.

Avant que l’alphabet ne soit inventé, des systèmes d’écritures basé sur des symboles pictographiques comme ces nombres utilisés à Babylone ou ces anciens hiéroglyphes (du grec hieron, «sacré» et gluphein, «graver») égyptiens couchés sur un papyrus ou encore sur des tablettes cunéiformes, qu’on produisait en appuyant un stylet dans l’argile douce.
La numération ancienne - Math'Out
tablette -2900 / -2340 (Dynastique archaïque) Lieu de découverte : Girsu = Tello Musée du Louvre
 papyrus de Hunefer le 'Livre des morts égyptien" (Budge édition lithographique)
papyrus de Hunefer le ‘Livre des morts égyptien » (Budge édition lithographique)
Ecriture des Perses, des Mèdes, des Assyriens, combinant des signes en forme de coin et de fer de lance.
L’écriture des nombres en cunéiforme
Table de division et de conversion des fractions, écriture cunéiforme - Creative Commons
Table de division et de conversion des fractions, écriture cunéiforme – Creative Commons
"Tablette
Tablette_dépoque_séleucide_IIIe_siècles_av_J-C

 

Beatus a Liebana , Commentarius in Apocalypsin BNF

Les idéogrammes chinois naissent plus tardivement, aux alentours de 1500 avant J.-C.

En Méso-Amérique, chez les Olmèques, les plus anciens vestiges d’écriture semblent remonter au début du 2e millénaire avant J.-C.

Enfin, dans la vallée de l’Indus, l’écriture est attestée au 2e millénaire sur de nombreux sceaux, sans que les pictogrammes qui la constituent aient pu être déchiffrés. L’aventure des écritures est une aventure sans fin. Ainsi, en Afrique de l’Ouest, le 19e siècle a vu fleurir près de dix nouvelles écritures.

Amérique précolombienne

Les Olmèques sont un ancien peuple précolombien de Mésoamérique s’étant épanoui de 2500 av. J.-C. jusqu’à 500 av. J.-C. sur la côte du golfe du Mexique, dans le bassin de Mexico, et le long de la côte Pacifique (États du Guerrero, Oaxaca et Chiapas). C’est la plus ancienne civilisation connue de Mésoamérique, dont elle est souvent considérée comme la « culture-mère »,

En Méso-Amérique, chez les Olmèques, les plus anciens vestiges d’écriture semblent remonter au début du 2 e millénaire avant J.-C. Enfin, dans la vallée de l’Indus, l’écriture est attestée au 2 e millénaire sur de nombreux sceaux, sans que les pictogrammes qui la constituent aient pu être déchiffrés

Détail de la stèle 1 de La Mojarra avec colonnes de glyphes. Les colonnes de droite sont des glyphes isthmiques. La colonne de gauche représente une date dans le Compte long, daté du 8.5.16.9.9, soit 156 de notre ère.
La statuette de Tuxtla

Le système d’écriture épi-olmèque est connu principalement par deux inscriptions à Veracruz (Mexique): la statuette de Tuxtla et la stèle de La Mojarra, datées respectivement de 163 et 156 après JC. Ces inscriptions contiennent du matériel historique et astronomique.

La statuette de Tuxtla porte 75 glyphes gravés de l’écriture épi-olmèque, un des quelques exemples de ce très ancien système d’écriture mésoaméricain.

Afficher l’image source
L’écriture Epi-Olmec : L’alphabet – De l’Aleph à l’@ – L’écriture Epi-Olmec : L’alphabet – Mouhib Fouad

L’écriture épi-olmèque, ou écriture isthmique, est un système d’écriture mésoaméricain en usage dans la région de l’isthme de Tehuantepec entre environ −500 et +500 (il y a toutefois des désaccords au sujet de ces dates). Elle est parvenue jusqu’à nous grâce aux inscriptions gravées dans des sculptures en pierre. Sa structure est similaire à celle des langues mayas et elle utilise aussi un ensemble de caractères pour représenter les logogrammes (ou unités de mots) et un second ensemble pour représenter les syllabes. Elle n’est pas encore déchiffrée et la langue sous-jacente n’a pas pu non plus être déterminée de manière fiable.

Première écritures en Crète (et en Grèce)

4000 ans Avant JC premières écriture crétoise

C’est à cette époque que se développe l’écriture en Crète et probablement en Grèce continentale. C’est particulièrement dans l’ancienne cité de Knossos que des inscriptions sur des tablettes d’argile ou gravées dans la pierre ont été retrouvées en 1900. On dénombre 3 sortes d’écriture :
– le linéaire B, le plus ancien (- 2000 ans avant J-C) est composé de 200 signes syllabaires (formés de syllabes). On suppose qu’il traduit une forme ancienne du grec. L’écriture a été déchiffrée en 1952.
– le linéaire A, ( – 1750 à – 1450 ans avant J-C) formé de signes stylisés dont la signification n’a pas pu encore être retrouvée.
– le disque de Phaïstos (- 700 ans avant J-C) qui présente sur ses 2 faces 45 signes figuratifs. C’est un unicum, c’est-à-dire que cette écriture a seulement été retrouvée sur ce disque.

Elle reste incompréhensible et sa véracité a souvent été mise en doute.

Linéaire B
Linéaire B – Crête
Disque Phaistos
Disque Phaistos – Crète Unicum – non déchiffré à ce jour
Linéaire A
Linéaire A – Crête – non déchiffré à ce jour.

La Chine : premiers écrits

3200 Avant JC les premiers textes déchiffrables

Idéogrammes chinois
Inscriptions oraculaires Chine, 3 200 Avant J-C ? Fragments de carapace de tortue. Paris, BnF, manuscrits orientaux

L’écriture chinoise est la seule à avoir connu une véritable continuité depuis plus de 3 000 ans. Les premiers caractères étaient des textes oraculaires gravés sur des carapaces de tortues ou des omoplates de bovidés. S’ils sont pour la plupart illisibles pour le Chinois du XXIème siècle, les caractères actuels ayant acquis leur forme définitive il y a environ 2000 ans, ils n’en sont pas moins les ancêtres directs de l’écriture moderne, écriture qu’adoptèrent successivement la Corée, le Vietnam et le Japon au cours des premiers siècles de l’ère chrétienne.

A l’image du système de numération indo-arabe ou des pictogrammes modernes, les caractères chinois véhiculent un sens indépendamment de la langue parlée par l’utilisateur. Ils ont ainsi été le véhicule de la philosophie (confucianisme), de la religion (bouddhisme), de l’art de la calligraphie et de beaucoup d’autres choses dans ces différents pays. Notons que les Chinois ont été précurseurs dans tout ce qui se rapporte à l’écriture : ils ont entre autres inventé le papier (support de l’écriture depuis deux mille ans) et l’imprimerie (xylographie à partir du VIIème siècle, caractères mobiles au XIème siècle, environ quatre cents ans avant Gutenberg).

 

Ideogrammes chinois
Idéogrammes chinois – Recueil de frottis d’inscriptions sur bronze 2 600 Avant JC .
ideogrammes chinois
Idéogrammes chinois Vestiges Yin Dynastie des Shang 3700 – 3100 Avant J-C

Les caractères chinois, ou sinogrammes, sont traditionnellement classés en quatre catégories principales :

  • Les pictogrammes, dessins plus ou moins stylisés d’objets ou d’êtres vivants (soleil, montagne, arbre, homme, poisson…). Ce sont les « briques élémentaires » de l’écriture chinoise. On en compte environ deux cents.

Les idéogrammes simples, tantôt tracés abstraits ou géométriques désignant des chiffres ou des formes, tantôt pictogrammes auxquels un trait est rajouté afin de désigner une partie de l’objet (un trait au bas de l’arbre = racine).

Les idéogrammes composés, associations de deux, voire trois pictogrammes, créés pour désigner des concepts abstraits (soleil + lune = clarté, homme + arbre = repos, oiseau + arbre = se rassembler, femme + enfant = aimer…).

Les idéo-phonogrammes, associations d’un pictogramme, donnant une indication sur le champ sémantique du caractère (rapport avec l’eau, le feu, l’arbre, la femme, etc.) et d’un élément à valeur phonétique. Ils constituent à peu près les trois quarts de langue courante.Si l’on recense plus de quarante mille caractères différents, quatre à cinq mille « suffisent » à former les quelques dizaines de milliers de mots composés (le plus souvent de deux caractères) de la langue moderne. Précisons enfin que l’écriture chinoise a connu une simplification partielle dans les années 60 en Chine continentale (on parle de caractères « simplifiés »), alors que Taïwan et Hongkong sont restés fidèles à l’écriture traditionnelle.

 

  • Afficher l’image source

 

 

Evolution du pictogramme oiseau dans l’écriture chinoise.
1 : Inscription oraculaire (XIIIe siècle av. J.-C.)
2 : Inscription sur bronze (XIe siècle av. J.-C.)
3 : Petite sygillaire (IIIe siècle av. J.-C.)
4 : Ecriture « moderne » (à partir du IIe siècle après J.-C.)
5 : Ecriture simplifiée (à partir de 1964).

Article La Chine, premiers écrits
Philippe Che, Maître de conférences, Aix-Marseille Université, spécialiste de la Chine ancienne.

Les « écrits sur soie », boshu, dès le IVe siècle avant notre ère,  les plus anciens retrouvés jusqu’ici proviennent d’une sépulture datée de 168 avant J.-C. à l’évidence, la présentation du texte, copié de droite à gauche en longues colonnes sur des pièces de soie rectangulaires, s’inspirait alors des « livres de bambou », jianshu, qui eurent cours en Chine dès les temps les plus anciens, et dont les plus vieux spécimens retrouvés remontent à l’époque des Royaumes combattants (Ve-IIIe siècle avant notre ère).

L’Inde

La civilisation védique ne s’est pas éteinte. En se perpétuant sous certains aspects, elle s’est transformée en la civilisation indienne classique dans le courant de la seconde moitié du 1er millénaire av. J.-C. D’un côté elle a gardé le goût de l’oralité et en a maintenu la pratique. De l’autre, elle a accepté d’importantes innovations, comme l’usage de l’écriture. L’archéologie, en effet, nous le révèle sous la forme d’inscriptions sur pierre datées avec certitude du 3e siècle av. J.-C. et contenant des édits que l’empereur Ashoka fit graver dans toutes les parties de son vaste empire étendu de l’Afghanistan au Karnataka

Recueil de brefs textes bouddhiquesL’origine de la brâhmî est un sujet de controverse depuis plus d’un siècle. La comparaison avec des écritures sémitiques fait en effet apparaître des ressemblances entre des signes, mais les signes se ressemblant ne représentent pas les mêmes sons. Il est donc peu probable que la brâhmî ait été une adaptation d’une écriture phénicienne ou araméenne. D’autre part, elle possède des traits originaux fondamentaux, comme la lecture de gauche à droite et la notation des voyelles. Il est donc fort possible que ce soit une création indienne, faite à l’époque où un pouvoir puissant avait décidé d’adopter l’usage de l’écriture.

La devanagari, du sanskrit देवनागरी (devanāgarī), est une écriture alphasyllabaire utilisée pour le sanskrit, le prâkrit, le hindi, le népalais, le marathi et plusieurs autres langues indiennes. C’est une des écritures les plus employées en Inde du Nord et au Népal.

 

Image illustrative de l’article Devanagari
Manuscrit du Rig-Veda en devanagari (début du xixe siècle).
Kammavaca
Kammavaca. L’écriture birmane est reconnaissable à la rondeur épanouie de ses bouclesL’emploi de l’écriture en Inde (exception faite de l’écriture de l’Indus au 3e millénaire) n’est attesté que de manière tardive, au 3e siècle av. J.-C. 

Il s’inscrit dans un contexte religieux où la parole est fortement valorisée, mais qui n’exclut pas pour autant la performance calligraphique. La fidélité de cette écriture envers la parole la rapprocherait de l’alphabet grec. Elle s’en distingue pourtant par son souci de réalisme phonétique et son insistance sur le syllabisme. Là où les Grecs arrivent à une décomposition « atomique » de la langue en consonnes et voyelles, les Indiens distinguent eux aussi voyelles et consonnes, mais ils considèrent le plus souvent la consonne avec une vocalisation, l’unité de base étant la syllabe.

Comme la quasi-totalité des écritures indiennes, la devanagari descend de l’écriture brahmi4,note 1, plus précisément de l’écriture gupta.

On retrace les origines de la devanagari autour du xiie siècle, vraisemblablement comme une modification du siddham. Elle remplaça peu à peu l’écriture sharda dans une grande partie du nord de l’Inde.

Antique Livre d'Ordination Kammavaca de Birmanie - Photo 1/10

La devanagari est maintenant l’une des écritures les plus employées de l’Inde, étant majoritairement utilisée pour écrire le hindi, langue de loin la plus parlée en Inde6. Le hindi écrit en devanagari est également une langue officielle de l’Inde7, il en est de même pour le népalais écrit en devanagari, « langue de la nation » du Népal. Cette écriture sert aussi à écrire entre autres le marâthî et le sindhi. Traditionnellement, dans le nord de l’Inde, c’est avec elle qu’on écrivait le sanskrit4.

Des langues moins parlées utilisent également cette écriture : le bihari, le bhili, le konkani, le bhodjpuri, le nepalbhasa. Il arrive que le cachemiri fasse également usage de la devanagari, bien qu’il utilise principalement l’alphabet arabe sous une forme modifiée.

kammavacca-manuscrits-yadanazedi-inscription

L’écriture brâhmî comporte dès ses origines une série de signes distincts de ceux des lettres pour la représentation des chiffres. Au début, on a autant de signes qu’il y a de noms de nombres simples dans la langue sanscrite et ses parentes, c’est-à-dire les nombres de un à dix, cent, mille.

Dhammapada
Dhammapada | © Bibliothèque nationale de France

 

 

 

 

 

 

 

 

Naissances des alphabets

Mont Sinaï, Péninsule Du Sinaï, Egypte Photo stock - Image du contraste ...
Mont Sinaï, Péninsule Du Sinaï,
Afficher l’image source
Sarabit al-Khadim

C’est dans un temple situé dans la péninsule du Sinaï, à Sarabit al-Khadim, qu’ont été découverts, en 1905, les premiers textes utilisant un alphabet.
Sur ce site, proche de mines produisant des quantités importantes de turquoises, cohabitaient des expéditions d’égyptiens et des ouvriers migrants venant de Canaan.
Aux environs de 1850 av. JC, Cette cohabitation prolongée a incité certains migrants à
copier l’écriture des Égyptiens mais en l’adaptant à leur propre langue.

C’est une statuette sur laquelle figuraient à la fois un texte en égyptien et un autre écrit par les Cananéens en n utilisant un alphabet qui a permis de déchiffrer la signification de ces premiers textes.

L’inscription égyptienne représente la déesse Hathor, mais celle située au dessous invoque
une déesse citée dans la bible, équivalente pour les Cananéens: Balaat. Ce nom Balaat est écrit avec quatre caractères commençant par un rectangle qui s’inspire directement du hiéroglyphe égyptien de la maison. La maison se dit Baïat en Cananéen mais seule la première partie du son est conservée, ainsi, le rectangle symbolisera le son BA
L’alphabet était né: le principe du rébus est appliqué mais d’une nouvelle manière: on n’utilise plus le son du mot en entier mais seulement le son du début du mot. Grâce à cette invention immense et fantastique il suffit de 25 à 30 images pour tout écrire parce que l’on peut reproduire ainsi tous les sons élémentaires dont on a besoin pour s’exprimer dans une langue.

De retour sur leurs terres, les Cananéens ont rapporté leur invention vite reprise par leurs voisins phéniciens. Ces commerçants et marins diffusent l’alphabet à travers le moyen
orient et en méditerranée où il fut adopté par les grecs puis les romains.

documentaire diffusé sur Arte, consultable à: https://www.arte.tv/fr/videos/RC-020387/l-odyssee-de-l-ecriture/

 

Abécédaire d’Ougarit 3300 BP Abécédaire de 30 lettres d’une écriture cunéiforme. Retrouvé sur le site de l’ancienne cité d’Ougarit (devenue Ras Chamra en Syrie)

Ougarit, ancienne ville de la côte phénicienne. Civilisation ougaritique; cunéiforme, écriture, langue ougaritique. Dans les textes ougaritiques, Môt apparaît comme le dieu de la sécheresse, de la famine et de l’autre monde; il est l’adversaire de Baal, le dieu fécondant auquel il dispute la souveraineté (J. Deshayes,Les Civilisations de l’Orient anc.,Paris, Arthaud, 1969, p.580).

Afficher l’image source
Tablette poème mythologique en langue Ougaritique, Musée du Louvre, Pais, France
Image result for Alphabet ougaritique
L’ ougaritique est une langue chamito-sémitique éteinte de type cananéen, appartenant au groupe nord-ouest des langues sémitiques, parlée dans la ville d’ Ougarit à l’ âge du bronze récent ( XVe – XIIe siècles av. J.-C. ). Elle était écrite avec l’ alphabet ougaritique, un alphabet consonantique cunéiforme .

Parce que ces méthodes exigeaient l’utilisation d’une pléthore de symboles, l’écriture était complexe et s’est limité à un petit groupe de scribes hautement qualifiés. Pendant le deuxième millénaire av. J.-C (évalué entre 1850 et 1700 av. J.-C), Un groupe des gens(du peuple) utilisant un parler Sémitique a adapté un sous-ensemble de hiéroglyphes égyptiens pour représenter les sons de leur langue. On considère souvent ce scénario comme Proto-Sinaitic et comme le premier système d’écriture alphabétique, où des symboles uniques ont signifié des consonnes seules (simples) (les voyelles sont omises). Écrit de droite à gauche et étendu par les marchands maritimes Phéniciens qui ont occupé la partie du Liban moderne, la Syrie et Israël, cet alphabet consonantique connu comme un alphabet abjad est consisté de 22 symboles assez simples pour des commerçants ordinaires pour apprendre et dessiner (compter), rendant son utilisation beaucoup plus accessible et d’où sa propension à se répandre. Au 8ème siècle av. J.-C, l’alphabet Phénicien s’était répandu en Grèce, où il a été affiné (raffiné) et amélioré(augmenté) pour enregistrer la langue grecque. Quelques caractères Phéniciens ont été gardés et d’autres ont été enlevés, mais l’innovation primordiale était l’utilisation de lettres pour représenter des voyelles. Beaucoup d’érudits croient que c’était ce complément – qui a permis au texte d’être lu et prononcé sans ambiguïté – et qui aurait marqué la création du premier « vrai » alphabet. La langue grecque était à l’origine écrite de droite à gauche, mais s’est muée finalement en boustrophedon (Une écriture boustrophédon est un système d’écriture qui change alternativement le sens du tracé ligne après ligne, à la manière du bœuf marquant les sillons dans un champ, allant de droite à gauche puis de gauche à droite.) – où donc la direction d’écrire alterne avec chaque ligne. Au 5ème siècle av. J.-C, la direction s’était installée dans le modèle que nous utilisons aujourd’hui, de droite de sommet à gauche. Au fil du temps, l’alphabet grec a donné naissance plusieurs autres alphabets, y compris le latin.

Alphabet

Les Grecs reconnaissaient avoir appris l’alphabet des Phéniciens. Mais les Phéniciens eux-mêmes, comment et quand sont-ils parvenus à réaliser cette fabuleuse invention ?

Des tablettes d’Ougarit aux inscriptions retrouvées dans les anciennes mines de turquoises du Sinaï, voici les étapes de cette révolution.

L’écriture* alphabétique* nous apparaît comme un système simple et évident.  C’est le premier apprentissage que fait un enfant à l’école. On dit, pour évoquer les éléments fondamentaux et en même temps les plus simples de telle ou telle matière, qu’ils en constituent le « b-a-ba ».

On parle même d’alphabétisation à propos de pays dont l’écriture n’est pas alphabétique, comme la Chine. Pourtant, plus d’un millénaire et demi séparela première apparition de l’écriture, en Mésopotamie et en Égypte, de l’invention de l’alphabet.

Et celle-ci représente une véritable révolution intellectuelle.

Alphabet phénicien
L’arbre des alphabets, 2013. Arch. dép. Alpes-Maritimes, 6 Fi 3423. © Association Alphabets

Le premier alphabet consonantique à se répandre est l’alphabet phénicien. Contrairement à d’autres systèmes d’écritures contemporains, tels que l’écriture cunéiforme et l’écriture hiéroglyphique égyptienne, l’alphabet phénicien ne possède pas de logogrammes, seulement 22 phonogrammes, ce qui rendait si aisée son étude que les marchands phéniciens l’ont largement diffusé.

Cet alphabet consonantique était une simplification drastique du système d’écriture phonétique égyptien, où les mots étrangers étaient écrits en associant à chaque syllabe un hiéroglyphe (pas toujours le même) dont le son initial se rapprochait de la syllabe voulue. L’innovation est de toujours prendre les mêmes logogrammes pour désigner un ensemble réduit de sons : les logogrammes choisis deviennent un alphabet.

 

Obélisque phénicien de Chypre
Obélisque phénicien de Chypre Oussama Shukir Muhammed Amin (Droits d’auteur)
Alphabet phénicien
Alphabet phénicien

Le phénicien est une langue cananéenne étroitement liée à l’hébreu. On sait très peu de choses sur la langue cananéenne, à l’exception de ce qui peut être recueilli dans les lettres d’El-Amarna écrites par les rois cananéens aux pharaons Amenhopis III (1402 – 1364 avant notre ère) et Akhenaton (1364 – 1347 avant notre ère). Il semble que la langue, la culture et l’écriture phéniciennes aient été fortement influencées par l’Égypte (qui a longtemps contrôlé la Phénicie ), comme l’admet le roi Rib-Adda de Byblos dans une de ses lettres au pharaon .

Avant environ 1000 avant notre ère, le phénicien était écrit en utilisant des symboles cunéiformes qui étaient communs à travers la Mésopotamie . Les premiers signes de l’ alphabet phénicien trouvés à Byblos sont clairement dérivés des hiéroglyphes égyptiens , et non du cunéiforme. Les 22 lettres phéniciennes sont des simplifications des symboles hiéroglyphiques égyptiens, qui ont pris une forme standardisée à la fin du XIIe siècle avant notre ère. Comme l’hébreu et l’arabe, le phénicien était écrit de droite à gauche et les voyelles étaient omises (ce qui rend le déchiffrement du phénicien encore plus difficile).

Le système d’écriture phénicien est, du fait qu’il s’agit d’un alphabet, simple et facile à apprendre, et aussi très adaptable à d’autres langues, contrairement au cunéiforme ou aux hiéroglyphes. Au 9ème siècle avant notre ère, les Araméens avaient adopté l’alphabet phénicien, ajouté des symboles pour le « aleph » initial et pour les voyelles longues. Cet alphabet araméen s’est finalement transformé en arabe moderne.

Finalement, les Grecs, qui étaient en contact commercial étroit avec le Levant , ont adopté l’alphabet phénicien, ont ajouté des sons de voyelle et ont ainsi créé l’ alphabet grec .(sur lequel notre alphabet latin moderne est basé).

ARAMÉENS

On groupe, sous le nom d’Araméens,Afficher l’image source une confédération de tribus qui parlaient un langage nord-sémitique et qui, entre le XIe et le VIIIe siècle avant J.-C., occupèrent le pays d’Aram, région englobant des territoires assez étendus au nord de la Syrie. À la même époque, certaines de ces tribus, émigrant vers l’est et le sud-est, s’emparèrent de vastes territoires qui appartenaient à la Mésopotamie.

Les sources qui permettent de reconstituer l’histoire et la langue des Araméens sont de trois sortes : inscriptions archaïques trouvées au nord de la Syrie et qui remontent au XIe et au Xe siècle avant J.-C. ; mentions qui existent dans les chroniques assyriennes de la même époque ; mentions que l’on trouve dans l’Ancien Testament.

Langue impériale à l’époque perse, langue parlée par le Christ et ses premiers disciples, l’araméen joua longtemps un rôle de premier plan.

L’alphabet araméen est un ancien alphabet consonantique.

Un alphabet consonantique, aussi appelé abjad, est un alphabet dont les graphèmes (unités de base) sont des consonnes. Les voyelles dans un alphabet consonantique sont implicitement dictées par la phonologie : le lecteur doit connaître la langue pour en rétablir toutes les voyelles.

Les alphabets consonantiques modernes, comme l’alphabet hébraïquearabe ou syriaque, descendent tous de l’alphabet phénicien ou araméen, eux-mêmes des descendants de l’alphabet protosinaïtique.

Cet alphabet est historiquement important car quasiment tous les alphabets moyen-orientaux modernes en descendent, ainsi que de nombreuses écritures non chinoises d’Asie du Centre et de l’Est, du fait de l’usage répandu de l’araméen comme langue véhiculaire et langue officielle de l’Empire néo-assyrien et de l’Empire achéménide. Parmi les écritures contemporaines, l’alphabet hébreu est le plus proche de l’alphabet araméen impérial du ve siècle av. J.-C., comportant les mêmes lettres et, pour la majeure partie, des formes identiques.

araméen ancien | rocbo : Typographie, L'ecriture, le ...L’alphabet araméen a été tiré du système phénicien par les scribes du royaume de Damas au IXe siècle avant J.-C. Sa forme cursive, plus pratique que celle du phénicien et répandue par les déportés araméens, connaîtra une singulière diffusion en Asie. Adopté par les rois d’Assyrie (VIIIe s.), il sert parallèlement aux cunéiformes, qu’il supplante sous l’empire achéménide (VIeIVe s.) dont l’administration utilisera surtout l’écriture et la langue araméennes. À côté de cet alphabet officiel, le triomphe des dialectes araméens sur les autres langues sémitiques entraîne la création d’écritures locales. En Palestine, l’hébreu carré (IIIe s. av. J.-C.) transcrit l’araméen parlé par les Juifs après l’exil, puis les textes sacrés dans la langue hébraïque.

Différentes représentations de Sémites à travers l'art.
Différentes représentations de Sémites à travers l’art.

L’adjectif « sémitique » a été forgé par l’orientaliste allemand A. L. Schlözel dans le tome VIII (1781) du Repertorium für biblische und morgenländische Literatur de J. G. Eichhorn, pour désigner des langues dont la parenté était perçue dès le Moyen Âgepar les docteurs juifs : l’hébreu, l’araméen et l’arabe. L’appellation était choisie par référence au « tableau des peuples » de la Genèse (X) où Sem, fils de Noé, est donné comme le père d’Abram et l’ascendant d’Eber, éponyme des Hébreux, ainsi que de Yoqtan, ancêtre de diverses populations d’Arabie.

Cela est purement conventionnel, puisque le texte biblique range parmi les descendants de Sem les Élamites et les Lydiens, dont les langues n’étaient pas sémitiques, et, en revanche, fait des Cananéens des enfants de Cham, alors même que l’hébreu est défini ailleurs (Isaïe, XIX, 18) comme la « langue de Canaan ». Néanmoins, l’usage s’en est universellement répandu et le terme « Sémites » a été appliqué à tous les peuples parlant ou ayant parlé des langues sémitiques, peuples qui ont joué un grand rôle dans le Proche-Orient asiatique dès l’aube de l’histoire et auxquels le monde actuel est redevable de l’écriture alphabétique et des trois grandes religions monothéistes : le judaïsme, le christianisme et l’islam. Le critère linguistique est le seul qui permette de définir avec certitude une famille sémitique et de postuler une unité préhistorique des Sémites.

L’hypothèse d’une origine commune des peuples sémitiques est d’autant plus vraisemblable qu’à la différence des Indo-Européens ou des Ouraliens ils ont occupé une aire continue et bien délimitée comprenant la péninsule arabique, la steppe syro-arabe et ce que l’égyptologue américain J. H. Breasted a appelé le « Croissant fertile », à savoir la côte orientale de la Méditerranée depuis le Sinaï jusqu’au Taurus, la Syrie du Nord et la Mésopotamie.

Le nabatéen, créé chez une tribu arabe au sud-est de la mer Morte pour écrire l’araméen (IIe s. av. J.-C.), est, après la chute du royaume local (106 apr. J.-C.), employé pour transcrire un parler arabe. Peu à peu transformé, il devient l’écriture arabe (VIe s. apr. J.-C.), qui n’évoluera plus beaucoup. Le mandéen, employé dès le VIIe siècle après J.-C. par une secte de Basse-Mésopotamie, a ajouté, sous l’influence du grec, une transcription commode des voyelles aux lettres araméennes. Le palmyrénien, tiré de l’araméen au Ier siècle avant J.-C. pour la cité caravanière de Palmyre, est à son tour à l’origine des écritures syriaques, qui transcrivent les parlers araméens de Haute-Mésopotamie à partir du Ier siècle de notre ère.

Les Nabatéens subissent très tôt l’influence culturelle étrangère, notamment araméenne. La langue araméenne continue à être utilisée sur leurs monnaies et leurs inscriptions lorsque la tribu se constitue en royaume, qui profite de l’affaiblissement des Séleucides pour étendre son territoire vers le Nord, sur les terres fertiles de l’Est de la Jordanie. C’est en caractères syriaques, un dialecte de l’araméen, que les Nabatéens écrivent une lettre à Antigone II Mattathiah (mort vers 37 av. J.-C.).

Vers le ive siècle avant notre ère, les Nabatéens supplantent les Iduméens, et Pétra remplace Bosra, la capitale des Iduméens (Bseira, entre Tafileh et Chôbak).

Afficher l’image sourceLes Nabatéens (en arabe : الأنباط al-Anbɑːṭ ou

النبطيون) Vue d’ensemble imageétaient un peuple arabe

commerçant de l’Antiquité qui vivait au

sud de la Jordanie et de Canaan

ainsi que dans le nord de l’Arabie.

Après la chute de l’Empire séleucide,

ils étendirent leur territoire vers le nord

jusqu’à la région de Damas.

 

On estime que les Nabatéens sont venus occuper le site de Pétra

dès le Ier millénaire avant notre ère.

Ils occupent et aménagent les hauteurs d’Umm el-Biyara, où l’on a retrouvé des vestiges d’habitations et

de citernes datés du viie siècle av. J.-C. Ils produisent des textiles et des céramiques de qualité et

possèdent une certaine maîtrise dans le travail des métaux.

 

 

Poème mythologique du cycle de Ba'al, Ba'al et la Mort. XIVe siècle av. J.-C. Musée du Louvre.
Poème mythologique du cycle de Ba’al, Ba’al et la Mort. xive siècle av. J.-C. Musée du Louvre.

Ougarit (ou Ugarit) est une ancienne cité du Proche-Orient, située dans l’actuelle Ras Shamra (initialement nommée Ras ech-Chamra, « cap du fenouil »), à onze kilomètres au nord de Lattaquié, en Syrie. Cette capitale de l’ancien royaume homonyme était au débouché d’une route qui joignait la mer Méditerranée au bassin mésopotamien, entre l’Empire hittite au nord et la sphère d’influence égyptienne au sud. Sans doute en activité dès 6000 AA et disparue vers 3200 AA, elle connait son apogée au tournant du IIe millénaire av. J.-C.

Afficher l’image source
hiéroglyphes hittites

Ville commerciale par excellence, Ougarit est de ce fait une place très cosmopolite. Cela se retrouve dans le fait qu’on y a trouvé des documents dans huit langues et quatre écritures différentes.

Afficher l’image source
neo-hittite

On est ainsi en présence de l’ougaritique, noté en alphabet ougaritique, cunéiforme, de l’akkadien, du sumérien, du hittite et du hourrite, écrits en cunéiformes traditionnel, de l’égyptien, en hiéroglyphes, du chypro-minoen, écrit dans son propre syllabaire, et du louvite, en hiéroglyphes hittites.

 

 

un prêtre samaritain présentant un ancien rouleau de leur Pentateuque. Ancienne photo datant du début du XXe siècle. © DR.

Les Samaritains sont un peuple mentionné dans les Écritures, aussi bien dans l’Ancien Testament (2 Rois 17,29, etc.)

 alphabet Samaritain
alphabet Samaritain     Source: http://culmus.sourceforge.net/ancient/Samples/Hebrew-Samaritan.pdf

que dans les Évangiles (Jean 4,9, etc.). Ils forment, aujourd’hui, avec moins d’un millier de personnes

l’une des plus petites communautés ethnique et religieuse au monde. Installés dans la région de Naplouse,

ces descendants de certaines tribus d’Israël, tentent de préserver leur identité dans un Proche Orient complexe.

L’alphabet samaritain est l’alphabet utilisé par les Samaritains pour écrire les langues hébraïque,

araméenne samaritaine (ou hébreu samaritain) et arabe.

Bien que très souvent désigné comme un alphabet, c’est en fait un abjad, terme décrivant un système d’écriture

ne notant que les consonnes de la langue (ou peu s’en faut), à la manière de l’écriture d’autres langues sémitiques.

Il comprend 22 signes qui ne notent que les consonnes.

Chaque signe, en plus de sa valeur phonétique, a aussi une valeur numérique. L’écriture va de droite à gauche.

L’alphabet samaritain est une variante de l’alphabet paléo-hébraïque, lui-même un proche dérivé

de l’alphabet phénicien.

L’ancien alphabet hébreu a été abandonné par les juifs dans la seconde moitié du Ier millénaire av. J.-C., et remplacé

par l’actuel alphabet hébreu, mais il a été conservé par les samaritains.

Tablette ougaritique du XIV siècle (Louvre)

Le phénicien est une langue cananéenne étroitement liée à l’hébreu. On sait très peu de choses sur la langue cananéenne, à l’exception de ce qui peut être recueilli dans les lettres d’El-Amarna écrites par les rois cananéens aux pharaons Amenhopis III (1402 – 1364 avant notre ère) et Akhenaton (1364 – 1347 avant notre ère). Il semble que la langue, la culture et l’écriture phéniciennes aient été fortement influencées par l’Égypte (qui a longtemps contrôlé la Phénicie ), comme l’admet le roi Rib-Adda de Byblos dans une de ses lettres au pharaon .

Sample text - Article 1 of the Universal Declaration of Human Rights in Samaritan
Traduction:  Tous les êtres humains naissent libres et égaux en dignité et en droits. Ils sont doués de raison et de conscience et doivent agir les uns envers les autres dans un esprit de fraternité (hem, on dirait bien l’article 1 de la Déclaration Universelle des Droits de l’Homme!)
Sample text in the Samaritan alphabet
Échantillon de texte en Samaritain

Abjads / alphabets consonantiques

Liste des principaux alphabets consonantiques

En usage de nos jours

Image illustrative de l’article Alphabet araméen
inscription bilingue en grec et araméen à Kandahar, en Afghanistan, sous le règne de l’empereur Maurya Ashoka (IIIe siècle av. J.-C.).
    • alphabet arabe
    • alphabet hébreu
    • alphabet maldivien (toujours vocalisé, n’est cependant pas un alphasyllabaire comme il n’a pas de voyelle inhérente)
    • alphabet samaritain (seulement employé pour les textes religieux)
    • alphabet syriaque
    • alphabet tifinaghLe tifinagh (en néo-tifinagh : ⵜⵉⴼⵉⵏⴰⵖ ; en tifinagh traditionnel : ⵜⴼⵏⵗ ; en alphabet berbère latin : tifinaɣ), est l’écriture utilisée par les Berbères pour écrire leur langue, le tamazight. Elle est dérivée des écritures originelles des langues berbères , le libyque initialement désigné sous le terme de numidique — tombée en désuétude pour les langues berbères du Nord dès l’Antiquité — probablement par le biais du tifinagh ancien du Sahara, dont il garde les caractéristiques morphosyntaxiques2. Au cours des siècles, l’aire linguistique touarègue (Sahara algérien, libyen, malien et nigérien) est la seule à avoir conservé ce système de codification.Le tifinagh fait l’objet d’un intérêt particulier pour donner une codification autochtone aux langues berbères du Nord au xxe siècle. Mohand Amokrane Khelifati fait une première tentative de codification du kabyle en tifinagh dans les années 1930. Plus tard, il est adapté et réintroduit par le travail des militants berbéristes de l’Académie berbère comme option d’authenticité de la pérennisation des langues berbères à l’écrit. C’est la naissance du Néo-Tifinagh. Cet alphabet modernisé est employé depuis les années 1970 par les sphères militantes berbéristes. Les travaux de standardisation sont repris, au Maroc, par l’IRCAM qui publie sa version du Néo-Tifinagh en 2001 basé sur les travaux du linguiste Salem Chaker. Pour accompagner l’officialisation des langues berbères, le Néo-Tifinagh IRCAM devient l’alphabet de l’amazighe standard marocain. L’attachement au tifinagh tant dans la sphère touarègue que dans les milieux militants le popularise, mais il se heurte à la concurrence d’autres alphabets, arabe et latin, ainsi qu’à la question de sa propre académisation, autour de ses variantes anciennes ou modernes. C’est ainsi que, paradoxalement, certaines initiatives conduisent à introduire les neo-tifinagh kabyles comme solution moderne chez les Touaregs.

      Liste des principaux alphabets consonantiques

      Plus en usage

      Abjads ou alphabets consonantiques 

      Ces alphabets ne représentent que les consonnes seulement, ou les consonnes plus quelques voyelles

      avec parfois une indication de voyelle complète ( vocalisation ) qui peut être ajoutée généralement au moyen d’ diacritiques ,

      mais cela ne fait habituellement . La plupart des alphabets abjads , à l’exception de l’ougaritique , s’écrivent de droite à gauche .

      Afficher l’image source

 

Alphabets abjad encore utilisés:

Eshmunazor II, roi deSidon (ve siècle) 
Détail du sarcophage d’Eshmunazor II, roi deSidon (ve siècle) ; son couvercle porte la plus longue inscription phénicienne d’époque perse connue.

Le abjad d’aujourd’hui sont les écritures arabes et juifs; alphabets au lieu vrai comprennent le
latin, cyrillique et l ‘Hangul coréen; et abugida sont utilisés pour écrire tigrinya, l ‘amharique, l ‘hindi et l ‘alphabet thaï.

Un alphabet consonantique, aussi appelé abjad, est un alphabet dont les graphèmes (unités de base) sont des consonnes. Les voyelles dans un alphabet consonantique sont implicitement dictées par la phonologie : le lecteur doit connaître la langue pour en rétablir toutes les voyelles.

Les alphabets consonantiques modernes, comme l’alphabet hébraïquearabe ou syriaque, descendent tous de l’alphabet phénicien ou araméen, eux-mêmes des descendants de l’alphabet protosinaïtique.

Tous les alphabets consonantiques connus s’écrivent de droite à gauche, à l’exception de l’alphabet ougaritique, qui s’écrit de gauche à droite. Cependant, certains alphabets consonantiques anciens comme le phénicien ou le protosinaïtique pouvaient s’écrire en boustrophédon.

Dans les langues sémitiques, on utilise un alphabet consonantique où les voyelles longues sont notées à l’aide des matres lectionis, mais pas les voyelles courtes. Bien qu’il existe des signes diacritiques qui notent les voyelles courtes — comme les nikkudot pour l’hébreu ou les ḥarakāt pour l’arabe —, leur utilisation est optionnelle et ils n’apparaissent que dans des cas restreints.

Dans les alphabets consonantiques, il est fréquent que les lettres changent plus ou moins de forme selon leur place dans le mot : une lettre en début, milieu et fin de mot n’a pas nécessairement la même graphie, c’est un cas de variante contextuelle.

La mère de tous les alphabets: l’alphabet phénicien

Les images élaborées des hiéroglyphes égyptiens et les marques complexes de roseaux enfoncées dans l’argile du cunéiforme mésopotamien étaient autrefois la façon dont les gens communiquaient par écrit. Peu à peu, ceux-ci ont été simplifiés en symboles de syllabes au lieu de symboles de mots, mais étaient encore assez intimidants et seuls quelques érudits ont appris à écrire.

Un alphabet (de alpha et bêta, les deux premières lettres de l’alphabet grec) est un système d’écriture constitué d’un ensemble de symboles dont chacun représente, par exemple, un des phonèmes d’une langue

Gold Phoenician alphabet
alphabet phénicien à gauche, alphabet étrusque à droite

Afficher l’image source

Afficher l’image source

L’alphabet phénicien (appelé par convention alphabet protocananéen pour les inscriptions antérieures à 1200 av. J.-C.) est un ancien abjad, un alphabet consonantique nonpictographique.
Il était utilisé pour l’écriture du phénicien, une langue sémitique utilisée par la civilisation phénicienne. Il s’agit d’un abjad, car il ne note que les sons consonantiques (une mater lectionis fut utilisée pour certaines voyelles dans des variétés tardives).
L’alphabet phénicien est devenu l’un des systèmes d’écriture les plus utilisés, transmis par les marchands phéniciens dans le monde méditerranéen où il a évolué et a été assimilé par de nombreuses cultures.
L’alphabet araméen, une forme modifié du phénicien, est l’ancêtre de l’alphabet arabe moderne, tandis que l’alphabet hébreu est une variante stylistique de l’araméen.

Afficher l’image sourceL’alphabet grec (et par extension ses descendants, les alphabets latin, cyrillique et copte) est un successeur direct du phénicien, bien que la valeur de certaines lettres ait été changée pour représenter les voyelles.
Les lettres de l’alphabet phénicien étant à l’origine incisées avec un style, leur forme est anguleuse et droite, bien que des versions cursives soient de plus en plus attestées au fil du temps, culminant avec l’alphabet néo-punique d’Afrique du Nord.

Afficher l’image source
Le phénicien était généralement écrit de droite à gauche, bien que certains textes soient écrits en boustrophédon.

Boustrophédon — Wikipédia
Boustrophedon

Le boustrophédon désigne une écriture dont le sens de lecture alterne d’une ligne à l’autre, à la manière du bœuf marquant les sillons dans un champ, allant de droite à gauche puis de gauche à droite. Le terme vient de l’adverbe grec ancien βουστροφηδόν boustrophêdón, de βοῦς boũs « bœuf » et στροφή strophế « action de tourner ». Souvent, le ductus des lettres est également inversé en changeant de sens ; par exemple, la lettre Є tracée de gauche à droite deviendrait Э de droite à gauche.

Le boustrophédon a été principalement utilisé à des stades anciens d’écritures avant que celles-ci ne se fixent dans un sens précis : le grec, par exemple, s’est d’abord écrit de droite à gauche

 

 L’alphabet araméen

L’alphabet araméen est un ancien alphabet consonantique.

Cet alphabet est historiquement important car quasiment tous les alphabets moyen-orientaux modernes en descendent, ainsi que de nombreuses écritures non chinoises d’Asie du Centre et de l’Est, du fait de l’usage répandu de l’araméen comme langue véhiculaire et langue officielle de l’Empire néo-assyrien et de l’Empire achéménide. Parmi les écritures contemporaines, l’alphabet hébreu est le plus proche de l’alphabet araméen impérial du ve siècle av. J.-C., comportant les mêmes lettres et, pour la majeure partie, des formes identiques.

Un livre du XIe siècle en serto araméen
Un livre du XIe siècle en serto araméen

Afficher l’image source

 

Alphabet phénicien

L’alphabet paléo-hébraïque, utilisé pour écrire l’hébreu primitif, est un rejeton régional du phénicien ; il lui est quasiment identique. L’alphabet samaritain, utilisé par les Samaritains, est un descendant direct de l’alphabet paléo-hébraïque.
L’alphabet araméen, utilisé pour écrire l’araméen, est un autre descendant du phénicien. L’araméen étant lingua franca du Moyen Orient, il fut largement adopté. Il s’est par la suite divisé en plusieurs alphabets apparentés, dont les alphabets hébreu, syriaque et nabatéen, dont la forme cursive est un ancêtre de l’alphabet arabe.
L’alphabet copte, toujours utilisé en Égypte pour la langue liturgique copte (descendant de l’ancien égyptien) est principalement basé sur l’alphabet grec, avec l’ajout de quelques lettres pour des sons n’existant pas en grec à l’époque ; ces lettres sont basées sur le démotique.

 

 

 

Kadmos dragon Louvre E707.jpg
Cadmos et le dragon. Amphore à figures noires d’Eubée, v. -560–550. Musée du Louvre (E 707).

Selon Hérodote le prince phénicien Cadmos se voit attribuer l’introduction de l’alphabet phénicien [Hérodote, qui rapporte ce fait, estime que Cadmos a vécu environ 1600 ans avant lui, soit vers 2000 av. J.-C.] — φοινικήια γράμματα, phoinikếia grámmata, « lettres phéniciennes » — auprès des Grecs, qui l’adaptent pour créer leur propre alphabet. Hérodote estime que Cadmos a vécu 1600 ans avant son époque, soit vers 2000 av. J.-C. Les écrits d’Hérodote ne sont toutefois pas utilisés comme source standard par les historiens contemporains.
L’alphabet grec dérive toutefois de l’alphabet phénicien.
La phonologie du grec ancien étant différente de celle du phénicien, les Grecs modifient l’écriture phénicienne pour mieux rendre leur langue. Il est plus important en grec d’écrire les sons voyelles : le phénicien étant une langue sémitique, les mots sont basés sur des racines consonantales qui autorisent la suppression des voyelles sans perte de sens, une caractéristique absente du grec d’origine indo-européenne (à moins que les Phéniciens n’aient fait que suivre l’exemple des Égyptiens, qui n’écrivaient jamais les voyelles ; le cunéiforme akkadien, qui sert à écrire une langue sémitique proche, les indique systématiquement). Dans tous les cas, les Grecs adaptent les signes consonantaux phéniciens absents en grec : l’initiale phénicienne de chaque nom de lettre est supprimé et le signe prend la valeur de la voyelle suivante. Par exemple, ʾāleph, qui désigne un coup de glotte en phénicien, est réattribué à la voyelle /a/ ; he devient /e/, ḥet devient /eː/ (une voyelle longue), `ayin devient /o/ (car la pharyngalité altère la voyelle suivante), tandis que les deux semi-consonnes wau et yoddeviennent /u/ et /i/ (certains dialectes grecs, qui possèdent /h/ et /w/, continuent toutefois à utiliser les lettres phéniciennes pour ces consonnes).

 

L’écriture en Italie a une histoire singulière. Les premiers colons grecs, venus d’Eubée au début du VIIIe siècle avant J.-C., l’apportèrent dans leurs bagages et la transmirent aux Étrusques. L’alphabet étrusque connut alors un destin hors du commun : il fut adopté par la quasi-totalité des peuples de la Péninsule, notamment par les Latins, dont l’alphabet, dérivé de l’étrusque, est aujourd’hui le système d’écriture le plus répandu au monde.
L’alphabet latin dérive de l’alphabet étrusque, lui-même dérivant d’une forme d’alphabet grec utilisé dans les colonies d’Italie du Sud. L’origine de l’alphabet runique est contestée, les théories principales supposant qu’il a évolué de l’alphabet latin, d’un alphabet italique antérieur ou de l’alphabet grec. Les runes sont néanmoins clairement dérivées d’une ou plusieurs écritures qui remontent au bout du compte à l’alphabet phénicien.
L’alphabet cyrillique dérive quant à lui de l’alphabet grec.

L’adaptation phénicienne de l’alphabet rencontre un énorme succès et des variantes sont utilisées tout autour de la mer Méditerranée à partir du ixe siècle av. J.-C., donnant naissance aux écritures grecqueétrusqueanatoliennes et paléo-hispaniques. Ce succès est en partie dû à sa nature phonétique : le phénicien est la première écriture largement répandue où chaque son est représenté par un symbole. Ce système simple contraste avec les autres écritures de l’époque, comme le cunéiforme et les hiéroglyphes égyptiens, qui emploient de nombreux caractères complexes et sont d’apprentissage difficile.

Profitant de leur culture commerciale maritime, les marchands phéniciens diffusent l’alphabet en Afrique du Nord et en Europe. Des inscriptions phéniciennes ont été découvertes sur les sites archéologiques de plusieurs anciennes cités et colonies phéniciennes autour de la Méditerranée, comme Byblos et Carthage. Des trouvailles ultérieures indiquent un usage antérieur en Égypte.

L’alphabet phénicien a des effets à long terme sur la structure sociale des civilisations qui entrent en contact avec lui. Sa facilité d’apprentissage bouleverse le statut des écritures plus anciennes, connues et employées uniquement par les membres des hiérarchies royales et religieuses, qui les utilisent comme instruments de pouvoir et de contrôle de l’information14. L’apparition du phénicien détruit certaines divisions de classes, bien que de nombreux royaumes du Moyen Orient (AssyrieBabyloneAdiabène) continuent à utiliser le cunéiforme pour les sujets légaux et liturgiques jusque ap. J.-C.

Nom des lettres

Le nom des lettres phéniciennes n’est pas directement connu. On suppose que les Phéniciens utilisaient un système acrophonique  pour les nommer, c’est-à-dire que le nom de chacune débute par la lettre elle-même.
Ces noms sont essentiellement les mêmes que dans les scripts parents, qui à leur tour dérivent de la valeur des mots que les pictogrammes hiéroglyphiques à l’origine des caractères représentent.
Ces mots d’origine sont traduits depuis l’égyptien et le son initial de chaque mot traduit devient la valeur de chaque lettre

 

Graphème

Selon le type d’écriture, le graphème se réalise visuellement et phonétiquement de diverses manières. Voici un modèle théorique :

Le tableau suivant recense les 22 graphèmes qui constituent l’alphabet phénicien. Les formes de lettres présentées ici sont idéalisées : l’écriture phénicienne est en réalité plus brute et plus variable en apparence. Il existe également des variations significatives suivant l’époque et la région.
L’alphabet phénicien suit l’ordre levantin, qu’il transmet à ses descendants.

Le premier ordre alphabétique, déjà très proche du nôtre, est attesté à la fin de l’âge du bronze, avec le premier alphabet sémitique, celui d’Ougarit, un alphabet consonantique (abjad) en cunéiforme. Il s’est poursuivi dans un autre alphabet également consonantique sans lien pour la forme mais lié linguistiquement, celui du phénicien, d’où sont issus les principaux alphabets actuels : alphabet grec et ses avatars (alphabets gotique, cyrillique et latinen passant par l’étrusque), mais aussi alphabets araméen, syriaque, hébreu, arabe, etc.

La translittération suit les conventions habituelles pour les langues sémitiques. Les valeurs phonologiques sont données en alphabet phonétique international. Les consonnes emphatiques des langues sémitiques étant interprétées comme d’anciennes éjectives, elles sont ici analysées comme telles.
Le tableau présente également l’évolution des graphèmes phéniciens dans les autres alphabets. Leur valeur sonore a souvent changé de façon significative, soit à la création de ces alphabets, soit à cause de modifications dans la prononciation des langues.
Lorsque l’écriture alphabétique débute en Grèce, les graphèmes sont similaires à ceux des phéniciens, mais pas identiques ; des voyelles sont ajoutées car l’alphabet phénicien n’en contient aucune. Il existe également des variations distinctives entre les écritures des différentes parties de Grèce, principalement pour les caractères phéniciens qui ne possèdent pas de correspondance exacte pour les sons grecs.
L’alphabet ionien conduit à l’alphabet grec standard vers le ive siècle av. J.-C. ; un autre évolue vers l’alphabet latin, ce qui explique de nombreuses différences entre les deux. À l’occasion, les Phéniciens utilisent un court tiret ou un point comme séparateur entre les mots.
Certains alphabets ultérieurs rajoutent des lettres pour tenir compte de spécificités linguistiques. Les lettres grecques Υ, Φ, Χ, Ψ et Ω sont ajoutées après l’emprunt des lettres phéniciennes ; elles apparaissent d’ailleurs à la toute fin de l’alphabet grec.
L’alphabet arabe compte en plus les lettres ث, خ, ذ, ض, ظ et

L’ALPHABET GREC EST LE PERE de nos alphabets occidentaux : tous les alphabets en usage en Europe lui sont apparentés. Les Grecs, même s’ils n’ont pas à proprement parler inventé l’alphabet, ont donc joué un rôle capital dans le développement de la civilisation occidentale.
Le terme même d’ «alphabet» est issu de la combinaison du nom des premières lettres de cet ensemble de lettres qui servit à transcrire la langue grecque: alpha et beta. Le terme d’alphabetos n’est apparut que tardivement dans la langue grecque, après que le bas latin eut bricolé ce terme barbare. Les Grecs utilisaient pour désigner leurs lettres l’expression ta grammata.
L’écriture a d’abord été en Grèce, le fait des commerçants et des prêtres. Les premiers écrits en vers furent des chants religieux et des formules magiques, et les premiers écrits en prose, des contrats de prêt. Mais elle a également permis la fixation des textes littéraires les plus parfaits, qu’il s’agisse de «la grande houle» des vers d’Homère ou du flot paisible de la prose de Platon.
Son histoire n’est toutefois pas linéaire. L’alphabet grec tel que nous le connaissons aujourd’hui, est en effet le fruit d’une longue maturation qui a duré près de cinq siècles.

Du phénicien au grec

LA LANGUE d’Homère, de Platon, de Sophocle a été couchée par écrit non par le biais d’une invention grecque, mais par l’adaptation d’un système alphabétique né ailleurs sur les côtes méditerranéennes.
Les écritures grecques archaïques
Ce qui semble bien être le plus ancien exemple d’écriture en Grèce est constitué par des pictogrammes retrouvés en Crète et encore indéchiffrés. Il semble que cette écriture pictographique soit à l’origine d’un autre système d’écriture apparu en Crète au début du minoen moyen (entre approximativement 1750 et 1650 av. J-C), cette écriture n’a pas encore été déchiffrée, et l’on ignore même si la langue mise par écrit était un dialecte grec. Cette écriture cursive, dont la graphie repose essentiellement sur la composition de lignes, a été baptisé par l’archéologue Evans, Linéaire A. Elle a été employée sur tout le domaine de la mer Égée, Troie incluse, de 1700 à 1400. Elle utilise 76 signes syllabiques dont 6 différent du Linéaire B, de signes idéogrammiques et numériques, dont des fractions.

Toutes les formes d’alphabets grecs sont basées sur les 22 symboles de l’alphabet phénicien, à l’exception de la lettre Samech, dont l’équivalent grec xi (Ξ) n’est utilisé que par un sous-groupe d’alphabets, et avec l’ajout de l’upsilon (Υ) pour la voyelle /u, ū/.

Les alphabets locaux, appelés « épichoriques », diffèrent de plusieurs façons :

  • dans l’usage des symboles consonantiques ΧΦ et Ψ ;
  • dans celui des lettres nouvelles inventées pour représenter les voyelles longues (oméga et êta)
  • dans l’usage ou non de Η dans sa fonction originelle de consonne (/h/) ;
  • dans l’usage ou non de certaines lettres archaïques (digamma = /w/, koppa = /k/, san = /s/) ;
  • dans les détails des formes individuelles de chaque lettre.

Un peu plus tardivement (entre 1680 et 1580 env.), une nouvelle écriture se répand, le Linéaire B. Cette écriture cursive, utilisant 158 idéogrammes, 87 signes syllabiques, 11 signes de poids et de mesure, 5 signes numériques, fut déchiffrée par des Britanniques, Ventris et Chadwick en 1952, grâce aux techniques employées par l’Intelligence Service au cours de la Seconde Guerre mondiale pour décoder les messages de l’armée allemande. Il s’agit d’une écriture à la fois syllabique et idéographique. Cette écriture note une langue grecque mais ne survécut pas au déclin de la civilisation minoenne et aux invasions de la Crète et cessa donc d’être utilisée vers 1100.
L’île de Chypre connut également un système d’écriture, un syllabaire en usage jusque la période hellénistique (IIème siècle).
L’alphabet, une invention phénicienne
C’est donc plutôt du côté du Levant qu’il faut chercher l’origine de l’alphabet grec. L’ancien alphabet sémitique est d’abord un emprunt à la civilisation égyptienne. Le principe de fonctionnement de cette écriture pseudo-hiéroglyphique protocananéenne était celui de l’acrophonie: Chaque pictogramme symbolisait le tout premier son du mot sémitique représenté. Le signe de la maison, baytu représentait la « lettre » ‘B’. Or, dans toute langue sémitique, un mot ne peut commencer que par une consonne; un alphabet acrophonique ne peut donc qu’être consonnantique.

 

L’influence égyptienne n’est pas l’unique influence à laquelle le pays de Canaan était alors soumis.nscription
Le puissant royaume d’Akkadie s’étendait alors et sa civilisation se répandait avec au premier chef sa langue et son système d’écriture, le cunéiforme. Cette écriture a pour caractéristique d’être profondément liée à son support et à l’outil qui en assure la gravure. Sur des tablettes d’argile, de la pierre, une sorte de petit burin permettait de graver de petites encoches, des coins. Le système d’alphabet hiéroglyphique des Canaanéens fut transposé sur ces supports par ce type d’outils aux alentours du XIVème siècle avant J-C. Les principales traces de cette transposition sont celles laissées à Ugarit, l’actuel Ras Shamra, dont le fameux abécédaire à 30 signes cunéiformes est l’exemple le plus frappant.
Le cunéiforme disparu, l’alphabet linéaire poursuivit son évolution. Avant la fin du XIIème siècle avant J-C, l’alphabet classique de 22 lettres arrivait à maturité après un millénaire d’évolution depuis l’invention des hiéroglyphes. La graphie des lettres se stabilisait de même que le sens de la lecture qui se faisait désormais de droite à gauche. L’alphabet phénicien découpait la syllabe en unités simples, les consonnes, et négligeait les voyelles qui servaient à les prononcer. L’acquis décisif demeurait: l’utilisation d’un ensemble réduit de signes graphiques pour symboliser la langue articulée.
La problématique grecque
La langue grecque, qui appartient au groupe indo-européen comme le persan, le sanscrit et la plupart des langues européennes, offrait des particularités qui en rendaient la notation difficile, que ce fût par l’écriture syllabique crétoise ou par l’écriture alphabétique consonnantique phénicienne. En effet, la difficulté inhérente à toute écriture syllabique est de rendre la consonne isolée, non suivie d’une voyelle. Or les groupes de deux ou trois consonnes sont monnaie courante en grec.
D’autre part, un texte grec dont les voyelles ne sont pas notées est complètement inintelligible. Enfin le système des consonnes grecs semble avoir différé profondément aussi bien de celui de l’égéen, qui ne paraît pas avoir distingué les occlusives sonores des sourdes, que de celui du phénicien, qui ignorait les aspirées grecques, mais possédait en revanche plusieurs gutturales inconnues du grec et était plus riche que lui en chuintantes et en sifflantes.

L’élaboration des alphabets grecs

Les mutations de l’alphabet phénicien

Pragmatiques, les Grecs vont transformer l’alphabet phénicien en l’adaptant à leur langue. Dans un premier temps, ils affectèrent à certaines consonnes phéniciennes, des valeurs à peu près similaires dans leur langue. Ainsi, le signe du samek phénicien fut affecté à la consonne grecque de prononciation voisine ‘s’. Après de nombreuses modifications d’orientation, ce caractère se stabilisa sous la forme du sigma, ‘S’, tandis que le têt fut affecté à la notation du son th sous la forme du ‘Q’ et que le qof, q, servit à noter le k et reçut le nom de koppa (‘K’). Le zain sémitique, servit à noter le son grec dz sous la forme ‘Z’.

Mais l’invention la plus significative des Grecs constituera à attribuer à certaines lettres phéniciennes dont ils n’avaient pas l’usage la valeur de voyelles. C’est ainsi que naquirent le alpha (‘A’), l’epsilon (‘E’), l’omicron (‘O’) et l’upsilon (‘Y’). Pour la sonorité i, ils inventèrent ex nihilo une lettre, le iota. Cette «lumière des voyelles» pour reprendre l’expression d’Etiemble, c’est l’apport décisif que vont faire les Grecs à l’histoire de notre civilisation.

Une longue évolution
Au début les mots étaient écrits sans séparation; plus tard on les sépara les uns des autres. Dans le même ordre d’idée, les accents sont apparus progressivement dans l’alphabet grec. La langue grecque avait en effet cette particularité de posséder un accent musical qui se traduisait dans chaque mot par un changement de hauteur portant sur une des syllabes de ce mot. L’alphabet que les Grecs avaient hérité des Phéniciens ne tenant pas compte de telles nuances, les grammairiens alexandrin Aristophane de Byzance (ca -240) et son disciple Aristarque de Samothrace inventèrent les trois accents de l’écriture grecque: aigu, grave et circonflexe.
Jusqu’au VIème siècle, l’écriture grecque n’était pas encore stabilisée. Chaque cité grecque archaïque, traditionnellement jalouse de son indépendance, imposaient des graphies très différentes aux lettres. Ainsi, aux côtés de l’alphabet grec ionien, coexistaient différentes variantes de cet alphabet employés en Asie Mineure pour noter le grec et des dialectes locaux. Pour mémoire, il est possible ainsi de mentionner l’existence des alphabets phrygien, pamphylien, carien, lydien et lycien.

boustrophédon

De même le sens de lecture n’était pas encore définitivement fixé. On pratique ainsi le spéirédon (lecture en spirale), le stoïchédon (alignement horizontal et vertical des lettres) et le boustrophédon. Dans ce dernier système, le sens de lecture progressait à l’horizontale, alternativement dans un sens et dans le sens opposé, à la manière des bœufs au labour, revenant sur leurs pas à la fin de chaque sillon (bous: bœufs; strephein: tourner). Le boustrophédon constitue peut-être l’intermédiaire entre le sens phénicien, de droite à gauche, que les Grecs adoptèrent dans un premier temps et le sens ionien de gauche à droite.
Stabilisation de l’écriture grecque
L’année -403 marque un tournant décisif dans l’histoire de l’alphabet grec. En effet, sous l’archontat d’Euclide, Archinos fait adopter à Athènes une disposition stipulant que les textes des lois, consignés jusqu’alors dans l’alphabet local, seront réédités dans l’alphabet de Milet dit ionien, qui donnait sa préférence au sens gauche-droite. Les autres villes grecques, suivirent progressivement cet exemple, reconnaissant officiellement la supériorité de cet alphabet. Au IVème siècle, l’unification des alphabets grecs était à peu près réalisée. C’est un fait important dans l’histoire de la civilisation, car l’adoption de ce même type d’écriture coïncide approximativement avec la création d’une langue grecque commune, koiné dialektos, qui fut employé par tous les Héllènes ayant quelque culture, processus déterminant dans l’établissement du sentiment national grec.

Evolution de l’écriture grecque

LE DESSIN DES CAPITALES est fort simple et rigoureusement logique. Pour reprendre la théorie d’Alphonse Dain, chaque lettre est un assemblage d’éléments primitifs que sont le trait et le rond (I & O).
Avec un trait on obtient le iota (I) et avec deux traits inscrits dans un carré, on obtient le gamma (G), le lambda (L), le tau (T) et le chi (C). Avec trois traits, on obtient le delta (D), le Zêta (Z), le êta (H), le nu (N) et le pi (P) tandis qu’avec quatre traits on obtient l’epsilon (E), le mu (M), le sigma (S) et le xi (X) [La capitale archaïque du xi est traversée par une barre verticale].
Les lettres rondes sont l’omicron (O) et l’omega (W). En gravant au milieu du cercle un point ou une barre, on obtient le thêta (Q) et le phi (F). Enfin, le bêta est fait d’une barre et de deux moitiés de cercles (B) alors que le rhô ne présente qu’une panse supérieure (R).
L’intérêt d’une telle standardisation est pour Rémy Peignot, l’harmonie «quasi musicale (qui) naît du jeu rythmique des traits. (…) Dans l’assemblage des lettres, des notes en lignes et en page, le retour périodique de formes simples facilite la lecture; cela plaît à l’œil qui s’y retrouve».
De l’influence des supports sur le dessin des lettres

Toutefois, le dessin des lettres va se mettre à se redifférencier, cette fois en fonction du support d’écriture utilisé. L’écriture monumentale ou lapidaire, est celle que l’on va utiliser pour graver sur la pierre les documents officiels. De forme rectiligne et anguleuse, elle se distingue nettement des rondeurs de l’écriture des scribes maniant le calame. Dès le IVème siècle, l’écriture courante va être celle sur papyrus. Les Grecs ont en général, utilisé le papyrus de la même manière que les Egyptiens. A ses débuts, l’écriture sur papyrus était très proche de l’écriture épigraphique; appellée écriture scolaire, ses caractères ne sont pas liés entre eux, les mots ne sont pas séparés les uns des autres, les lettres E, S, W gardent leur forme anguleuse mais commencent à apparaître les formes arrondies dans les autres lettres. On ne laissait pas d’espace entre les mots et pour indiquer qu’on passait d’un sujet à un autre, on traçait un petit trait horizontal appelé paragraphos, qui signifie, «écrit sur le côté».
On écrivait en colonnes sur des bandes de parchemins ou de papyrus longues de six à neuf mètres et que l’on enroulait autour d’un bâton. Ces rouleaux prirent le nom de biblos du nom de la cité phénicienne qui fit connaître le papyrus aux Grecs. Un rouleau plus petit s’appelait biblion. Lorsque le rouleau faisait partie d’un ensemble on l’appelait tomos, c’est à dire la coupure.
Les écritures grecques médiévales
A côté de cette écriture fondamentale, d’autres genres se développèrent très rapidement. L’écriture calligraphique était proche du type scolaire mais le gabarit des caractères, leur écartement, leurs enjolivements étaient calculés de façon à produire une impression artistique; c’est l’écriture des manuscrits. Elle évitait les ligatures, ne séparait pas les mots et était appelée également onciale ou parfois biblique, par qu’on la retrouve dans les trois grands manuscrits bibliques que sont le Codex Vaticanus, le Codex Sinaiticus et le Codex Alexandrinus.
L’écriture cursive était l’écriture courante, ou étirée comme disaient les Grecs eux-mêmes. Plus rapide que l’onciale, elle se distingua nettement de sa parente à partir du IIIème siècle av J-C. Les traits essentiels de la cursive étaient d’une part, la tendance à lier entre eux les caractères d’écriture, dans la mesure où leurs formes s’y prêtaient, et à en simplifier le tracé, à le rendre plus coulant.
Entre les deux, il existait une écriture administrative dite de chancellerie qui se rapprochait de la cursive mais ses lettres étaient grandes, grêles et stylisées, et l’écriture personnelle, celle des gens d’une certaine culture.

Description de cette image, également commentée ci-après
Codex Sinaiticus Onciale 01 Par Auteur inconnu — Codex Sinaiticus, Domaine public, https://commons.wikimedia.org/w/index.php?curid=10097597                                               Matthieu chapitre 6 versets 4 à 32

 

L’onciale évolua peu et subsista sous cette forme quand on substitua le parchemin au papyrus; elle resta le type même de librairie. La cursive subit elle une transformation radicale qui finit par aboutir à la minuscule.

Cette dernière a dégagé et précisé une des caractéristiques alors embryonnaire de l’écriture de chancellerie, à savoir le système des quatres lignes. Les lettres de l’écriture monumentale, comme celle de l’onciale et de notre capitale latine, sont en effet toutes de la même hauteur: on peut en délimiter leur tracé par deux lignes.
Au début du IVème siècle, la chancellerie impériale, désormais fixée à Constantinople, imposa la cursive byzantine qui subit l’influence de la cursive latine contemporaine, au point que les deux écritures pouvaient facilement se confondre. Cette nouvelle cursive a joué un rôle décisif lors de la véritable renaissance qu’a connue au VIIIème siècle l’Empire byzantin.

La nouvelle écriture grecque, celle qui est aujourd’hui encore employée tant pour les livres imprimés que dans la vie courante, la minuscule, s’est en effet formée à partir de la cursive: tout en gardant certaines ligatures usuelles et claires, elle a séparé les lettres, réintroduit, aux IXème et Xème siècles, certaines formes onciales, réduit la dimension des lettres et su allier à la clarté des onciales la fluidité et la rapidité des cursives; elle a conservé et régularisé l’usage des signes diacritiques, esprits et accents, introduits par les Alexandrins.

CONCLUSION

Alphabets prédominants nationaux et régionaux ou minoritaires sélectionnés Alphabétique : Latin Cyrillique Grec Arménien Géorgien Hangul (alphabétique distinctif[L]ogographique et [S]yllabique : Hanzi [L] Kana [S] / Kanji [L] Hanja[L] (limité) Abjad : Arabe Hébreu Abugida : Brahmique du Nord Brahmique du Sud Guèze Thaana Syllabaire canadien

Signe de civilisation

Les pierres écrites

Afficher l’image sourceLes plus anciens supports de l’écrit qui nous soient parvenus sont d’os, de terre cuite et de pierre – ce qui ne préjuge aucunement de l’emploi éventuel d’autres matières d’un emploi éphémère ou rapidement disparues, ce qui fait que nous ne saurons jamais rien des graphismes préhistoriques sur terre crue, peau, écorce ou sable, pour ne citer que ces exemples.

Les écritures sur pierre ont justifié la naissance d’une science particulière, l’épigraphie, dont les spécialistes travaillent à l’établissement d’importants corpus d’inscriptions – grecques, latines, gauloises, phéniciennes, puniques, égyptiennes, arabiques, méroïtiques, etc. – dont l’élaboration et la traduction sont toujours en cours, de même que, parfois encore, le déchiffrement des langues dans lesquelles elles sont rédigées. L’ancienneté générale de ces textes et la nature presque impérissable de leur support ont souvent incité un autre groupe de savants, ceux qui étudient les images rupestres, à rechercher dans leurs propres corpus l’origine des systèmes alphabétiques ou hiéroglyphiques apparus plus tard dans les mêmes régions, la quête d’une protoécriture leur paraissant d’autant plus légitime que ces images semblent avoir été souvent liées à des mythes – c’est-à-dire, étymologiquement, des muthoi, des « récits » même si le détail de ceux-ci nous échappe. Il ne s’agit pas ici d’identifier ce que Leroi-Gourhan appelait « mythogrammes », à savoir des agencements d’images rendant ces récits visibles – sinon lisibles.

Afficher l’image source
L’écriture indéchiffrable trouvée sur un rocher vieux de 6000 ans

 

 

L’art rupestre est le nom donné aux gravures réalisées dans les abris, les grottes, les murs, les plafonds rocheux et aussi sur les surfaces rocheuses en plein air, les plus anciennes datant du Paléolithique supérieur (40 000 av. J.-C.) gravées dans des lieux protégés par les actions de la nature

Les enquêtes montrent qu’à Paraíba au Brésil plus de deux cents sites archéologiques. Selon l’historien Mali Trevas, 180 sites archéologiques sont déjà répertoriés à Paraíba, dont beaucoup dans les municipalités de Boqueirão, Ingá, Campina Grande et Cabaceiras, entre autres dans la région de Cariri. Dans tout l’État, il doit y avoir 230 sites.

 

Pierre découverte à Bahreïn, probablement une écriture en ancien hittite
Symboles utilisés dans le Palais ELBA en Syrie

 

 

Afficher l’image source

 

🅱🅰🅳🆁🅴🅳🅳🅸🅽🅴 🅱🅴🅻🅷🅰🅼🅸🆂🆂🅸

La mécanique quantique c’est quoi?

Classé dans : Connaissance, Physique | 0

Introduction à la mécanique quantique

La mécanique quantique c’est quoi?

Introduction

La Mécanique est la science qui étudie le mouvement des corps
La Mécanique classique (dite de Newton) étudie  les corps de « grandes » dimensions
dont Vitesses négligeable par rapport à la lumière (300 000 km/s)
La Mécanique relativiste (dite de Einstein) se divise  en relativité restreinte et relativité générale et concerne les corps de « grandes » dimensions dont les vitesses ne sont pas négligeable par rapport à la lumière.
La Mécanique quantique concerne les corps de dimensions moléculaires ou atomiques

Pour expliquer les problèmes posés par la mécanique quantique, il est utile de voir
comment la physique classique décrit le monde. et quels changements la mécanique quantique introduit par rapport à cette description.

En mécanique classique on considère des particules qui se déplacent selon des trajectoires.
Elles ont donc à tout moment une position, et la façon dont cette position change
détermine leur vitesse (et la façon dont leur vitesse change détermine leur accélération et
ainsi de suite).

Ces trajectoires sont entièrement déterminées par deux facteurs : d’une
part les forces qui agissent entre les corps, d’autre part les « conditions initiales » du
système considéré, c’est-à-dire l’état dans lequel se trouve le système au temps initial.
La notion de ‘force’ est relativement intuitive lorsqu’on pense aux forces de contact ; par
exemple si l’on pousse sur un objet ou qu’on le tord.

Mais la physique classique ne peut pas se limiter à ce genre de force : elle introduit également des forces gravitationnelles, par exemple, qui agissent «à distance » (c’est-à-dire sans contact direct entre les corps), même à travers le vide, et, en principe, de façon instantanée. Le caractère peu intuitif de cette force a amené Newton à dire qu’il « ne forgeait pas d’hypothèses » concernant sa nature.

Simplement, on peut la formuler de façon mathématiquement précise, l’introduire dans des équations et en déduire des conséquences, par exemple sur les mouvements des planètes ou des satellites, ou des mouvements sur terre, et ces conséquences sont en accord de façon tout à fait remarquable avec l’expérience et l’observation.

Quelles sont les idées généralement admises aujourd’hui par le grand public
au sujet de l’atome ?

 

A la fin du XIXème siècle, les lois de la nature semblaient totalement connues à travers la théorie de la gravitation (Newton) et de l’électromagnétisme (Maxwell).
Deux types de mouvements mutuellement exclusifs étaient connus :

–Mouvement ondulatoire :

Caractérisé par la fréquence et la longueur d’onde λ d’un signal oscillant.

La lumière est considérée comme une onde à cause des phénomènes d’interférences (Young).

–Mouvement d’un solide :

Caractérisé par sa masse, sa position et sa quantité de mouvement

Il restait « juste » quelques petits points obscurs ….

La lumière (rayons X, ultraviolet, visible, infrarouge) se propage à travers l’espace sous forme d’une onde électromagnétique; car on observe des phénomènes propres aux ondes, comme la réflexion, la réfraction, l’effet Doppler, les interférences.

L’électron et le proton sont connus.
La réalité de l’atome est admise, mais sa structure n’est pas connue précisément.
Le neutron n’est pas connu, il ne sera découvert qu’en 1932 par James Chadwick (1891-1974), prix Nobel en 1935.

Premier problème : la catastrophe ultra violette.

Lorsque l’on chauffe un solide parfait (appelé corps noir), il émet des ondes électromagnétiques dans un domaine de longueurs d’ondes caractéristique de sa température.

A l’époque, l’énigme est appelée la catastrophe ultraviolette !

                              Qu’est-ce qu’un corps noir ?

C’est un corps qui absorbe toute l’énergie qu’il reçoit (c’est à dire qu’il n’y a  aucune réflexion)

L’énergie qu’il émet sous forme de rayonnement dépend de sa température.

Exemple:   Le soleil

Les théories classiques en vigueur ne parviennent pas à expliquer les observations faites sur l’émission de l’énergie par un corps noir.

 

Expérimentalement la courbe présente un maximum lié à la température par la relation de Wien :

  λM *T = 2,9.10-3 m.K

  • En 1900, Rayleigh ne parvient pas à expliquer théoriquement ce phénomène. Son calcul amène à une équation qui diverge dans l’ultra violet (C’est ce qui a été appelé catastrophe).

 

  

                   

octobre 1900, Max Planck

En 1900, Max Planck a pu prédire comment le spectre d'émission d'un objet changerait avec la température
Il a pu faire ces prédictions après avoir suggéré que l''on pouvait avoir une petite quantité de rayonnement (lumière).

Planck a proposé qu'il y ait une restriction fondamentale sur les niveaux d'énergie qu'un objet émet ou absorbe et il a appelé
ces petites quantités d'énergie un quantum (une quantité fixe)

La théorie de Planck crée une relation entre la fréquence/longueur d'onde et l'énergie de l'objet

 

Octobre 1900: en s’appuyant sur  les travaux de Wien (loi de Wien),prix Nobel en 1911, Max Planck trouve une équation qui rend compte des observations et résout l’énigme de l’émission radiative d’un corps noir

Second problème : l’effet Photoélectrique.

Des électrons sont éjectés de certains métaux lorsque ceux ci sont éclairés !

Interprétation classique : résonance entre l’oscillation de l’onde de lumière et une oscillation (hypothétique) des électrons. Mais alors si on augmente l’intensité de l’onde les électrons devraient être éjectés plus facilement.

Troisième problème : Le spectre atomique

Les atomes absorbent et émettent de la lumière d’une manière discontinue. Seuls certaines longueurs d’ondes sont absorbées ou émises.

Le modèle planétaire classique ne permet pas d’expliquer cela.        Très mauvais modèle

             Celui là aussi!

Le photon : une particule de lumière

Max Planck introduit l’idée de photon dans son étude théorique du corps noir.
Chaque photon transporte une énergie proportionnelle à la fréquence de l’onde qui lui est associée.

Ephoton= hν

Il introduit la constante de proportionnalité « h » : constante de Planck

  h=6,62 10-34 J s

Il parvient alors à trouver la forme théorique de la courbe du corps noir et la loi de Wien s’exprime par :

Où k (constante de Boltzmann) et c (vitesse de la lumière) sont des constantes déjà établies.

Credit: Corbis via Getty Images/Kevin Fleming
Richard Feynman

Richard Feynman, célèbre physicien (1918-1988) connu notamment pour ses diagrammes de désintégrations de particules disait ; «Si vous croyez comprendre la mécanique quantique c’est que vous ne la comprenez pas».

 

 

Max Planck
Max Planck

Lorsque l’on sait que Planck lui-même, alors qu’il établissait la loi de Planck, démontrant que l’énergie se propageait par paquets de valeur « h*f » h, une constante appelée: constante de Planck et f : la fréquence de l’onde de propagation, doutait de cette réalité !

Albert Einstein
Albert Einstein

Lorsque l’on sait qu’Einstein à propos de la physique quantique et de ses manifestations probabilistes s’exclamait «Dieu  ne Joue pas aux dés» !

 

Schrödinger
Schrödinger

Même Schrödinger, le père de la mécanique quantique et découvreur de l’équation fondamentale  de la mécanique quantique  était très sceptique vis-à-vis de celle-ci. !

 

Alors on peut  admettre qu’il y ait quelques difficultés à comprendre la mécanique quantique.

Le comportement très spécial des particules qui semblent pouvoir emprunter plusieurs chemins dans le même temps trouble le sens commun et n’aide pas à clarifier les esprits rationnels.

Au comble de l’incohérence, quasiment au sens propre, une particule pourrait être dans des états «superposés» ou «probabilistes» – 50% intacte – 50% désintégrée.
Descartes y mangerait son chapeau !
Il faut tout de même  souligner que la mécanique quantique, plus encore
que la mécanique classique, a donné lieu à un nombre spectaculaire de prédictions
surprenantes, allant des particules élémentaires aux étoiles, en passant par la chimie
et la physique de l’état solide, prédictions tout aussi spectaculairement confirmées par
l’expérience et l’observation. Elle est à la base de toute l’électronique moderne, c’est-à-dire
de l’informatique et des télécommunications.

Histoire abrégée

Le terme « mécanique » qui englobe la science du mouvement et ses propriétés n’est plus du tout approprié à « la quantique » qui englobe aujourd’hui tous les domaines de la physique et dont les ramifications s’étendent jusqu’en astrophysique, en cosmologie, en optique numérique, en biochimie, jusqu’à inclure l’Homme. Malgré cette évolution, le substantif « mécanique » a gardé voix de citer et est assimilé à celui de « physique » quantique. Aussi, par tradition certains auteurs le conserve comme titre de chapitre ou l’utilisent indifféremment ci et là selon leur humeur. 

Les prémices
Marcellin Berthelot
Marcellin Berthelot

Devant les prodigieuses avancées des sciences et des techniques au cours du XIXeme siècle, le chimiste français Marcellin Berthelot s’était exclamé : “il n’y a pas un problème que la science ne puisse résoudre”

Pour juger objectivement les phénomènes qui obéissent aux lois de la physique quantique, un résumé de son histoire soulignera le cheminement intellectuel qui entraîna son introduction dans la physique classique et qui finira par la remplacer dans le domaine de l’atome.

Arrivé à ce point, complété par les notions de Relativité, la distinction entre la physique de Newton, celle d’Einstein ou de Heisenberg ne fera plus de doute.

 

Lord Kelvin
Lord Kelvin

Lord Kelvin (William Thomson) Sir William Thomson, Lord Kelvin (1824-1907) Physicien, mathématicien et ingénieur anglais, originaire de Belfast en Ulster, Lord Kelvin élabore une échelle théorique des températures en 1848 : l’unité de température absolue qui porte son nom, le kelvin.
Lord Kelvin avait ressenti la même impression et considéra vers 1852 que : “la physique avait fourni une description cohérente et a priori complète de l’univers”.

Malheureusement ces certitudes étaient basées sur une vision bien naïve du monde, un monde considéré comme stable et éternel.
La Science ne se souciait guère des aspects négatifs des découvertes, elle ne posait pas de questions sur son origine, ses retombées, son éthique.
Que devenait dans ce monde simple et sans mystère, les paradoxes, la conscience, la dimension transcendante du monde, le non-sens ?

Comment avons-nous appris que la théorie classique ne s’appliquait pas à toute la réalité ?

  Les théories concernant les différents états de la matière, la chaleur spécifique ou la réaction des métaux photosensibles ne suivaient pas les courbes standards.

Si les savants avaient bien trouvé des formules pour prédire ces événements, certains corps s’écartaient obstinément des valeurs moyennes pour des raisons qui restèrent longtemps mystérieuses.

C’est la thermodynamique qui donna le coup d’envol de la résolution de ces problèmes. Mais elle-même enchâssée dans le carcan de la philosophie séculaire et contrainte par la physique classique eut de grosses difficultés pour évaluer la portée de la nouvelle mécanique quantique.

 

La thermodynamique est la branche de la physique qui traite de la dépendance des propriétés physiques des corps à la température, des phénomènes où interviennent des échanges thermiques, et des transformations de l’énergie entre différentes formes.

La thermodynamique peut être abordée selon deux approches différentes et complémentaires : phénoménologique et statistique.

La thermodynamique phénoménologique ou classique a été l’objet de nombreuses avancées dès le xviie siècle. Elle s’appuie sur des considérations macroscopiques pour établir un nombre réduit de principes et de lois, issus d’observations expérimentales.

Afficher l’image source

La thermodynamique statistique, qui s’est développée à partir du milieu du xixe siècle, s’appuie quant à elle sur des considérations moléculaires et sur le calcul des probabilités appliqué à un grand nombre de particules.
Elle s’attache à analyser la structure de la matière et à établir un lien entre ses propriétés et les principes de la thermodynamique phénoménologique.

Principe zéro de la thermodynamique: Si deux systèmes sont tous deux en équilibre thermique avec un troisième, ils sont en équilibre thermique l’un avec l’autre. 

 La première loi de la thermodynamique et c’est le principe de la conservation de l’énergie , ce qui signifie que l’ énergie ne peut être ni créée ni détruite , mais plutôt transformée en différentes formes au fur et à mesure que le fluide contenu dans le volume de contrôle est étudié.

C’est la loi la plus importante pour l’analyse de la plupart des systèmes et celle qui quantifie la transformation de l’ énergie thermique en d’autres formes d’énergie . Il s’ensuit que les machines à mouvement perpétuel du premier type sont impossibles.

L’étude des gaz parfaits et celle des machines thermiques, qui échangent de l’énergie avec l’extérieur sous forme de travail et de chaleur, occupent une place centrale dans la thermodynamique : elles ont permis le développement de très nombreuses machines et méthodes industrielles, et servi de base à d’importantes découvertes en chimie, en astrophysique et dans de nombreux autres domaines scientifiques.

Jusqu’au XXeme siècle, la matière n’intéressait pas les physiciens. Cette science était réservée aux chimistes parmi lesquels nous retrouvons les célèbres Avogadro, Gay-Lussac, Boyle et tant d’autres. L‘Encyclopedia Britannica publiée en 1771 considérait que les atomes étaient les plus petits corps naturels indivisibles, des minima minimorum naturae. Or depuis Démocrite on avait déjà remarqué que certains atomes ou plutôt certaines molécules étaient structurées et présentaient des formes variées et qu’aucunes d’elles ne pouvaient se transformer en une autre. L’or et le plomb pouvaient bien s’amalgamer mais il était toujours possible de les séparer par l’action de la chaleur. Cette définition était donc incomplète et suscita l’intérêt des chercheurs.

Antoine Laurent de Lavoisier
Antoine Laurent de Lavoisier

Vers 1774, Antoine Laurent de Lavoisier découvre que les corps composés tels que l’air ou les minéraux sont constitués d’éléments simples, mélangés dans des proportions bien déterminées. Lavoisier découvrit 23 éléments chimiques simples. Il est à juste titre considéré comme l’un des créateurs de la chimie moderne. Il faudra attendre une génération pour que John Dalton propose le concept atomique en 1803 : il considère que la matière est constituée de molécules qui sont elles-mêmes composées d’atomes indivisibles. 

 

August Kekulé
August Kekulé
Butlerov
        Butlerov

Vers 1860, August Kekulé von Stradonitz et Butlerow démontrent grâce à la lumière polarisée que les molécules des gaz obéissent à un comportement structurel particulier, ce qui leur permettra d’échafauder les principes de l’architecture chimique. C’est également Kekulé qui précisa le sens des termes d’atomes et de molécules dans leur définition moderne.

Dimitri Mendéléev
Dimitri Mendéléev

Neuf ans plus tard Dimitri Mendéléev proposa une classification des éléments selon leur masse atomique mais il ne put expliquer les relations entre classes d’éléments.

Il faudra attendre quelques générations pour découvrir les propriétés électriques des atomes et leur architecture.

La fin du XIXeme siècle fut marquée par la découverte des rayons X (Roentgen, 1895)

Un an plus tard c’est la radioactivité naturelle qui est découverte (Becquerel, 1896).

Ernest Rutherford et Frederick Soddy
Ernest Rutherford et Frederick Soddy

En 1903, les physiciens anglais Ernest Rutherford et Frederick Soddy découvrirent que la radioactivité naturelle était une transmutation d’un atome dans un autre. Ainsi, les atomes radioactifs pouvaient émettre des particules positives (rayonnement a, un noyau d’hélium), négatives (rayonnement b, des électrons) ou des ondes de très courtes longueurs d’ondes (rayons g). Mais il restait à localiser les composantes du rayonnement a et en corollaire celles du noyau.

J.J.Thomson
J.J.Thomson

Quatre ans plus tard, J.J.Thomson proposa un modèle atomique dans lequel les charges négatives – les électrons – étaient distribués dans une matrice chargée positivement.

Pour respecter la neutralité de la matière, les électrons devaient avoir exactement les mêmes valeurs que les charges positives.

Entre-temps les chimistes et les physiciens ont essayé d’évaluer la dimension des molécules et de déterminer la nature des forces qui les maintenaient ensembles. Mis à part les auteurs précités, les travaux les plus concrets et qui témoignèrent d’une ébauche de solution furent ceux de R.Brown sur le mouvement brownien datant de 1828.

Comme le rappelle son nom, le mouvement brownien a été découvert en 1827 par le botaniste Robert Brown (1773-1858). C’est en observant sous un microscope du pollen dispersé dans de l’eau qu’il remarqua que les grains microscopiques le constituant étaient soumis à un mouvement continuel et irrégulier.

Il crut, à l’époque, qu’il avait découvert « la molécule primitive » responsable de la vie. Il s’aperçut plus tard que l’on pouvait observer ce même phénomène avec toutes sortes de particules de taille suffisamment petite.

Plus tard R.Clausius en 1857 qui fit la distinction entre les différents états solides, liquides et gazeux en fonction de l’agitation moléculaire.

Ces travaux seront souvent discutés et critiqués en termes d’entropie et de leur cohérence vis-à-vis des lois classiques. Il était évident aux yeux de Planck, Boltzmann ou Sommerfeld que les phénomènes naturels et en particulier la loi d’entropie ne pouvait être réduite à des phénomènes purement mécaniques.

Einstein
Einstein

Ces recherches se termineront avec la célèbre thèse de doctorat d’Einstein en 1906.
 Einstein a passé une thèse de doctorat en 1905 décernée par l’université de Zurich. Celle-ci est étroitement liée à ses travaux sur le mouvement brownien et l’existence des atomes.
C’est l’année où il publie également ses articles fondateurs sur les quanta de lumière et la relativité. Il est autorisé à donner des cours à l’université de Berne dès 1908, tout en continuant de travailler au Bureau des brevets. 
De 1908 à 1909, grâce aux travaux d’Einstein qu’il utilise, Jean Perrin va mener ses expériences sur l’existence des atomes qui lui vaudront le prix Nobel de physique

Avogadro
le comte Amedeo Avogadro

 

On savait alors que le rayon de l’atome d’hydrogène oscillait entre 1 et 2×10-8 cm et l’on estima le nombre d’Avogadro N à environ 6.02 x 1023 molécules par mole.

 

 

Peu de temps après la publication de cette formule, Einstein établit une correspondance entre le mouvement brownien isolé et la diffusion d’un ensemble de particules.

Einstein voulait ignorer les détails des phénomènes de collisions et traita la diffusion comme un processus de Markov. 

Un exemple simple de processus de Markov:
Un groupe d’étudiants arrivés la même année, à travers les trois
niveaux d’une licence. Ces trois niveaux sont des états, ils seront notés L1,
L2 et L3. Après le troisième niveau, les étudiants réussissant leurs examens obtiennent le diplôme de licence : ils ont atteint l’état D. Enfin, chaque année, les étudiants peuvent décider de quitter la licence. Ils se retrouvent alors dans l’état Q. Les étudiants peuvent également redoubler une fois, ou davantage, chaque niveau. Chaque année, les étudiants ont une probabilité p de passer dans le niveau supérieur, une probabilité q de quitter la licence et une probabilité r de redoubler.
Pour simplifier la description, nous considérerons que les étudiants qui quittent la licence ne peuvent pas y revenir, que les probabilités
p, q et r sont les mêmes chaque année et que le nombre de redoublements
n’est pas limité.
La chaîne de Markov correspondante estLes 5 états et les 6 probabilités de transition pour la chaîne
de Markov modélisant un parcours de licence simplifié.

Sa théorie sera appliquée avec succès dans tous les domaines exploitant les propriétés d’élasticité, de viscosité et d’écoulement de la matière, en bref la rhéologie.

Son travail touchera l’industrie du bâtiment (le ciment), la météorologie (les aérosols) ainsi que les secteurs touchant à la minéralogie et la chimie alimentaire.

A côté de la détermination de la dimension des molécules, les physiciens étaient également préoccupés de savoir comment le mouvement se transmettait dans la matière. Les physiciens savaient depuis longtemps, en fait depuis qu’ils avaient observé un morceau de bois flotté à la surface de l’eau, qu’une onde ne consistait pas en un déplacement de la matière mais bien à un mouvement dans celle-ci. 

On démontre ce principe quotidiennement par de nombreux mobiles, dont celui des billes suspendues en contact les unes avec les autres présenté à droite. 

En lançant la première bille sur la deuxième, quasi instantanément le choc se propage à travers les autres billes provoquant le déplacement de la dernière. Toutes les billes situées entre les deux extrémités restent immobiles. La propagation se transmet de bille à bille, en d’autres termes une certaine quantité d’énergie se propage dans la matière à une vitesse finie.

Le même phénomène explique la propagation du son dans l’air. Ainsi, qu’elles soient électromagnétiques ou élastiques, les ondes obéissent à une relation de propagation, la fonction de l’onde, qui n’est pas équivalente à une fonction d’onde.

J.Maxwell
J.Maxwell

 

Au XIXeme siècle grâce aux travaux de Maxwell, les physiciens connaissaient son équation généralisée aux dérivées partielles, sur laquelle nous nous attarderons en temps utile à propos de la théorie du champ.

 

Mais à l’époque, il ne venait encore à l’idée de personne d’imaginer que l’atome puisse être représenté par une fonction d’onde.

L’œuvre majeure de Maxwell est la création de la théorie de l’électromagnétisme. Reprenant la conception des lignes de force, électrique ou magnétique, due à Michael Faraday, il introduit la notion de champ et crée en 1862 le concept de « courant de déplacement », apparaissant dans les diélectriques soumis à un champ électrique variable. Puis il montre que, de même que la variation d’un champ magnétique provoque l’apparition d’un champ électrique (phénomène d’induction découvert par Faraday), on doit admettre, symétriquement, qu’un champ magnétique est créé par la variation d’un champ électrique. Maxwell est ainsi amené à formuler les célèbres équations aux dérivées partielles qui portent son nom, condensant toutes les lois connues de l’électromagnétisme.

La mécanique ondulatoire
                         Louis de Broglie

Face à la théorie de Heisenberg, un nouveau concept était en train de naître.
En 1924, le physicien français Louis de Broglie imagina que les atomes pouvaient se comporter comme les ondes ce qui lui vaudra le prix Nobel. 

Les fréquences « quantiques » qui s’accordaient parfaitement avec la formule de Nicholson-Bohr et la constante de Planck, n’obéissaient plus tout à fait à la théorie classique de Bohr. 

Il fallait donc modifier la théorie et étant donné que personne n’avait jamais observé un électron sur son orbitale, Louis de Broglie se demanda pourquoi ne pas en arriver à une modification radicale du concept atomique… Il était un fait que ce que nous savions de certains atomes était uniquement lié aux raies spectrales et à leur intensité…

Ayant parfaitement maîtrisé les travaux d’Einstein, Louis de Broglie considéra que la lumière, avec ses propriétés ondulatoires était constituée de photons (et leur attribua avec erreur une masse). Sachant qu’il existait une relation entre l’énergie des particules et la fréquence de leurs rayonnements, de Broglie inventa la “mécanique ondulatoire”, faisant l’hypothèse qu’à toute particule de masse et de vitesse était associée une onde de longueur d’onde λ et de fréquence  ν :

                                                                

De Broglie généralise la relation des quanta  ν = E/h   à toutes les énergies et toutes les particules, plus seulement aux photons sans masse.
A partir de cette fréquence (concept ondulatoire), il peut calculer les caractéristiques de l’onde de phase de ce phénomène périodique. 

L’équation de Schrödinger

Qui est Erwin Schrödinger ?

Erwin Schrödinger est né le 12 août 1887 à Vienne, en Allemagne. Schrödinger était une personne très douée avec un large éventail d'intérêts dans différents domaines d'études. Schrödinger était connu pour aimer les disciplines scientifiques, la logique de la grammaire ancienne et la poésie allemande. (La source: Prix ​​Nobel)

Schrödinger est devenu un maître des problèmes de valeurs propres dans la physique des médias continus en 1906 jusqu'à ce qu'il serve comme officier d'artillerie pendant la Première Guerre mondiale. Après son service, il a occupé plusieurs postes dans le domaine académique.

Il fut l'assistant de grands esprits comme Hasenöhrl de 1906 à 1910, Franz Exner en même temps qu'il assistait Hasenöhrl et Max Wien en 1920.

Schrödinger a occupé des postes de professeur dans différentes universités de premier plan, Stuttgart, Breslau et Zurich, pendant six ans. Il a également occupé quelques autres postes dans diverses universités à Berlin, Oxford, Princeton, Graz. Peu après, Schrödinger a déménagé à l'Institut d'études avancées nouvellement créé à Dublin, puis est devenu directeur de l'École de physique théorique. Il est resté à Dublin jusqu'à sa retraite en 1955.

La vie de Schrödinger a été consacrée à différents domaines de la science, publiant de nombreux articles, articles et même le livre "Qu'est-ce que la vie". Schrödinger a également été crédité de la création de la base de la mécanique des ondes quantiques en 1926, maintenant connue sous le nom d'équation d'onde de Schrödinger.

Schrödinger est décédé le 4 janvier 1961 dans sa ville natale de Vienne, en Allemagne, à l'âge de 74 ans.

L’équation de Schrödinger a été établie sous sa forme primitive en 1926 par Erwin Schrödinger et a été généralisée par Paul Dirac quelques années après. Initialement, elle reprenait les idées des mathématiciens Hamilton et Félix Klein pour prolonger la théorie des ondes de matière de De Broglie.

Le théorème démontré par Schrödinger en 1926 décrit les caractéristiques d’une particule, ou plus exactement l’équation de propagation commune à toutes les ondes, appelée un « paquet d’ondes ». Si Schrödinger confirma l’hypothèse de Broglie et lui donna son assise mathématique, il n’expliquait pas ce que représentait une fonction d’onde, ce que pouvait être une onde d’électrons, d’atomes ou de molécules. Les physiciens utilisaient ces concepts mais s’interrogeaient sur leur réalité.

On peut facilement se représenter un rayon de lumière qui se propage en ondulant.
On peut aussi se représenter une onde sonore qui n’est qu’une onde de compression de l’air.
Mais comment diable pouvait-on représenter un “paquet d’ondes” ?
Que restait-il de ce “paquet d’ondes” lorsqu’il entre en collision avec un atome ?
Se brise-il vraiment en mille morceaux ainsi que le stipule l’équation de Schrödinger ?
Mais dans ce cas, l’électron doit aussi se briser, et ce n’était pas ce qui se produit dans la réalité…

Prise de bec
Credit: Getty Images/Hulton ArchiveNiels Henrik David Bohr est un physicien danois.
Il est surtout connu pour son apport à l’édification de la mécanique quantique, pour lequel il a reçu de nombreux honneurs. Il est notamment lauréat du prix Nobel de physique de 1922

En septembre 1926, Bohr invita Schrödinger à Copenhague mais tous deux restèrent inflexibles sur l’interprétation de la nouvelle théorie.

Aux yeux de Bohr, la théorie ondulatoire, de caractère continu était incompatible avec le phénomène discontinu que représentaient les « sauts quantiques ».

Pour Schrödinger, l’interprétation probabiliste était irréaliste.
Dans son esprit, l’atome devait être conçu comme un tout, une « vibration universelle » car sa fonction d’onde contenait toutes les informations de la particule.
En fait Bohr et Schrödinger n’interprétaient pas les résultats expérimentaux de la même façon. Il faudra attendre une année pour réconcilier les deux physiciens.

La fonction d’onde complexe

Pratiquement, l’équation de Schrödinger permet de calculer la forme de l’onde Y qui est associée à une particule de masse m, située au point q de coordonnées (x,y,z) au temps t. Ainsi que l’exprime la formule de Schrödinger, la fonction d’onde Y est complexe, elle incorpore un facteur « i » qui ne permet pas de se l’imaginer dans l’espace classique, ordinaire.

Comme toute variable imaginaire, « i » se représente dans un plan perpendiculaire à l’axe du temps ou de l’axe des abscisses, dans une nouvelle dimension spatiale.
Pour une fonction d’onde complexe, il faut recourir à un plan de projection complexe qui vient se superposer aux dimensions spatiales réelles x,y,z, de façon à pouvoir décrire la fonction Y dans l’espace.
Le carré de l’amplitude de probabilité, |Y|2 peut ainsi être projeté sur ces nouveaux axes réels et complexes.

Ces explications en termes probabilistes déplurent à une majorité de physiciens qui appartenaient tous à l’école déterminisme.
Ce manque de précision ne les satisfaisait pas mais il fallait s’y accoutumer, d’autant que quelques mois plus tard, Heisenberg allait encore abattre un pan de l’édifice érigé à la gloire du déterminisme.

Description de cette image, également commentée ci-aprèsEn 1926, Heisenberg fit un exposé sur la mécanique quantique à l’Université de Berlin qui éveilla l’intérêt d’Einstein.
Après le colloque, celui-ci lui avait fait remarquer que « fonder une théorie physique sur des grandeurs observables peut sans doute aboutir à des résultats mais cette sorte de philosophie n’en reste pas moins absurde.[…]
C’est seulement la théorie qui décide de ce qui peut être observé
« .
Ce commentaire surpris Heisenberg.
Ce n’est que quelques mois plus tard qu’il comprit la portée de cette remarque : c’était la clef de l’énigme quantique !
En effet, toute la question était de savoir si on observait bien la réalité au cours des expériences ou si la théorie n’imposait pas certaines limites à notre perception du réel ?

Credit: Bettmann Archive/BettmannA la fin de l’année, Pauli écrivit à Heisenberg pour lui dire qu’il avait trouvé un « point noir » dans le comportement des atomes : on ne pouvait pas attribuer une orbitale déterminée à une particule et simultanément connaître sa quantité de mouvement (son impulsion p) et sa position (q). Si l’une était mesurable, l’autre devait être « moyennée sur l’ensemble des valeurs« !

Cet étrange comportement des « q-nombres » permit à Heisenberg de trouver la solution qu’il espérait. Il comprit que la diffusion de la longueur d’onde d’une particule dans une région de l’espace plutôt qu’en un point précis signifiait que toute détermination corrélée de sa position et de sa quantité de mouvement seraient entourées d’incertitudes.


Puisque la théorie ne peut rien expliquer se dit-il, la réponse doit être indéterminée.
Nous étions en 1927, Heisenberg venait de formuler ses « relations d’incertitudes », qu’on appelle également à tord le « principe d’indétermination » car il n’a rien d’un principe malgré ce que semble signifier sa traduction anglaise.

Les relations d’incertitudes de Heisenberg

Heisenberg illustra son point de vue : en relevant la trajectoire d’un électron explique-t-il, je peux anticiper sa position et sa vitesse future.
Mais ses dimensions sont tellement petites que je dois l’éclairer avec une « lumière » de très courte longueur d’onde également, par exemple des rayons gamma.

Heisenberg démontra ainsi que plus on essayait de préciser la position d’une particule plus son mouvement devenait incertain.
L’énergie du rayonnement frappait l’électron et du même coup modifiait sa trajectoire. L’observateur « perturbait » en fait le système en cherchant à préciser les mesures de position et de vitesse.
L’énergie absorbée par l’électron modifiait sa vitesse tandis que son mouvement dépendait maintenant d’un facteur extérieur.

Heisenberg dit qu’il est en fait impossible de déterminer simultanément la position et le mouvent car les particules ne possèdent pas ces deux caractéristiques en même temps, comme cela n’a pas de sens de dire qu’une particule suit une trajectoire.

 Heisenberg appliqua le théorème de Fourier au théorème de Schrödinger : toute variation d’énergie d’une particule correspond au passage d’une fonction d’onde (1). Heisenberg formalisa cette hypothèse en tirant deux inéquations déterminées par le quantum d’action, h :

Les expériences sur l'interaction matière - rayonnement révèle que l'échange discontinu d'énergie par quanta est réglé 
par la constante universelle de Planck h dont l'unité est celle d'une action.

h=6,6253.10−34 J.s

La constante de Planck h mesure une quantité d'action, c'est-à-dire une énergie fois un temps.
On peut montrer que la dimension de l'action est aussi celle d'une distance fois une quantité de mouvement.

Les interprétations de l'effet photoélectrique et du rayonnement électromagnétique du corps noir montrent que par h est échangée,
dans les interactions entre matière et rayonnement, une certaine quantité d'action.
La constante de Planck h est aussi appelé quantum d'action et c'est sous la forme du quantum d'action h qu'apparaît le discontinu
dans la physique des systèmes microscopiques.

 

dE dt  ≥  h         (1)

dr dp  ≥ h         (2)

L’inéquation (1) signifie que même l’énergie et le temps obéissent aux principes de la physique quantique.
Le fait de connaître l’énergie d’une particule empêche de connaître la durée du phénomène.
Concrètement, plus l’énergie d’une particule est élevée, plus courte sera sa durée de vie.

L’inéquation (2) lui permet d’écrire sur base de la mécanique quantique la relation suivante :

                                                   

 

Hommage à Robert Faure

Notre ami Robert Faure
Revue française d’automatique, d’informatique et de recherche opérationnelle. Recherche opérationnelle, tome 16, no 3 (1982), p. 277-280.
ROBERT FAURE
Né en  1918
Robert Faure est mathématicien, pionnier de la Recherche Opérationnelle en France.
Ancien élève de l’École Normale Supérieure de l’Enseignement Technique ; Ingénieur du Conservatoire National des Arts et Métiers (spécialité Mécanique).
Il commença à enseigner la Recherche Opérationnelle au C.N.A.M. dès 1959, bénévolement puis fut nommé chargé d’enseignement (1969), professeur associé (1971) et professeur titulaire de la chaire de R.O. (1977), spécialement créée pour lui.
À propos de la Recherche Opérationnelle, Robert Faure aimait raconter en cours que cette discipline remontait  à la princesse  phénicienne du 9è siècle avant Jésus-Christ, Elissa (qui prit le nom de Didon plus tard quand elle fonda Carthage), princesse de Tyr  (en Phénicie, actuels Liban, Israël et Syrie) qui  devint reine de Tyr.
Mais son frère Pygmalion assassine son époux afin de prendre le pouvoir.
Horrifiée, Elissa s’enfuit.
Elle atteint l’Afrique du Nord à Byrsa (« la peau de bœuf »), citadelle proche de l’actuel Tunis, et demande asile aux autochtones.
On ne lui concède que ce que pourrait couvrir la peau d’un bœuf.
Astucieuse, elle découpe la peau en si fines lanières qu’elle obtient, bout à bout, une longueur fantastique (découpage quasi fractal…) : près de 4 km.
Avec la corde ainsi formée, elle aurait tracé un cercle en faisant ainsi son territoire et fondé (vers 814 av. J.-C.) la très célèbre ville de Carthage (Kart HAdschat = la ville neuve, au nord-est de Tunis, entre La Marsa et La Goulette) en prenant le nom latin de Didon.


‘Dido acquiert par la ruse la terre où s’élevera Carthage’ Didon (ou Elissa), fondatrice légendaire et première reine de Carthage. – ‘Dido acquiert par la ruse la terre où s’élevera Carthage’. (En 814 av JC, Didon demande au roi berbère Syfax, de lui accorder l’autorisation de fonder un royaume surses terres. Il n’accepte qu’à la condition que ce royaume ne soit pas plus grand qu’une peau de vache.Didon découpe lapeau en fines lanières et s’en sert pour délimiter le périmètre souhaité). – Illustr. de : Virgile, Énéide, I,364-368. Gravure sur bois, v. 1880. Coloration ultérieure.

'Dido acquiert par la ruse la terre où s'élevera Carthage' Didon (ou Elissa), fondatrice légendaire et première reine de Carthage. - 'Dido acquiert par la ruse la terre où s'élevera Carthage'. (En 814 av JC, Didon demande au roi berbère Syfax, de lui accorder l'autorisation de fonder un royaume sur ses terres. Il n'accepte qu'à la condition que ce royaume ne soit pas plus grand qu'une peau de vache. Didon découpe la peau en fines lanières et s'en sert pour délimiter le périmètre souhaité).Elle aurait ainsi, la première, résolu un problème de recherche opérationnelle.
L'idée de former un cercle plutôt qu'un triangle, un rectangle, un carré ou tout autre forme géométrique fermée et sans point double, place Didon au pinacle des mathématiques : elle avait donc admis sans hésiter le résultat isopérimétrique ci-après que Jacques Bernoulli prouva dans le cadre du calcul des variations :
De toutes les courbes fermées, sans point double, de longueur donnée, celle qui entoure l'aire la plus grande est le cercle.
Parallèlement dans l'industrie,Robert Faure s'est illustré en tant que conseiller scientifique d'abord auprès de la Compagnie des Machines Bull pendant une dizaine d'années puis auprès de la R.A.T.P., pendant une autre décennie.
Pionnier de l'enseignement de la R.O., il a participé à son introduction à l'École des Mines de Paris (1960), à l'École Supérieure d'Électricité (1966), à P.E.N.S.E.T., à l'Institut Biaise Pascal (devenu depuis Institut de Programmation, Paris VI), au C.E.P.I.A., etc. Il effectua aussi de nombreuses missions tant en France qu'à l'étranger.

En collaboration avec M. DENIS PAPIN et A. KAUFMANN :


Cours de calcul booléen appliqué 1ère éd., 1963, 2ème éd., 1970 (cours de mathématiques supérieures, t.V), Albin Michel, Paris.
Exercices de calcul matriciel et de calcul tensoriel, 1ère éd., 1958, 4ème éd., 1970, Eyrolles,
Paris.
Exercices De Calcul Opérationnel Avec Leurs Solutions de M. Denis-Papin
______________________________________________________________ 
Depuis septembre 1979, il avait regagné le Maroc — pays de sa jeunesse puis de son début de carrière — pour y lancer, depuis sa chaire à l'Université de Rabat, des enseignements de R.O. Il a développé une pédagogie efficace de la R.O. fondée notamment sur l'emploi systématique des graphes, permettant de l'enseigner avec succès à de vastes auditoires, évitant de la dessécher à ses seuls aspects mathématiques. Le Professeur Faure est l'auteur de nombreux ouvrages en mathématiques, électronique et surtout Recherche Opérationnelle ; en particulier du « Précis de R.O. » qui fait autorité. Il mettait la dernière main à son dernier ouvrage« Guide de la R.O », en collaboration avec le Professeur Alj, lorsque la mortl'a brutalement emporté. Guide de la recherche opérationnelle Tome 1 Abderrahmane Alj (Auteur) Robert Faure (Auteur) décembre 1997, Éd. Elsevier Masson,  collection Dunod Masson Ho Le Professeur Faure a mené de fructueuses recherches en Algèbre de Boole et programmation linéaire en nombres entiers ; en particulier il est le co-auteur d'une des premières méthodes de recherche arborescente (publiée bien avant celles de l'école américaine). Son best-seller Précis de R.O, en est à la 7ème édition Depuis sa première édition, ce précis a connu une très large diffusion qui en a fait un vecteur privilégié d’initiation et de formation à la recherche opérationnelle pour des générations d’étudiants et d’ingénieurs. Il était apprécié aussi pour l'étendue de sa culture générale; diplômé en philosophie et versé en arabe, il était également diplômé en berbère... Il n'avait pas hésité à s'engager dans la lutte contre le fascisme, notamment au sein de la 2ème D.B. Au-delà de ses compétences et ses titres, il était connu pour ses qualités humaines; d'une grande humilité, il faisait preuve d'une gentillesse et d'une solidarité — bien au-delà du cadre du travail — envers toutes les personnes l'approchant, y compris les plus modestes. Il a été créé un prix Robert Faure par la La ROADEF (Société Française de Recherche Opérationnelle et d'Aide à la Décision) Card image Ce concours, organisé tous les trois ans par la ROADEF, s'adresse à de jeunes chercheurs (35 ans maximum), membres de la ROADEF. En hommage au Professeur Robert Faure, pionnier de la Recherche Opérationnelle en France, le prix Robert Faure vise à encourager une contribution originale dans le domaine de l'aide à la décision et de la recherche opérationnelle. Une attention toute particulière est accordée aux travaux qui allient le développement de méthodes théoriques aux applications, ceci dans l'esprit des travaux de Robert Faure
_Précis de recherche opérationnelle La recherche opérationnelle (5 éd. mise à jour) / Robert Faure,... Jean-Paul Boss,... André Le Garff,... | Gallica

 

La Programmation Linéaire Appliquée - Elements De La Recherche Operationnelle : Exposé Succint De Méthodes. Enrichi D E50 Exercices Et Problèmesn Oresque Tous Résolus Et De 10 Porgrammes En Langage Évolué / Collection Programmation de robert faure
___________________________________________________________________________

BIBLIOGRAPHIE DE ROBERT FAURE
Initiation à l’électronique 1re éd. 1961, 2ème éd. 1966, Dunod, Paris (épuisé en langue
française ; disponible en langue espagnole : Iniciacion a la electronica, 2ème éd. Marcombo, Barcelone).
Aide-mémoire de mathématiques nouvelles (tome 1), 1ère éd., 1970, Dunod, Paris
(épuisé en français, mais disponible en langues espagnole, italienne, roumaine et,
notamment en russe : Cobpemehha Matematuk, éd. ; MIR, Moscou).
Précis de R.O, (4ème édition complètement refondue d’Éléments de la R.O.), Paris,
Dunod, 1979. Édition totalement refondue de « Éléments de la R.O. », GauthierVillars, 1968.
Invitation à la recherche opérationnelle (en coll. avec A. KAUFMANN), 1ère éd., 1962,
2ème éd., 5ème nouveau tirage, 1976, Dunod, Paris, ouvrage traduit en 15 langues.
La programmation linéaire appliquée, Collection Que sais-je? Num 1776, 1979, P.U.F., Paris.
Les jeux d’entreprises (en coll. avec A. KAUFMANN et A. LE GARFF), collection Que sais-je? N°892, 1ère éd., 1960, 4ème éd., 1976, P.U.F. Paris.
La recherche opérationnelle (en coll. avec J. P. Boss et A. LE GARFF), 1ère éd., 1961, 5ème éd., entièrement refondue (60èmemille), 1980, Que sais-je? N° 941, P.U.F., Paris.
En collaboration avec M. DENIS-PAPIN et A. KAUFMANN : Cours de calcul booléen appliqué 1ère éd., 1963, 2ème éd., 1970 (cours de mathématiques supérieures, t.V), Albin Michel, Paris.
Exercices de calcul matriciel et de calcul tensoriel, 1ère éd., 1958, 4ème éd., 1970, Eyrolles, Paris.
Exercices de calcul opérationnel 1ère éd., 1959, 3ème éd., 1966 (épuisé).
Structures ordonnées et algèbres de Boole (en coll. avec E. HEURGON), 1971,
Gauthier-Villars, Paris.
Mathématiques pour l’informaticien (en coll. avec B. LEMAIRE), 1ère éd., 1973,
Gauthier-Villars, Paris.
Collection PROGRAMMATION, série RECHERCHE OPÉRATIONNELLE APPLIQUÉE.
1. Chemins et flots, ordonnancements (en coll. avec C. ROUCAIROL et P. TOLLA), 1976,
Gauthier-Villars, Paris.
2. Processus stochastiques, leurs graphes, leurs usages (en coll. avec P. CHRÉTIENNE),
1974, Gauthier-Villars, Paris.
3. Éléments de programmation dynamique (J. L. LAURIERE), 1979, Gauthier-Villars,
Paris.
4. Fiabilité et renouvellement des équipements (en coll. avec J. L. LAURIERE), 1974,
Gauthier-Villars, Paris.
En outre, Robert Faure a publié de nombreux cours polycopiés et d’importants
articles.
COURS POLYCOPIÉS
Méthodes de simulation. Informations scientifiques BULL, Paris, 1962.
Concepts essentiels de mathématique nouvelle (2 fascicules) 1963-1964, École de la
Compagnie des Machines BULL, modifié en 1968 à l’intention des cadres de laR.A.T.P.
Algèbre de Boole Appliquée, Institut Biaise Pascal, 1967.
Recherche Opérationnelle (cours professé à la section « Informatique ») réf. 2067 :1ère éd., 1967, 2ème éd., 1970, École Supérieure d’Électricité, Plateau du Moulon, Gif-sur-Yvette.
Compléments de mathématiques (cours professé à la section « Informatique » de
l’École Supérieure d’Électricité, réf. 2536, v. ci-dessus).
Programmation linéaire en nombres entiers, Institut de Programmation, 1968.
Graphes et Applications C.N.A.M. et Institut de Programmation, 1970.
Processus stochastiques C.N.A.M. et Institut de Programmation, 1970.
Introduction à la Recherche Opérationnelle, École Supérieure d’Électricité, session de
perfectionnement, 1970.
Usure Fiabilité, Institut de Programmation, 1970.
Programmation dynamique, Institut de Programmation, 1971.
Pour apprendre les fondements des mathématiques nouvelles, C.E.P.I.A., 1973.
Programmation mathématique, C.N.A.M. et l’Institut de Programmation, 1974.
Pensez à la Recherche Opérationnelle (introduction attrayante à la R.O. pour les
cadres de la R.A.T.P.), R.A.T.P., 1979.
QUELQUES ARTICLES IMPORTANTS
Programmes linéaires en nombres entiers : Méthode Booléenne ; Compagnie des
Machines BULL, note interne du 25-6-1962.
Une Méthode Booléenne pour la résolution des programmes linéaires en nombres
entiers, Gestion, 6» 4, N° spécial de R.O., p. 250-260, avril 1963.
Quelques aspects de la programmation linéaire appliquée, Colloque de calcul
numérique, Lille, (6-11 juillet 1964) PST N° 157 du Ministère de l’Air.
Nouvelles recherches sur la résolution des programmes linéaires en nombres entiers,
Gestion, 8, 6, N° spécial, juin 1965.
Pour un enseignement cohérent et utile de la recherche opérationnelle, I.F.I.P.,
2nd world conference ; in Computers in Education, Informatique et enseignement,
Lecarme et Lewis éd., 1975.
Heuristique efficace : la notion de regret en recherche opérationnelle, 3ème
symposium « Méthodes heuristiques », Pologne, 1976.

Présentation de la conférence: Mais qui a peur de l’Intelligence Artificielle

Présentation de la conférence:

Mais qui a peur de l’Intelligence Artificielle

L’IA n’est pas un concept nouveau. C’est une discipline universitaire qui a été créée en 1956 et a connu, depuis, des vagues successives d’optimisme et de désenchantement suivies de pertes de financement puis de nouvelles approches, de nouveaux succès et de nouvelles sources de financement.
Pendant longtemps, la peur de l’intelligence artificielle (IA) provenait essentiellement
de technophobes et d’auteurs de science-fiction.
Aujourd’hui la mise en garde vient de personnalités qui se sont illustrées dans la technologie comme

Bill Gates le serial entrepreneur Elon Musk,

 

ou Steve Wozniak, le cofondateur
avec Steve Jobs d’Apple

 

ou encore le scientifique Stephen Hawking
Il a déclaré dans un entretien à la BBC le 2 décembre 2014 :
« Le développement d’une intelligence artificielle totale pourrait annoncer la fin de l’espèce humaine.
Elle pourrait prendre son indépendance et se reprogrammer elle-même à une vitesse accélérée […]
Les êtres humains, qui sont limités par une lente évolution
biologique, ne pourraient pas rivaliser et seraient vite dépassés. »

En 2014 plusieurs spécialistes de l’IA ont signé une lettre ouverte où l’on sent poindre
le risque de la perte de contrôle de l’homme sur la machine qu’il aura lui-même créée.
Cette conférence propose de décrire de manière compréhensible les principaux domaines de l’IA où les progrès ont été fulgurants et de dire en quoi l’IA a un haut potentiel disruptif.
La conférence se continue en expliquant les principaux concepts de l’IA.
Mais aussi  les résultats en métamathématique comme le théorème de Gödel
qui montre les limites des systèmes formels.

En 2014 plusieurs spécialistes de l’IA ont signé une lettre ouverte où l’on sent poindre le risque de la perte de contrôle de l’homme sur la machine qu’il aura lui-même créée.

Cette conférence propose de décrire de manière compréhensible les principaux domaines de l’Intelligence artificielle (IA) faible (celle d’aujourd’hui), l’intelligence artificielle forte (celle de demain) où les progrès ont été fulgurants. L’intelligence générale artificielle (AGI) est la représentation des capacités cognitives humaines généralisées dans un logiciel afin que, face à une tâche peu familière, le système d’IA puisse trouver une solution. Un système AGI pourrait théoriquement effectuer n’importe quelle tâche dont un humain est capable.

L’AGI, parfois appelée IA forte, s’opposant à l’AI faible (Weak AI), implique un système doté de connaissances complètes et de capacités de calcul cognitif telles que ses performances sont indiscernables de celles d’un humain, du moins en un domaine. Cependant, les vastes capacités intellectuelles de l’AGI seraient renforcées bien au-delà des capacités humaines par sa capacité à accéder et à traiter d’énormes quantités de données à des vitesses incroyables.

Cela s’appelle une Singularité et que certains prophétisent pour demain ou presque : 2023, 2045.

C’est en tous cas cette dernière date qu’avait choisi Time pour titrer sur sa couverture, le 21 février 2011 « 2045, l’année où l’homme devient immortel » … en téléchargeant sa conscience dans une machine.

Le terme « singularité » appliqué aux machines intelligentes renvoie à l’idée que lorsque des machines intelligentes peuvent concevoir des machines intelligentes plus intelligentes qu’elles, elles provoqueront une croissance exponentielle de l’intelligence des machines conduisant à une singularité d’intelligence infinie (ou au moins extrêmement grande).

La croyance en cette idée est basée sur une compréhension naïve de ce qu’est l’intelligence.

Par analogie, imaginons que nous disposions d’un ordinateur capable de concevoir de nouveaux ordinateurs (puces, systèmes et logiciels) plus rapidement que lui-même.

Un tel ordinateur conduirait-il à des ordinateurs infiniment rapides ou même à des ordinateurs plus rapides que tout ce que les humains pourraient construire ?

Cela pourrait accélérer le rythme des améliorations pendant un certain temps, mais à la fin il y a des limites à la façon dont les ordinateurs peuvent fonctionner.

Nous finirions au même endroit ; on arriverait juste un peu plus vite.

Il n’y aurait pas de singularité. »

Les techniques de l’IA sont méconnues, y compris par la majorité des professionnels du numérique, d’où la propagation de nombreux mythes à son sujet

C’est ce que dénonce Jean-Gabriel Ganascia dans son livre Le mythe de la singularité , professeur d’informatique à l’Université Pierre-et-Marie Curie, qu’il a publié au Seuil.

Il n’est pas content de l’attitude de ses collègues.

« Personne ne songe à ôter aux scientifiques le droit de raconter des histoires pour amuser ou pour transmettre des connaissances, mais à condition de bien séparer ce qui relève de la fiction de ce qu’ils prouvent en ayant recours aux méthodes scientifiques », écrit-il (p 99), en poursuivant en positif : « Il appartient aux scientifiques, dans la mesure de leurs compétences propres, d’indiquer les possibles et les probables pour aider les hommes à se déterminer et à agir. Il en va de leur responsabilité.»

Or, ses collègues qui prophétisent la « Singularité technologique », abusent de leur autorité en annonçant des « catastrophes absurdes », dénonce-t-il.

L’IA présente des risques bien plus prosaïques, comme toutes les technologies numériques : dans sa sécurité. Celle d’un système d’IA peut être compromise à plusieurs niveaux : dans les réseaux et le cloud, dans les capteurs, dans l’alimentation en énergie. Les bases de connaissances peuvent aussi être induites en erreur par l’injection d’informations erronées ou visant à altérer le comportement de l’IA, par exemple dans le cadre d’un diagnostic médical complexe. On peut imaginer l’apparition dans le futur d’anti-virus spécialisés pour les logiciels de machine learning.

Les dangers de l’IA, s’il en existe, sont particulièrement prégnants dans l’interaction entre les machines et le monde extérieur. Un robot n’est pas dangereux s’il tourne en mode virtuel dans une machine. Il peut le devenir s’il tient une arme dans le monde extérieur et qu’il est programmé par des forces maléfiques.

 

L’IA peut être fondamentalement limitée en raison des théorèmes d’incomplétude de Gödel

Gödel a montré que dans tout système arithmétique formel (axiomatique) suffisamment puissant F, il y a des énoncés dans F qui ne peuvent être prouvés ou réfutés dans F, c’est-à-dire que le système est incomplet. Cela signifie que, étant donné les axiomes de la théorie des nombres et de la logique propositionnelle (un système formel F), il est impossible de construire un ordinateur qui produira tous les théorèmes de F.La façon dont Gödel le montre est essentiellement en postulant d’abord un système formel d’arithmétique et puis en construisant une phrase spéciale dans ce système formel (appelé à juste titre la phrase de Gödel G ) qui exprime cette déclaration en F:

Phrase de Gödel G: « Je ne suis pas un théorème de F. »

c’est une déclaration autoréférentielle qui semble quelque peu paradoxale: la phrase implique sa propre non-théorie. Cela ne peut évidemment pas être un théorème de F, car s’il l’était, cela conduirait à une contradiction. Malheureusement, si ce n’est pas un théorème, alors F est incomplet car l’exhaustivité exige que pour toutes les déclarations de F, soit l’énoncé lui-même, soit sa négation est un théorème. Si G n’est pas un théorème de F, alors il exprime un énoncé vrai qui ne peut être prouvé dans F.

Le théorème d’incomplétude est également circulaire de la manière suivante: on peut ajouter G comme axiome supplémentaire à F, en essayant de «boucher le trou» et de rendre le système complet. Malheureusement, cela échoue en raison exactement du même argument que précédemment: encore une fois, nous construisons une autre phrase de Gödel G ‘:

Phrase de Gödel G ‘: « Je ne suis pas un théorème de F + G. »

Même si nous pouvions capturer toutes ces phrases de Gödel dans une seule expression syntaxique, disons tout G qui provient d’une classe d’expressions Gω, nous pourrons toujours construire une autre phrase de Gödel Gω + 1 etc. etc. Comme vous pouvez l’imaginer, le suivant dans la ligne des ordinaux serait 2Gω, puis Gω ** 2 etc. Par conséquent, peu importe combien nous essayons, le système restera toujours incomplet. De plus, aucun algorithme ne peut effectuer cette «Gödelization».

 Puisqu’une AGI devrait être capable d’accomplir n’importe quelle tâche intellectuelle qu’un humain peut, elle devrait également être capable d’exécuter le tour de Gödel aussi bien que nous le pouvons. Cependant, si une machine est purement computationnelle, elle doit fonctionner dans un système formel et par conséquent elle n’est pas capable de détecter sa propre incomplétude. Nous, les humains, nous pouvons penser « en dehors du système» et reconnaître ses défauts de la même manière que Gödel. Par conséquent, l’esprit est simplement plus puissant que n’importe quelle machine, quelle que soit sa vitesse et sa puissance.
La conscience humaine n’est pas algorithmique

Cet argument est fondamentalement une continuation du précédent, étendu pour accueillir nos découvertes plus récentes et renforcé par des hypothèses sur le mécanisme de notre conscience et de la physique hypothétique. Il a été exprimé à l’origine par le récent lauréat du prix Nobel Roger Penrose.

Roger Penrose, mathématicien de grande réputation, s’interroge sur le phénomène de la conscience. Il fait partie de ceux qui sont persuadés que toute action physique peut être simulée par un calcul, mais précise qu’une telle simulation ne peut par elle-même susciter le phénomène de la conscience. Il nous présente le théorème de Gödel, qui affirme qu’un système formel suffisamment vaste, ne peut être en même temps complet et consistant. Ses réflexions à ce sujet sont particulièrement intéressantes, et démontrent qu’il n’est pas possible de prouver incontestablement la validité d’un système, tout en restant dans ce système. Ce théorème nous montre clairement qu’il faut « sortir du système », pour en démontrer l’éventuelle validité. R. Penrose tire du théorème de Gödel la conclusion que la notion de système formel échoue à rendre compte même du plus fondamental des concepts axiomatiques. En ce qui concerne la conscience, il faut donc faire appel à un processus « non calculable ».

La conférence cite bien sûr  les personnes les plus proéminentes de l’IA qui ont fortement contribué à la création  des concepts de l’IA, notamment le Machine learning et surtout le Deep Learning qui a permis de mettre au point des Algorithmes comme AlphaZero, dérivé du célèbre AlphaGo

qui a battu le maître coréen du jeu de Go Lee Sedol.
AlphaZero  après  avoir battu à plates coutures les meilleurs humains au jeu de go, le programme d’intelligence artificielle développé par DeepMind, une entreprise de Google est parvenue en quelques heures d’entraînement (oui c’est un programme capable d’apprendre) à égaler Stockfish qui est considéré comme le meilleur programme d’échec
– Stockfish est un programme hautement spécialisé conçu dès le départ pour le jeu d’échec!
Ces performances sont à l’initiative du Chercheur Français
Yann Le Cun actuellement professeur à l’université de New York et directeur du laboratoire de recherche en intelligence artificielle de Facebook (FAIR)
J’essaye de montrer le plus simplement possible comment fonctionne le Machine Learning et le Deep Learning.
Des exemples d’applications sont donnés.

Cette conférence se propose de dire si vraiment l’IA a ce haut potentiel disruptif que les nouveaux prophètes de la technologie annoncent.

 

La Conférence

Pour progresser cliquez dans la diapositive, mais pas pas sur un lien

Libertés et informatique – Le Zoo informatique

Classé dans : Apprendre, Informatique, Internet, Web | 0

Le Zoo informatique

Introduction

L’Internet est un organisme vivant attaqué par des ennemis. Internet est un organisme vivant pollué par une myriade de parasites.

Chaque ordinateur en est une cellule, isolée ou connectée aux autres, qui risque la contamination plusieurs milliers de fois par seconde.

Comme tout organisme, il a ses forces et ses faiblesses, ses ennemis et ses défenseurs

. Votre ordinateur a six grandes classes d’ennemis :

Les parasites viraux : Les virus Les parasites non viraux, globalement appelés Spywares ou Trojans et qui, en réalité, couvrent une foule de classes de parasites dont :

Adware · Anarchy · ANSI Bomb · AOL Pest · Backdoor · Binder · Browser Helper Object · Carding · Commercial RAT · Cracking Doc · Cracking Misc

L’Internet est un organisme avec ses défenseurs

A chacun de ces ennemis correspond une contre-mesure : les antivirus, les anti-trojans / anti-spywares, les pare-feu (firewall), les anti-pub, les anti-spam et les antivols.

Celui qui par qui tout a commencé (l’informatique, les virus …)

John Louis von Neumann

Fondamentalement, ce qui différencie un virus d’un autre programme informatique, c’est sa capacité à se reproduire.

Cette capacité s’appuie sur la théorie des automates cellulaires développée par John Louis von Neumann.

John von Neumann, né Neumann János Lajos en 1903 à Budapest et mort en 1957 à Washington, est un mathématicien et physicien américano-hongrois.

Il a apporté d’importantes contributions tant en mécanique quantique qu’en analyse fonctionnelle, en théorie des ensembles, en informatique (John Louis von Neumann est considéré comme étant le père des ordinateurs), en sciences économiques (on lui doit avec Morgenstein la théorie des jeux) ainsi que dans beaucoup d’autres domaines des mathématiques et de la physique.

Il a de plus participé aux programmes militaires américains.

Arthur Burks.jpg
Arthur Burks

John von Neumann a développé sa théorie relative à la structure formelle des automates et des machines reproductrices dans une série d’articles, publiés en 1949: « Theory and organization of complicated Automata« .

Sa théorie se fonde sur les principes de la machine de Turing où le concept de machine à calculer est étendu à celui de machine à construire.

John Louis von Neumann est mort sans avoir pu terminer la démonstration de sa théorie.

C’est l’un de ses étudiants, Arthur Burks, qui va terminer son travail et en publier les résultats, en 1966, dans « Theory of self reproducing automata by John von Neumann ».

Définition formelle d’un virus

Un virus informatique est un automate auto réplicatif à la base non malveillant, mais aujourd’hui souvent additionné de code malveillant (donc classifié comme logiciel malveillant),
conçu pour se propager à d’autres ordinateurs en s’insérant dans des logiciels légitimes, appelés « hôtes ».

Le Virus peut donc perturber plus ou moins gravement le fonctionnement de l’ordinateur infecté.

Il peut se répandre par tout moyen d’échange de données numériques comme les réseaux informatiques et les cédéroms, les clefs USB, etc.

Séquence de reproduction

C’est l’objectif premier du virus.

Elle inclut une fonctionnalité de recherche, qui permet de rechercher des fichiers à infecter.

Elle permet aussi au virus de vérifier d’abord que le fichier n’est pas déjà infecté, pour ne l’infecter que le cas échéant.

En effet, un virus ne doit pas se reproduire deux fois dans un fichier, car son comportement serait alors faussé.

Condition

Il s’agit tout simplement de la partie qui va conditionner le lancement de l’action qu’est censé accomplir le virus.

En effet, le virus a toujours un objectif précis (détruire des fichiers, casser le système d’exploitation et bien d’autres choses encore).

C’est la séquence de commande (ou de destruction) qui est chargée de cette action.

Elle est déclenchée lorsque la condition est satisfaite.

Cette dernière peut-être de diverses forme (une date, un action particulière de l’utilisateur, une réaction spécifique de l’ordinateur…).

Les développeurs de virus font preuve de toujours plus d’imagination pour trouver des conditions de déclenchement de plus en plus originales et spécifiques.

Cette condition peut aussi être à l’origine du bon fonctionnement ou non du virus.

Séquence de commandes

C’est elle qui effectue l’action du virus.

Cela peut être soit détruire des fichiers, soit effacer complètement le disque dur, soit formater une partition…

Séquence de camouflage

Malgré leur petite taille, les virus peuvent être vite repérés (pour certains).

Les développeurs de virus ont donc élaboré plusieurs techniques pour cacher le virus.

Il existe plusieurs techniques. Il existe des virus dits polymorphes et même furtifs.

Le zoo informatique Virus, spywares et autres vermines informatiques, comment s’en prémunir ?

Qui ne s’est pas un jour fait infecter par un virus ? Tous ceux qui possèdent un ordinateur ont malheureusement déjà entendu parler des virus informatiques, peut-être sans vraiment savoir ce que c’est ni comment s’en prémunir. Cette conférence propose donc d’y voir plus clair et de faire le point sur ces petites bêtes qui, à l’instar des virus biologiques, cherchent à contaminer tout ce qu’ils peuvent et qui, bien souvent, nous compliquent considérablement l’existence !

Historique

1986 : le premier virus sort des laboratoires. Deux frères pakistanais, Basit et Amjad Alvi, propriétaires d’une petite boutique d’informatique à Lahore, remplacent le code exécutable du secteur d’amorce des disquettes par leur propre programme.

En clair, chaque personne qui utiliserait une copie illégale de leur logiciel médical serait infecté par Brain !    La sentence était assez terrible, puisque l’ordinateur affichait cet écran au démarrage sans moyen d’aller plus loin

Il s’agit là du premier virus se propageant en dehors de l’environnement de laboratoires et capable d’infecter des disquettes.

Le secteur de démarrage d’une disquette infectée

Baptisé « Brain », il modifie le nom de volume des disquettes.

Ce virus a fait de nombreux ravages dans des universités Américaines et Israéliennes, en 1987 notamment.

Brain est le premier virus informatique de grande ampleur connu.

Le secteur de démarrage d’une disquette infectée

Les frères Alvi fournissent aux touristes étrangers des logiciels piratés qui ont été copiés sur des disquettes contaminées par Brain.

Lors de l’utilisation de la disquette, un message s’affiche, demandant à l’utilisateur de prendre contact avec les frères ALVI pour obtenir l’antivirus

 

 

 

Afficher l’image source
Fred Cohen

Fred Cohen En 1983, un étudiant en programmation Fred Cohen de l’Université de Californie a conçu sazdadva premier virus informatique. Ce virus était capable de contrôler complètement le système informatique et de gérer toutes ses fonctions. Fred Cohen n’a jamais été tenu pénalement responsable, car les développements ont été utilisés dans le cadre dz l’éducation. Aujourd’hui, il gère une entreprise engagée dans la sécurité de l’information.
Fred Cohen s’est fait remarquer pour ses recherches révolutionnaires sur les virus informatiques lorsqu’il était étudiant diplômé

Selon la définition donnée par Fred Cohen, le premier chercheur qui a décrit le phénomène dans une thèse publiée en 1985, (« A virus is a program that is able to infect other programs by modifying them to include a possibly evolved copy of itself. » ) le virus est un programme informatique capable d’infecter d’autres programmes en les modifiant afin d’y intégrer une copie de lui-même qui pourra avoir légèrement évolué.

A la manière de son frère biologique, le virus informatique se reproduit rapidement à l’intérieur de l’environnement infecté à l’insu de l’utilisateur.
Indépendamment de sa fonction reproductive, le virus contient généralement une charge qui peut causer des dégâts insignifiants ou redoutables.

Fred Cohen, PDG de Management Analytics
Fred Cohen aujourd’hui, PDG de Management Analytics

à la School of Engineering de l’Université de Californie du Sud. En plus de son travail de pionnier sur l’assurance de l’information, Cohen a mené des recherches sur l’utilisation de la tromperie pour la protection de l’information, un domaine dans lequel il détient plusieurs brevets.

Aujourd’hui, Cohen est un expert mondialement reconnu en matière de sécurité stratégique et de protection de l’information. En tant que PDG de Management Analytics, un cabinet de conseil en sécurité et gestion des risques qu’il a fondé, Cohen fournit des services de conseil et de contentieux ; il est également témoin expert et examinateur en criminalistique numérique et auteur de nombreux livres et articles, y compris des travaux récents sur l’intelligence artificielle et l’apprentissage automatique chez TechVision Research, où il est analyste-conseil principal

Concernant la stratégie à mener en terme de sécurité, Fred Cohen a déclaré:
«La première chose est de définir ce que vous essayez d’accomplir. La sécurité signifie le sentiment de sécurité — quand je l’ai recherché dans le dictionnaire en 1980. Je travaille dans le domaine de la protection de l’information, la protection consistant à « empêcher les gens de nuire ». Les bits iront bien – vous ne pouvez pas nuire à un un ou à un zéro ; le mal est la conséquence de changements dans l’environnement extérieur. J’analyse la cybersécurité comme « la protection des personnes contre les effets des systèmes de contrôle cybernétiques ».

 

Les hackers, les pirates ont toujours été regardé avec un certain respect, car ce sont des passionnés d'informatique avec de grandes connaissances.                    Ils affirment qu'ils ne sont pas des criminels, mais simplement des curieux avec de solides compétences en informatique.

Qu’est-ce que le piratage ?

Le piratage est un terme générique qui englobe une variété d’activités destinées à compromettre des ordinateurs et réseaux. Il fait référence à toute intrusion non autorisée dans un appareil, un réseau ou un serveur quiRésultat d’images pour hackers enfreint la vie privée de leurs propriétaires et utilisateurs et/ou vise à endommager ou compromettre de toute manière les propriétés présentes sur les ordinateurs telles que les fichiers, les programmes et sites web.           Ce terme peut certes aussi faire référence à des activités non malveillantes, mais il est aussi souvent associé à des tentatives malveillantes d’exploiter les vulnérabilités d’un système pour le bénéfice de l’auteur.

Les personnes qui pratiquent le piratage sont généralement appelés « pirates ». Utilisé pour la première fois dans un article de magazine en 1980, ce terme fut popularisé quelques années plus tard par les films « Tron » et « WarGames ».

(d’après le site https://fr.malwarebytes.com/hacker/)

En fait, il est juste d’identifier le piratage informatique comme un terme générique permettant de désigner l’activité à l’origine de la plupart sinon de la totalité des malwares et des cyberattaques malveillantes à l’encontre du public informatique, des entreprises et des gouvernements. En plus de l’ingénierie sociale et du malvertising, les techniques de piratage courantes comprennent :

Graphique: Les plus grands coups de piratage informatique | Statista
Botnets
Piratages de navigateur
Attaques par déni de service (DDoS)
Ransomwares
Rootkits
Chevaux de Troie
Virus
Vers

En tant que tel, le piratage a évolué de la blague d’adolescent à une entreprise en pleine croissance d’un milliard de dollars, dont les représentants ont établi une infrastructure criminelle qui développe et vend des outils de piratage clé en main à des escrocs en devenir dotés de compétences techniques moins sophistiquées (connus sous le nom de « script kiddies » – pirates avec peu ou pas de compétence de codage). Par exemple, consultez ; ransomware-as-a-service (les ransomwares en tant que service).

Dans un autre exemple, les utilisateurs Windows sont la cible d’une attaque cybercriminelle de grande envergure qui offre un accès à distance aux systèmes informatiques pour seulement 10 dollars via une boutique consacrée au piratage sur le dark web, ce qui peut potentiellement permettre aux malfaiteurs de voler des informations, perturber les systèmes, déployer des ransomwares, etc. Les systèmes à vendre sur le forum vont de Windows XP à Windows 10. Les propriétaires des boutiques offrent même des conseils sur comment utiliser des identifiants illicites pour rester indétectables.

Quelques conseils gouvernementaux pour mieux se protéger des Pirates

 

 

Dix règles pour vous prémunir contre le piratage de vos données personnelles

 

 

 

 

 

Quelques Pirates parmi les plus célèbres

Graham Ivan Clark, teen behind Twitter hack, pleads not guiltyBarack Obama, Bill Gates, Kanye West et Elon Musk  réclament des bitcoins sur Twitter. Si c’est le cas, cela  a peut-être permis de passer à travers l’acte de piratage massif de Graham Ivan Clark qu’il a lancé sur Twitter au cours de l’été 2020 et qui a valu au jeune Clark de compter parmi les pirates les plus célèbres au monde.

Du haut de ses 17 ans, Clark et ses acolytes ont réussi à pirater le réseau social géant (à l’aide d’un outil interne de Twitter) et à prendre le contrôle d’un grand nombre de comptes de personnes de grande notoriété dans une vaste arnaque au Bitcoin. Les pirates se sont servis de comptes compromis pour tweeter un message promettant 2 000 dollars en bitcoin à quiconque leur enverrait 1 000 dollars dans cette même cryptomonnaie.

Naturellement, le portefeuille de bitcoins inclus dans le tweet était contrôlé par les pirates.

Au final, cette attaque de piratage de personnes a escroqué les victimes de plus de 100 000 dollars.

Clark a été condamné à une peine d’emprisonnement de trois ans en 2021, évitant ainsi une peine minimale de 10 ans qu’il aurait encourue s’il avait été majeur.

 

Selon des responsables du département américain de la sécurité, Kevin Mitnick est toujours connu comme « le criminel informatique le plus recherché de l’histoire des États-Unis ». Ses « exploits » sont même immortalisés dans deux films hollywoodiens – « Takedown » et « Freedom Downtime ».

 

Kevin Mitnick
Kevin Mitnick

Kevin Mitnick a commencé sa carrière professionnelle à 12 ans il a démantelé le système de cartes de transport de Los Angeles, ce qui lui permettait de      rouler gratuitement dans les transports en commun.
Sa première réalisation majeure remonte à 1979, lorsqu'il a pu pénétrer dans le système informatique de l'entreprise DEC (Digital Equipment Corporation) et copier des logiciels si sa série "exploits" informatiques, y compris le décodage des réseaux téléphoniques, le vol de secrets d'entreprise et même la sécurité nationale. Agence.
Il a été déclaré "le criminel informatique le plus recherché de l'histoire des États-Unis". En 1995, il a été capturé et a passé cinq ans en prison. Par la suite Mitnick a servi et puni, lui interdisant l'accès à tout équipement électronique.
Actuellement, Kevin Mitnick est un membre utile de la société, a la société de sécurité.


Kevin Paulson, surnommé Black Lace est devenu célèbre lorsqu'il a piraté le système téléphonique de radio KIIS FM. La radio a annoncé une récompense consistant en une  Porsche pour le 102ème auditeur qui appellerait. En entendant cela, Kevin Paulson a réussi à s'infiltrer dans le réseau téléphonique pour qu'il soit justement le 102ème appelant et remporter ainsi le prix. Après une série de crimes similaires. Le FBI commence à rechercher Paulson après qu'il ait pénétré dans leur base de données et ait eu accès à des informations secrètes sur  des appels téléphoniques. Il a été capturé en 1991 et condamné à cinq ans de prison. Aujourd'hui, l'ancien hacker était rédacteur en chef de "Wired News". 

L'un de ses articles les plus populaires décrit comment il a découvert 744 délinquants sexuels avec des profils sur Myspace.

Robert Morris

Le premier à avoir introduit un virus appelé ver informatique sur Internet. Le virus a frappé 6000 ordinateurs à l'Université "Cornell" en 1988. et causant desAfficher les détails de l’image associée  pertes valant des millions de dollars. Morris a expliqué devant le tribunal qu'il l'avait fait pour comprendre "quelle était la taille d'Internet à cette époque".                                                                                                                                                    Robert Morris a été le premier homme condamné en vertu du ComputerFraud and Abuse Act.Le ver Morris ne fut pas écrit pour causer des dommages mais pour se propager. Des erreurs dans le code l'ont toutefois rendu plus dangereux : un ordinateur pouvait être infecté plus d'une fois et chaque processus additionnel  ralentissait la machine au point de la rendre inutilisable.
Le ver Morris exploitait deux vulnérabilités connues dans sendmailfingerd, et dans la faiblesse de mots de passe de certains utilisateurs.La faille de sendmail se situait dans la possibilité, en mode 'DEBUG', d'envoyer des fichiers sur une machine distante en utilisant un shell.  Le ver Morris a parfois été appelé le « Grand ver » (Great Worm) à cause de l'effet dévastateur qu'il avait eu sur l'Internet à cette époque, autant pour les pannes causées que pour l'impact psychologique qu'il a eu sur la perception qu'on avait de la sécurité et de la fiabilité de l'Internet. Ce nom dérive des Great Worms de Tolkien, nommés Scatha et Glaurung (Dans l'histoire fantastique de ses livres sur la Terre du Milieu, il y avait des dragons assez puissants pour dévaster des régions entières ; deux d'entre eux (Scatha et Glaurung) étaient connus comme "les Grands Vers")
Il est actuellement professeur et consultant au Laboratoire d'informatique et d'intelligence artificielle du MIT.

L’ingénierie sociale

Les fragilités humaines : L'ingénierie sociale | IHEMIL’ingénierie sociale est l’un des principaux risques sur internet, et en même temps l’un des plus simples.Les attaques d'ingénierie sociale 7 qui vont ruiner une bonne humeur

Le principe est de considérer qu’on obtiendra plus facilement des informations d’une personne que d’une machine ou d’un logiciel.

L’objectif est de soutirer à l’utilisateur son mot de passe ou toute information utile à une intrusion ou une surveillance.

La méthode classique est de passer un faux message de maintenance, par téléphone ou par courriel, en usurpant l’identité d’un administrateur ou d’un chargé de clientèle et en demandant son mot de passe à l’utilisateur.

En envoyant un tel message à tout un groupe d’utilisateurs, on multiplie les chances d’avoir des réponses positives, ce qui dans le cas de fonctionnement en réseau donne un point d’accès.

Un autre aspect de l’ingénierie sociale est d’essayer de deviner un mot de passe en fonction du contexte : prénoms des enfants, dates de naissance, personnages historiques sont des mots de passe souvent utilisés.

Phishing

L’une des formes les plus courantes d’attaques d’ingénierie sociale, l’hameçonnage est un courriel frauduleux ou un site Web conçu pour inciter les gens à révéler des informations privées (nom d’utilisateur, mots de passe, informations de carte de crédit, etc.) ou télécharger des logiciels malveillants. Les courriels d’hameçonnage réussis reposent sur des tactiques de peur, comme des courriels urgents de votre banque ou d’une autre institution financière, «trop bonnes pour être vraies», comme des offres de produits bon marché ou difficiles à trouver ou votre sens du devoir envers votre employeur. le voleur de données usurpera l’identité de votre patron ou d’un autre personnage de haut niveau de votre entreprise. Le but de l’hameçonnage est d’amener la victime à entrer un mot de passe ou un nom d’utilisateur sur une page d’atterrissage bidon qui semble presque identique à la réalité, ou de télécharger un logiciel malveillant sur son appareil.

Avec près de 1.5 millions de sites d’hameçonnage en cours de création chaque mois, le phishing continue de sévir dans les entreprises.

Spear Phishing

Spear phishing est un type d’attaque d’hameçonnage plus spécifique et ciblé qui vise à obtenir des informations d’identification spécifiques auprès d’un utilisateur ou d’une entreprise spécifique. Plus fortement étudié qu’une attaque de phishing générique, les attaques de spear phishing usurperont généralement l’identité d’une personne dans le but d’escroquer une autre personne spécifique. Un exemple courant de harponnage est lorsqu’un criminel se présente en tant que PDG et envoie un e-mail à quelqu’un du département des finances pour demander que les fonds soient immédiatement transférés sur un certain compte bancaire. Souvent, ne voulant pas offenser leur patron, la personne des finances peut contourner certains processus dans le but de l’abattre rapidement.

Le cyber-criminel, dans ce cas, utilisera une adresse e-mail qui ressemble beaucoup à l’adresse e-mail du PDG. Voilà pourquoi il est important de éduquer les employés sur phis communhtechniques, afin qu’ils sachent quoi regarder.

Cybermenace : Appel à la vigilance face au phishing | Numeryx

Comment se protéger face au phishing ? La vigilance est de mise.

Dans le cas de la réception d’un e-mail de phishing :

  • Ne pas faire confiance au nom de l’expéditeur du mail. En cas de doute, contacter l’expéditeur par un autre biais ;
  • Ne jamais ouvrir une pièce jointe dont l’expéditeur est soit inconnu soit d’une confiance relative ;
  • Ne pas répondre à une demande d’informations confidentielles par mail (code d’accès et mots de passe, code de carte bleue…) ;
  • Vérifier les liens en passant la souris au-dessus (sans cliquer) pour s’assurer qu’ils renvoient vers des sites de confiance ;
  • Être attentif à la qualité du langage utilisé par l’expéditeur du mail.

Dans le cas de la visite d’un site phishing :

  • Faire attention à l’orthographe de l’URL ;
  • Vérifier que le site visité est sécurisé et authentifié par un certificat SSL ;
  • Vérifier les données propriétaires du site.

Objectifs de la sécurité informatique

La sécurité informatique vise généralement cinq principaux objectifs :

L’intégrité
Vérifier l’intégrité des données consiste à déterminer si les données n’ont pas été altérées durant la communication (de manière fortuite ou intentionnelle).

La confidentialité
La confidentialité consiste à rendre l’information inintelligible à d’autres personnes que les seuls acteurs de la transaction.

La disponibilité
L’objectif de la disponibilité est de garantir l’accès à un service ou à des ressources.

La non-répudiation
La non-répudiation de l’information est la garantie qu’aucun des correspondants ne pourra nier la transaction.

L’authentification
L’authentification consiste à assurer l’identité d’un utilisateur, c’est-à-dire de garantir à chacun des correspondants que son partenaire est bien celui qu’il croit être.

Le système d’information est généralement défini par l’ensemble des données et des ressources matérielles et logicielles de l’entreprise permettant de les stocker ou de les faire circuler.

Le système d’information représente un patrimoine essentiel de l’entreprise, qu’il convient de protéger.

La sécurité informatique, d’une manière générale, consiste à assurer que les ressources matérielles ou logicielles d’une organisation sont uniquement utilisées dans le cadre prévu.

Un contrôle d’accès peut permettre (par exemple par le moyen d’un mot de passe qui devra être crypté) l’accès à des ressources uniquement aux personnes autorisées.

 

 

Qu’est-ce qu’un virus informatique?

Qu'est-ce qu'une porte dérobée et comment prévenir les attaques de virus de porte dérobée ? - GeekflareLes virus, qui comptent parmi les plus anciens types de menaces informatiques, sont de petits morceaux de Résultat d’images pour virus malveillantcode malveillants qui prennent le contrôle des ressources de votre ordinateur pour se répliquer, se diffuser et causer toutes sortes de problèmes.MALWARE : Comment les prévenir, les détecter et s'en remettre
Un virus informatique est un type spécifique de logiciel malveillant, mais la plupart des utilisateurs font généralement référence à des infections ou à des virus. En fait, un virus est un type de programme qui lors de l’exécution se réplique en modifiant d’autres programmes et en insérant son propre code. Une fois la réplication effectuée, les zones touchées deviennent “infecté” avec le virus informatique.

Les virus sont de plus en plus diversifiés en types. De simples dangers qui sont inoffensifs et faits pour se moquer des gens pour leur mauvaise cybersécurité ou qui renforcent l’ego d’un pirate adolescent, ils sont devenus la seule raison pour laquelle il y a tant d’attaques et de failles dans les organisations et la sécurité des réseaux. En outre, les cybermenaces sont devenues si graves qu’un virus informatique spécifique peut avoir le potentiel de perturber les principales installations du gouvernement et même les installations d’énergie atomique. Et maintenant, avec la variété de dispositifs de plus en plus là-bas, il est important de savoir comment fonctionnent les différents types d’infections et comment s’en protéger. Puisqu’il devient plus difficile pour l’utilisateur régulier de suivre une telle diversité, nous avons décidé de séparer les infections en plusieurs catégories principales et de fournir des explications pour chacune.

Tous les logiciels qui s’en prennent aux PC ne sont pas des virus. Les virus informatiques ne sont qu’un type de malwares (logiciels malveillants) parmi tant d’autres. Voici une sélection des malwares les plus courants :Résultat d’images pour malware

  • Chevaux de Troie : Résultat d’images pour Cheval De Troie Virusnommé d’après le célèbre cheval grec, ce malware se fait passer pour un logiciel légitime et inoffensif (ou Malware : définition et comment s'en débarrassers’introduit dans un logiciel légitime) pour induire l’utilisateur en erreur et permettre à d’autres malwares d’infecter son PC.L’un des premiers Chevaux de Troie à être largement connu est le premier logiciel de rançongiciel (ransomware) vu dans la nature sous le nom de «  AIDS Trojande 1989« . Ce code malveillant a été distribué par courrier postal sur des disquettes censées contenir une base de données interactive associée à la maladie du SIDA.

Résultat d’images pour Spywares

 

  • Spywares : un exemple connu de spyware (logiciel espion) est l’enregistreur de frappe. Un enregistreur de frappe est un logiciel ou un élément matériel conçu pour enregistrer ce que vous écrivez. Il peut s’agir d’un programme installé sur votre ordinateur ou d’un petit appareil connecté à votre ordinateur et à votre clavier, qui garde une trace de tout ce que vous avez tapé.

Comme leur nom l’indique, les spywares sont conçus pour espionner les utilisateurs, enregistrer leurs mots de passe, données bancaires et personnelles, suivre leur comportements en ligne. Ils renvoient toutes ces informations à leur programmateur.

  • Vers : ce type de malware cible des réseaux entiers d’appareils, passant d’un PC à l’autre. Ces programmes sont des virus qui se propagentVers Def Virus d’eux-mêmes.Un ver est une forme de malware (logiciel malveillant) qui fonctionne comme une application autonome et peut se transférer et se copier d’un ordinateur à l’autre.C’est cette capacité à fonctionner de manière autonome, sans avoir besoin d’un fichier hôte ou de détourner du code sur l’ordinateur hôte, qui distingue les vers des autres formes de logiciels malveillants .Une fois activés, ils perturbent souvent les systèmes informatiques et se propagent par e-mail ou via des réseaux à d’autres ordinateurs. La réplication et la propagation des vers peuvent perturber des réseaux entiers en raison du simple trafic généré et de l’utilisation inutile des ressources système.es vers peuvent également délivrer une charge utile et épuiser les ressources. Par exemple, un ver de messagerie envoie une copie de lui-même à toutes les personnes figurant dans la liste de contacts de messagerie d’un utilisateur infecté.Résultat d’images pour Worm Virus Mydoom Lorsqu’il atteint les boîtes de réception des destinataires, toute personne qui exécute le ver l’envoie à sa liste de contacts

Résultat d’images pour Worm Virus Love Bug.Les vers de messagerie épuisent l’espace de stockage et se propagent très rapidement sur l’internet, de sorte qu’ils posent des problèmes différents de ceux d’un virus.

  • Parmi les exemples notables de vers Internet dans le passé, citons : Mydoom, Love Bug et Code Red.

 

 

 

  • Adwares : ce type de malwares extrêmement agaçant inonde les victimes de publicités et ouvre des points de sécurité vulnérables pour que d’autresLes adwares et les virus sont tous deux des malwares. malwares puissentRésultat d’images pour Adwares  s’infiltrer.

Les virus ne sont qu’une des nombreuses sortes de malwares qui existent.

 

 

 

 

 

  • En théorie, les chevaux de Troie (trojans), les ransomwares et autres malwares ne sont pas des virus informatiques mais on utilise généralement le terme « virus » pour désigner tout les logiciels malveillants.

 

 

  • les chevaux de Troie (trojans)Chevaux de Troie utilisant les portes dérobées (backdoor)
    une porte dérobée (ou backdoor) est une ouverture laissée dans un logiciel permettant d’y retourner après sa conception. Elle peut être créée consciemment par les développeurs ou résulter d’erreurs de conception.

Théoriquement, une porte dérobée, c’est comme une porte normale : on la construit en même temps que le reste de l’édifice. En informatique, une backdoor est soit créée consciemment par les développeurs, soit à la suite d’erreurs de conception. Dans ces cas-là, on les découvre souvent après la sortie du système. Mais avec l’essor de logiciels malveillants comme les chevaux de Troie, il est aussi possible d’ouvrir des portes dérobées après coup, en exploitant des vulnérabilités.

Résultat d’images pour Trickbot
Trickbot, considéré comme l’un des réseaux de cybercriminalité les plus importants et actifs au monde, vient de subir les assauts du Cyber Command américain, l’équivalent militaire de la NSA, et de Microsoft.

Ces chevaux de Troie font partie des plus simples, mais potentiellement des plus dangereux. En effet, ils peuvent charger toutes sortes de programmes malveillants sur votre système en faisant office de passerelles ou s’assurer que votre ordinateur est suffisamment vulnérable pour faire l’objet d’une attaque. Une porte dérobée est souvent utilisée pour configurer des botnets. Votre ordinateur fait alors partie sans que vous n’en ayez connaissance d’un réseau zombie utilisé pour les attaques. En outre, les portes dérobées peuvent permettre l’exécution de code et de commandes sur votre appareil ou de surveiller votre trafic Web.

Decrypting AgentTesla strings and config | by Mario Henkel | MediumEn 2021, malgré les efforts déployés au niveau international pour éliminer les chevaux de Troie les plus connus comme Trickbot, Emotet, Dridex et AgentTesla, les cybercriminels ont continué à exploiter cette famille de logiciels malveillants tristement célèbre.

Trickbot, considéré comme l’un des réseaux de cybercriminalité les plus importants et actifs au monde, vient de subir les assauts du Cyber Command américain, l’équivalent militaire de la NSA, et de Microsoft.

Le malware Agent Tesla a été déployé sous le couvert de campagnes de phishing sur le thème de Covid-19 pour exploiter deux vulnérabilités à fort impact trouvées dans Microsoft Office en 2017, ont découvert des chercheurs en sécurité.

Le cheval de Troie d’accès à distance (RAT) a été introduit clandestinement dans des pièces jointes avec des exécutables à double extension comme ZIP et RAR, selon un article de blog publié par Quick Heal Security Labs le 24 avril.

Un cheval de Troie d’accès à distance (RAT) est un type de logiciel malveillant qui permet une surveillance secrète, une porte dérobée pour le contrôle administratif et un accès à distance sans entrave et non autorisé à la machine d’une victime. Le RAT est très dangereux car il permet aux intrus de prendre le contrôle à distance de l’ordinateur compromis.

Comment identifier et éliminer un Trojan ?

Le concept d’un cheval de Troie (Trojan) étant de tromper les utilisateurs de manière indétectable, il n’est pas toujours facile à attraper et les infections de chevaux de Troie sont en augmentation. Il est préférable d’être sceptique et de vérifier deux fois que vous savez ce que vous téléchargez ou ce sur quoi vous cliquez, afin de ne pas risquer de télécharger un programme contrefait. Restez informé et prêtez une attention particulière au langage utilisé dans les courriels ou sur les sites web que vous visitez, surtout s’ils vous demandent de télécharger un logiciel.

Méthodes de protection

Si vous avez encore des doutes sur la possibilité de détecter les chevaux de Troie par vous-même, la meilleure protection pour garder votre système propre est d’installer une solution de sécurité qui protège tous vos appareils. Cependant, faites aussi votre part et évitez de visiter des sites suspects, de suivre des liens inconnus ou de télécharger des jeux, de la musique ou des films pirates à partir de sources douteuses.

Les virus informatiques les plus dangereux

1. ILOVEYOU : la pièce jointe fatale 

Afficher l’image sourceCe virus informatique existe depuis les années 2000 et a fait des millions de victimes à travers le monde. Néanmoins, bonne nouvelle : son mode opératoire est connu. Résultat d’images pour ILOVEYOU virusMalgré tout, de nombreux internautes naïfs tombent encore dans le piège de ce virus.

Comment ? En ouvrant une pièce jointe intitulée « Love-Letter-for-you.txt.vbs » dans leur boîte mails.

A peine ouverte, cette pièce jointe libère le virus informatique.

Dès lors, tous les fichiers se trouvant sur votre ordinateur sont modifiés et les hackers ont accès à votre carnet d’adresses.

Ils s’en serviront pour envoyer des e-mails à vos contacts, puis très vite votre appareil souffrira d’un ralentissement. 

 

 

 

2. CryptoLocker : le « rançongiciel » qui va vous plumer Afficher l’image source

Afficher l’image sourceLes « rançongiciels » ou ransomwares sont des virus qui sévissent depuis 2013.

Parmi eux, l’un des virus informatiques les plus dangereux : CryptoLocker.

Il peut s’infiltrer via un e-mail, sur un site de téléchargement ou un site de partage de fichiers.

Dès que vous ouvrez le fichier contaminé, un écran apparaît vous informant que votre ordinateur est bloqué et que, pour le débloquer, vous devrez payer une rançon.

Si vous ne le faites pas dans le temps imparti, les hackers vous indiquent que toutes les données de votre PC seront détruites. 

 

Exemple de logiciel de rançon :

 

FBI Moneypak Ransomware,  sous le pseudo sceau du FBI. Il bloque votre ordinateur en affichant une fenêtre vous indiquant que vous avez violez, par exemple le droit d’auteur et qu’il sera débloqué sous réserve de payer une certaine somme.

Le rançongiciel FBI commence souvent par être téléchargé accidentellement ou en visitant un site Web corrompu et en exécutant une application avec un code JavaScript modifié.  Le virus commence par un écran de démarrage qui contient le logo officiel du FBI avec un avertissement indiquant que l’ordinateur a été verrouillé. Selon la version, la raison invoquée est soit en raison de prétendues violations du droit d’auteur, soit en raison de prétendues infractions de pornographie juvénile.  Il affichera également l’ adresse IP supposée et parfois une photo de la webcam de l’utilisateur. Le virus demande alors entre 100 $ et 400 $ payés via des cartes MoneyPak prépayées afin de libérer l’ordinateur. Si le paiement n’est pas effectué, il allègue qu’il ouvrira une enquête pénale sur le propriétaire.  Le virus crée une boucle iframe qui empêche l’utilisateur de quitter le navigateur ou le site Web. [3] Le virus sera installé sur l’appareil infecté, il doit donc toujours être supprimé de l’appareil. 

 

« Supprimez le rançongiciel FBI MoneyPak ou le cheval de Troie Reveton » . bleepingcomputer.com. 5 juillet 2012 Récupéré le 4 janvier 2019

 

3. JIGSAW : vous avez une heure pour payer 

Jigsaw (ransomware) - WikipediaFonctionnant comme CryptoLocker, JIGSAW semble encore plus dangereux. Il ne laisse qu’une heure à sa victime pour payer la rançon sous peine de voir disparaître toutes les données de son ordinateur. Avec ce virus, elles seront détruites très rapidement. En effet, en 72 maximum, les disques seront vidés !

Jigsaw est un logiciel malveillant, qui chiffre des fichiers (ces virus étant connus sous le nom de ransomware ou rançongiciel en français) créé en 2016. Intitulé initialement BitcoinBlackmailer, il est devenu plus tard Jigsaw en raison de son image de Billy the Puppet de la série de films Saw. Le logiciel malveillant chiffre des fichiers informatiques et les supprime progressivement, sauf si une rançon est versée pour déchiffrer les fichiers

CryptoLocker : une souche de ransomware si puissante et dangereuse qu’elle a nécessité une opération internationale pour en venir à bout, mais pas avant que les cybercriminels qui l’ont créée ne soutirent des millions de dollars à leurs victimes.

Le ransomware CryptoLocker est un type de logiciel malveillant (malware) qui chiffre les fichiers sur les ordinateurs Windows, puis demande une rançon en échange de la clé de déchiffrement. Il est apparu pour la première fois en septembre 2013 lors d’une attaque soutenue qui a duré jusqu’en mai de l’année suivante.

CryptoLocker a trompé ses victimes en leur faisant télécharger des pièces jointes malveillantes envoyées par e-mail. Une fois ouvertes, ces pièces jointes (en réalité un cheval de Troie) exécutaient le malware qu’elles contenaient.

Comment s’en prémunir:

Effectuez  des sauvegardes. C’est le moyen le plus simple de restaurer vos fichiers. C’est la raison pour laquelle il est si important d’effectuer des sauvegardes régulières de toutes vos données essentielles. Mais avant tout, supprimez le ransomware de l’appareil infecté :

4. PETYA : le virus qui crypte vos données 

Afficher l’image sourceVoici un autre ransomware. Celui-ci cible les entreprises et menace de paralyser totalement le fonctionnement des appareils et le réseau informatique des victimes. Pour ce faire, il crypte les données, ainsi que les fichiers systèmes. Les hackers sont pleinement conscients du pouvoir qu’ils ont sur les entreprises et des dégâts qu’ils peuvent faire, c’est pourquoi ils demandent une rançon très élevée.

Petya est un logiciel malveillant de type rançongiciel (ransomware). Il apparaît pour la première fois en  et chiffre la table de fichiers principale, un des composants du système de fichiers de Microsoft, et remplace la zone d’amorçage (Master boot record) du disque dur de la victime, par un programme qui réclame de l’argent en échange de la clé de déchiffrement. Il aurait été conçu par d’anciens Black-hat dont fait partie Elena Pestrovi, suspectés et interpellés en 2016 puis relâchés faute de preuve. Survient par la suite Petrwap, une mise à jour de Petya, apparue début 2017.

Lors de l’apparition de NotPetya en , on croit découvrir une nouvelle variante, mais Kaspersky Lab dément rapidement tout lien entre ce nouveau virus utilisant l’exploit EternalBlue et les différentes versions de Petya. Il s’y réfère alors sous le nom de NotPetya afin de le distinguer. En 2017 c’est plus de 200 000 comptes bancaires qui sont dérobés grâce au malware, et un butin récupéré sous forme de Bitcoins encore inconnu. Aujourd’hui, une centaine de copies évoluées du logiciel se vendent sur le darknet, ce qui empêche fortement les autorités d’y mettre fin.

Guide de suppression manuel de virus Petya

 

5. LOCKY : le rançongiciel le plus répandu en 2018

Résultat d’images pour Locky VirusCe virus cible certains fichiers spécifiques sur les disques durs. En 2018, nombreux sont les internautes français et allemands qui ont été victimes de ce virus. Lui aussi crypte les fichiers, vous empêchant totalement d’accéder à votre ordinateur. Il supprime également vos sauvegardes et bloque toute tentative