Aller au contenu

Programmation concurrente

Un article de Wikipédia, l'encyclopédie libre.
Ceci est une version archivée de cette page, en date du 25 juillet 2007 à 13:08 et modifiée en dernier par Eusebius (discuter | contributions) (+cat Paradigmes de programmation). Elle peut contenir des erreurs, des inexactitudes ou des contenus vandalisés non présents dans la version actuelle.

Modèle:SérieLangagesInfo La programmation concurrente est un style de programmation tenant compte, dans un programme, de l'existence de plusieurs piles sémantiques. Ces piles peuvent être appelés threads, processus ou tâches. Ils sont matérialisés en machine par une pile d'exécution et un ensemble de données privées. Les threads disposent d'une zone de mémoire partagée alors que les processus sont strictement isolés.

La concurrence est indispensable lorsque l'on souhaite écrire des programmes interagissant avec le monde réel (qui est concurrent) ou tirant parti de multiples unités centrales (couplées, comme dans un système multiprocesseurs, ou distribuées, éventuellement en grille ou en grappe).

Classification

On distingue trois types de concurrence :

  • disjointe : les entités concurrentes ne communiquent et n'interagissent pas,
  • compétitive : un ensemble d'entités concurrentes en compétition pour l'accès à certaines ressources partagées (par exemple le temps CPU, un port d'entrées/sorties, une zone mémoire),
  • coopérative : un ensemble d'entités concurrentes qui coopèrent pour atteindre un objectif commun. Des échanges ont lieu entre les processus. La coopération est un élément primordial de la programmation concurrente.

La programmation concurrente est plus complexe et difficile que la programmation impérative, fonctionnelle ou encore déclarative. En fait, à chacun de ces modèles de programmation on peut associer une version concurrente, par extension de la sémantique du langage de programmation associé. Par exemple, Prolog a été étendu en Concurrent Prolog, Haskell avec Concurrent Haskell, Java et Ada sont des langages à objets avec des primitives pour la concurrence, etc.

Les techniques spécifiques pour le traitement de la concurrence peuvent être classées en allant de la moins expressive (mais la plus facile à utiliser) à la plus expressive (et la plus complexe). On peut utiliser les niveaux suivants :

  1. concurrence déclarative (langage fonctionnel étendu avec des threads)
  2. concurrence en programmation logique
  3. concurrence déclarative avec des ports et envoi de messages
  4. concurrence impérative avec ports et envoi de messages
  5. concurrence impérative avec mémoire partagée

Problèmes

Le phénomène central introduit par la concurrence est le suivant : dans un programme non concurrent, ou séquentiel, l'ordre d'exécution des instructions élémentaires du programme est un ordre total qui reste le même d'une exécution à l'autre pour les mêmes paramètres en entrée. Dans un programme concurrent, l'exécution forme un ordre partiel. Comme la politique d'ordonnancement est généralement inconnue (elle est déterminée par le noyau du système d'exploitation par exemple) ou incontrôlée, on parle de l'indéterminisme de l'ordre d'exécution.

Les problèmes induits par la concurrence se manifestent dans les cas de la concurrence compétitive et coopérative. À cause de l'indéterminisme de l'exécution, l'accès à des données partagées par les entités concurrentes peut conduire à des incohérences au niveau des relations liant ces données. Pour cela, on a historiquement utilisé différentes techniques de bas niveau comme les verrous, les mutex, les moniteurs ou encore les sémaphores. L'utilisation de ces mécanismes conduit immanquablement à deux types de problèmes :

  • interblocages (ou deadlocks) entre processus concurrents qui attendent, par exemple, que l'autre relâche un verrou acquis pour pouvoir progresser,
  • famines (ou livelocks) d'un processus essayant d'acquérir une ressource, mais jamais ordonnancé au moment où elle est disponible.

Des abstractions de plus haut niveau ont été développées afin de disposer de l'expressivité de la concurrence sans les inconvénients associés à l'usage des primitives de synchronisation de bas niveau.

Solutions

Pour chaque type de programmation concurrente, on dispose d'abstractions de haut niveau facilitant l'écriture de programmes concurrents :

  • dans le cas de processus en compétition pour des ressources partagées, la notion de transaction a été développée dès les années 70. Les systèmes transactionnels, utilisés principalement pour des bases de données partagées, s'appuient sur la théorie de la sérialisabilité pour garantir un accès concurrent à des ressources partagées (concurrence de type 4 et 5).
  • dans le cas de processus en coopération en vue d'un but commun, au moins deux techniques ont fait leurs preuves : la communication inter-processus utilisant exclusivement l'envoi de messages, et la synchronisation dataflow (au moyen de variables spéciales de type future ou variable logique. Les langages de programmation Erlang ou Oz permettent d'écrire des applications concurrentes et distribuées, avec un soin particulier apporté aux questions de gestion d'exception. Erlang et Oz exploitent le principe de l'envoi de messages, et Oz offre de plus la synchronisation dataflow (c’est-à-dire l'ordonnancement dynamique des threads en fonction de la disponibilité des données).

Voir aussi

Modèle:Méthodes synchronisation

  • Calcul distribué : la concurrence est souvent liée à la distribution. Un programme dont l'exécution est distribué sur plusieurs hôtes est intrinsèquement concurrent. Pourtant, ce n'est pas toujours le cas ; l'utilisation de protocoles de communication entre parties distribuées d'un programme, comme les RPC (appels de procédure à distance) ou RMI (invocation de méthode à distance), peut rendre non-concurrent un programme distribué.
  • Therac-25, un cas concret d'accidents liés à une mauvaise implémentation