Ce contenu est une compilation d'articles de l'encyclopedie libre Wikipedia. Pages: 63. Non illustre. Chapitres: Calcul distribue, Ordonnancement dans les systemes d'exploitation, Ada, Synchronisme, Verrou, Fork, Cluster Beowulf, Multitache, Parallelisme, Ordonnancement multic ur soucieux des caches et equilibrage de charge, Memoire transactionnelle logicielle, Thread Local Storage, Synchronisation, Processus, Erlang, Semaphore, Theorie de l'ordonnancement, Attente active, Probleme des lecteurs et des redacteurs, Diner des philosophes, Systeme temps reel, Gestionnaire de taches, Exclusion mutuelle, Interblocage, Horloge vectorielle, Algorithme du banquier, Fibre, Bulk Synchronous Parallel ML, Hybrid Multicore Parallel Programming, Oz, Barriere de synchronisation, Inversion de priorite, Esterel, Moniteur, Section critique, Temps partage, Atomicite, Reentrance, Memoire partagee, Probleme des generaux byzantins, Allocation de ressources, Conditions de concurrence, Asynchronisme, Diagramme d'activite, Horloge matricielle, Taux de multiprogrammation, Arrive-avant, Commutation de contexte, Segment d'etat de tache, Ordonnancement de taches informatiques, Horloge de Lamport, Reia, Couplage fort, Spinlock, Famine, Futex, Situation de competition, Mise en sommeil, Process Control Block, Modele producteur-consommateur, Attente passive, OpenMP, Contexte d'execution, Concurrent ML, Vivacite, Coroutine, Semaphore a heritage de priorite, Programme a fil securise, Modele d'acteur, Equite, Portal, Surete, LCM. Extrait: En informatique, le parallelisme consiste a implementer des architectures d'electroniques numeriques et les algorithmes specialises pour celles-ci, permettant de traiter des informations de maniere simultanees. Le but de ces techniques est d'effectuer, par une machine, le plus grand nombre d'operations dans le plus petit temps possible. Pour ce faire, les operations doivent etre faites en parallele, c'est-a-dire simultanement au sein de plusieurs unites de traitem...