École d'été Temps Réel 2013

Lundi 26/08

Uniprocessor Real-Time Scheduling

Rob Davis, University of York

It is now 40 years since Liu and Layland’s seminal work on the analysis of single processor real-time systems using Fixed Priority and Earliest Deadline First scheduling algorithms. Since then, huge progress has been made in real-time scheduling with more complex task models and schedulability analyses developed to better represent and analyse real systems. In this talk, we will take a tour of these advances. We will review analysis for fixed priority and EDF scheduling, examining how it has been extended from simple implicit-deadline periodic tasks to more complex task models, from pre-emptive to non-pre-emptive scheduling, and finally to a mix of the two: scheduling with deferred pre-emption. We will look at effective mechanisms for synchronisation and resource sharing and their impact on schedulability. For fixed priority systems, we will examine the effect that priority ordering has, and algorithms to optimally assign priorities to tasks. ForEDF, we will see how recent advances have resulted in a simple algorithm that greatly increases the efficiency of EDF schedulability tests. Along the way we will explore some theoretical results involving speedup factors and some practical ones that have had a big impact on industry. We’ll also look at how some of the overheads and pre-emption delays that are present in real systems can be accounted for. Finally we’ll discuss an interesting problem in uniprocessor scheduling that has been open (neither proved nor disproved) for the past 20 years.

Ordonnancement temps réel multiprocesseur

Joël Goossens, Université Libre de Bruxelles

Dans ce document nous nous intéressons aux systèmes temps réel dont le bon fonctionnement dépend non seulement des résultats des calculs, mais également des instants auxquels ces résultats sont produits. Nous considérons plus particulièrement des architectures parallèles composées deplusieurs processeurs pour l’exécution des applications temps réels. Nous présentons les principaux résultats en théorie de l’ordonnancement pour les systèmes temps réel multiprocesseurs.

Mardi 27/08


Joel Sherril, OAR Corp.

The goal of a real-time operating system (RTOS) is to support real-time and embedded system (RT/ES) application development, which differ from general-purpose applications because of the size, weight, and power (SWaP) and timing constraints imposed by embedded applications. Useful RTOSfeatures include real-time thread scheduling, thread communication, synchronization, interrupt handling, memory management, file systems, device drivers, networking, and debugging support. The Real-Time Executive for Multiprocessor Systems (RTEMS) is a free and open-source RTOS that supports over a dozen processor architecture families and over 150 embedded system boards. RTEMS is designed to support embedded applications with stringent real-time requirements while being compatible with open standards such as POSIX. RTEMS includes optional services such as TCP/IP networking and file systems while still offering minimum executable sizes under 20 KB in useful configurations.

One of the primary functions of an RTOS is to select threads that can obtain access to resources such as shared memory and processor time. RTEMS uses multiple algorithms to manage both waiting threads and those ready to execute. The thread execution schedulers include the traditional RTOSround robin and deterministic priority schedulers, rate monotonic, earliest deadline first (EDF), constant bandwidth server, and simple SMP scheduling algorithms. The RTEMS scheduling framework allows the application developer to select the thread scheduling algorithm that best meets the application’s space and time requirements. We will present how this framework can be used by researchers to integrate their own scheduling algorithm into RTEMS and test it using a scheduling simulator before deploying it on target hardware.

Estimation de pires temps d’exécution (WCET - Worst-Case Execution Times)

Damien Hardy, Université de Rennes 1 / IRISA

Les systèmes temps-réel strict nécessitent de respecter leurs contraintes de temps dans tous les scénarios d’exécution, y compris le pire. Ainsi, les méthodes de vérification d’ordonnançabilité se basent sur la connaissance du pire temps d’exécution de chacune des tâches du système. Cette présentation dresse un état de l’art de l’existant en terme de méthodes d’estimation de pires-temps d’exécution (en anglais WCET, pour Worst-Case Execution Times). Après une brève présentation des défis liés à l’estimation des WCET et une classification des grandes familles de techniques (statiques, dynamiques) d’estimation des WCET, nous nous concentrerons sur les méthodes d’estimation opérant par analyse statique des programmes. Les principales phases de l’obtention desWCET (analyse du flot de contrôle, analyse de bas-niveau, calcul des WCET) sont distinguées. Nous insisterons tout particulièrement sur l’analyse dite de bas-niveau (niveau matériel) car les éléments matériels d’amélioration des performances tels que les caches ou l’exécution pipelinée nécessitent le développement de méthodes d’analyse adaptées. L’exposé se conclura par une étude des voies de recherche actuellement explorées par la communauté WCET.

Probabilistic real-time scheduling

Liliana Cucu-Grosjean, INRIA

Proposed originally as stochastic scheduling, the probabilistic real-time scheduling concerns real-time systems with at least one parameter described by a random variable. Any parameter of the task may have such description, but the existing work concentrates on the probabilistic worst-case execution times. This lecture will provide the main results for such systems in the case of one processor and a list of the open problems. The second part of the lecture deals with real-time systems that have stochastic description of the parameters. All the probabilistic operations are based on convolutions and the complexity of these operations may be a problem for realistic implementations. Sampling techniques providing decreased complexity are presented. The lecture ends with the presentation of the main open directions for probabilistic real-time systems and their impact on real-time systems in general.

Enjeux industriels : spatial

Jean-Paul Blanquart, Astrium

Après un bref panorama des besoins, solutions et réalisations en matière de systèmes spatiaux sûrs de fonctionnement, les principaux défis seront présentés, et en particulier la démonstration que l’ensemble des mécanismes automatiques à bord permettant de détecter et traiter les fautes sont corrects et efficaces, y compris en terme d’architecture, organisation et comportement dynamique. Cela ressemble à une problème classique de correction, mais la sûreté de fonctionnement comporte des caractéristiques particulières qui conduisent à devoir combiner différents modèles pour représenter et analyse :

  • le comportement dynamique des mécanismes de tolérance aux fautes,
  • la dynamique du processus de propagation des fautes,
  • la structure du système, sur laquelle les fautes se propagent et les mécanismes de tolérance aux fautes agissent.

La modélisation repose sur la notion d’abstraction, dont la validité est difficile à établir, lorsque l’abstraction utilisée masque des informations importantes par exemple sur des effets de bord du couplage entre la propagation des fautes et la dynamique complexe et complète du système, ou encore entre des dynamiques discrète et continue. La présentation abordera les différentes approches de modélisation pour la sûreté de fonctionnement et comment on peut les combiner et les organiser dans la perspective d’analyses plus précises, plus détaillées, mais aussi que l’on peut mener plus tôt, plus facilement, plus complètement et plus exactement.

Enjeux industriels : aéronautique

Thierry Planche, Airbus

Up to the 90’s, classical LRU (bespoke systems controllers called Line Replaceable Units) based avionics was dominating for large civil aircraft, characterised by a simple, system per system approach. Communications between systems moved from very simple exchanges to some digital but low throughput communications: progressive introduction of ARINC 429 bus (12.5 or 100kbit/sec).

Progressively, several evolutions have appeared:

  • Needs: regulations (safer and safer), systems interactions (performances)
  • Challenges: a/c performances (weight), costs, maturity, time to market
  • Technologies: advantages (more powerful) / drawbacks (fast-changing)

Consequences: the combination of these evolutions has led to consider that a system per system approach, locally optimised, should be reviewed to the benefit of a more global approach, allowing global aircraft optimisation (rather than a sum of local optima).

On the avionics side in particular, as fundamentally, basic functionalities (acquisition, processing, generation) are similar, even if with different precise needs depending on the functions, the concept of “Integrated Modular Avionics” (IMA) is born:

  • characterised by more specialised resources (Inputs/Outputs Management, Core Processing, AFDX Network…),
  • shared between the various systems,
  • configured in line with their particular requirements.

The presentation will focus on IMA principles (partitioning, incremental certification, determinism), showing the benefit for modern Airbus aircraft of such an approach; some industrialIMA products will be described (CPIOM, CRDC, AFDX); finally some R&T orientations will be given for 2nd generation IMA, under preparation.

Mercredi 28/08

Modélisation hétérogène et ingénierie système

Frédéric Boulanger, Supélec E3S

L’hétérogénéité est naturellement présente dans les systèmes, du simple fait des différentes plateformes d’exécution qui les constituent (environnement, matériel, logique programmée, logiciel).

L’hétérogénéité dans les modèles va au-delà de l’hétérogénéité intrinsèque des systèmes. Elle est une conséquence naturelle des processus qui permettent de traiter la complexité, comme la décomposition en sous-systèmes, la séparation des points de vue et l’abstraction.

Ces sources d’hétérogénéité (domaines métiers, niveaux d’abstraction, différentes vues, différentes activités) engendrent différents problèmes : composition de modèles hétérogènes, conformité d’un raffinement à sa spécification, synchronisation entre différentes vues, cohérence entre les modèles utilisés pour différentes activités.

Cette présentation traite principalement de la composition de modèles hétérogènes pour la simulation, qui se décompose en deux sous-problèmes : 1) la définition de la sémantique des langages de modélisation, 2) la définition d’un mécanisme de composition pour construire la sémantique globale du modèle. Le mécanisme de composition, ou “adaptation sémantique”, dépend de ce que l’on souhaite faire avec le modèle. Nous considérons ici la simulation du système, c’est-à-dire l’exécution d’un modèle.

Afin de pouvoir exécuter des modèles faisant appel à différents paradigmes de modélisation, on s’appuie sur un moteur d’exécution générique qui définit la sémantique abstraite des modèles. Chaque langage de modélisation correspond à une sémantique concrète qui raffine cette sémantique abstraite. L’adaptation sémantique entre des modèles hétérogènes doit être explicite car elle est le produit du travail de conception, et peut s’exprimer selon trois axes : les données, le contrôle et le temps.

La sémantique d’exécution obtenue ainsi permet d’explorer les comportements du modèle et de tester certaines hypothèses. Afin de prouver des propriétés sur tous les comportements possibles du modèle, il est toutefois nécessaire d’utiliser d’autres formes de sémantique et d’adaptation.

Temps réel embarqué automobile : cas du logiciel de contrôle moteur

Denis Claraz, Continental Automotive

Depuis l’introduction, dans les années 90, des premiers modules électroniques de gestion d’allumage sur les moteurs à combustion interne, le contenu fonctionnel des calculateurs de contrôle moteur augmente d’un facteur 10 tous les 7 ans. En parallèle à cette évolution, temps de cycle et prix de vente ne cessent de diminuer. Pour faire face à un tel challenge, Continental Automotive a mis en place une stratégie de forte réutilisation, axée autour de la notion de plateforme et de développement de composants génériques.

D’un point de vue temps réel, un logiciel de contrôle moteur doit contrôler près de 200 entrées/sorties, et piloter une cinquantaine de capteurs/actuateurs, chacun ayant sa dynamique propre. C’est ainsi qu’une partie des traitements est à fréquence temporelle, et une autre, non négligeable, est angulaire, liée à la vitesse de rotation du moteur. Certaines deadlines sont courtes, inférieures à la ms, alors que d’autres sont de l’ordre de la seconde. Certaines sont “dures”, d’autres non. Nous présenterons donc une architecture typique, en expliquant notamment le lien entre modularité/architecture “statique”, et architecture “dynamique”. Outre les aspects scheduling, nous aborderons brièvement les problèmes de séquencement, ainsi que de partage de ressources, particulièrement présents en raison du fort couplage entre les fonctions, inhérent à la nature du système de contrôle moteur.

Nous exposerons les techniques mises en oeuvre pour maîtriser ces sujets, toujours dans le cadre industriel automobile. Finalement, nous conclurons sur les technologies en cours d’étude et de déploiement que sont AUTOSAR et le Multi-Coeur.

Présentation des systèmes temps réel pour le domaine ferroviaire

Pascal Poisson, Alstom

Avec le fort besoin de développement de la performance des transports, notamment en zone urbaine, d’une part et la recherche de solutions moins polluantes d’autre part, les technologies des transports ferroviaires sont depuis trois décennies en fort développement.

Si l’électronique de puissance et les asservissements (numériques) sont très présents dans les matériels roulants, les systèmes gérant le trafic et le déplacement des véhicules (trains) sont au cœur de la performance des solutions ferroviaires.

En premier lieu, la présentation exposera les grandes évolutions du trafic ferroviaire et les enjeux fonctionnels associés afin de percevoir la complexité des systèmes associés.

Ensuite, le contexte normatif du ferroviaire sera exposé, par l’introduction des objectifs de sûreté de fonctionnement, des pratiques sous-jacentes et les processus de certification. Le volet suivant de la présentation exposera les pratiques et techniques utilisées pour optimiser le triptyque maîtrise de la complexité – performance des systèmes – conformité aux standards. L’intérêt et les pratiques des méthodes et langages formels seront illustrés ainsi que les architectures permettant de maitriser la sûreté de fonctionnement.

Enfin le dernier volet de la présentation adressera les ouvertures envisagées afin d’améliorer la compétitivité de l’offre exposée à une concurrence féroce, qui est certes positionnée dans un marché porteur. L’équilibre actuel entres les systèmes distribués et les systèmes de systèmes est remis en cause.

Jeudi 29/08

DIPLODOCUS : un environnement pour le partitionnement logiciel/matériel des systèmes embarqués complexes

Ludovic Apvrille, Telecom ParisTech

Le partitionnement logiciel/matériel d’un système embarqué consiste à déterminer la façon dont sont implémentées les fonctions d’un système. Une fonction peut en effet être réalisée de façon logicielle, sous la forme d’une tâche logicielle exécutée sur un processeur, ou être réalisée de façon matérielle avec un circuit électronique dédié. Si ce partitionnement est trivial dans des systèmes simples, il devient difficile lorsque le système comporte plusieurs dizaines de calculateurs, de bus et de mémoires, comme par exemple dans le cas de systèmes embarqués automobiles. Le choix d’un partitionnement se fait alors au regard de multiples critères, et notamment au regard de critères de performance (par exemple, la latence), de coût de la plate-forme matérielle choisie, de consommation d’énergie, etc. Le profil UML DIPLODOCUS a été défini afin de faciliter le partitionnement de tels systèmes complexes. Le partitionnement se réalise à haut niveau d’abstraction, et suit l’approche dite Y-Chart en trois étapes : modélisation des fonctions de l’application, modélisation de l’architecture, mapping de l’application et de ses communications sur l’architecture. DIPLODOCUS est totalement supporté par TTool, un outil libre permettant de modéliser en UML les trois étapes du Y-Chart, et d’effectuer des simulations et des vérification formelles avec une approche de type presse-bouton .

Fiacre/TINA — Un environnement pour la description et vérification de systèmes temps réel

Bernard Berthomieu (1), Silvano Dal Zilio (1), Didier Le Botlan (1,2), François Vernadat (1,2),(1) LAAS-CNRS, (2) INSA Toulouse

Les réseaux de Petri temporels enrichissent les transitions d’un réseau de Petri par des intervalles de temps qui spécifient les retards temporels admissibles entre la sensibilisation des transitions et leur tir effectif. Parmi les extensions temporisées des réseaux de Petri, ce modèle est le plus utilisé; Il bénéficie en outre de techniques d’analyse automatiques bien établies (graphes de classes).TINA (TIme Petri Net Analyzer) est un environnement logiciel permettant l’édition et l’analyse de réseaux de Petri temporels étendus avec des priorités et un traitement de données externes synchronisé avec l’évolution du réseau. Sur ces modèles, TINApermet la vérification de propriétés par model-checking pour, notamment, la logique temporelle à temps linéaire State/Event LTL.

Fiacre — Format Intermédiaire pour les Architectures de Composants Répartis Embarqué — est un langage formel pour la description de systèmes temps réel. Fiacre a été initialement développé en collaboration avec IRIT/Acadie et INRIA/Vasy dans le cadre de l’ACIéponyme et du projet Topcased, avec pour objectifs de servir de modèle “pivot” pour la traduction, en vue de leur vérification, des formalismes utilisateurs tels que AADL ou UML dans les modèles de bas niveau compris par les outils de vérification (comme Tina ou CADP). Le langage FIACRE décrit des composants. Les composants élémentaires sont des machines à états étendues; des composants plus complexes sont décrits hiérarchiquement, et de façon compositionnelle, par assemblage de composants plus simples dont les interactions peuvent être contraintes par des exigences temporelles et des priorités.

À des fins de vérification, les descriptions Fiacre, enrichies de déclarations de propriétés, peuvent être traduites dans le formalisme des réseaux temporels accepté par la boîte à outils TINA par un compilateur dédié (frac). Les propriétés temporisées sont traduites par le compilateur en propriétés non temporisées (donc vérifiables avec les outils disponibles) après instrumentation automatique des descriptions Fiacre par des observateurs.

Verification of Probabilistic Real-time Systems

Dave Parker, University of Birmingham

This talk will give an introduction to probabilistic model checking, a formal verification technique for systems that exhibit stochastic behaviour. These methods have been used to analyse a wide range of systems, including communication protocols, such as Bluetooth and FireWire, randomised security protocols, e.g. for anonymity and contract signing, and many others. This talk will give an overview of the basic theory and techniques for a probabilistic model checking, with a particular focus on systems that incorporate real-time behaviour. It will also illustrate the applicability of these methods using a selection of real-world case studies that have been verified with the probabilistic model checker PRISM.

Session outils

La raison d’être des méthodes formelles est la mise à disposition d’outils logiciels permettant d’assister la conception des systèmes critiques. Cette session a pour but de familiariser les participants à quatre outils logiciels mettant en oeuvre des méthodes formelles :

  • CADP (http://cadp.inria.fr), une boîte à outils pour la conception des systèmes concurrents asynchrones, développée à Inria Grenoble Rhône-Alpes
  • COSMOS (http://www.lsv.ens-cachan.fr/~barbot/cosmos), un model checker statistique pour la logique stochastique des automates hybrides, développé au laboratoire LSV (Cachan)
  • ROMEO (http://romeo.rts-software.org), un outil d’analyse des réseaux de Petri temporels développé au laboratoire IRCCyN (Nantes)
  • TINA (http://projects.laas.fr/tina), un outil d’analyse des réseaux de Petri temporels développé au laboratoire LAAS-CNRS (Toulouse)

La session sera structurée en deux parties :

  • une première partie d‘1h30 au cours de laquelle chacun de ces quatre outils sera présenté brièvement
  • une seconde partie “travaux pratiques encadrés” d‘1h30, au cours de laquelle chaque participant pourra manipuler l’outil de son choix (modulo la contrainte d’une répartition équilibrée des participants entre les quatre outils)

Vendredi 30/08

Réseaux de capteurs sans fil : comment économiser l’énergie tout en offrant la qualité de service ?


Avec la technologie actuelle, la partie radio (transceiver) est de loin la composante la plus consommatrice de l’énergie dans un nœud de capteur sans fil. Pour économiser l’énergie (prolongeant ainsi la durée de vie d’un réseau), la solution la plus efficace consiste à mettre les nœuds en sommeil dès que possible. Pourtant, afin d’assurer la transmission multi-sauts, ces nœuds doivent aussi se réveiller de temps en temps pour relayer des données éventuelles. Comment « synchroniser » efficacement la période de réveil d’un nœud récepteur (relayeur) avec l’émetteur était pendant une décennie la préoccupation majeure de la recherche en réseaux de capteurs sans fil. De très nombreux protocoles MAC à « duty-cycle » ont ainsi vu le jour (e.g. IEEE802.15.4 en mode « beacon », S-MAC, T-MAC, B-MAC, X-MAC, RI-MAC, ContikiMAC, …). Si ces protocoles sont plus ou moins efficaces en terme d’énergie, ils ne le sont pas tous en terme de transmission de données, surtout lorsqu’il s’agit du trafic en rafale ou du moins en forte variation. Les travaux plus récents s’intéressent au développement des protocoles MAC permettant à la fois d’un très faible « duty-cycle » lorsque le trafic est faible ou nul, et d’un débit élevé (donc délai faible) lorsque le trafic devient important (e.g., Strawman MAC, iQueue-MAC).

Dans cette présentation, nous allons d’abord analyser les protocoles MAC à « duty-cycle » les plus représentatifs afin de bien comprendre le principe fondamental de conception qui consiste à minimiser la sur-écoute, l’écoute oisive et la collision. Ensuite, nous présentons un protocole MAC(iQueue-MAC) que nous avons développé récemment qui s’auto-adapte à la variation du trafic afin d’offrir la qualité de service. Enfin, nous abordons l’aspect routage dans les réseaux multi-sauts en nous focalisant sur la famille de routage géographique et plus particulièrement le protocoleSPEED qui prend en compte la contrainte temps réel.

Réseaux sans fil et communication temps réel

Jean-Dominique Decotignie, EPFL

Les bus de terrain (fieldbus ou feldbus) ont ouvert la voie à une simplification du câblage il y a plus de 30 ans. Dans ces solutions de communication, les capteurs et actionneurs étaient connectés au premier niveau d’automatisme par une seule paire de fils au lieu d’une paire par capteur. On les trouve dans de nombreux domaines tels que transports (voitures, trains, avions), industrie (machines-outils et robots), domotique, où ils sont progressivement remplacés par des solutions basées sur Ethernet. Au-delà de la réduction des coûts de câblage, ils présentent de nombreux avantages tels qu’une modularité complète des installations, la possibilité de décentraliser l’intelligence ou une meilleure tolérance aux pannes. Ils sont bien évidemment soumis à des contraintes temporelles plus ou moins strictes.

Dès le début des années 90, certains ont cherché à supprimer les derniers câbles en utilisant des communications par radio ou optiques. L’idée était de remplacer la couche physique des bus de terrain pour supprimer les câbles. L’accent était mis sur la robustesse de la solution. Mais ce n’est que dans la seconde moitié de cette décennie que le domaine des réseaux de capteurs sans fil a émergé complètement indépendamment des bus de terrain mais avec une composante temporelle assez lâche l’accent étant mis sur l’économie d’énergie. Avec l’extension plus récente aux actionneurs (WSAN: Wireless Sensor and Actuator Networks), on peut considérer que la transition des bus de terrain au sans fil est complète, mais qu’en est-il du support des contraintes temporelles.

Une première partie de l’exposé rappellera les principales caractéristiques des communications sans fil notamment les taux d’erreur nettement plus élevés. Cela nous permettra d’étudier l’impact de ces caractéristiques sur le comportement des solutions classiques adoptées pour les communications en temps réel. Ces caractéristiques permettront de mettre en perspectives certaines hypothèses courantes dans la littérature.

La deuxième partie sera consacrée à l’esquisse de solutions pour les communications sans fil. De nombreuses propositions ont été proposées. Sont-elles adéquates ? Les notions classiques du temps réel sont-elles adaptées ? Faut-il les revoir ? Quels sont les axes possibles de recherche ? Telles sont quelques questions auxquelles l’exposé tentera de répondre.

Ordonnancement de l’activité des nœuds dans les réseaux ad hoc et les réseaux de capteurs sans fil

Pascale Minet, INRIA

L’efficacité énergétique est une exigence majeure pour les réseaux sans fil où certains nœuds opèrent sur batterie. L’ordonnancement de l’activité des nœuds permet de distinguer périodes actives où la communication radio est possible et périodes inactives où la radio est arrêtée. Cet ordonnancement contribue largement à améliorer l’efficacité énergétique : d’une part en évitant les collisions entre transmissions conflictuelles et donc les retransmissions associées et d’autre part en permettant aux nœuds non concernés par la transmission de dormir pour économiser leur énergie. Parmi les solutions possibles, nous étudierons plus particulièrement le coloriage des nœuds. Après avoir défini le problème et ses différentes déclinaisons, nous donnerons sa complexité et proposerons SERENA, un algorithme de coloriage distribué qui s’adapte à la collecte de données. Nous présenterons OSERENA, l’optimisation de SERENA pour les réseaux denses et son utilisation dans le réseau de capteurs sans fil OCARI. Lorsque les nœuds ont des charges de trafic fortement hétérogènes, il devient plus intéressant d’effectuer une assignation de slots. Disposer d’un accès au médium multicanal et d’un puits multi-interfaces permet de gagner en nombre de slots nécessaires à la collecte de données, de réduire les interférences et d’améliorer la résistance aux perturbations. Nous présenterons une formalisation en ILP (Integer Linear Programming) du problème d’assignation de slots visant à minimiser le nombre de slots en profitant d’un environnement mono ou multicanal et d’un puits mono ou multi-interfaces. Nous donnerons des bornes théoriques sur le nombre de slots dans diverses configurations et divers environnements (mono ou multicanal, puits mono ou multi-interfaces). Nous terminerons par quelques questions ouvertes.

Analyse temporelle de réseaux avioniques

Jean-Luc Scharbarg, ENSEEIHT

De plus en plus de données sont échangées entre les systèmes avioniques embarqués à bord d’un aéronef. Les bus mono-émetteurs de type ARINC 429 ne peuvent pas faire face à cette augmentation importante des communications (problèmes de poids et de débit). Le réseau AFDX (Avionics Full DupleX Switched Ethernet, standard ARINC 664) a été proposé pour résoudre ce problème et il s’est imposé comme un standard de fait. Il s’agit d’un réseau de type Ethernet commuté sur lequel les flux sont définis statiquement et leur débit est borné (l’objectif était de pouvoir borner le délai de bout en bout de tout flux transmis sur le réseau). Une telle borne est indispensable pour la certification du réseau. Cette borne a d’abord été obtenue en utilisant le calcul réseau. Cela a permis la certification du réseau embarqué à bord de l’A380. Cette approche étant fondée sur des hypothèses pessimistes, les bornes obtenues sont elles-aussi pessimistes (i.e. supérieures au délai pire cas réel). D’autres approches (trajectoires, vérification de modèles, simulation) ont donc été expérimentées pour obtenir des bornes moins pessimistes ou calculer la distribution des délais. L’objectif de cette présentation est d’expliquer la problématique de l’analyse temporelle d’un réseau de type AFDX et de présenter une synthèse des approches existantes pour cette analyse.