La croissance de la population et l’augmentation du nombre d’usagers sur les routes constituent une source considérable de problèmes divers. Les impacts sont à la fois environnementaux et de santé publique. Ils sont causés par les rejets de gaz à effet de serre et les émissions de polluants par les véhicules, suite à l’apparition de congestions accrues et de phénomènes d’accordéon récurrents. Les conséquences économiques liées à la consommation de carburant et au temps perdu dans les embouteillages ne sont pas en reste. Rajouté à cela des incidents et accidents sont provoqués par la dégradation des conditions de circulation. Tout ceci constitue un enjeu sociétal important.
En France, si des progrès importants ont été accomplis ces dernières années en matière d’amélioration de la sécurité routière, de nouvelles stratégies restent néanmoins à mettre en oeuvre pour descendre sous la barre des 2000 morts par an et pour réduire significativement le nombre de blessés sur les routes à l’horizon 2020.
Même si les solutions les plus évidentes paraissent être la construction de nouvelles infrastructures et l’extension de réseaux existants, elles ne peuvent être retenues car le coût financier et le manque d’espace disponible constituent une limite. Sans compter qu’elles ne représentent pas une réponse à long terme puisque le problème n’est que repoussé à plus tard. Ceci incite à la réflexion en vue d’une meilleure exploitation des infrastructures existantes et donc une meilleure gestion des flux de véhicules.
Pour mieux répondre aux enjeux de la sécurité routière, il est nécessaire de mettre en place des systèmes de transports plus efficients, économes et durables. Le développement de systèmes de transports intelligents permet de mieux appréhender la dynamique du trafic à travers les dispositifs de régulation du trafic. De plus, en matière d’avancés technologiques les systèmes coopératifs sont à citer aussi. Ils représentent un moyen de communication utile entre les conducteurs et leur environnement, ce qui contribue à améliorer leur sécurité et à offrir plus de confort dans le partage de la route.
Les techniques de modélisation du trafic routier permettent aux gestionnaires des réseaux de transport de mieux exploiter leurs infrastructures et représentent ainsi des outils d’aide à la décision. En effet, les modèles permettent la prédiction de l’état du trafic. En prévenant les congestions et en détectant les incidents et accidents, ils offrent la possibilité de traiter et intervenir dans des délais de temps réduits.
Il existe plusieurs types de modèles à différentes échelles qu’il convient de choisir en fonction du phénomène physique que l’on cherche à comprendre. Selon qu’on s’intéresse à l’écoulement global du trafic sur un réseau routier ou à des interactions locales entre quelques véhicules lors d’un changement de direction ou à l’approche d’une intersection, la question de spécification du niveau de détail est primordiale. Il parait naturel de considérer une échelle macroscopique dans la première situation tandis que la seconde requiert une représentation microscopique. Mais ce ne sont pas les seules possibilités, il existe également une autre échelle alternative de modélisation qui consiste à étudier le comportement des véhicules sans pour autant expliciter les interactions individuelles. Il s’agit de modèles mésoscopiques dans lesquels, les véhicules sont regroupés par paquets appelés pelotons et leur dynamique est régie par un modèle macroscopique.
L’échelle macroscopique est adaptée à la description des véhicules sur des réseaux de grande taille. Le modèle historique de Lighthill et Whitham (1955, [58]) et de Richards (1956, [71]) est fondé sur une approche continue par analogie à la mécanique des fluides. La description d’un flot de véhicules se fait principalement à l’aide de trois variables : la vitesse v (km/h ou m/s), la densité (ou concentration) ρ (véhicules/km) et le débit Q (véhicules/h). Il est représenté par une équation hyperbolique reliant la vitesse à la densité spatiale des véhicules. La version classique la plus simple est issue d’un principe physique exprimé par l’équation de conservation de la masse suivante ∂tρ+∂x(vρ) = 0, x ∈ R et t ∈ R∗+.
Lorsque la densité est faible, le débit va croître ; les interactions entre les véhicules deviennent minimes puisque ceux-ci ne sont pas contraints et peuvent donc rouler à leur vitesse de croisière. Au fur et à mesure que la densité augmente, les interactions vont devenir de plus en plus fortes et la vitesse des véhicules va diminuer au delà d’un certain point (appelé point critique) ; d’où l’apparition de la congestion. Ces caractéristiques sont exprimées dans la relation Q(ρ) = v(ρ)ρ est appelée diagramme fondamental .
Les méthodes de résolution de ce type de modèles sont nombreuses. Les plus utilisées sont la méthode des caractéristiques ou encore des schémas d’approximation numérique de type Godunov ([56]). Les modèles macroscopiques sont peu gourmands en temps de calcul et reproduisent entre autres les ondes de choc (correspondant aux freinages des véhicules) et de raréfaction (accélérations) observées dans le trafic. Ces modèles sont aussi capables de reproduire le phénomène de congestion. Cependant, de par leur nature, ils ne permettent pas d’étudier les comportements individuels des véhicules et négligent la diversité des conducteurs dans l’écoulement.
Les modèles microscopiques décrivent l’évolution individuelle des véhicules. Les modèles microscopiques obéissent à des lois de poursuite car ils décrivent le comportement d’un véhicule en réaction au véhicule qui le précède sur la route. Ils sont composés de deux dynamiques exprimées par : une équation cinématique décrivant l’évolution temporelle du véhicule (correspond à un état libre) et une loi de poursuite (correspond à un état contraint) représentant les interactions entre le véhicule et son prédécesseur. Ces modèles sont appelés car-following ou modèles de voiture-suiveuse. Ces modèles sont simples et possèdent l’avantage d’être faciles à implémenter. Ils sont fondés sur des hypothèses portant sur les règles de décision des conducteurs.
L’analyse du comportement des conducteurs est basée sur le principe suivant : le conducteur perçoit un stimulus à l’instant t et réagit avec un certain décalage temporel Tr. La réaction est proportionnelle à l’intensité du stimulus et dépend de la sensibilité du conducteur par rapport à ce stimulus réponse(t+Tr) = sensibilité×stimulus.
Le modèle le plus répandu est le modèle de la vitesse optimale proposé par Newell [67]. Dans ce modèle, le conducteur est supposé adapter sa vitesse par rapport à une vitesse dite « optimale » qui dépend de la distance qui le sépare des autres véhicules. L’équation du modèle est la suivante : x˙ i+1(t+dt) = V opt(xi(t)−xi+1(t))
Ce modèle ne décrit plus la réponse d’un véhicule après un temps de réaction mais suppose que le conducteur modifie instantanément sa vitesse au bout d’un certain temps dt.
Les hypothèses fondatrices de ces modèles sont simplificatrices étant donné que le comportement humain est impossible à prédire de manière parfaite. Les modèles microscopiques assignent aux conducteurs différentes caractéristiques puisque ces conducteurs sont distincts et non confondus dans une masse. Les différentes variables utilisées sont essentiellement les vitesses individuelles, distances et temps intervéhiculaires et peuvent être mesurées à l’aide d’instruments de mesure tels que les boucles électromagnétiques, de véhicules traceurs, etc… Étant donné le nombre important de paramètres que ce type de modèles prend en compte, le coût de calcul et de simulation peut devenir considérable. En effet, plus la description d’un modèle est fine, plus il devient complexe et plus sa résolution est délicate. Pour décrire les changements de voie ou de direction ou encore étudier des manoeuvres telles que les insertions lors d’une entrée ou d’une sortie sur une bretelle d’autoroute, des extensions de ces modèles existent ; ce sont les modèles d’acceptation de créneaux et les modèles d’accélération.
Introduction |