Planification du réseau d’accès de la technologie LTE 4G

Le concept cellulaire 

Les réseaux de première génération possédaient des cellules de grande taille, d’une cinquantaine de kilomètre de rayon, au centre desquelles se situait une station de base. Au tout début, ce système allouait une bande de fréquences de manière statique à chaque utilisateur qui se trouvait dans la cellule qu’il en ait besoin ou non. Ce système ne permettait donc de fournir un service qu’à un nombre d’utilisateurs égal au nombre de bandes de fréquences disponibles. C’est ainsi qu’est alors né le système de répartition de fréquence à la demande de l’utilisateur, c’est-à-dire l’attribution d’un canal de communication au moment où ce dernier en a besoin. Cela augmentait statistiquement le nombre d’utilisateur pouvant utiliser le service offert par le réseau mobile qui était initialement le service de transmission de la parole uniquement.
Mais ce système nécessitait toujours des stations mobiles de puissance d’émission importante et donc des appareils mobiles de taille et de poids conséquents. De plus, afin d’éviter les interférences, deux cellules adjacentes ne peuvent pas utiliser les mêmes fréquences. Cette organisation du réseau utilise donc le spectre fréquentiel d’une manière sous-optimale.
C’est pour résoudre ces différents problèmes qu’est apparu le concept de cellule. Le principe de ce système est de diviser le territoire en de petites zones, appelées cellules, et de partager les fréquences radio entre celles-ci. Ainsi, chaque cellule est constituée d’une station de base à laquelle on associe un certain nombre de canaux de fréquences. On définit alors des motifs, aussi appelés clusters, constitués de plusieurs cellules, dans lesquels chaque fréquence est utilisée une seule fois.

La première génération des réseaux cellulaires

Vers les années 80, l’évolution technologique a été marquée par l’avènement de la communication mobile. A cette époque, les systèmes étaient encore basés sur une modulation de type analogique et s’avèrent moins performants. La technique d’accès utilisé était le FDMA (Frequency Division Multiple Access) qui consiste à associer une bande de fréquence propre à un utilisateur. A la base, le service offert était le service voix sous commutation de circuit.
Plusieurs technologies se sont apparus, dû à l’absence de norme internationale, au cours duquel chaque pays acteur implémentait son propre système. Il s’agit principalement des technologies suivantes :
AMPS : AMPS (Advanced Mobile Phone Systèm), apparu en 1976 aux Etas Unis, constitue le premier standard analogique des réseaux cellulaires. La technique d’accès utilisé était le FDMA qui limitait grandement le nombre de communication supportée par une station de base. La bande de fréquence utilisée se situe aux alentours de 800MHz, plus précisément la bande de 824- 849MHz pour les canaux ascendants et la bande de 869-894MHz pour les canaux descendants. Ce standard a été aussi implémenté en Asie, en Outre-Atlantique et en Russie.
NMT : NMT (Nordic Mobile Telephone) a été lancé en 1981 et utilisé en Russie, proche Orient et dans les pays scandinaves. Ce standard possédait deux variantes : celle s’opérant aux alentours de 450MHz et celle s’opérant aux alentours de la bande de 900MHz. Il possédait déjà un service de roaming et permettait déjà l’encryptions des communications avec des terminaux spéciales. La taille des cellules s’étend de 2 à 30Km et permettait un débit de 1200bits/s .
TACS : TACS (Total Access Communication System) est la version européenne du modèle AMPS. Fut largement utilisé en Angleterre et en Asie, il s’opérait dans le bande de fréquence de 900MHz. L’hétérogénéité des réseaux de première génération impliquait l’incompatibilité des systèmes et l’impossibilité d’itinérance internationale. Cela conduisait à l’instauration d’une norme internationale d’où la naissance des réseaux de deuxième génération.

Les exigences du LTE 

Le 3GPP a défini plusieurs exigences pour le LTE au cours de la première étape des travaux de normalisation de ce réseau. Les principaux objectifs se sont portés sur l’amélioration des services de données via une capacité accrue, l’augmentation de débit et la diminution de la latence du système. Nous allons donc voir une à une ces exigences afin de donner une indication sur la performance de ce système.
La capacité: On peut considérer deux points de vue sur la capacité. Le premier se porte sur la capacité en nombre d’utilisateur simultané et le second sur l’efficacité spectrale cellulaire .
Nombre d’utilisateur simultané : Ce système doit supporter simultanément un large nombre d’utilisateur par cellule. Il est attendu qu’au moins 200 utilisateurs simultanés par cellules soient acceptés à l’état actifs pour une largeur de bande de 5MHz, et au moins 400 utilisateurs pour les largeurs de bande supérieure. Le nombre d’utilisateur en état de veille peut donc aller bien au-delà de ces nombre .
L’efficacité spectrale cellulaire : Par définition, l’efficacité spectrale d’une cellule est le nombre de bit qu’elle peut transmettre par seconde et par Hz (bit/s/Hz/cellule). En sens descendant, l’efficacité spectrale doit être trois à quatre fois supérieure à celle offert par le HSPA Release 6 au sein d’un réseau chargé, et deux à trois fois supérieure en sens montant .
Les débits : Le débit est un des aspects définissant la puissance des opérateurs de réseau mobile, perçu du point de vue consommateur. Le 3GPP a fixé les objectifs suivants en termes de débit pour la technologie LTE :
100 Mbit/s en voie descendante pour une largeur de bande allouée de 20 MHz, soit une efficacité spectrale crête de 5bit/s/Hz .
50 Mbit/s en voie montante pour une largeur de bande allouée de 20 MHz, soit une efficacité spectrale crête de 2,5bit/s/Hz .
La latence : Par définition, la latence d’un système est la capacité à traiter rapidement des demandes d’utilisateurs ou de services. On distingue deux types de latence :
La latence du plan contrôle : elle représente le temps nécessaire pour établir une connexion et accéder au service. L’objectif pour le LTE est d’avoir une latence inférieure 100 ms .
La latence du plan usager : c’est le temps de transmission d’un paquet entre la couche IP de l’UE et la couche IP d’un nœud du réseau d’accès ou inversement. En d’autre terme, la latence du plan usager correspond au délai de transmission d’un paquet IP au sein du réseau d’accès. L’objectif pour le LTE est d’avoir une latence de plan usager inférieure à 5 ms dans des conditions de faible charge du réseau et pour des paquets IP de petite taille.

Le domaine du réseau d’accès : E-UTRAN

Le domaine du réseau d’accès est composé d’un seul nœud : l’eNodeB (evolued Node B). Ce nœud assure le relais entre l’UE et le réseau cœur en exposant des piles de protocoles des plans usager et de contrôle. Il joue à peu près les mêmes rôles que les stations de bases des générations antérieures à la différence que : Le contrôleur de station de base est supprimé, ce qui explique par la volonté de réduire la latence du système et dans le but de réduire les coûts pour les opérateurs. Les fonctionnalités assurées par ce contrôleur sont donc distribuées au sein de l’eNodeB ou supportées par le réseau cœur.
Une interface entre les stations de base est ajoutée, l’interface X2 . L’apparition de cette interface est due à la distribution de fonctionnalités de contrôleur de station de base impliquant une connectivité accrue entre ces derniers afin d’optimiser les procédures de mobilité, de faciliter la gestion des interférences intercellulaires.
Pour les eNodeB, le fait d’être interconnectés entre eux et d’être relié directement au réseau cœur apporte un meilleur partage de ressource car si le lien principal est saturé, la station peut utiliser un autre pour continuer à servir ses utilisateurs dans un temps raisonnable. Ces eNodeB sont connectés au réseau cœur par l’intermédiaire de l’interface S1. Plus précisément, les flux du plan usager sont gérés par l’interface S1-U définie entre le S-GW (Serving GateWay) et eNodeB tandis que les flux du plan de contrôle sont pris en charge par l’interface S1-MME définie entre MME (Mobile Managment Entity) et eNodeB.

L’interface radio du LTE 

L’interface radio assure le rôle de transfert, par la voie des airs les données issue de la couche IP associées au service demandé par l’utilisateur. Ce transfert doit respecter des exigences de qualité de service (latence) tout en optimisant l’accès à une ressource spectrale limitée.
Le mode de duplexage : Le duplexage définit la manière dont sont séparées les transmissions sur la voie descendante et sur la voie montante. La technologie LTE supporte les deux duplexages tels que le duplexage en fréquence ou FDD et le duplexage en temps ou TDD.
En mode FDD, les voies montantes et descendantes se placent sur deux fréquences différentes et sont séparées par une bande de garde. En général, la bande dédiée à la voie montante est la bande basse, à cause de l’effet d’atténuation des ondes électromagnétiques qui croit avec la fréquence. En effet, un UE qui transmet sur une fréquence basse requiert moins de puissance d’émission pour être reçu à la station de base qu’un UE qui transmet sur la fréquence haute. En mode TDD, les voies montantes et descendantes utilisent la même fréquence porteuse mais se distinguent dans le domaine temporel.
La méthode d’accès : L’interface du réseau LTE constitue une rupture avec l’UMTS, qui était basé sur une modulation mono porteuse avec étalement de spectre et accès multiple à répartition de codes.
Le LTE utilise l’OFDMA (Orthogonal Frequency Division Multiple Access) dans le sens descendant et le SC-FDMA (Single Carrier – Orthogonal Frequency Division Multiple Access) dans le sens montant. Ces deux types d’accès sont tous basés sur l’OFDM (Orthogonal Frequency Division Multiplexing).

Table des matières

INTRODUCTION GENERALE
CHAPITRE 1 : LES TROIS PREMIERES GENERATIONS DE RESEAUX MOBILES
1.1 Introduction 
1.1.1 Le concept cellulaire
1.1.2 Les évolutions technologiques des réseaux cellulaires
1.2 La première génération des réseaux cellulaires
1.2.1 AMPS
1.2.2 NMT
1.2.3 TACS
1.3 La deuxième génération des réseaux cellulaires
1.3.1 GSM
1.3.1.1 Architecture
1.3.1.2 L’équipement usager
1.3.1.3 Le réseau d’accès
1.3.1.4 Le réseau cœur
1.3.2 GPRS
1.3.2.1 L’intégration du GPRS
1.3.2.2 SGSN
1.3.2.3 GGSN
1.3.2.4 Les mises à jour nécessaires
1.3.3 EDGE
1.4 La troisième génération des réseaux cellulaires 
1.4.1 UMTS
1.4.1.1 Architecture
1.4.1.2 NodeB
1.4.1.3 RNC
1.4.2 HSPA
1.4.3 HSPA+
1.5 Cohabitation entre les réseaux de la deuxième et troisième génération 
1.6 Comparaison des performances entre les réseaux marquants les générations 
1.7 Conclusion
CHAPITRE 2 : LA TECHNOLOGIE LTE
2.1 Introduction 
2.2 Les exigences du LTE 
2.2.1 La capacité
2.2.2 Nombre d’utilisateur simultané
2.2.3 L’efficacité spectrale cellulaire
2.2.4 Les débits
2.2.5 La latence
2.2.6 La mobilité
2.3 Architecture d’un réseau LTE 
2.3.1 L’équipement usager : UE
2.3.2 Le domaine du réseau d’accès : E-UTRAN
2.3.3 Le réseau cœur : EPC
2.3.3.1 Le Serving-GateWay: S-GW
2.3.3.2 Le Mobile Managment Entity : MME
2.3.3.3 Le PDN-GateWay : P-GW
2.3.3.4 Le Home Subscriber Service : HSS
2.3.3.5 Le Policy and Charging Rules Function: PCRF
2.4 L’interface radio du LTE
2.4.1 Le mode de duplexage
2.4.2 La méthode d’accès
2.4.2.1 Principe de la modulation OFDM
2.4.2.2 Orthogonal Frequency Division Multiple Access: OFDMA
2.4.2.3 Single Carrier-Frequency Division Multiple Access: SC-FDMA
2.4.3 La technologie MIMO en LTE
2.4.3.1 La diversité de transmission
2.4.3.2 Le beamforming
2.4.3.3 Le multiplexage spatial mono-utilisateur SU-MIMO
2.4.3.4 Le multiplexage spatial multi-utilisateurs MU-MIMO
2.4.4 Les canaux
2.4.4.1 Rappel sur les couches protocolaires de l’interface radio
2.4.4.2 Les canaux logiques
2.4.4.3 Les canaux de transport
2.4.4.4 Les canaux physiques
2.4.5 Structure de la trame de l’interface radio
2.4.5.1 La trame de type 1
2.4.5.2 La trame de type 2
2.4.6 L’allocation de ressource en LTE
2.5 Les services offerts par le LTE
2.6 La qualité de services
2.7 Cohabitation et compatibilité avec les générations intérieures
2.8 Conclusion
CHAPITRE 3 : PLANIFICATION DU RESEAU D’ACCES E-UTRAN
3.1 Introduction
3.1.1 Concept général
3.1.2 Les paramètres d’entrée
3.1.3 Les paramètres de sortie
3.2 Les étapes de planification
3.2.1 Le pré-dimensionnement
3.2.2 Le dimensionnement de couverture
3.2.3 Le dimensionnement de capacité
3.2.4 L’optimisation
3.3 Planification orientée couverture
3.3.1 Bilan de liaison radio
3.3.1.1 Formule générale
3.3.1.2 Puissance émise PTX
3.3.1.3 Gain de l’émetteur GTX
3.3.1.4 Perte de l’émetteur LTX
3.3.1.5 Sensibilité du récepteur SensRX
3.3.1.6 Gain du récepteur GRX
3.3.1.7 Perte du récepteur LRX
3.3.2 Marge de planification PM
3.3.2.1 Marge de pénétration
3.3.2.2 Marge de shadowing
3.3.2.3 Marge d’interférence
3.3.3 Modèle de propagation
3.3.3.1 Modèle COST-231 Walfisch-Ikegami
3.3.3.2 Modèle Okumura-Hata
3.3.3.3 Modèle COST-231 Hata
3.3.4 Calcul du nombre de site en se basant sur le bilan de liaison
3.3.5 Calcul de la superficie en fonction du nombre de secteur
3.3.5.1 Site omnidirectionnel (1 secteur)
3.3.5.2 Site à 2 secteurs
3.3.5.3 Site à 3 secteurs
3.3.6 Le nombre de sites nécessaires
3.4 Planification orientée capacité
3.4.1 Estimation du trafic
3.4.2 Le nombre de sites nécessaires
3.5 Optimisation
3.6 Conclusion
CHAPITRE 4 : SIMULATION DE COUVERTURE SOUS ATOLL
4.1 Présentation Atoll
4.2 Préparation du projet
4.2.1 Création du projet
4.2.2 Configuration de système de projection
4.2.3 Importation de la carte de Madagascar
4.3 Zone de déploiement
4.4 Calcul théorique
4.4.1 Bilan de liaison dans le sens descendant
4.4.2 Résultat
4.4.3 Bilan de liaison dans le sens montant
4.4.4 Résultat
4.4.5 Interprétation
4.5 Mise en pratique
4.5.1 Emplacements des sites
4.5.2 Configuration
4.5.2.1 Ajout des transmetteurs
4.5.2.2 Planification du PCI
4.5.2.3 Planification de la sous bande
4.6 Simulation de couverture
4.6.1 Cas bande de 5MHz
4.6.1.1 Simulation suivant le niveau du signal
4.6.1.2 Simulation suivant le débit (DL)
4.6.1.3 Simulation suivant la qualité SINR (DL)
4.6.1.4 Simulation suivant la qualité BLER (DL)
4.6.2 Cas bande de 10MHz
4.6.2.1 Simulation suivant le niveau du signal
4.6.2.2 Simulation suivant le débit (DL)
4.6.2.3 Simulation suivant le la qualité SINR (DL)
4.6.2.4 Simulation suivant le la qualité BLER (DL)
4.7 Comparaison des rapports statistiques
4.7.1 Comparaison de la répartition de la couverture du signal
4.7.2 Comparaison de la répartition du débit (DL)
4.7.3 Comparaison de la répartition du SINR (DL)
4.7.4 Comparaison de la répartition du BLER (DL)
4.8 Décision à prendre
4.9 Conclusion
CONCLUSION GENERALE
ANNEXE 1
ANNEXE 2
BIBLIOGRAPHIE

Télécharger le rapport complet

Télécharger aussi :

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *