Les limites des canaux de communication

Au début de 1940, le consensus général était que lorsqu’on augmente le débit d’information transmises sur un canal de communication, on augmente la probabilité d’erreur. Cependant, dans son papier de 1948 « A M Mathematical Theory of Communication,” Shannon a quantifié le débit maximum d’information qui peut être envoyé sans erreur sur un canal de communication [45]. La preuve de Shannon implique qu’on peut avoir un code aléatoire avec une probabilité d’erreur exponentiellement petite pour des longues blocs, associé à une règle de décodage. Malheureusement, ces genres de codes sont extrêmement difficile de décoder en pratique, généralement nécessitant des tableaux et/ou des calculs exponentiellement larges.

Depuis ce temps, les chercheurs ont trouvé des codes structurés qui ont des apports très proche de la limite théorique et qui peuvent être décodé simplement. Il y a plusieurs limites de l’information et dans ce chapitre, on va rappeler le maximum possible de rapports d’information pour différentes scénarios et comment les chercheurs ont essayé d’approcher ces rapports avec des modulations pratiques. En particulier, on s’intéresse aus canaux sans interférences, canaux à interférence et l’émetteur les connaît, et canaux à interférence sans la connaissance de l’émetteur.

Turbo Egalisation – Cours 

L’ introduction de la concaténation des codes correcteurs d’erreur et la théorie de décodage (Turbo Code) dans le champ de communications a permis de travailler avec des débit proche de la limite de Shannon. Ce chapitre commence avec une explication de la théorie du turbo code. Ensuite, on montre comment le schéma turbo peut être modifié pour développer la « turbo égalisation » pour égaliser la sortie du canal IES. Puis les modifications nécessaires pour la turbo égalisation pour l’adapter au canal IES variable avec le temps sont décrites et enfin on discute du problème de la complexité du récepteur.

Turbo Code 

Il entraîne la concaténation de deux convolutional codes séparés par un entrelaceur. Le principe « turbo » parle du décodage itératif du code complexe généré. Chacun des deux codes est décodé séparément, mais avec l’avantage d’avoir quelques informations appris de l’autre code pendant l’itération précédente. Chaque code est décodé au récepteur par un décodeur SISO. Cette présentation de la théorie turbo code développe une notion qui représente une expansion, combinaison, et clarification des conventions prises de la littérature.

SISO
Quand un bloc d’information codées est transmis sur un canal avec AWGN, l’information du kieme symbole de la séquence transmise a trois sources indépendant.
1. La valeur reçu du kieme symbole
2. l’information a priori sur le symbole
3. l’information sur le symbole qui réside dans tous les autres symboles reçus du même bloc.

Le module SISO reçoit l’observation et l’intrinsèque comme entrés et sort l’extrinsèque et la probabilité a posteriori d’information codée qui a été transmise sur le canal. Le SISO peut être réalisé avec plusieurs algorithmes tant que le codeur peut être représenté dans une treillis.

Configuration Parallèle du Turbo Code
Les codes convolutionels peuvent être concaténés en série ou en parallèle. Initialement on décrit la concaténation parallèle des codes.

Configuration série du Turbo Code
Les codes concaténés en série sont plus simples. Les composants exécutent les mêmes fonctions que dans le cas parallèle seulement l’interconnexion diffère dans le cas série.

Turbo Egalisation 

Turbo Egalisation – Principe
L’égalisation entraîne une compensation pour la réception par rapport à une transmission à chemin multiple. Dans ce paragraphe on décrit la modification faite sur le turbo code pour égaliser les données reçues sur un canal IES. Le canal IES est modélisé par un nombre de chemins qui arrivent à des instants différentes. Ce model de canal est adapté au treillis et alors le même algorithme employé dans le SISO peut être utilisé pour décoder le canal. Deux modifications relative au décodeur concaténé en série vont être faite. Premièrement, l’égaliseur SISO qui remplace le premier SISO accepte la sortie du canal et calcule les vraisemblances du canal. Deuxièmement, les sorties extrinsèques sont modifiées. Les valeurs de la sortie supérieure ne sont pas utilisées, la sortie inférieure est cruciale. A l’intérieur de l’égaliseur SISO, les probabilités des symboles sont calculées, et puis l’algorithme du décodage est exécuté comme dans un SISO normal. La décision du turbo égaliseur est faite comme dans le SCCC.

Turbo Egalisation – Métriques de performance
Un des principales buts de n’importe quelle chaîne de transmission est d’avoir un communication sûre avec un SNR minimisé. Un faible SNR est typiquement associé à l’avantage de la faible consommation de la puissance, petite dimension, et meilleure portabilité. Malgré que la turbo égalisation réduit beaucoup le SNR, mais elle augmente la complexité qui consomme beaucoup d’énergie. Pour représenter la sûreté du schéma de transmission, le rapport des bits erronés (BER) des données reçues est tracé par rapport au SNR. Le SNR est exprimé en terme de Eb/No. La complexité est exprimée en terme de nombre d’additions, de multiplications, maximisation, et l’exigence de mémoire.

Estimation du Canal

Pour conclure avec l’analyse de la turbo égalisation, le problème de la connaissance du canal doit aussi être soigneusement examiné. On propose ici au moins deux méthodes pour la re-estimation des coefficients du canal. Une partie importante de la dégradation est introduite par le mal fonctionnement de l’estimation du canal qui peut être récupérée par les méthodes de re-estimation, sans une grande augmentation de la capacité.

LIRE AUSSI :  Configuration commune au client et au serveur NFS

EM based re-estimation
Jusqu’à maintenant on considère que les coefficients du canal sont connus au récepteur, en pratique, ils sont estimés avec une séquence d’apprentissage insérée dans la séquence transmise. La méthode classique de l’estimation corrélative du canal (pseudo inverse method) cause une dégradation importante de performance par rapport à l’estimation parfaite. Cette lacune peut être réduit par l’utilisation des techniques avancées d’estimation de canal, comme l’algorithme EM, qui est puissant outil qui performe l’estimation des paramètres par la méthode de maximum de vraisemblance.

Re-estimation du canal bootstrap
Au lieu de considérer les symboles estimés après le décodeur IES, les décisions sont prises après le re-entrelacement de la séquence décodés. Comme ça, on profite de la diversité temporelle apportée par l’entrelacement et de l’efficacité du décodage du canal. On va décrire la succession des opérations.
1. Après la re-entrelacement de la sortie doux produite par le décodeur du canal, une décision dure est prise sur chaque bit de chaque symbole de la séquence. Une estimation des symboles utiles est alors disponible.
2. La matrice du système est formée
3. Une solution qui minimise la probabilité d’erreur est bien connue.

Entrelacement et Des-entrelacement 

La fonction d’entrelacement permet la distribution temporelle d’une séquence d’erreur. Utilisé généralement avec les canaux variables avec le temps, l’entrelaceur est une fonction essentielle de la turbo égaliseur même si le canal n’est pas variable avec le temps.

Constellation Optimisée

On propose ici d’étudier l’influence du mapping sur le performance de la turbo égalisation. On montre que cette technique est intéressante pour un bon choix du mapping. Dans l’ordre d’expliquer le choix technique, on utilise deux différentes approches fournies par Ten Brink and Gorokhov.

The geometrical approach
Gorokhov propose deux critère de conception pour l’optimisation du mapping, basée sur le calcul des distances spécifiques de constellation. Le choix du mapping est alors atteint sans aucun notions sur le point de fonctionnement. Cependant, cette critère de conception donne une préférence pour les performances asymptotiques que pour le traitement itératif durant la convergence qui n’est pas tout le temps désirable.

The mean average mutual information approach
Ten Brink utilise les paramètres de l’information mutuelle, qui permet de distinguer exactement les performances de chaque mapping, cependant, le calcul de ce paramètre demande une simulation intensive et dépends du vue du point de fonctionnement.

Table des matières

1 Introduction
1.1 Background
1.2 Thesis Outlines
2 Information limits of communication channels
2.1 AWGN Channel
2.2 Interference Channel Model
2.2.1 Interference Channels with Water Pouring
2.2.2 Interference Channels without Water Pouring
2.2.3 A Comparison of Maximum Information Rates
3 Classical Detection Schemes
3.1 ML Detection
3.2 Linear Detection
3.2.1 Whitening Matched Filter
3.2.2 Zero-Forcing Block Linear Equalizer
3.2.3 Minimum-Mean-Square Error Block Linear Equalizer
3.3 Decision-Feedback Detection
3.3.1 Zero-Forcing Block Decision Feedback Equalizer
3.3.2 Minimum-Mean-Square Error Block Decision Feedback Equalizer
3.4 Multistage Detection
3.4.1 Interference Canceller
3.4.2 Mean square error
3.4.3 Adaptive Interference cancellation
4 Turbo Equalization – Tutorial
4.1 Turbo Coding
4.1.1 SISO
4.1.2 Turbo Code in Parallel Concatenated Configuration
4.1.3 Turbo Code in Serial Concatenated Configuration
4.2 Turbo Equalization
4.2.1 Turbo equalization – Principle
4.2.2 Turbo equalization – Metrics of performance
4.3 Channel Estimation
4.3.1 EM based re-estimation
4.3.2 Bootstrap channel re-estimation
4.4 Interleaving and De-interleaving
4.5 Optimised labelling maps
4.5.1 The geometrical approach
4.5.2 The mean average mutual information approach
5 The Iterative Observation Separation Technique
5.1 The Iterative Observation Separation Technique
5.2 The OS technique in general Narrowband Modulation systems
5.2.1 Conventional BICM Transmitter
5.2.2 Our Proposed Receiver
5.3 The OS technique in a general CDMA system
5.4 Applications, Simulations and Results
5.4.1 UMTS – TDD Application (Multi-user Application)
5.4.2 Narrowband Application (Single user Application)
5.5 Conclusion
6 Mapping Optimization with Iterative OS Technique
6.1 Iterative decoding of BICM
6.1.1 Analytical Bound for BICM-ID
6.1.2 Design Optimization
6.2 BICM-ID combined to OS concept
6.3 Simulations and Results
6.4 Conclusion
7 Low-Density Parity-Check Codes
7.1 Regular and Irregular LDPC-Codes
7.2 Factor Graphs
7.2.1 Cycles and Girth of a Factor Graph
7.2.2 Degree Distribution
7.3 Construction of a Parity Check Matrix for a Degree Distribution
7.4 Decoding Algorithms
7.4.1 The Sum-Product Algorithm
7.4.2 The Min-Sum Algorithm
8 Decoding of Non Binary and Adaptive LDPC Codes
8.1 The Decoding Rule
8.1.1 Decoding Rule applied to Single Parity Check Code (SPC)
8.1.2 Simulation Results for SPC(6, 5)
8.2 Non Binary LDPC Codes
8.2.1 Encoding with q-ary LDPC matrix
8.2.2 Decoding Rule Apply to q-ary LDPC
8.2.3 Simulations Results
8.3 Adaptive LDPC Codes
8.3.1 Adaptive Modulation and Coding
8.3.2 Characterization of the channel variation
A. Design Rules
B. Matrix HLDPC Construction
C. Adaptive LDPC Encoding
D. Adaptive LDPC Decoding
E. Toy Example
F. Simulation Results
8.4 Conclusion
9 Iterative OS Technique with Non Binary LDPC Codes
9.1 The OS Technique with LDPC Codes
9.1.1 Bit or Symbol LDPC Coded Modulation Transmitter
9.1.2 Joint Iterative LDPC Decoding and detection with OS technique
9.2 The Effect of the Distribution Degree
9.2.1 Description of simulation experiments
9.2.2 Surprising and confusing results
9.2.3 Finding better LDPC codes over GF(16)
9.3 Simulations Results
9.3.1 LDPC codes with fixed column weight
9.3.2 LDPC codes with non-integer column and row weight
9.4 Conclusion
10 Conclusion

Cours gratuitTélécharger le document complet

Télécharger aussi :

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *