Application de la méthode de mesure d’émission en champ proche

Application de la méthode de mesure d’émission en champ proche

 Obsolescence composant

Dans un contexte d’obsolescence, l’étude de la régression CEM d’un équipement ou d’un système n’est pas uniquement due au remplacement de composant complexe, mais peuvent aussi être engendrés par le changement de référence de composants plus élémentaires. Dans l’exemple suivant (domaine de l’énergie), l’arrêt de production d’un circuit (un oscillateur local à 1 MHz) a nécessité le redéveloppement de la fonction du circuit sur une microcarte électronique, compatible avec l’ancien socket, en utilisant des composants actuels disponibles sur le marché. Une analyse de non-régression CEM a été réalisée. Se basant sur le retour d’expérience des équipes internes, cette analyse s’est focalisée sur les harmoniques de la fréquence fondamentale à 1MHz. Lors de la conception initiale, des non-conformités CEM avaient été relevées spécifiquement autour de ces harmoniques avant d’être résolues. La conception a donc été spécifiquement optimisée autour de ces harmoniques. Par la suite, des mesures complémentaires ont été réalisées pour valider la non-régression CEM de l’équipement suite à ce changement de composant. Par soucis de gain de temps et de commodité, la mesure en champ proche a été utilisée. Une étude d’une demi-journée a permis de réaliser les mesures suivantes. Figure I.27 – Comparaison de l’émission EM en champ proche (à 2 MHz et 100 MHz) autour de l’ancienne et de la nouvelle version de l’oscillateur 1 MHz. Figure I.28 – Comparaison du spectre d’émission EM en champ proche (niveau maximum émit pour tous les points) entre l’ancienne et la nouvelle version de l’oscillateur 1 MHz. — Ecran 1 — Ecran 2 @2 MHz @100 MHz Nouvelle version +11 dB . Les résultats de l’étude démontrent clairement le gain apporté par les designers autour des fréquences harmoniques du 1 MHz. Les niveaux mesurés ne sont pas précisés pour préserver la confidentialité des résultats. Sur les premières harmoniques du 1 MHz, on observe une réduction de plus de 10 dB en moyenne du niveau d’émission sur la nouvelle version par rapport à l’ancienne version. Mais le plus important relevé par cette étude est la détérioration du niveau d’émission de la nouvelle version après 75 MHz. Là où une baisse significative du niveau d’émission est observée sur l’ancienne version (= ancien technologie) après 75 MHz, la nouvelle version peut présenter des niveaux jusqu’à 30 dB au-dessus de l’ancienne version. L’utilisation des nouvelles technologies de composant, pour copier la fonction de l’ancien oscillateur local 1 MHz, a engendré une élévation significative du niveau d’émission du nouveau composant pour les fréquences supérieures à 75 MHz. Cet exemple illustre la limitation, pour traiter l’obsolescence d’un composant, du retour d’expérience basé uniquement sur la conception initiale du produit. Il montre également l’intérêt d’une mesure rapide en champ proche pour l’analyse de la non régression CEM dans le cadre du changement d’un composant.

Investigation de non-conformités CEM

Dans le cadre d’une non-conformité relevée sur un produit lors de la campagne de qualification CEM d’un équipement, il est parfois long et difficile d’identifier la cause racine du problème. Dans l’étude suivante, une investigation a été menée à partir de mesures réalisées en cellule GTEM. Ce moyen de test normalisé permet de mesurer, à l’instar d’une mesure de l’émission rayonnée en cage, le niveau d’émission rayonné du DST. Son coût est toutefois plus abordable comparativement à une mesure en cage. Suite à cette étude, le défaut a été localisé au niveau de la carte appelée « sensor ». Pour résoudre le problème, un blindage de la carte a été dimensionné. Le produit a pu ainsi être certifié CEM. Une des conséquences de l’ajout d’un blindage sur cette carte « sensor » a été de modifier le cahier des charges et les contraintes d’intégration du produit. Il faut signaler ici que cette étude a été réalisée de manière très sérieuse. Il aurait été difficile d’aboutir à un autre résultat à partir des mesures réalisées. Par la suite une seconde investigation a été réalisée sur ce produit à partir d’une mesure en champ proche (lors d’une campagne de promotion de la mesure en champ proche). Cette étude a été menée en une demi-journée [91]. Les résultats de cette étude sont présentés ci-dessous (version v0). L’analyse des résultats montre que le réel défaut de conception vient de la partie alimentation du produit. Aucune erreur de conception n’a été relevée sur la carte « sensor ». Des erreurs de routage occasionnaient un bruit important sur la masse du produit (Ground Bounce en anglais). Ajouté à cela, la signature de l’activité numérique était particulièrement visible au dessus des alimentations de la carte. Or le réseau de découplage aurait dû réduire cette signature, au moins en haute fréquence. La masse de la carte principale étant reliée au plan de masse de la carte « sensor », cette dernière agissait comme une antenne rayonnant le bruit de masse. Figure I.29 – Investigation de non-conformités CEM à partir de la mesure en champ proche Version v0 Version v1 Sensor board @NEXIO  Une version modifiée, corrigeant les erreurs de routage autour de l’alimentation de la carte principale, a été mesurée six mois après. Les résultats de cette étude sont présentés ci-dessus (version v1). Elle confirme la suppression des problèmes de bruit sur l’alimentation, confirmée par la mesure normative. Cette étude illustre la pertinence d’une mesure en champ proche pour investiguer les erreurs de conception d’une carte électronique. La cartographie de l’émission rayonnée de la carte apporte des informations indispensables à l’analyse de sa « bonne » conception CEM. Une information intéressante, à relever ici, concerne la répétabilité de la mesure. Sur les parties non modifiées de la carte, les écarts de mesure entre les deux versions, réalisées à 6 mois d’intervalle, sont de l’ordre de 0.5 dB. On valide ici la fiabilité et la reproductibilité de ce moyen d’investigation.

Aide au choix d’une protection CEM (dimensionnement de l’impact)

Durant la conception d’un produit, il arrive, lors de l’analyse de risque, que l’on identifie des risques CEM. Pour gérer ces risques, il est nécessaire de mettre en place des protections. Le concepteur peut être dans la situation d’avoir plusieurs solutions mais ne pas savoir laquelle est la plus performante dans son cas de figure, ou simplement face à une nouvelle technologie de protection qu’il ne maitrise pas encore. Il est donc nécessaire de faire une caractérisation de l’efficacité de la ou des protection(s) CEM. De plus dans un marché concurrentiel, le cout entre deux protections peut avoir un poids important dans la discussion. Il est donc nécessaire de pondérer ce coût avec les performances des différentes protections. C’est dans ce contexte que se place l’étude suivante. Un concepteur cherchait à savoir s’il devait implémenter un filtre (Snubber en anglais) sur son alimentation (un convertisseur DC/DC de type Flyback). Ici, deux versions de carte ont été réalisées (pour d’autres raisons que cette étude) implémentant une version avec et sans snubber. La version avec snubber présente un niveau d’émission de 10 dB inférieur à la version sans snubber. Cette étude a permis de dimensionner clairement le gain d’une solution par rapport à une autre. Là encore, la répétabilité de la mesure en champ proche permet de réaliser ce type d’étude. Ce qui ne serait pas possible de réaliser avec des moyens en cage (mesure globale/non localisée et de répétabilité moins bonne). Cette étude n’a duré qu’une heure. Figure I.30 – Caratérisation de l’ajout d’un snubber sur un convertisseur DC/DC de type Flyback. Reference Reference + snubber -10dB @NEXIO @NEXIO Chapitre I : Contexte, état de l’art et verrous sur la mesure en champ proche 53 Verrous sur la mesure en champ proche Malgré tout ce qui vient d’être dit sur la mesure en champ proche, comme toute méthode de mesure, cette dernière n’est pas dénuée de limitations. Ce paragraphe propose de dresser une liste des principaux verrous de la mesure en champ proche. Cette liste n’a pas la prétention d’être exhaustive.

Le temps de mesure

Très tôt déjà [51], la problématique du temps de mesure d’une surface en champ proche est discutée. Le temps de réaliser une mesure fréquentielle sur une large bande peut prendre plusieurs secondes voire plusieurs heures suivant la largeur de la bande de fréquence, le niveau de sensibilité et la résolution fréquentielle souhaitées. Il faut multiplier cela par le nombre de points spatiaux où l’on veut capturer le champ proche. On comprend rapidement que cette technique de mesure est consommatrice en temps. Dans le cas d’un DST, dont l’émission est harmonique, en limitant la bande de fréquence au niveau du spectre des émetteurs potentiels, en utilisant un analyseur de spectre avec la configuration d’un RBW large et en utilisant une sonde de grande dimension (plusieurs millimètres de diamètre), on peut réduire très significativement le temps de mesure. Dans un contexte d’investigation d’une non-conformité CEM (bande de fréquence identifiée) une mesure dure en général de 30 minutes à 2 heures au maximum. Mais si l’on veut réaliser une mesure précise spatialement et fréquentiellement, le temps de mesure peut exploser. On peut atteindre des dizaines d’heures de mesure. Ce cas de figure peut se présenter pour modéliser un équipement complexe. Le temps de mesure est la première contrainte qui est identifiée par les industriels. C’est une des raisons pour laquelle elle n’est pas très plébiscitée comme méthode de mesure normative de certification CEM. Sans connaissance a priori sur le DST, ce type de mesure peut durer des heures. Cela ne remet pas en cause la qualité de la mesure, mais cette contrainte de temps n’est pas compatible avec le domaine industriel. 

Interprétation des résultats

Après le temps de mesure, la difficulté d’interprétation des résultats est souvent citée comme une contrainte forte pour l’utilisation de la mesure en champ proche dans l’industrie. Sur les essais normatifs, les résultats de mesure sont souvent représentés par une courbe avec une limite à ne pas franchir, définie par la norme. Savoir si l’on est au dessus ou en dessous de la limite est alors à la portée de tout concepteur non expert en CEM. Dans le cadre d’une mesure en champ proche, la quantité d’informations collectées durant la mesure peut être importante. Les résultats sont présentés sous forme d’une cartographie (matrice de points). Si l’on veut une résolution spatiale de mesure importante, ce nombre de points peut devenir très important. Il y aura autant de cartographies que de points de fréquence choisis. Il y a autant de cartographies pour chaque fréquence que de composantes de champ mesurées. Soit au maximum, trois composantes de champ électrique : Ex, Ey, Ez et trois composantes de champ magnétique : Hx, Hy et Hz. La nature même des données de mesure en champ proche rebute. Les industriels traitent facilement les résultats de mesure en champ lointain depuis de nombreuses années (principalement avec la mesure en champ électrique). Ils ont appris à les interpréter. En champ lointain, il n’y a que deux composantes du champ, la polarisation verticale (PV) et la polarisation horizontale (PH). La composante colinéaire à la direction de propagation étant nulle pour une onde plane. Dans le domaine du champ proche, l’interprétation peut être plus complexe pour analyser les 6 composantes de champ. Pour une onde plane, le rapport d’onde 𝐸⃗ ⁄𝐻⃗ est une constante, il est seulement nécessaire de connaitre les deux composantes de champ électrique (PV et PH) pour avoir une bonne définition de l’onde électromagnétique. En champ proche, le rapport d’onde 𝐸⃗ ⁄𝐻⃗ est fonction de la source. Il n’est  donc pas possible de déduire 𝐸⃗ de 𝐻⃗ ou vice versa. On doit donc capturer plus de deux composantes pour avoir une définition de l’onde électromagnétique. Pour représenter une mesure normative, l’affichage d’une courbe est suffisant. Pour la mesure en champ proche, il est nécessaire d’utiliser un outil de visualisation performant pour simplifier l’analyse des résultats. Il faut noter que les mesures en champ proche peuvent être réalisées dans un environnement 3D autour du DST (nombreuses surfaces planes, sphériques ou cylindriques). L’analyse de ce type de résultat est autrement plus compliquée que l’analyse d’un résultat sous forme d’une courbe. 

LIRE AUSSI :  Synthèse et Évaluation de l’Activité Anticancéreuse d’Analogues Carbonylés et Sulfonylés de la Fotémustin

Volume des données de mesure/simulation

Le volume d’informations, collecté durant une mesure en champ proche, peut devenir conséquent. Une campagne d’essai sur un équipement complexe peut générer un fichier résultat de plusieurs Go. Le partage, le stockage et le traitement sont problématiques à mesure que les fichiers de mesure augmentent en taille. Sans format commun pour sauvegarder les résultats de mesure, il est plus difficile de collaborer entre groupe de chercheur. Comparer des mesures réalisées par différents laboratoires peut vite devenir un défi [92]. Au début des années 2000, un groupe de chercheurs français appelé « Pasteur » avait lancé une initiative internationale pour définir un format d’échange des résultats de mesure en champ proche. Mais cette initiative n’a pas été soutenue. En 2006, les travaux ont été repris [93], pour aboutir en 2009 [94] à la première version d’un format normalisé de fichier d’échange pour les résultats de mesures en champ proche basé sur le format XML proposé à l’IEC. Ce format international existe maintenant sous la référence IEC 61967-1-1:2015 ed 2.0 (cf paragraphe I.2.6.4). En 2015, une mise à jour a permis d’intégrer la compatibilité avec les mesures d’immunité en champ proche. Pour faciliter son partage et minimiser la taille des fichiers de données, l’ensemble des éléments peuvent être zippés dans un fichier portant l’extension « .nfs ». Ceci facilite son transport et réduit quelque peu sa taille. Ce format a permis de faciliter les échanges de donnée mais aussi les travaux collaboratifs entre chercheurs. Toutefois il n’a pas permis de réduire significativement le volume des données de mesure. Motivation des travaux La motivation des travaux, présentés dans ce mémoire, repose sur la problématique de caractériser rapidement la performance CEM d’une conception électronique. Dans le cycle de vie d’un produit, deux phases critiques nécessitent le besoin de caractériser la performance CEM d’un dispositif électronique. La première suit la constatation d’une non-conformité après un test de qualification CEM. Il faut investiguer rapidement le produit pour identifier la cause racine et surtout dimensionner une protection pour mettre en conformité le produit. La deuxième phase se situe lors de la conception du produit. Les guidelines CEM, le retour d’expérience et l’analyse du risque CEM demandent la mise en place de protections. Pour permettre le choix de ces protections, il est nécessaire de caractériser leurs performances CEM. Pour répondre à cette problématique, il est nécessaire de disposer d’outils d’investigation, fiables, rapides et pertinents à la caractérisation rapide d’une protection et ou d’un dispositif électronique complet. Si on devait synthétiser les avantages de la mesure en champ proche, on pourrait dire qu’elle a un énorme potentiel (faible contrainte de mise en œuvre, très large bande, mesure fiable et précise, large domaine d’application, compatible avec les outils de modélisation). La bibliographie présentée ici montre un très fort intérêt du monde académique pour cette méthode depuis plus de 30 ans, mais paradoxalement elle est assez peu utilisée dans l’industrie.  Trois verrous importants freinent les industriels à adopter ce moyen de mesure. Le premier étant très humain : les industriels s’en passent depuis de nombres années. Les contraintes normatives dans le domaine de la CEM sont très fortes. Il existe une longue liste de tests à passer pour certifier un dispositif électronique. Ajouter un nouveau test ferait augmenter le coût de la qualification CEM déjà important. Le deuxième est toujours lié au coût. La durée de mesure en champ proche peut être longue. Elle peut prendre plusieurs heures sur un équipement industriel voire même plusieurs jours si l’on veut caractériser précisément le produit complet. Ce temps n’est pas compatible avec les contraintes industrielles. Le dernier verrou concerne la nature et la quantité importante d’informations collectées durant la mesure (dimension spatiale et fréquentielle, 6 composantes de champ électrique (Ex, Ey, Ez) et magnétique (Hx, Hy et Hz)). La nature même des données de mesure en champ proche rebute. Les industriels traitent facilement avec le champ lointain depuis de nombreuse année (principalement le champ électrique). Ils ont appris à l’interpréter. Dans le domaine du champ proche l’interprétation peut être plus complexe. Nous proposons, dans les travaux présentés dans les trois prochains chapitres, de répondre au deux deniers verrous. Le chapitre 2 présente une méthode de mesure qui permet de réduire significativement le temps d’une mesure en champ proche. Elle permet de réduire en moyenne de 80% le temps de mesure sans dégrader significativement la mesure. Elle permet aussi collatéralement de réduire du même ratio le volume de donnée collectée. Le chapitre 3 étend cette approche à la mesure du champ effectuée sur plusieurs fréquences (mesure multi-fréquentielle). Elle permet également d’augmenter encore un peu le gain en temps de mesure et en volume des fichiers résultats. Le chapitre 4 présente l’utilisation de la mesure d’émission en champ proche pour l’optimisation du découplage d’un réseau d’alimentation d’un circuit numérique. On propose ici une approche intéressante ou l’on « détourne » l’utilisation classique d’un banc de mesure d’émission en champ proche pour réaliser des mesures d’impédance sans contacts sur une carte électronique. Cette nouvelle approche de mesure permet rapidement, en quelques minutes, d’évaluer la qualité d’un réseau de découplage d’un circuit numérique. Il est ainsi possible d’identifier les condensateurs de découplage les plus actifs dans le réseau de découplage mais également ceux qui n’apportent rien ou presque. Cette mesure permet une évaluation quantitative en identifiant clairement les qualités et les faiblesses du réseau dans l’objectif de minimiser le bruit numérique sur les alimentations mais également d’optimiser le nombre de condensateurs de découplages

Table des matières

Introduction générale
Chapitre I
I Contexte, état de l’art et verrous sur la mesure en champ proche .
I.1 Introduction
I.2 Etat de l’art sur la mesure en champ proche
Historique de la mesure en champ proche
La mesure d’émission en champ proche (NFSe] et d’immunité en champ proche (NFSi)
Les sondes de mesure en champ proche
Processus de calibrage d’une sonde champ proche
Méthodes de post-traitement de la mesure en champ proche
Synthèse des normes applicables pour la mesure en champ proche
I.3 Synthèse, verrous et description des travaux
Domaine d’utilisation de la mesure en champ proche
Verrous sur la mesure en champ proche
Motivation des travaux
Bibliographie du Chapitre I
Chapitre II
II Réduction du temps de la mesure d’émission en champ proche – échantillonnage spatial séquentiel
et adaptatif
II.1 Introduction
Définition du problème d’optimisation du temps de mesure en champ proche
Etat de l’art sur l’échantillonnage spatial adaptatif, appliqué en champ proche
Orientation et définition du domaine d’application de la méthode proposée
II.2 Echantillonnage spatial
II.3 Présentation de l’approche d’échantillonnage spatial séquentiel
Définition de la résolution d’échantillonnage finale d.
Définition du pas d’échantillonnage initial W
Définition du critère de sélection
II.4 Validation de l’algorithme SSAS
Présentation des démonstrateurs
Analyse de la performance de l’algorithme SSAS
II.5 Discussion sur les limitations de l’approche et les perspectives
Bibliographie du Chapitre II
Chapitre III
III Réduction du temps de la mesure d’émission en champ proche – mesure frequentielle large band
III.1 Introduction
III.2 Extension de l’algorithme SSAS au domaine multifréquence
Définition de la stratégie de mesure
Définition des approches de segmentation fréquentielle de la mesure
Application des différentes approches sur le démonstrateur #2 « FPGA »
III.3 Validation de l’algorithme SSAS étendu aux mesures multifréquences
Evaluation du gain en temps de mesure apporté par l’algorithme SSAS
Évaluation de l’erreur de mesure ajoutée par l’algorithme SSAS
III.4 Synthèse sur les performances de l’algorithme SSAS en contexte multi-fréquentiel
III.5 Discussion sur les limitations de l’approche et les perspectives
Bibliographie du Chapitre III
Chapitre IV IV Evaluation des performances du découplage du réseau d’alimentation d’un circuit numérique par
la mesure NFSe
IV.1 Introduction
Contexte
L’intégrité de puissance historique et verrous.
Apport scientifique de ce chapitre
IV.2 Définition d’une méthode d’investigation de l’intégrité de puissance par la mesure NFSe : Mesure NFSeZ21
IV.3 Présentation des démonstrateurs
Démonstrateur « Calibrage »
Démonstrateur « Condensateurs » d’extraction des modèles de condensateur
Démonstrateurs « Power-Board »
Démonstrateurs « PI-Board : B-sp – rcx »
IV.4 Procédure de calibrage du couplage sonde/condensateur
Description de la méthodologie
Démonstration de la méthode sur un cas d’application
IV.5 Modélisation de la carte PI-Board « B-8at-2a1-PCB+5xCapas »
Modélisation des condensateurs de découplage
Modélisation du démonstrateur « PI B-8at-2a1-PCB+5xCapas ».
IV.6 Validation de la méthode proposée
Evaluation de la performance de la méthode proposée sur un cas de simulation
Validation sur le démonstrateur « PI B-8at-2a1-PCB+5xCapas »
IV.7 Discussion sur l’approche, ces limitations et les perspectives
Bibliographie du Chapitre IV
Conclusion générale
Bibliographie de la Conclusion générale.

projet fin d'etudeTélécharger le document complet

Télécharger aussi :

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *