Les rayonnements cosmiques qui arrosent notre planète jouent-ils des tours aux constructeurs automobiles? La question est posée très sérieusement par Discovery, qui évoque les perturbations que ces particules solaires pourraient induire dans le fonctionnement des puces électroniques embarquées dans les voitures.
Ces flux de particules à très haute énergie —le plus souvent des protons— sont crachés par notre astre ou arrivent de l’espace lointain, et sont connus pour perturber le fonctionnement des satellites, qui sont moins bien protégés qu’au sol par l’atmosphère et le champ magnétique terrestre. Une influence qui augmente avec les progrès de miniaturisation de l’électronique: dans une puce « ancienne », le changement d’état d’un transistor engageait des dizaines de milliers d’électrons, la rendant insensible aux interférences. Mais aujourd’hui, les transistors n’en mettent plus en jeu que quelques dizaines à la fois (si ma mémoire est bonne), et les interférences peuvent « planter » les puces. Et on ne peut pas s’en protéger physiquement. Les ingénieurs mettent donc en place des algorithmes de correction d’erreur dans les logiciels qui font tourner les puces.
Toyota se coltine des incidents d’accélération subite sur 13 modèles (pour une flotte automobile concernée estimée à 5,6 millions de voitures), et plus de 3000 personnes ont contacté les autorités fédérales américaines à ce sujet. Discovery rappelle que les rayons cosmiques sont suspectés dans un incident survenu l’an dernier sur un Airbus de Quantas, qui s’est mis à faire du yoyo. L’enquête suspecte un ordinateur de bord comme source du problème, alors qu’il fonctionne correctement, ouvrant la question d’une influence externe, autrement dit les rayons cosmiques.
Il y a deux ans BBC, avait expliqué comment Intel, le géant des puces électroniques, essaie de protéger ses composants. Un responsable de la firme affirmait que si, sur une puce donnée, la probabilité d’un incident « cosmique » est faible, elle grimpe de 10 à 20 incidents par semaine sur un supercalculateur équipé de 10000 processeurs. A l’époque ce responsable évoquait la possibilité qu’une interférence cosmique ne perturbe les calculateurs à bord des voitures… Intel travaille sur la fabrication de détecteurs intégrés aux puces, qui pourraient signaler quand une interférence à eu lieu (1).
Difficile de savoir si les fédéraux enquêtent sur un fantasme où s’il s’agit de la première immixtion des rayons cosmiques dans notre vie quotidienne. Mais une chose est sûre, à force d’ajouter puces et calculateurs à bord des bagnoles, et à force de miniaturisation, ça finira bien par arriver…
(1) et si c’est le détecteur qui prend, on fait comment?
grotesque !
rien à ajouter
Ben… ils ont 3 jours d’avance, les gars de Discovery News !
PS : Denis, pour votre question en (1) : cette question n’est pas nouvelle. Le système de détection fait partie du calculateur, donc toute détection d’une erreur qui correspondrait à une « fausse détection » est considérée comme une « vraie détection » qui impose un recalcul. Par contre, il pourrait y avoir un vrai problème si 2 erreurs combinées apparaissent, l’une dans le calculateur lui-même, et l’autre, dans le détecteur, telle que cette seconde erreur fait disparaître la détection d’erreur. Situation dont il faut déterminer la probabilité d’occurrence.
Un exemple pratique de cas où cette question s’est déjà posée, c’est la navette spatiale américaine, qui, à ma connaissance, possède 5 ordinateurs de bord, dont les programmes sont fonctionnellement identiques, mais qui ont été écrits indépendamment les uns des autres. L’idée est que les 5 ordinateurs font les mêmes calculs en même temps, et on prend comme résultat le « résultat le plus fréquent » :
* si les 5 donnent le même résultat, on prend ce résultat
* si 4 donnent un résultat et le 5ème un autre, on prend le résultat des 4
* si 3 donnent un résultat et les 2 autres un autre résultat (différent ou identique entre eux, peu importe), on prend le résultat des 3.
* si 2 donnent un résultat et les 3 autres un résultat différent (et aussi, différent entre eux), on prend le résultat des 2 (ceci dit, là, on commence à demander aux ingénieurs de la salle de contrôle de refaire le calcul à la main…)
L’idée était, à l’époque, de se protéger des erreurs de calculs, non pas liés à des rayons cosmiques, mais simplement dus à des erreurs de programmation faites lorsque le logiciel a été écrit.
Et évidemment, si vous me demandez ce qu’il se passe si les 5 ordinateurs donnent tous un résultat différent, ou 2 ordinateurs donne un premier résultat, 2 autres un second résultat et le dernier un 3ème résultat, la réponse est simple : outre que, statistiquement, si les 5 programmes ont réellement été écrits de manière indépendante, c’est très improbable, ben… on se contente de refaire le calcul ! Et la situation se répète 5 ou 10 fois de suite pour le même calcul, alors on repasse en manuel !
Il me semble pourtant bien que des Intel 8086 (ou 8088) avait été « blindés » à l’époque de la course à l’espace et de la guerre froide. Ces puces pouvaient non seulement encaisser des rayons cosmiques (sans atmosphère, c’est le 14 juillet tous les jours là haut) mais aussi les effets ECM d’une explosion thermonucléaire type H.
D’ailleurs je me demande comment fonctionnent nos satellites aujourd’hui.
Je pense que c’est une « intox » visant à déculpabiliser les constructeurs…
Le blindage n’est qu’une des nombreuses techniques utilisées pour « durcir » les circuits.
L’article de wikipedia sur le sujet est excellent.
http://fr.wikipedia.org/wiki/Durcissement_(%C3%A9lectronique)#Techniques_de_durcissement_aux_radiations
J’ ai comme l’impression que ces protons agissent aussi sur certains cerveaux humains …
Bonjour,
Docteur en microélectronique, ayant travaillé sur les décharges électrostatiques et de manière générale tous les problèmes dits de « défiabilisation » des circuits intégrés, je confirme bien entendu le contenu de l’article de DD. Ce phénomène s’appelle en anglais le Single Event Upset ou Single Event Latch-Up.
A l’époque où j’ai fait ma thèse (2000-2003), l’existence « embêtante » de tels problèmes de SEU était prévue pour la génération de puces électroniques dont la dimension caractéristique est de 45nm, c’est-à-dire, à ma connaissance (mais j’ai depuis changé de domaine), pour la génération de puces sortie il y a 2 ou 3 ans. Tout coïncide donc.
Lorsque je parle de « embêtante » : le SEU a toujours existé, mais n’était embêtant que pour les satellites jusque là, l’atmosphère terrestre protégeant les PC (par exemple) des particules ionisantes les plus énergétiques, donc les plus dangereuses.
Maintenant que les puces sont + petites, une énergie moindre est suffisante pour provoquer la création de paires électrons-trous dans le substrat dont la durée de vie est suffisante pour faire changer d’état un transistor.
Hollydays : la redondance est un procédé bien connu pour assurer la sécurité de fonctionnement, notamment sur les satellites. Arthur C. Clarke le fait aussi utiliser par le vaisseau RAMA dans les bouquins du même nom.
Mais jusque là, sur terre, ce n’était utilisé qu’en biomédical ou pour la surveillance des centrales nucléaires ou quelques rares autres applications sensibles. S’il faut équiper l’électronique grand pubic avec des systèmes à triple redondance (la double ne suffit pas), alors on fait un grand bond en arrière dans la miniaturisation !
La solution contre le SEU est un mélange : redondance, blindage et respect de certaines « règles de dessin » dans la conception des circuits.
En espérant n’avoir pas été trop lourd
Très bon