11/05/2017
22:26:39
Index du forum Continents Eurysie Estalie

Programme spatial de l'Estalie

Voir fiche pays Voir sur la carte
5959
Programme spatial de la Fédération des Peuples Estaliens :

Emblème de l'Agence Spatiale Fédérale.



Le rêve de la conquête spatiale en Estalie n'est pas forcément récent et avant 2016, les démarches poussant la Fédération à adopter un programme spatial national se sont succédés afin de procéder à la concrétisation du projet. Dans les faits, l'Estalie a débuté ses démarches à travers la création, il y a tout juste un an, de l'Agence Spatiale Fédérale (ASF) en mars 2015. La fondation de l'ASF a été le premier pas vers la conquête spatiale par l'Estalie et l'entrée de la Fédération dans le club des puissances spatiales puisque l'Agence, parfaitement coordonnée et structurée, s'assurera pendant près d'un de l'organisation des ébauches de ce programme qui sera d'une importance capitale pour l'Estalie, que ce soit par la conception des fusées de lancement, les programmes spatiaux prioritaires, les recherches nécessaires à la réalisation pratique des vols spatiaux ainsi que l'installation des infrastructures de lancement et de contrôle nécessaires à la bonne conduite du programme spatial et des missions qui y sont affiliés. Dans un second temps, l'Estalie a fait un deuxième pas avec la création de la Commission de Recherche Stratégique en Septembre 2015. Cette Commission, chargée de coordonner, financer et favoriser les nouvelles technologies militaires ainsi que leur déploiement sur le terrain, dispose d'un bureau spécifique dédié aux technologies spatiales, le BAMP.

On peut donc en conclure que le programme spatial dispose de deux objectifs principaux sur le plan politique. Tout d'abord, un objectif civil assez évident qui est celui d'approfondir la recherche spatiale, développer un réseau de télécommunications par voie satellite et le déploiement d'engins spatiaux dans le système solaire afin d'étudier de façon plus approfondie les différentes planètes qui l'a composent. C'est aussi une stratégie politique : l'Estalie, à travers son modèle politique et économique, est sensé représenter la modernité, le progrès, la sagesse. En somme, en prouvant que l'Estalie peut aller dans l'espace, celle-ci prouve également au monde l'efficacité de son modèle. C'est donc aussi une question de propagande politique (davantage destiné à l'extérieur, il n'est plus vraiment nécessaire de convaincre les Estaliens eux-mêmes) et de prestige à l'international. Néanmoins, au-delà des raisons civiles, politiques et scientifiques de ce programme, c'est aussi et surtout le domaine militaire qui est le principal concerné du programme spatial. En effet, en plus de financer une bonne partie du programme, la Commission à la Guerre a bien l'intention de militariser le programme afin que celui-ci puisse faciliter les opérations militaires actuelles et à venir de l'Armée Rouge, notamment par l'usage des télécommunications mais également de la surveillance satellite, la détection d'installations ou de bâtiments de guerre, etc. Dans les faits, l'Estalie n'est signataire d'aucun traité l'empêchant de militariser l'espace et il est assez évident qu'elle n'a pas l'intention de signer un traité de cette nature avec des Etats réactionnaires ou capitalistes. De plus, l'Estalie estime que c'est actuellement son devoir de prendre la relève militaire dans l'espace du monde socialiste : à sa connaissance, seule la Loduarie avait réussi à maintenir un programme spatial viable dans le monde socialiste. Or, la Loduarie est en plein déclin et son programme est depuis longtemps à l'arrêt, rapidement concurrencé par d'autres nations, y compris en dehors de l'Eurysie (notamment en Aleucie). Il faut donc que l'Estalie reprenne le flambeau au nom du monde socialiste d'une part, mais aussi au nom de ses propres intérêts. La Dernière des Grandes Guerres, comme le veut l'idéologie de l'Anarchisme Renouvelé, doit disposer de moyens techniques et technologiques élaborés pour vaincre les puissances despotiques et libérales qui imprègnent ce monde et la domination spatiale fait partie des domaines auquel on ne peut laisser le monopole à nos adversaires, que ce soit les puissances réactionnaires et fascistes ou les nations onédiennes comme Tanska qui dispose depuis fort longtemps d'un programme spatial national.


Calendrier du programme spatial :
(TBD = To Be Done/A faire).

.

Phase de recherche fondamentale (2016-2017).

  • Début de la construction des infrastructures de l'ASF : base de lancement, centres de contrôle, stations de suivi ; études préliminaires des technologies antisatellites ASAT (Juin-Décembre 2016).
  • Recherche fondamentale sur la propulsion chimique solide ; moteurs-fusées à propergol (2016).
  • Recherche sur les satellites d'observation ; capteurs optiques et radar à synthèse d'ouverture ; conception des premiers microsatellites de surveillance militaire (2016).
  • Expérimentations de l'électronique durcie pour l'espace ; lancement d'un prototype de satellite espion en orbite basse LEO (Décembre 2016-Janvier 2017).

  • Démonstration technologique (2017-2019).

  • Test de moteurs-fusées hybrides pour lanceurs légers ; conception de missiles ASAT basés sur les intercepteurs balistiques (TBD).
  • Développement de lanceurs légers (20-200 kilos LEO) ; déploiement des satellites espions et de communication cryptée (TBD).
  • Recherche sur la propulsion ionique pour les satellites ; développement de satellites militaires manœuvrables (TBD).
  • Essais de lanceurs moyens en orbite géostationnaire (GEO) ; tests de brouillage de satellites ennemis en orbite basse (TBD/Courant 2019).

  • Expansion des capacités orbitales (2019-2022).

  • Etudes sur la propulsion nucléaire thermique ; développement de satellites espions furtifs (TBD).
  • Essais de véhicules orbitaux autonomes (maintenance satellite ; satellites tueurs avec bras robotique (TBD).
  • Expérimentation de véhicules spatiaux hypersoniques ; systèmes de défense contre les missiles balistiques en orbite (TBD).
  • Développement de véhicules de transport orbitaux réutilisables (TBD/Courant 2022).

  • Suprématie orbitale (2022-2025).

  • Lancement d'une station orbitale autonome ; développement de missiles suborbitaux hypersoniques (TBD/Courant 2022-2023).
  • Exploration et exploitation des ressources lunaires ; déploiement d'une base permanente lunaire (TBD).
  • Développement d'un vaisseau spatial interplanétaire ; expérimentation des armes à énergie dirigée (TBD).

  • Annexes hors calendrier.

  • Philosophie militaire et spatiale estalienne.
  • Développement à circuit fermé du programme spatial.
  • Espionnage et contre-espionnage du SRR dans le domaine spatial.

  • Programmes militaires spéciaux.

  • Programme Spectre (satellites espions furtifs).
  • Programme Harpon (satellites armés capables d'arrimer et neutraliser des satellites hostiles).
  • Programme Gorgone (laser orbital capable de détruire ou aveugler un satellite).
  • Programme Cerbère (système de défense anti-ASAT).
  • Programme Stryge (drone spatial hypersonique furtif).
  • Programme Orcus(satellites suicides).
  • Programme Némésis (satellites de brouillage).
  • Programme Tcherenkov (satellites de détection contre les navires à propulsion nucléaire).


  • .
    3...2...1...Launch !
    20367
    Construction des infrastructures de base (Juin-Décembre 2016) :

    En avant, camarades, vers la sagesse et la science !




    Tout programme spatial nécessite une base matérielle solide pour pouvoir être engagé dans de bonnes conditions. En ce qui concerne l'Estalie, celle-ci doit relever de nombreux défis sur le plan matériel et géographique. En effet, la géographie estalienne offre peu d'avantages pour le lancement d'objets spatiaux et bien que certains pays arrivent à trouver des compromis satisfaisants malgré leur latitude moyenne, l'Estalie doit non seulement gérer une latitude moyenne assez éloignée de l'Equateur tout en s'assurant que les premiers étages des futures fusées ne retombent pas sur le sol estalien à proprement parler, il faut donc trouver une zone juste qui permettrait à la fois de garantir la sécurité de la population, des installations et éviter si possible les aléas climatiques. Dans notre cas, il faut éviter les zones densément peuplées tout en maximisant la sécurité des trajectoires de vol (en évitant les survols d'agglomérations) et exploiter si possible les corridors naturels de tir vers l'est afin de bénéficier de la rotation terrestre et/ou du nord/sud pour viser les orbites polaires/héliosynchrones. Enclavée et sans accès à la mer, l'Estalie doit également trouver un moyen de gérer les retombées de premier étage en ajustant l'azimut de lancement pour que le premier étage tombe dans des zones inhabitées. Bien entendu, dans la conception même des fusées, la récupération des boosters via parachutage ou, à l'avenir, via des rétrofusées, peut être également une option mais nécessite aussi de plus importants investissements financiers et technologiques. Enfin, il faut évidemment que la zone en question puisse être sécurisée non seulement pour la population mais également pour les installations elles-mêmes. Ainsi, bien qu'il a été question pendant un temps d'installer un centre de lancement directement en Kartvélie qui dispose d'un accès à une des mers intérieures d'Eurysie Centrale, l'instabilité politique du pays ainsi que sa gestion calamiteuse des milices politiques et des groupes terroristes rend l'installation d'infrastructures spatiales (nécessairement coûteuses et donc irremplaçables) dans ce pays n'est pas à notre avantage. Il en va de même pour la DCT qui a certes un accès à la mer mais qui reste tout aussi instable politiquement et donc l'accès stratégique estalien auprès de cette nation peut être compliquée du fait du risque d'ingérences étrangères : le programme spatial estalien ne peut se permettre d'être bloqué par le caprice de ses voisins, le choix a donc été fait de conserver les infrastructures spatiales directement en Estalie.

    En regardant quelque peu la carte de l'Estalie, on se rend compte qu'il existe effectivement des zones candidates pour correspondre à cette zone. Tout d'abord, il existe la région orientale de la chaîne de montagnes de Kortvalioski qui dispose de plusieurs hautes vallées alpines de 1200-1800 mètres d'altitude et dont l'axe sud-est est largement dégagé de toute agglomération d'importance (avec la présence de la très dense forêt Estalis et des montagnes salsines qui couvrent le centre même de l'Estalie). De plus, la forêt Estalis a récemment été aménagée pour y faire passer un des principaux axes de communication autoroutiers et ferroviaires durant le dernier KROMEVAT, reliant Bolioska à Entraskiov, le centre de lancement ne serait donc pas loin d'un axe de communication principal par lequel les ressources nécessaires à la construction du site et des objets spatiaux. Il faut aussi noter que l'Estalie, de manière générale, a une sismicité plutôt faible avec une accélération horizontale maximale inférieure à 0,05g, ce qui permet aux constructeurs du site de ne pas s'inquiéter véritablement des risques sismiques.

    Base de lancement principale (COC-1) :

    La construction du COC-1 (Complexe Orbital Central) devra débuter par une opération de terrassement titanesque sur un des plateaux granitiques de l'est de la chaîne de Kortvalioski. Les premiers mois de construction seront principalement consacrés à la stabilisation du sol avec l'injection de coulis cimentaires à haute pression et la pose de pieux sécants profonds de 35 mètres de profondeur afin de créer une dalle de fondation sur laquelle pourront reposer les structures soumises à des vibrations extrêmes lors des lancements. L'aire est nivelée sur une surface de 24 km², incluant notamment une zone de lancement de 2,3 km², un périmètre de sécurité interne de de 8 km² et une zone technique-support.

    Le premier édifice à sortir du sol sera la tour de lancement elle-même, une structure métallique autoportée de 95 mètres, montée sur rails (assurant son déplacement dans un délai maximal de trois minutes) conçue en treillis tubulaire afin d'encaisser les rafales de vent latérales et supporter les charges dynamiques du bras d'érection (bras cryogéniques pour les charges LOX/LH2). Cette tour embarque également des conduites de remplissage, des passerelles de maintenance, des conduits de pressurisation et un sas étanche pour l'intégration finale de la coiffe. A sa base, on implantera un déflecteur de jet, une sorte de tranchée en Y inversé de 18 mètres de profondeur et de 32 mètres de large, revêtue de dalles réfractaires et de tuiles ablatives en fibre de carbone-silicone qui devront absorber l'énergie des gaz de combustion et les rediriger horizontalement à travers des tunnels de ventilation blindés, limitant ainsi la surpression acoustique à moins de 145 dB SPL sur les équipements sensibles. Une fosse à flammes creusée à 12 mètres de profondeur sous le pas de tir à sa base sera également creusée avec un système d'injection d'eau pressurisée (avec un débit de 900 m3/min afin de refroidir le fossé et limiter les ondes de choc acoustiques générées au décollage. Sous la table de lancement, le béton utilisé sera du béton à ultra haute performance (BUHP) dont la résistance à la compression atteint généralement 160 MPa et qui est ainsi conçu pour supporter les vibrations et les effets thermodynamiques induits par l'éjection de gaz des moteurs principaux qui atteignent raisonnablement 3800°C en général et qui exercent une pression directe de 1,2 kg/cm². Ce radier reposera de surcroît sur un matelas de granulats compactés (modulus de Young, soit une résistance à la compression d'environ 250 MPa) ce qui garantira une dissipation homogène des efforts verticaux lors du lancement.

    Autour du pas de tir, un système d'alimentation cryogénique sera mis en place dans les galeries souterraines sous la forme de deux réservoirs sphériques à double enveloppe afin d'y stocker l'oxygène liquide (600 000 litres) et l'hydrogène liquide (480 000 litres), équipés de soupapes redondantes de sécurité et de régulation active de pression (4,5 bars de fonctionnement, seuil de purge à 5,2 bars) et maintenus à des températures de -183°C et de -253°C respectivement. Les conduites seront isolées sous vide avec du superisolant multicouche et parcourues par un flux d'hélium gazeux pressurisé pour éviter la formation de bouchons de glace. Les interfaces de remplissage seront montées sur une plate-forme mobile équipée de bras articulés thermiquement isolés et capables de se détacher automatiquement en cas d'avortement du lancement.

    A 600 mètres au nord-est du pas de tir se trouve le centre de contrôle de tir, une forteresse semi-enterrée blindée avec 3,5 mètres de béton armé contre les surpressions et les interférences électromagnétiques et contre les EMP (environ 50 kV/m sur 20 ns). C'est ici que sera installé un réseau redondant de serveurs synchronisés par horloge atomique (Rubidium +0,5ns), connectés à un système d'acquisition de télémétrie haute fréquence. Il héberge également des calculateurs primaires en topologie redondante (architecture dual-DMR (FPGA Spartan et processeurs RISC-V)) ainsi que des stations de traitement vidéo haute vitesse (2560 fps pour l'analyse postérieure des phases de combustion). Le centre de contrôle de tir devra ainsi superviser les phases finales de la séquence de tir grâce à un logiciel capable de déterminer l'environnement en temps réel, doté de capacités d'arrêt automatique en cas d'anomalie dans les paramètres de poussée, de température, de vibration ou de pression dans les étages.

    On notera également de nombreuses autres infrastructures autour du pas de tir comme le bâtiment d'intégration verticale (BIV), haut de 65 mètres, qui sera équipé de grues de translation ainsi qu'un système de rail qui devra guider les étages de la fusée depuis les zones de préparation jusqu'à la zone d'érection. Le sol du BIV est posé sur un réseau d'amortisseurs sismiques passifs et actifs qui devront éviter tout micro-choc pendant la manipulation des étages, surtout lorsqu'ils sont équipés de charges sensibles ou de carburants sensibles. Autre installation importante, le bâtiment de préparation des charges utiles (BPCU), séparé du reste de la base par un talus de sécurité de 15 mètres de haut, devra assurer l'intégration finale des satellites, leur encapsulation dans la coiffe ainsi que les dernières vérifications électromagnétiques. Le bâtiment disposera d'une chambre propre en classe ISO 5 ainsi que d'une grue à bras télescopique capable de positionner la coiffe avec une précision de l'ordre du millimètre. Les systèmes de liaison (électrique, thermique et radio) entre le satellite et le lanceur seront testées au sein du BPCU en boucle fermée avec une simulation des charges en vol notamment. Toujours autour de la zone de lancement, on devra également placer des rampes d'accès sécurisées, des voies ferroviaires lourdes sur poutrelles métalliques à double assise qui devront être en capacité de transporter les modules de fusée sur des chariots à suspension hydropneumatique (on estime ici que la masse admissible de ces voies serait de 280 tonnes par essieu avec une tolérance dynamique de +1,5mm). On équipera le site également d'un centre de propulsion auxiliaire alimenté par un réservoir de kérosène (RP-1) de 350 000 litres et équipé de pompes centrifuges cryogéniques (avec un NPSH supérieure à 15 mètres de hauteur et un débit maximal de 12 tours par minute) ainsi que d'une station de test des injecteurs (sur un banc d'essai à pression variable allant jusqu'à 45 bars et une température régulée à +2K). On installera également un réseau de câblage enterré à 2,1 mètres de profondeur, isolé par des gaines en composite kevlar-carbone et avec une triple redondance de fibre optique (pour une bande passante de 1,5 Tbps) et une canalisation de sécurité contre les fluides inflammables. Les signaux électriques sont filtrés par des systèmes CEM de niveau militaire (EN61000-4-5 classe 5). Enfin, toujours autour du pas de tir, on retrouve quatre tours de paratonnerre plasma de 110 mètres de haut qui ionisent localement l'air pour dévier les impacts foudroyants via un système de pré-ionisation au xénon pulsé puis déclenché à moins de 500ns, ce qui assure une protection active contre la foudre sur les 3,5 hectares aux alentours.

    Enfin, il faut noter autour de la base (donc généralement en dehors de l'aire déjà citée), la zone est quadrillée par un réseau de stations auxiliaires : un dépôt de carburants hypergoliques à plusieurs kilomètres, des tours radars pour la surveillance de trajectoire initiale, des stations météorologiques à haute altitude (et équipés en conséquence, notamment des lidars Dopplers, des radars de précipitation à double polarisation (C-band) et des magnétomètres à fluxgate pour anticiper aisément toute perturbation susceptible de compromettre un lancement spatial) et un point d'assemblage des véhicules logistiques pour assurer le transport entre les hangars et les aires d'érection.

    Centres de contrôle :

    Les centres de contrôle opérationnels estaliens (qui seront ici au nombre de deux, un placé à Mistohir (CCO-Alpha) et un autre à Fransoviac (CCO-Bêta)) sont les cerveaux du programme spatial. Leur séparation en deux n'est pas simplement organisationnelle puisque l'Estalie a bien la prétention de militariser massivement son programme spatial. Ainsi, le CCO-Alpha est chargé de se charger de la partie civile du projet (notamment en ce qui concerne l'observation, la recherche et la modélisation) tandis que le CCO-Bêta sera chargé de coordonner l'aspect militaire du programme (en organisation principalement les opérations de guerre électronique liés à l'espace, le brouillage, l'utilisation des missiles antisatellites ou les opérations de déni d'accès). La sécurité informationnelle est intégrale pour les deux CCO, notamment Bêta, les deux sont conçus pour fonctionner selon une logique de cloisonnement absolu : air gap matériel, chiffrement hardware, absence de connexion aux réseaux publics, etc.

    Le CCO-Alpha agit comme centre civil et scientifique du programme spatial estalien, c'est un hub d'opérations spatiales à vocation plus ouverte, disposant de fonctions de commande, de réception de données scientifiques brutes, de traitement analytique et de redistributio vers les acteurs scientifiques de l'ASF. Il pilote ainsi les lancements civils (satellites de télédétection, météo, télécommunications civiles), le réseau de stationes au sol pour la poursuite et la télémesure des satellites civils déployés dans l'espace et agit en coopération directe avec les laboratoires de recherche, les universités, les centres de calculs pour l'analyse géospatiale, climatique et océanographique. Le CCO-Alpha s'organise physiquement à Mistohir sous la forme d'un centre de commande en temps réel qui supervise toutes les trajectoires et conditions orbitales, une salle d'analyse scientifique avec des interfaces de visualisation et de modélisation de données (géophysique, radiométrie, spectroscopie, etc.) ainsi qu'un centre de liaison universitaire avec un système d'accès sécurisé pour les chercheurs et les partenaires extérieurs de l'ASF dans la société civile. Afin de travailler, le CCO-Alpha sera équipé d'une importante infrastructure de calcul scientifique avec un cluster principal de 3,2 Pflops (avec l'équivalent d'unités AMD EPYC et des accélérateurs Nvidia A100) avec une mémoire vive totale de 69 To ECC DDR5, un stockage de 18 Po en RAID 60 sur des disques SSD U.2 NVMe (avec une sécurisation par écriture différée et un checksum matériel), le tout avec une virtualisation segmentée par hyperviseur propriétaire basé sur un KVM modifié (avec le sandbox sécurisé). Afin d'assurer la liaison future entre les satellites et le sol, le CCO sera équipé de trois antennes paraboliques principales de 18 mètres de diamètre en bande S,X et Ka avec un rétro-pointage automatisé par moteur cryogénique à azimut continu, une latence en downlink typique de 370 ms en orbite LEO ou de 620 ms en orbite GEO, un débit total simultané de 24 Gbps et une tolérance au vent pouvant aller jusqu'à 180 km/h. Pour assurer son rôle, le CCO-Alpha dispose dans son réseau de stations de suivi et de recalibrage afin de disposer d'un réseau de poursuite orbital pour les calculs d'orbite en temps réel ou le recalibrage vectoriel. Ainsi, les stations de suivi affiliés au CCO doit permettre surtout d'effectuer la triangulation des positions des satellites via télémétrie Doppler, réduire l'incertitude orbiatle, recalibrer les trajectoires satellites et corriger les dérives gyroscopiques internes des satellites non-inertiels via la stabilisation magnétique ou la gravimétrie assistée. Pour cela, sur l'ensemble du territoire fédéral (et peut-être possiblement à l'étranger si jamais), six stations fixes seront construites. Chacune de ces stations disposera d'antennes de poursuite multi-bandes de 14 mètres de haut, de systèmes de précision de mesure de distance via la télémétrie par impulsion ultra-large bande (UWB) et avec leur propre capacité de traitement embarqué avec pour chacune des stations un micro-cluster durci 320 TFLOPS avec FPGA pour le traitement en temps réel.

    Le CCO-Bêta, lui, s'organise comme un organe de guerre spatiale avant tout. Il est subordonné à la Commission à la Guerre et opère sous statut classifié avec une chaîne de commandement séparée du reste de l'Armée Rouge (bien que l'Armée de l'Air Rouge ou le SRR peuvent avoir accès aux informations du CCO-Bêta si nécessaire). Le CCO-Bêta sera ainsi chargé de la gestion des satellites militaires (reconnaissance optique, SIGINT, relais stratégiques), de la conduite des opérations ASAT (notamment le ciblage, la coordination des tirs et la validation orbitale des frappes) ainsi que la supervision des communications militaires orbitales (gestion des fréquences, brouillage, reconfiguration des réseaux de communication en cas d'attaque, etc.). Le CCO-Bêta s'organise autour d'un centre de contrôle confidentiel, enfoui profondément (structure semi-bunkerisée) dans les alentours de la région de Fransoviac et capable de résister à d'importantes frappes cinétiques et thermobariques. Le réseau du CCO-Bêta est complètement isolé du réseau civil avec une absence complète de connectivité Internet, un bus de communication propre basé sur un protocole interne non documenté et avec un système de supervision parallèle capable de maintenir un niveau d'alerte tactique grâce à une intelligence artificielle durcie avec une puce sans apprentissage et une base de données figée (ce qui évite sa manipulation par un agent extérieur) qui doit maintenir l'alerte en mode SILENT au moins pendant 48 heures même si l'intégralité du personnel humain est indisponible temporairement. Le CCO-Bêta sera équipé de systèmes de calcul embarqués, notamment deux supercalculateurs en miroir avec 2,5 Pflops chacun (architecture RISC-V, RAM ECC et avec un châssis entièrement blindé EMI) qui sont refroids par une boucle d'eau glycolée à double circuit et des injecteurs cryo-CO² en cas de surchauffe critique. Le bunker en lui-même du CCO-Bêta dispose d'une enceinte Faraday active qui réduit le champ d'incident jusqu'à -95 dB (0-100 GHz), des tunnels de communication optique isolés (fibre rad-hardened avec un débit maximal de 10 Gbps) et son accès physique est sécurisé par un badge biométrique et un scanner veineux. Le CCO-Bêta aura également accès comme le domaine civil à des stations de suivi qui seront cette fois-ci mobiles (déployables sur rail ou semi-remorques) et non fixes et qui seront blindées avec une capacité CBRN via la surpression active et une filtration P4 (HEPA + charbon actif). Ces stations disposeront d'une antenne principale de 6 mètres en bande S/X déployable en 45 minutes, un radar auxiliaire de 14 GHz (résolution Doppler de +0,15 m/s) et un capteur optique SWIE pour le repérage passif.

    Technologies ASAT :

    L'Estalie rejette l'idée que l'espace soit un bien commun ou un sanctuaire civil. L'espace, au contraire, est un théâtre actif de confrontation systémique entre les Etats situés sur la planète. Ce qui orbite, observe. Ce qui observe, anticipe. Ce qui anticipe, influence. Ce qui influence, décide. En somme, le domaine spatial devient un théâtre militaire complet en lui-même puisque les informations et les systèmes qui y sont mis en place agissent directement comme facteur d'influence sur des décisions terrestres, qu'elles soient politiques ou militaires. L'accès à l'espace n'est pas un droite mais un levier stratégique car contrôler l'orbite basse de notre planète, c'est imposer un filtrage informationnel à la surface terrestre et il est évidemment hors de question de laisser ce filtrage entre les mains de nos ennemis. La neutralité orbitale n'est rien d'autre qu'un mensonge fonctionnel des puissances dominantes de l'espace, les constellations civiles ne font que masquer leurs capacités duales dans les faits et serviront effectivement contre nous le moment venu en fournissant des informations de renseignements, de ciblage et de synchronisation des forces à nos ennemis. La conclusion doctrinale estalienne est donc la suivante : l'espace doit être dominé, il ne peut ni être toléré ou partagé entre Etats, c'est un champ de bataille. La doctrine spatiale estalienne doit reposer sur une posture de suprématie orbitale défensive qui doit résider dans sa capacité à surveiller, identifier et caractériser et, le cas échéant, neutraliser toute menace en orbite basse, moyenne ou géostationnaire à l'encontre des actifs spatiaux de l'Estalie. Les capacités ASAT sont donc essentiels dans ce cadre là.

    Trois axes d'étude majeurs seront ouverts par l'ASF dans ce domaine. Tout d'abord, la cinétique orbitale et les scénarios d'interception. Les premières modélisations de l'ASF devront viser à évaluer la faisabilité de l'interception cinétique directe en orbite basse (LEO). Les scénarios étudiés par l'agence spatiale estalienne se basent sur des cibles à des altitudes comprises entre 400 et 1200 kilomètres de hauteur avec des vitesses relatives d'interception variant entre 7,5 et 9 km/s. Les ingénieurs estaliens devront ainsi travailler sur le profil optimal de lancement d'un vecteur à partir du sol en configuration son temps de montée et son ajustement orbital rapide, les marges de manœuvres orbitales minimales requises pour une correction de trajectoire de dernière minute (avec un delta-v de l'ordre de 100 à 150 m/s) et des fenêtres de tir réalistes depuis le territoire estalien ou celui de ses alliés en tenant compte des inclinaisons accessibles. Des modèles de collision seront également conçus par l'ASF afin d'y inclure la fragmentation des cibles selon leur taille, leur densité et leur structure ainsi que l'impact sur la densité de débris orbitaux. Le seuil critique de génération de débris sera fixé à 50 fragments cataloguables faisant plus de 10 centimètres.

    Le deuxième axe de recherche de la lutte ASAT pour l'ASF sera les effets dirigés non cinétiques et la potentialité de l'utilisation du laser. En effet, les technologies ASAT ne reposent pas uniquement sur des moyens cinétiques comme des missiles ASAT mais aussi sur des moyens non destructifs ou réversibles comme le brouillage électromagnétique directionnel (RF jamming) évalué dans la bande X et la bande KU ainsi que la dégradation temporaire des optiques satellites via des impulsions laser haute énergie (HEL) afin de saturer les capteurs optoélectroniques des satellites hostiles. Bien sûr, ces études restent encore théoriques mais feront avancer les seuils de puissance nécessaires pour une irradiation efficace depuis le sol vers une orbite à 500 kilomètres de hauteur avec une puissance d'environ 70-120 kW continus pour une action dégradante à court terme. Néanmoins, cet axe de recherche reste contraint par plusieurs défis liés à la focalisation continue d'une cible en mouvement comme les satellites, l'atténuation atmosphérique ou la stabilisation du faisceau.

    Enfin, le troisième et dernier axe de recherche sur les technologies ASAT sera la cyber-interférence orbitale et la prise de contrôle logicielle. Cet axe de recherche sera exploré par un groupe de travail confidentiel de l'ASF, sous la supervision du SRR lui-même, et devra explorer les possibilités de cyber-opérations orbitales cublées via l'intrusion dans les protocoles de commande ou de télémétrie ou par l'injection de données falsifiées pour désorienter ou rendre non fonctionnels certains satellites adverses. Cette voie reste très exploratoire et surtout très dépendante de la connaissance fine des architectures étrangères (fréquences, langages de commande, cryptographie), ce qui explique la supervision par les services de renseignements qui s'assurent que les informations récupérées à l'étranger puissent être réutilisées en toute sécurité par l'ASF par une équipe de recherche strictement confidentielle. Néanmoins, bien que cet axe soit encore très expérimental, l'Estalie estime qu'il est nécessaire de mener des recherches dès maintenant afin que la Fédération soit en avance dans ce domaine qui sera probablement parmi l'un des plus décisifs de l'histoire de la guerre hybride.
    32350
    Recherche fondamentale sur la propulsion (2016) :

    Vers les Cieux, camarades !




    La propulsion chimique constitue un domaine fondamental de l'astronautique et de la balistique moderne, en particulier dans ses applications à propergol solide dont la simplicité structurelle, la compacité énergétique et la fiabilité en conditions extrêmes justifient historiquement une large adoption dans les dispositifs de lancement spatiaux comme dans les systèmes d'armement à longue portée. La capacité à concevoir, dimensionner, produire et utiliser un moteur-fusée à propulsion solide repose sur un socle technico-scientifique interdisciplinaire mobilisant la mécanique des fluides compressibles, la thermodynamique réactive, la chimie des matériaux énergétiques, la résistance des structures soumises à des environnements extrêmes ainsi que la modélisation mathématique et numérique des phénomènes transitoires de combustion confinée. Dans le cadre du programme spatial estalien, et plus spécifiquement de sa phase initiale de recherche fondamentale sur les technologies propulsives entre 2016 et 2017, la présente étude vise à poser les bases physiques, chimiques et mécaniques nécessaires à la compréhension complète des moteurs à propergol solide dans une optique de montée en compétence interne progressive fondée sur l'appropriation des principes, la reproduction théorique des performances observées et l'identification des verrous technologiques critiques pour les futures phases expérimentales.

    Le choix d'ouvrir le cycle de recherche par une étude strictement théorique, sans passage immédiat à la fabrication de prototypes ou à la mise en place d'essais statiques, répond à une contrainte de maturité technologique mais aussi à une logique de consolidation scientifique : en l'absence de tradition industrielle préexistante dans le domaine des moteurs-fusées, il est impératif de maîtriser rigoureusement les lois fondamentales gouvernant le fonctionnement de tels systèmes, notamment les équations de conservation dans les régimes compressibles, les lois de la combustion exothermique rapide dans des milieux multiphasiques, les interactions fluide-structure en milieu surchauffé ainsi que la modélisation géométrique de grains énergétiques à combustion superficielle. Ce socle analytique permettra, à moyen terme, de spécifier les exigences de conception des premiers bancs d'essais statiques, de sélectionner des couples propulsifs adaptés aux performances visées et aux capacités industrielles locales et donc de définir les enveloppes thermomécaniques de sûreté associées aux moteurs de petite puis de moyenne puissance. Par ailleurs, les moteurs à propergol solide présentent une série de caractéristiques qui les rendent particulièrement adaptés aux premières étapes du développement national de technologies propulsives : ils ne nécessitent pas de systèmes cryogéniques complexes, peuvent être stockées sur de longues durées sans dégradation significative des performances, offrent une réponse impulsionnelle rapide sans nécessité de système de pressurisation active et permettent de travailler sur des configurations de combustion entièrement intégrées, réduisant ainsi les besoins en instrumentation externe et en infrastructures lourdes de test. Toutefois, ces avantages s'accompagnent de contraintes strictes en matière de stabilité chimique, de sécurité pyrotechnique, de contrôle de la combustion en régime transitoire et de maîtrise des performances de poussée temporellement dépendantes, nécessitant une compréhension profonde des paramètres géométriques, des formulations chimiques et des comportements thermomécaniques associés. Le présent rapport constitue donc une première synthèse structurée des connaissances fondamentales adaptée au contexte estalien et destinée à servir de référence à toutes les équipes de l'ASF dans les étapes ultérieures de développement expérimental, de qualification et d'industrialisation.



    I/ Principes physiques de la propulsion chimique.

    La propulsion chimique repose sur la conversion d'une énergie chimique stockée dans un système propulsif fermé en énergie cinétique transférée à un fluide propulsif expulsé à grande vitesse à travers une tuyère. L'ensemble du processus repose sur l'application rigoureuse des principes de conservation fondamentaux de la mécanique classique dans un cadre compressible non stationnaire, à commencer par la conservation de la quantité de mouvement linéaire dans un référentiel inertiel qui implique que toute variation de quantité de mouvement dans un système fermé s'accompagne d'une réaction mécanique égale et opposée sur ce système selon la troisième loi de Newton. La conséquence directe de ce principe, appliqué à une masse fluide en expulsion, est la génération d'une force nette dirigée dans le sens opposé à l'écoulement des gaz éjectés, ce qui définit la poussée propulsive. En conditions idéales, la poussée est donnée par le produit du débit massique d'éjection et de la vitesse d'éjection, corrigé par un terme de pression en sortie de tuyère lié à la pression ambiante (en gros : poussée = débit massique × vitesse d’éjection + (pression sortie – pression ambiante) × surface de tuyère, je l'a fais court). Typiquement, dans un moteur à propergol solide, la vitesse d'éjection des gaz peut atteindre entre 2300 et 3100 m/s en fonction du type de propergol utilisé, de la pression de combustion et de la géométrie de la tuyère. L'efficacité globale du système propulsif est ensuite quantifiée par l'impulsion spécifique (Isp) exprimée en secondes, définie comme le rapport entre la poussée générée et le débit de masse propulsé multiplié par l'accélération gravitationnelle normale (soit environ 9,80665 m/s²). L'Isp représente ici le nombre de secondes pendant lesquelles un moteur peut générer une poussée équivalente à son propre poids. Les moteurs à propergol solide classiques atteignent des Isp de 180 à 270 secondes en fonction de leur formulation (poudre noire, perchlorate d'ammonium et aluminium, propergols composites HTPB, etc.) ce qui les places en dessous des moteurs à ergols liquides (300-450 secondes) mais au-dessus de nombreuses formes de propulsion électrique en termes de puissance instantanée. La poussée réelle dépend également des conditions de combustion dans la chambre : la pression de chambre typique pour un petit moteur-fusée solide est de l'ordre de 4 à 10 MPa mais peut atteindre jusqu'à 15-18 MPa dans des modèles militaires ou orbitaux à haute performance.

    La transformation de l'énergie chimique en énergie mécanique exploitable suppose une combustion complète à volume variable sous pression croissante dans une enceinte fermée. Le rendement énergétique du système est principalement déterminé par l'enthalpie de réaction du mélange propulsif et par l'efficacité de conversion thermodynamique du gaz chaud dans la tuyère convergente-divergente. Les températures atteintes dans les chambres de combustion des moteurs à propergols solides varient de 2300 à 3300 K en fonction de la richesse du mélange et de la présence d'additifs métalliques comme l'aluminium micronisé. A ces températures, le gaz de combustion est considéré comme un gaz parfait à haute énergie interne, composé principalement de produits de combustion tels que le H²O, le CO², le HCl, le Al²O3 ou le N², dont la composition exacte dépend de la stœchiométrie du mélange et de la formulation chimique du grain. L'écoulement gazeux produit par la combustion est ensuite accéléré mécaniquement par une tuyère de type de Laval dont la géométrie favorise une accélération isentropique du fluide depuis un régime subsonique en amont de la gorge vers un écoulement supersonique en aval. La section de gorge impose un étranglement géométrique qui définit le point de saturation de débit (régime de "choke"), c'est-à-dire la condition où la vitesse du gaz atteint exactement Mach 1, condition indispensable pour permettre l'expansion supersonique en sortie. En aval, le gaz se dilate rapidement à travers la partie divergente de la tuyère, convertissant son énergie interne et sa pression en énergie cinétique directionnelle. Le rapport de section entre la gorge et la sortie (appelé rapport d'aire, typiquement entre 5 et 20 selon la mission) détermine la pression de sortie, la vitesse finale des gaz et donc la poussée effective. A des altitudes croissantes où la pression atmosphérique chute, ce rapport d'aire devient un paramètre critique pour l'adaptation de la poussée au vide, la décompression excessive ou insuffisante du jet pouvant entraîner une perte d'efficacité ou des phénomènes d'onde de choc internes à la tuyère.

    Dans un moteur à propergol solide, l'écoulement est gouverné par des équations couplées : conservation de la masse (débit constant dans la tuyère), de l'énergie (bilan thermique de la chambre) et de la quantité de mouvement (poussée générée) auxquelles s'ajoutent des conditions aux limites spécifiques au régime supersonique telles que l'interdiction de remonter des informations en amont une fois passé le point de Mach 1. Cela implique une exigence extrême sur la régularité de combustion du grain solide, dont la géométrie influe directement sur le débit généré. Toute variation du front de combustion, de la surface de combustion active ou de la pression de chambre se répercute sur l'écoulement en sortie, ce qui impose une modélisation détaillée du comportement transitoire du moteur, en particulier dans les régimes de démarrage ou de montée en pression. Les grains tubulaires, en étoile, à trous multiples ou segmentés sont autant de solutions géométriques pour contrôler l'évolution temporelle du débit de gaz et stabiliser la pression interne pendant toute la durée de combustion. Les moteurs à propergol solide, enfin, bien que structurellement plus simples que leurs équivalents à ergols liquides, n'échappent pas aux contraintes complexes imposées par le caractère compressible et supersonique de l'écoulement. L'analyse de l'ensemble de ces régimes implique donc de croiser des outils analytiques (approximation quasi-statique, bilans isentropiques, relations de Mach), des simulations numériques CFD (éventuellement en maillage adaptatif dans les zones critiques comme la gorge ou l'éjection) ainsi que des modèles expérimentaux à petite échelle pour valider les hypothèses de combustion, de régularité du flux et de comportement des matériaux à haute température.


    II/ Classification des moteurs-fusées à propergol solide.

    L'ensemble des moteurs-fusées à propergol solide ne constitue pas une technologie uniforme mais se subdivise en plusieurs familles en fonction de la géométrie de la chambre, du mode d'éjection des gaz, de l'usage stratégique ou spatial et des méthodes de contrôle vectoriel de la poussée. Ces distinctions ne sont pas anecdotiques car elles influent directement sur la poussée générée, la stabilité aérodynamique, la compatibilité avec des charges utiles variables, la capacité de guidage ou la possibilité de stockage à long terme. Ainsi, cette classification est essentielle pour orienter les futures recherches estaliennes dans la conception de moteurs-fusées adaptés à chaque mission.

  • 1) Moteurs monolithiques à allumage unique (monoblocs tactiques ou orbitaux).

  • Ce sont les formes les plus simples et historiquement les plus utilisées des moteurs à propergol solide. Le propulseur est constitué d'un bloc monolithique de propergol coulé dans la chambre de combustion, souvent dans une géométrie interne déterminée (étoilée, cylindrique, en double anneau, etc.) qui contrôle le taux de combustion selon une loi de régression temporelle. L'allumage est unique et déclenche une combustion irréversible qui génère un flux de gaz à haute température expulsé par la tuyère. Ce type de moteur présente l'avantage de la simplicité, de la robustesse et de la faible sensibilité aux conditions environnementales. Il peut rester stocké pendant des années sans maintenance, ce qui en fait un choix privilégié pour les armes tactiques, les missiles sol-sol à courte ou moyenne portée ou encore les étages d'appoint destinés à fonctionner sur une courte durée (de 3 à 120 secondes en général). En revanche, l'impossibilité de modulation ou l'arrêt de la poussée limite son emploi à des scénarios très contrôlés et nécessite une précision rigoureuse lors de la conception balistique.

  • 2) Etages à combustion en grains segmentés (grain segmenté ou modulaire).

  • Contrairement aux monolithes, certains moteurs utilisent un propergol solide disposé en segments séparés, parfois espacés de fines membranes d'isolation thermique ou placés dans des structures modulaires. Cette configuration permet de mieux gérer la distribution de la poussée dans le temps, soit en jouant sur la géométrie de chaque segment, soit par l'utilisation de canaux d'allumage séquentiels ou multiples. Ce type de motorisation est souvent utilisé dans les étages supérieurs des lanceurs spatiaux ou les missiles intercontinentaux à longue portée nécessitant un profil de poussée non linéaire (par exemple avec une montée douce suivie d'un plateau prolongé). Les grains segmentés permettent aussi une fabrication plus aisée dans certaines conditions industrielles, avec un meilleur contrôle qualité de segment par segment, bien qu'ils augmentent aussi les risques liés aux joints, à la symétrie de combustion et aux transitions entre segments.

  • 3) Moteurs à tuyère fixe ou orientable (contrôle vectoriel de poussée).

  • La capacité d'un moteur-fusée à modifier l'orientation de sa poussée est cruciale pour la manoeuvrabilité. Les tuyères fixes sont simples et fiables mais imposent l'utilisation de gouvernes aérodynamiques externes ou d'injecteurs de gaz latéraux pour le pilotage. A l'inverse, les moteurs à tuyère orientable utilisent un montage sur cardans, vérins électromécaniques ou servocommandes hydrauliques permettant de faire pivoter la tuyère de quelques degrés (typiquement de +5°) afin de vectoriser la poussée. Une variante repose sur la déflexion vectorielle externe où ce sont des volets mobiles disposés à la sortie de la tuyère qui dévient le jet sans que la tuyère ne soit mobile elle-même. Cette technologie est plus simple mécanique mais moins efficace en termes de rendement vectoriel. La tuyère mobile reste donc la norme sur les engins nécessitant un guidage actif en phase propulsée, notamment les lanceurs orbitaux et les missiles à changement d'orbite.

  • 4) Usage stratégique et spatial (missiles et étages de fusées).

  • La finalité du moteur conditionne aussi son architecture. Les moteurs à usage stratégique (missiles balistiques ou de croisière) doivent être rapidement mobilisables, très robustes, insensibles aux vibrations du transport et surtout capables de rester stockés sous scellés pendant des années sans maintenance. Ils privilégient la compacité, la stabilité thermique, la résistance aux chocs mécaniques et utilisent souvent des liants polymériques très stables (type HTPB) associés à des charges d'oxydants stables comme le perchlorate d'ammonium. Les moteurs à usage spatial, quant à eux, peuvent se permettre une plus grande variabilité dans leur formulation (liants énergétiques, oxydants plus instables) puisque leur emploi est planifié et contrôlé. Ils optimisent avant tout le rendement massique, l'impulsion spécifique et la géométrie interne pour assurer une poussée régulière sur de longues durées. Ces moteurs sont souvent de très grande taille (plusieurs dizaines de tonnes de propergol) et bénéficient d'un meilleur rapport poussée/masse au prix d'une plus grande complexité de mise en oeuvre.

  • 5) Moteurs à flux linéaire, radial ou annulaire (structure interne du grain).

  • Enfin, la géométrie de combustion interne est une variable centrale dans la conception du moteur-fusée. Dans un moteur à flux linéaire, le canal de combustion est droit, souvent de forme cylindrique, et les gaz s'écoulent dans une direction unique depuis le fond de la chambre vers la tuyère. Cette configuration est simple mais peut poser des problèmes de stabilité longitudinale. Dans le cas des moteurs à flux radial, les gaz sont générés sur les parois extérieures du propulseur et s'écoulent vers un canal central, ce qui permet une surface de combustion plus uniforme et un meilleur équilibre thermique. Enfin, les moteurs à flux annulaire ou toroïdal utilisent une géométrie hélicoïdale ou en couronne pour maximiser la surface de combustion tout en maintenant une pression centrale équilibrée. Ces moteurs sont plus complexes à modéliser thermiquement mais offrent d'excellents rendements volumétriques. Le choix de cette géométrie dépendra du régime de poussée souhaité, de la tolérance thermique du propulseur, de l'enveloppe de masse allouée et au niveau de contrôle requis en vol.


    III/ Chimie des propergols solides.

    La formulation d'un propergol solide repose sur une synergie complexe entre plusieurs composés chimiques remplissant chacun une fonction bien définie dans le processus de combustion. La phase oxydante constitue le cœur du système réactif dans la mesure où elle fournit l'oxygène nécessaire à l'oxydoréduction des agents réducteurs intégrés dans la matrice. Le perchlorate d'ammonium (PCPA) est l'oxydant le plus couramment utilisé dans les propergols composites modernes en raison de sa forte teneur en oxygène (34,5% massique), de sa stabilité relative température ambiante, de sa décomposition exothermique déclenchée à environ 200°C et de sa capacité à libérer des sous-produits oxydants tels que le Clo3- ou le O² sous forme gazeuse. Il se présente sous forme de cristaux finement broyés dont la granulométrie influence la cinétique de réaction. D'autres oxydants historiques incluent le nitrate de potassium, encore employés dans des formulations simplifiées (comme les propergols noirs) ou le perchlorate de potassium, utilisé ponctuellement pour ses meilleures propriétés de stockage mais au prix d'une densité énergétique légèrement inférieure. La recherche contemporaine a également exploré les oxydantes à base de nitrates d'hydrazinium ou d'ammonium dinitramide (ADN) bien que leur coût, leur instabilité thermique et leur toxicité limitent leur emploi hors de cas très spécifiques.

    Les liants polymériques représentent la structure de base du propergol composite, servant à la fois de matrice de cohésion, de composant énergétique secondaire et de modulateur rhéologique. Le polybutadiène hydroxytéléchélique (HTPB) est aujourd'hui le liant de référence en raison de sa bonne performance énergétique (chaleur de combustion de l'ordre de 40 MJ/kg), de sa stabilité chimique, de sa flexibilité mécanique à basse température et de sa capacité à polymériser par réticulation à froid en présence d'un isocyanate (diisocyanate de toluène, TDI ou IPDI). Le HTPB permet un contrôle précis de la viscosité du mélange avant coulage et reste stable pendant de longues périodes, ce qui est essentiel pour les moteurs destinés à être stockés. Le PBAN (polybutadiène-acrylonitrole-acide acrylique) est un liant plus ancien, réticulable par polymérisation à chaud, offrant une rigidité supérieure mais au prix d'une mise en oeuvre plus contraignante et d'une moindre plasticité. Le choix du liant détermine non seulement la structure mécanique du grain mais aussi le profil de combustion : un liant énergétiquement actif libérera plu d'énergie à masse constante, au détriment parfois de la stabilité thermique et de la sécurité de manipulation. L'ajout de poudres métalliques à haute enthalpie de combustion constitue aussi un levier majeur d'augmentation de la densité énergétique d'un propergol. L'aluminium micronisé (généralement entre 1 et 10 µm) est l'additif de référence en raison de son pouvoir calorifique très élevé (plus de 31 MJ/kg), de sa densité importante (2,7 g/cm3) et de sa capacité à produire une flamme à très haute température (jusqu'à 3000K dans des conditions idéales). Lors de la combustion, l'aluminium s'oxyde en formant une fine couche d'alumine liquide ou solide qui participe au rayonnement thermique et augmente l'efficacité de transfert énergétique dans la chambre. Cependant, une part significative de l'aluminium peut être éjectée sous forme de particules non complètement brûlées, ce qui diminue le rendement total si la granulométrie et la distribution ne sont pas correctement optimisées. Le magnésium est parfois utilisé comme additif complémentaire ou de substitution avec une combustion plus rapide mais une densité énergétique inférieure. L'emploi de métaux implique aussi des contraintes de passivation de surface, d'homogénéité de dispersion dans le mélange, ainsi qu'un suivi précis du vieillissement des grains afin d'éviter toute réactivité incontrôlée ou précipitation de phase.

    Les caractéristiques thermochimiques globales d'un propergol dépendent de la composition exacte du mélange, de la pression dans la chambre et de la température ambiante. Les températures de flamme varient typiquement entre 2500 et 3200 K avec des pressions de combustion allant de 2 MPa pour les petits moteurs à plus de 10 MPa pour les étages principaux de lanceurs. L'impulsion spécifique, qui reflète le rendement globale en termes de poussée générée par unité de masse consommée, est généralement comprise entre 180 et 270 secondes pour des propergols solides classiques, avec des valeurs plus élevées pour les formulations hautement métallisées ou composites à double base. La composition des gaz de combustion joue un rôle crucial dans la performance : une forte proportion de gaz légers (CO, H², N²) permet d'améliorer la vitesse d'éjection et donc l'impulsion spécifique tandis que des produits plus lourds comme le Al²O3, le HCl ou le Co² réduisent l'efficacité massique mais peuvent stabiliser thermiquement la flamme. La masse molaire moyenne des gaz d'éjection influence donc directement la poussée, ce qui impose une modélisation fine via des codes thermochimiques pour chaque formulation. La stabilité chimique des propergols solides, enfin, repose sur l'inertie relative de chaque composant à température ambiante ainsi que sur la compatibilité physico-chimique entre les constituants. Les oxydants comme le perchlorate d'ammonium peuvent présenter des risques de décomposition lente ou de migration dans la matrice polymérique, notamment en présence d'humidité, d'impuretés acides ou de catalyseurs involontaires. De même, les liants peuvent s'hydrolyser ou s'oxyder en surface au fil du temps, surtout s'ils contiennent des charges instables ou sont exposés à des cycles thermiques répétés. Le vieillissement des charges est également un enjeu stratégique pour le stockage longue durée : une perte d'homogénéité, la formation de microfissures internes ou la cristallisation de certains composants peuvent altérer radicalement les propriétés mécaniques du grain et conduire à une combustion irrégulière voire à une surpression catastrophique. Pour cette raison, l'analyse chimique de vieillissement, la spectrométrie infrarouge, la microscopie électronique à balayage et les essais thermogravimétriques sont des outils essentiels pour l'ASF dans la qualification industrielle des propergols destinés à être intégrés à des vecteurs de longue durée de vie.


    IV/ Géométrie du grain et profil de combustion.

    La géométrie interne du grain propulsif conditionne de manière décisive la dynamique de la combustion et, par conséquent, l'évolution temporelle de la poussée générée par le moteur-fusée. Contrairement à un liquide dont le flux peut être contrôlé en temps réel par des vannes ou des pressions différentielles, un propergol solide une fois amorcé suit une trajectoire balistique prévisible mais irréversible qui impose une optimisation rigoureuse et minutieuse du volume de surface disponible à la combustion en fonction du temps. Le cœur de cette approche réside dans la maîtrise de l'évolution de la surface réactive, directement corrélée à la pression de la chambre, au débit massique de gaz et à la poussée résultante. La surface de combustion s'élargit, se réduit ou reste constante selon la configuration géométrique du canal interne du grain et la manière dont la combustion progresse dans la masse. L'architecture du grain détermine non seulement la surface initiale en contact avec la flamme mais également la manière dont cette surface évolue dans le temps à mesure que les couches successives de matériau se consument. Un canal central cylindrique produira typiquement un régime de combustion régressive, dans lequel la surface réactive diminue à mesure que le combustion progresse vers l'extérieur, entraînant une baisse continue de la pression et de la poussée. A l'opposé, une configuration dite "étoile" ou à canaux radiaux induira un profil de combustion progressive, car l'érosion du matériau exposera une surface croissante, souvent utilisée pour fournir un pic de poussée en phase initiale d'un lancement. Entre ces deux extrêmes, des géométries dites neutres (telles que les barres multiperforées ou les grains à cavités toriques compensées) visent à maintenir une surface de combustion constante pendant une période prolongée, ce qui permet une poussée stabilisée, essentielle pour les étages de croisière ou les propulseurs d'appoint d'orbiteurs. La cinématique d'érosion du grain est également sujette à des interactions thermomécaniques complexes. Le champ de contraintes internes dans le grain s'intensifie au cours de la combustion en raison de l'élévation rapide de température, des gradients thermiques non homogènes et des effets de dilatation différée entre le liant polymérique et les charges solides. Ce phénomène engendre des risques de fissuration prématurée ou de décollement local du grain vis-à-vis de sa gaine structurelle, surtout lorsque les gradients de pression ne sont pas parfaitement équilibrés autour de l'axe longitudinal. De telles anomalies, même localisées, peuvent provoquer des accélérations non prévues de la combustion (appelées "slivers" ou effets de "chunk ignition") modifiant brutalement le profil de poussée ou causant une surpression critique. Le confinement du grain, via des chemisages thermorésistants ou des gaines ablatives, doit donc être conçu de façon à maintenir l'intégrité mécanique du propulseur sur toute la durée du cycle, en absorbant les contraintes tout en minimisant les déformations qui pourraient altérer la symétrie du flux gazeux.

    Par ailleurs, la topologie interne du grain influence directement la distribution des flux thermiques dans la chambre de combustion, en particulier aux points de convergence des surfaces complexes. Les zones d'angles vifs, les cavités étroites et les jonctions de canaux peuvent générer des microzones de surchauffe ou de turbulence mal contrôlées, affectant localement la vitesse de combustion et risquant d'introduire des asymétries de pression. Les simulateurs modernes s'appuient sur des modèles de combustion tridimensionnels couplés à des analyses thermomécaniques pour optimiser ces géométries et anticiper l'usure locale des parois ou la migration non uniforme de la flamme. Ce couplage est indispensable notamment dans les moteurs de grande taille, où l'homogénéité du régime de combustion doit être maintenue malgré des volumes internes de plusieurs centaines de litres et des vitesses d'éjection supérieures à 2 km/s. Enfin, il convient de noter que la géométrie du grain conditionne également la réponse du moteur aux instabilités internes de combustion. Certains profils favorisent la formation d'ondes de pression longitudinales ou transversales, amplifiées par des résonances acoustiques dans la chambre. Ces instabilités, oscillant typiquement entre quelques centaines de hertz et plusieurs kilohertz, peuvent détériorer rapidement l'uniformité de la combustion et induire des forces destructrices sur la structure du propulseur. L'atténuation de ces phénomènes exige une architecture interne soigneusement étudiée, souvent combinée à l'ajout d'amortisseurs passifs ou de zones absorbantes pour casser les ondes stationnaires. La complexité croissante des grains modernes reflète donc une réponse intégrée aux contraintes physiques, thermiques, acoustiques et balistiques propres au fonctionnement autonome d'un moteur à propergol solide.


    V/ Matériaux structuraux et thermiques du moteur.

    L'enveloppe structurelle d'un moteur-fusée à propergol solide doit répondre simultanément à des contraintes mécaniques, thermiques et chimiques particulièrement sévères. Le choix des matériaux employés dans la fabrication de la chambre de combustion, du boîtier externe et des interfaces de jonction dépend étroitement du régime de pression interne, de la durée de fonctionnement du moteur, des cycles thermiques subis au sol et en vol ainsi que du rapport masse/résistance recherché. dans les configurations les plus courantes, les corps de moteur sont constitués de coques métalliques en acier maraging à haute ténacité ou de structures composites en fibre de carbone imprégnée de résines thermodurcissables. L'acier maraging présente une excellente tenue à la pression et une ductilité utile pour encaisser les charges dynamiques en cas de montée brutale de pression, avec des limites élastiques pouvant dépasser 1900 MPa sans rupture brutale, ce qui garantir un facteur de sécurité suffisant lors des essais au sol. Toutefois, son poids élevé pénalise les applications exigeant un rapport poussée/masse optimisé, ce qui explique la montée en puissance des coques en matériaux composites dans les dernières décennies, notamment pour les boosters largables ou les véhicules à lancement assisté. Les composites carbone-phénolique offrent un compromis intéressant entre rigidité spécifique, tenue aux hautes températures et résistance aux chocs mécaniques. En particulier, l'orientation des fibres selon des couches croisées permet de maîtriser les contraintes anisotropes engendrées par la pression interne, tout en réduisant le risque de fissuration transversale. Toutefois leur sensibilité à l'humidité, leur comportement moins prévisible en fatigue thermique et les difficultés de mise en oeuvre (contrôle des vides, homogénéité de la résine) imposent un encadrement strict des procédés de fabrication. Le bobinage filamentaire sous tension contrôlée, suivi d'une cuisson en autoclave sous atmosphère contrôlée, est la méthode la plus répandue pour garantir des tolérances mécaniques et thermiques acceptables dans les applications militaires ou spatiales. Ces matériaux composites sont souvent associés à des bagues de renfort en titane ou en acier aux points de fixation ou de reprise de charge, notamment au niveau des interfaces avec les structures porteuses du véhicule. La paroi interne du moteur est quant à elle soumise à un flux thermique extrême, de l'ordre de 1 à 5 MW/m² avec des températures de gaz s'élevant jusqu'à 3300K selon la composition du propergol. Une protection thermique est donc indispensable pour éviter la destruction prématurée de la coque par fusion ou délamination. Ce rôle est assuré par un revêtement intérieur, appelé liner, généralement constitué de matériaux ablatifs ou élastomères thermorésistants. Les liners à base de caoutchouc nitrile (NBR) ou d'élastomère polybutadiène hydroxyl-terminé (HTPB) mélangé à des charges minérales (silicates, carbones amorphes, céramiques) agissent à la fois comme arrière thermique et comme couche d'adhésion entre le grain et la coque. Leur faible conductivité thermique et leur capacité à former une couche carbonée de protection sous l'effet de la chaleur leur confèrent une stabilité relative durant la phase de combustion. Des analyses post-test ont montré que l'érosion de ces liners est généralement linéaire et prévisible, permettant d'en modéliser l'épaisseur critique en fonction du régime de combustion visé.

    Au-delà de l'endurance thermique, l'enveloppe du moteur doit résister aux pics de pression internes pouvant apparaître lors des phases transitoires, notamment à l'allumage ou en cas d'instabilités acoustiques. Ces surpressions, localement brutales, génèrent des ondes de choc longitudinales qui peuvent entraîner des déformations plastiques, des effets de flambage locale ou, dans les cas extrêmes, une rupture par éclatement. C'est pourquoi les moteurs font systématiquement l'objet d'essais hydrostatiques et de simulations dynamiques visant à caractériser la tenue mécanique de la structure. Ces essais consistent à soumettre le boîtier à une montée en pression statique au-delà de la pression nominale de fonctionnement, souvent autour de 1,5 à 1,7 fois la pression de service afin de garantir l'absence de fissuration subcritique, de délamination interne ou de criques de fatigue. Les conditions vibratoires et acoustiques subies par le moteur lors du lancement exigent par ailleurs une robustesse élevée aux excitations à haute fréquence, tant longitudinales que transversales. Les coques en acier supportent généralement bien les charges vibratoires grâce à leur rigidité isotrope tandis que les structures composites nécessitent une attention particulière au niveau des assemblages afin d'éviter les concentrations de contraintes sur les zones de raccord. Les cycles de température brutaux, pouvant entraîner des gradients de plusieurs centaines de kelvins en quelques secondes, imposent également une résistance élevée aux chocs thermiques. Une défaillance dans le comportement thermomécanique du revêtement interne peut provoquer une perte d'intégrité étanche, exposant la coque à un contact direct avec les gaz chauds ce qui conduit généralement à une destruction rapide du moteur.


    VI/ Applications théoriques projetées.

    A l'issue de l'analyse physico-chimique et structurelle des moteurs à propergol solide, plusieurs axes d'application théorique peuvent être esquissés à des fins de planification technologique en intégrant les contraintes industrielles de l'Estalie, les capacités actuelles de recherche expérimentale et les besoins stratégiques projetés de l'Agence Spatiale Fédérale. Le premier jalon opérationnel réaliste correspond à la mise au point d'un petit moteur de démonstration d'une poussée comprise entre 1 et 5 tonnes, destiné à valider les connaissances fondamentales sur les procédés de fabrication, les formations de propergols, le comportement à l'allumage et à la combustion ainsi que les performances mécaniques des enveloppes internes. Une telle architecture permettrait de limiter les volumes de production, de réduire les risques en cas d'échec et de développer des bancs de test de dimension raisonnable tout en générant des données suffisantes pour l'évaluation des modèles thermochimiques. Le moteur serait conçu en priorité avec des géométries cylindriques simples (grains de type cigare ou en étoile), une chambre monobloc avec isolation composite interne et un système d'allumage pyrotechnique standardisé à amorce électrique. Il constituerait un prérequis pour la construction ultérieure de moteurs à poussée supérieure ou à grains segmentés.

    Dans un second temps, l'objectif logique consisterait à explorer deux scénarios de montée en puissance : d'une part le développement d'un moteur tactique sol-sol à usage militaire, de type roquette de saturation ou vecteur d'artillerie à longue portée, d'autre part la conception d'un étage propulsif pour un petit lanceur orbital léger, destiné à des charges utiles de l'ordre de 50 à 150 kilos en orbite basse. Le premier scénario, de nature duale, repose sur des moteurs de poussée moyenne (15 à 50 kN) avec une durée de combustion réduite (moins de 10 secondes), une forte impulsion initiale et une robustesse face aux contraintes mécaniques d'un tir terrestre mobile. La simplicité logistique du propergol solide en fait un candidat naturel pour des vecteurs militaires à faible coût et à stockage prolongé, mais impose de sécuriser les procédés d’industrialisation, notamment dans les étapes de chargement, de coulage et de durcissement du grain. Le second scénario orbital impose une optimisation plus fine du rapport masse/poussée, une stabilité en vol accrue, et une meilleure reproductibilité des performances d’un moteur à allumage unique dans le vide partiel. Il impliquerait un travail plus poussé sur la forme du grain, la maîtrise des régimes d’érosion en combustion, et la calibration des buses supersoniques pour des altitudes évolutives.

    Enfin, sur un horizon technologique plus lointain, les résultats de cette recherche fondamentale pourraient permettre de concevoir des boosters d’appoint pour des lanceurs spatiaux à plusieurs étages, dans le cadre d’un programme spatial souverain à moyen terme. Ces boosters, potentiellement parallèles à un étage principal à propulsion liquide, joueraient un rôle crucial dans la phase initiale de décollage, fournissant la poussée nécessaire pour franchir la première barrière inertielle atmosphérique. De tels dispositifs impliqueraient la maîtrise de moteurs d’au moins 100 à 300 kN de poussée unitaire, à géométrie segmentée, avec allumage synchronisé, gestion fine des pressions internes et matériaux composites avancés à forte tenue thermique. Leur développement requerrait une infrastructure industrielle lourde, des ateliers de chargement cryogéniquement ou chimiquement contrôlés, ainsi qu’un réseau d’essais statiques de grande puissance, aujourd’hui inexistant mais théoriquement planifiable sur le territoire estalien.
    25882
    Recherche sur les satellites d'observation (2016) :

    Impossible n'est pas estalien.




    Le recours à l'observation spatiale s'est progressivement imposé dans les doctrines militaires modernes comme un vecteur essentiel de connaissance de la situation, de cartographie des théâtres d'opérations, de contrôle des armées adverses et de vérification des engagements internationaux. La disponibilité croissante de capteurs embarqués à haute résolution, la miniaturisation des charges utiles et la généralisation des orbites polaires héliosynchrones ont contribué à faire de l'imagerie spatiale un outil décisif dans les stratégies militaires, notamment dans les conflits asymétriques ou les zones d'intérêt mal couverts par les moyens de reconnaissance terrestres ou aériens conventionnels. Dans ce contexte, le programme spatial estalien se doit se maîtriser rapidement, de manière autonomie et sécurisée, les bases technologiques et scientifiques de la télédétection orbitale appliquée à des finalités militaires, sans dépendre de partenaires étrangers ou d'architectures techniques extérieures à son contrôle. Les objectifs poursuivis à ce stade ne concernent pas encore la mise en service opérationnelle d'un système de surveillance spatiale complet mais visent à établir les fondements nécessaires à la conception d'un démonstrateur technologique compact et autonome, capable de collecter des images exploitables à des fins de renseignement militaire, de suivi de terrain ou de contrôle d'activité avec une résolution suffisante pour les usages tactiques de bas niveau.

    L'année 2016 est donc consacrée à une recherche fondamentale centrée sur trois axes convergents : d'une part, l'étude physique, optique et électronique des capteurs embarqués susceptibles d'être utilisés à bord d'un satellite d'observation, en particulier les capteurs électro-optiques passifs dans les gammes visibles et infrarouges ainsi que les capteurs actifs radar à synthèse d'ouverture (SAR), capables de fournir une imagerie indépendante des conditions météorologiques et de l'ensoleillement ; ensuite, l'analyse des contraintes générales de conception d'un microsatellite de masse inférieure à 100 kilos, incluant les aspects d'alimentation, de gestion thermique, de stabilisation, de transmission de données et d'intégration des charges utiles ; enfin, l'évaluation des compromis entre performances, masse, consommation et précision pour une application centrée sur la reconnaissance militaire régionale avec des exigences adaptées aux capacités industrielles et scientifiques de l'Estalie. Il ne s'agit donc pas encore encore d'aborder les problématiques de résolution submétrique, d'analyse spectrale poussée ou de surveillance permanente par constellation comme le prévoit déjà sur le moyen terme d'autres agences spatiales eurysiennes et aleuciennes mais de permettre la construction accélérée d'un système initialement simple, rustique et robuste à l'aide de technologies éprouvées et de composants disponibles sur le marché ou développés en interne dans le cadre de programmes de miniaturisation. L'objectif stratégique de l'ASF es donc de permettre, à l'issue de l'année 2016, de finaliser le cahier des charges d'un premier satellite d'observation estalien à vocation duale et le lancement d'un prototype dans le courant de l'année 2017 par le biais d'une fusée légère nationale. Ce démonstrateur, d'architecture simple, constituera la première étape vers la mise en place progressive d'une capacité souveraine d'acquisition d'images spatiales pour l'Armée Rouge en assurant une montée en compétence rapide sur les technologies d'observation orbitale, le traitement embarqué et la diffusion des données dans un cadre militaire.


    I/ Principes physiques des capteurs d'observation orbitale.

    L'observation spatiale repose sur la capacité à convertir, depuis une orbite terrestre, les signaux électromagnétiques issus de la surface en données exploitables ce qui suppose une maîtrise fine des mécanismes physiques régissant l'émission, la réflexion, la transmission et la détection de ces signaux. Deux grandes familles de capteurs coexistent : les capteurs passifs qui collectent le rayonnement émis ou réfléchir par la surface terrestre (essentiellement dans les bandes visibles, infrarouges et thermiques) et les capteurs actifs comme les radars à synthèse d'ouverture qui émettent leur propre onde radar et analysent le signal rétrodiffusé. Le choix de l'une ou l'autre technologie dépend directement des conditions d'observation envisagées, du type de la cible, de la bande passante disponible, de la résolution souhaitée mais aussi des limitations énergétiques et mécaniques imposées par la plateforme satellitaire.

    Du point de vue de la détection passive, la majeure partie des capteurs optiques repose sur les lois classiques de l'optique géométrique et de la propagation du rayonnement électromagnétique dans le vide spatial. Le rayonnement solaire incident, approximé comme un spectre de corps noir à température effective d'environ 5778K, est partiellement réfléchir par la surface terrestre selon des lois de réflexion qui dépendent de la nature du matériau, de sa rugosité, de sa composition chimique et de son humidité. La partie réfléchie dans les bandes visibles et proche infrarouge (400-1000 nm) constitue le signal principal collecté par les capteurs d'imagerie optique. Ces capteurs reposent sur une chaîne optique combinant un système d'objectifs ou de miroirs (dans les configurations dites à optique réfractive ou réfléctive) assurant la focalisation et une matrice de détection photoélectrique (type CCD ou CMOS) qui convertit le flux lumineux en signal électrique. La résolution angulaire théorique d'un tel système est limitée par le critère de Rayleigh, défini comme θ ≈ 1.22 λ/D, où λ est la longueur d’onde d’observation et D le diamètre de l’ouverture optique. A 500 nm (milieu du visible), un objectif de 15 centimètres permet d'atteindre une résolution angulaire de l'ordre de 4 μrad, soit 4 mètres de résolution au sol depuis une orbite de 500 kilomètres. Toutefois, cette limite est souvent aggravée par la qualité de l'optique, le jitter du satellite, la diffraction secondaire, la turbulence atmosphérique résiduelle pour certaines bandes infrarouges ainsi que les distorsions introduites par les systèmes d'acquisition. La télédétection dans l'infrarouge thermique repose quant à elle sur la capacité à capter le rayonnement émis directement par les surfaces, en fonction de la température, selon les lois de Planck et de Stefan-Boltzmann. La Terre (on va imaginer que les valeurs sont les mêmes) émet un rayonnement thermique maximal dans l'intervalle de 8-14 μm, ce qui impose l'usage de capteurs thermiques refroidis à des températures cryogéniques pour minimiser le bruit de fond du détecteur. Les dispositifs de type bolomètre, photoconducteur HgCdTe ou InSb ou encore les microbolomètres non refroidis pour les systèmes peu sensibles, constituent les technologies dominantes dans ce domaine. Ces capteurs sont particulièrement adaptés à la détection d'objets chauds (véhicules, feux, activités industrielles), aux différences thermiques entre matériaux ou à la cartographie nocturne. Néanmoins, leur résolution spatiale est généralement plus faible que celle des capteurs optiques, en raison des longueurs d'onde plus grandes et des contraintes d'ouverture imposées. En contrepartie, les capteurs actifs de type radar à synthèse d'ouverture exploitent un mécanisme fondamentalement différent. Ils émettent une onde radar dans la bande radio (généralement 1 et 10 GHz) selon un faisceau étroit et analysent le signal réfléchi par la surface terrestre. Le principe de synthèse d'ouverture consiste à utiliser le déplacement du satellite le long de son orbite pour simuler une antenne de grande taille, par traitement cohérent du signal sur plusieurs instants d'acquisition. Ce traitement, qui repose sur l'interférométrie radar et la compression du signal, permet d'obtenir des résolutions au sol de l'ordre du mètre, voire submétriques, indépendamment des conditions météorologiques, de l'ensoleillement ou de la nature des cibles. Les ondes radar pénètrent en partie la végétation, les sols secs ou les structures légères ce qui permet de révéler des éléments invisibles en optique (tranchées, structures camouflées, déplacements de terrain). Toutefois, la puissance embarquée nécessaire, les contraintes de synchronisation de phase et la complexité des traitements numériques embarqués imposent une consommation électrique élevée, une architecture électronique robuste et des systèmes de refroidissement adaptés qui dépassent par exemple les capacités d'un microsatellite basique si les composants ne sont pas fortement miniaturisés ou optimisés.

    Quel que soit le capteur, la qualité de l'acquisition dépend aussi des paramètres orbitaux. Les satellites d'observation utilisent presque exclusivement des orbites polaires héliosynchrones dont l'inclinaison (environ 98°) et l'altitude (entre 450 et 700 kilomètres) permettent de survoler l'ensemble du globe à heure solaire constante. Cela garantir des conditions d'éclairement identiques à chaque passage, une cadence d'acquisition régulière et une compatibilité avec les systèmes d'imagerie passive. La période orbitale d'environ 90 minutes et la vitesse au sol de l'ordre de 7,5 km/s imposent cependant des contraintes sévères sur le temps de pose, la stabilisation du satellite et la cadence de lecture des capteurs. Par exemple, une image de 10 km x 10 km nécessite un balayage précis, une mémoire tampon importante et une transmission rapide vers la station au sol dans un laps de temps compatible avec la durée de visibilité de la station et la bande passante radio disponible. A cela s'ajoutent les effets d'atténuation atmosphérique (en particulier dans les bandes IR) et la diffusion par les aérosols, nuages ou brume qui dégradent les performances en optique mais laissent inchangées les performances radar. Enfin, il faut souligner que les performances globales d'un capteur ne sont pas uniquement déterminées par sa physique intrinsèque mais aussi par l'architecture de traitement embarquée. Le rapport signal/bruit (SNR), la dynamique de contraste, la compression de données (souvent en JPEG 2000 ou formats propriétaires) et la calibration radiométrique sont autant d'éléments critiques à maîtriser dès la phase de conception. Un capteur optique peut théoriquement atteindre une résolution donnée mais ne produira pas une image exploitable si le traitement numérique n'est pas suffisamment performant pour extraire le signal utile des artefacts, interférences et déformations introduites par la chaîne optique et le mouvement orbital. C'est pourquoi la recherche estalienne dans ce domaine doit être étroitement liée à celle portant sur les systèmes de stabilisation, les gyroscopes, les logiciels de correction géométrique et les algorithmes d'analyse embarqués qui devront permettre à terme de transformer des données brutes en informations militaires concrètes.


    II/ Classification des capteurs et analyse comparative.

    1) Capteurs panchromatiques à haute résolution (PAN) :

    Les capteurs panchromatiques fonctionnent dans une bande spectrale unique, généralement centrée sur la région visible (450-750 nm) avec une largeur spectrale élargie pour maximiser le flux lumineux incident. Cette configuration permet une sensibilité accrue et donc un signal exploitable plus stable qui autorise des temps de pose réduits et une meilleure résolution spatiale. Typiquement, les systèmes PAN sur satellites de surveillance militaires atteignent des résolutions inférieures au mètre (jusqu'à 0,3 mètre pour les systèmes de classe stratégique) grâce à des optiques de grand diamètre (plus de 40 centimètres généralement), des focales longues et une stabilisation fine de l'attitude. Les capteurs sont généralement basés sur des matrices CCD ou CMOS de haute densité (plusieurs milliers de pixels par ligne) avec des cadences d'acquisition de plusieurs dizaines de mégapixels par seconde. L'inconvénient majeur du PAN est son absence de capacité à discriminer les matériaux ou les états de surface du fait de son enregistrement global dans le spectre visible : il est donc inadapté à certaines tâches d'identification fine ou de caractérisation des cibles. En termes de masse, un capteur PAN compact peut être miniaturisé à moins de 20 kilos avec sons système optique pour une puissance embarquée inférieure à 50 W mais les contraintes thermiques, mécaniques et de traitement de données imposent une infrastructure robuste et stabilisée. Il reste néanmoins un capteur de choix pour toute observation à très haute résolution dans un contexte visuel dégagé, de jour et par temps clair.

    2) Capteurs multispectraux (VIS-NIR) :

    Les capteurs multispectraux enregistrent simultanément plusieurs bandes étroites du spectre électromagnétique, typiquement entre 400 et 1000 nm (visible et proche infrarouge). Chaque bande couvre une gamme de 50 à 100 nm et est filtrée optiquement avant détection. Ces capteurs permettent de différencier les matériaux, les types de végétation, les minéraux, l'humidité ou les revêtements par leurs signatures spectrales grâce à la variabilité de leur réflectance selon la longueur d'onde. Dans un cadre militaire, cela permet par exemple de repérer des structures camouflées, d'identifier des zones récemment perturbées (tranchées, travaux, dépôts de chaleur résiduelle) ou de suivre l'évolution d'une zone au fil du temps. En revanche, la résolution spatiale est généralement inférieure à celle du PAN en raison de la perte de flux lumineux par division spectrale : pour une même ouverture, une résolution de 2 à 5 mètres est typique pour 4 à 10 bandes spectrales. En microsatellite, un système multispectrale peut rester en dessous de 30 kilos pour une puissance de 60 à 100 W selon le nombre de canaux et les exigences de traitement. La masse des données générées est plus élevée, nécessitant une compression embarquée (typiquement en JEPG 2000 ou formats hyperspectraux) et une transmission à haute bande passante (jusqu'à 150 Mbps).

    3) Capteurs thermiques infrarouge moyen (MWIR) et lointain (LWIR) :

    Les capteurs thermiques détectent le rayonnement émis par les objets en fonction de leur température selon la loi de Planck. Le MWIR (3 à 5 µm) est sensible aux sources de chaleur intenses comme les moteurs, les incendies ou les systèmes industriels actifs tandis que le LWIR (8 à 14 µm) est plus adapté à la cartographie des températures de surface, y compris en conditions nocturnes ou sans contraste visuel. Ces capteurs nécessitent des photodétecteurs spécifiques comme le HgCdTe, souvent refroidis par cryocooler Stirling pour abaisser le bruit thermique du détecteur à des niveaux acceptables (typiquement 77 K). Cette contrainte augmente significativement la masse et la consommation : un capteur thermique embarqué pèse entre 20 et 40 kilos avec son système de refroidissement, consomme entre 80 et 150 W et nécessite une régulation thermique rigoureuse à bord. Leur résolution spatiale est généralement faible (de 5 à 30 mètres) mais leur intérêt militaire reste élevé pour la détection des activités humaines, de véhicules ou de sources énergétiques cachées. Leur intégration dans des microsatellites nécessite une miniaturisation agressive et une réduction des besoins en refroidissement au prix d'une baisse de sensibilité.

    4) Radars à synthèse d'ouverture (SAR), bandes X, C et L :

    Les capteurs SAR constituent des systèmes d'imagerie active capables de fournir des images en toute condition météorologique, de jour comme de nuit. Ils émettent une onde radio et reconstruisent l'image à partir du signal réfléchi avec une résolution dépendant de la bande utilisée, de la largeur de l'antenne synthétisée et du traitement du signal. La bande X (8 à 12 GHz) est la plus utilisée pour l'imagerie fine à haute résolution (jusqu'à un mètre de résolution) avec des antennes relativement compactes de 2 à 3 mètres. La bande C (4 à 8 GHz) permet une meilleure pénétration de la végétation et un compromis entre résolution et robustesse tandis que la bande L (1 à 2 GHz) est privilégiée pour la pénétration du couvert forestier ou l'analyse du sol mais au prix d'une résolution plus faible (souvent de plus de 10 mètres). Un système SAR nécessite une antenne déployable, un émetteur RF haute puissance (jusqu'à 1 kW en impulsion) et une unité de traitement en temps réel capable de compression et de cohérence de phase. les systèmes les plus légers (ici, je fais référence IRL aux satellites type ICEYE et Capella Space) atteignent des masses de 80 à 120 kilos et consomment autour de 300 à 500 W. Le traitement des données radar est plus intensif que celui des données optiques et impose des temps de latence plus longs avant restitution de l'image. Néanmoins, leur robustesse et leur capacité à détecter des structures artificielles, à mesurer les déformations du sol ou à suivre les déplacements par interférométrie en font des outils incontournables pour une capacité d'observation permanente.

    Analyse croisée et synergie optique-radar :

    Une combinaison intelligente de capteurs optiques et radar permet de compenser les lacunes intrinsèques de chaque technologie. L'imagerie PAN et multispectrale fournit une cartographie fine des détails visibles et des signatures spectrales mais reste dépendante de l'ensoleillement et des conditions atmosphériques. A l'inverse, le radar offre une image stable et exploitable en permanence mais plus difficile à interpréter directement pour un opérateur non initié, en particulier sur les cibles complexes. Une architecture duale, embarquant à la fois un capteur haute résolution et un radar léger en bande X permettrait à un microsatellite de moins de 200 kilos d'assurer une couverture fiable jour/nuit et toute météo, tout en s'insérant dans une architecture modulaire où chaque satellite est spécialisé mais interconnecté avec d'autres.


    III/ Contraintes de miniaturisation et conception de microsatellites :

    Le développement de satellites de surveillance à masse réduite impose une réflexion systémique sur l'ensemble des sous-systèmes embarqués, dans un cadre où la réduction de taille, de masse et de consommation énergétique se heurte à la stabilité, à la performance et à la robustesse nécessaires à des usages militaires. La catégorie dite "microsatellite" regroupe généralement les plateformes inférieures à 100 kilos au lancement, bien que ce seuil puisse varier selon les pays. Dans ce contexte, la miniaturisation ne consiste pas à réduire uniformément les dimensions d'un satellite classique mais à repenser l'architecture des systèmes autour de composants électroniques à faible consommation, d'intégrations mécaniques compactes et de stratégies de redondances partielles. L'Estalie, qui ne dispose pas d'une filière industrielle spatiale encore très structurée, doit s'appuyer sur les savoirs fondamentaux issus de la microélectronique, du thermique embarqué et de la mécatronique pour adapter des composants existants (y compris commerciaux) à des contraintes orbitales hostiles tout en maintenant les coûts au plus bas. Les exigences militaires en matière de résilience et de pérennité imposent cependant des compromis difficiles : un satellite tactique doit rester fonctionnel après plusieurs cycles thermiques violents, résister à l'irradiation de fond en orbite basse et être capable de maintenir un pointage stable sur la cible sans altération de son profil d'acquisition.

    L'intégration des charges utiles d'observation, qu'il s'agisse de capteurs optiques ou radar, repose sur un châssis porteur dit bus qui concentre les fonctions de commande, e distribution énergétique, de communication, de thermique et de contrôle d'attitude. Dans les formats micro, le volume interne est sévèrement limité, souvent inférieur à 0,04 m3, ce qui contraint fortement la géométrie des optiques, des antennes et des radiateurs. Le montage de l'instrumentation se fait généralement selon une configuration monolithique autour d'une carte-mère embarquée avec des interfaces électroniques normalisées et un câblage minimaliste pour éviter les pertes de puissance et les points de défaillance. L'usage de composants COTS (Commercial Off-The-Shelf) est une pratique courante dans le domaine des petits satellites, notamment pour les calculateurs de bord, les systèmes de stockage (flash NAND durcie) ou les modules de communication mais ces composants doivent être qualifiés pour résister aux doses cumulées de radiations ionisantes et aux décharges électrostatiques. La stratégie adoptée par de nombreux pays, en général, consiste à appliquer des blindages locaux, des redondances logicielles (vérification CRC, scrubbing mémoire) et des protocoles de tolérance aux fautes pour compenser l'absence de blindage global lourd. Le problème de l'alimentation électrique impose également une réflexion technique serrée. Les panneaux solaires déployables sont évités dans la première génération de microsatellites pour des raisons de simplicité, de compacité et de fiabilité au profit de panneaux fixes intégrés sur les faces exposées de la structure. la puissance électrique générée dépend alors étroitement de l'orientation du satellite, du facteur d'ensoleillement orbital et du rendement des cellules '(entre 20% pour les technologies basiques à 28% pour les cellules GaAs triple jonction). Typiquement, un satellite de 50 kilos embarque entre 40 et 70 W de puissance électrique moyenne, stockée dans des batteries Li-ion ou LiFePO4 durcies, dimensionnées pour quatre à six cycles d'éclipse par jour sans dégradation rapide. Le pilotage énergétique impose donc une allocation précise : la puissance fournie aux capteurs, au traitement embarqué, aux télécommunications et au contrôle thermique doit être strictement compartimentée pour éviter les pics de consommation non maîtrisés qui peuvent conduire à une mise en sécurité non contrôlée du satellite.

    Le contrôle d'attitude constitue l'un des principaux défis dans les plateformes micro. L'imagerie haute résolution exige un pointage stable à mieux que 0,1° pendant plusieurs secondes, ce qui dépasse les capacités d'un simple équilibrage passif. En l'absence de gyroscopes à fibre optique ou d'étoiles suiveuses, trop encombrants et coûteux à cette échelle, les solutions les plus courantes reposent sur une combinaison de roues de réaction (reaction wheels), de magnétomètres et de capteurs solaires pilotés par un microcontrôleur à boucle fermée. Les roues de réaction permettent de modifier l'orientation par conservation du moment cinétique avec une résolution fine et sans consommation de carburant mais leur masse et leur couple sont limités dans les configurations compactes. La désaturation des roues (quand leur vitesse atteint la saturation mécanique) nécessite des systèmes de contrôle inertiel supplémentaires comme des barres magnétiques (magnetorquers) capables d'exercer un couple sur le satellite via le champ magnétique terrestre, à condition d'être correctement orienté et calibré. Ce type d'ADCS (Attitude Determination and Control System) simplifié permet un pointage stable à quelques dixièmes de degré près, compatible avec une image multispectrale à trois mètres mais cela reste insuffisant pour des objectifs submétriques sans algorithme de correction d'image en post-traitement. Enfin, les contraintes de communication et de gestion des données pèsent fortement sur l'architecture du microsatellite. Le débit de données produit par les capteurs d'observation, notamment en mode continu, est très élevé : plusieurs centaines de mégabits par seconde dans le cas d'un capteur PAN ou SAR actif alors que les liens radio disponibles dans les bandes S ou X sont souvent limités à des débits de 10 à 100 Mbps selon les stations de réception et la géométrie orbitale. Il en résulte la nécessité d'implémenter des capacités de stockage tampon allant de quelques dizaines à plusieurs centaines de gigaoctets ainsi que des stratégies d'acquisition intermittente et de compression à la volée. Le lien entre le segment sol et le segment spatial constitue une des principales limites pour l'emploi tactique rapide car il impose une attente de survol, souvent de plusieurs heures, et un téléchargement programmé, sauf à disposer d'un réseau de relais ou d'un système intersatellitaire mais qui reste pour le moment hors d'atteinte des capacités spatiales estaliennes.


    IV/ Vers un premier démonstrateur technologique estalien.

    La mise en orbite d'un premier démonstrateur technologique constitue l'aboutissement immédiat des travaux de recherche menés au cours de l'année 2016 et vise à valider en conditions réelles un certain nombre de concepts théoriques et de briques technologiques fondamentales tout en ouvrant la voie à une première capacité de la Fédération en matière d'observation optique et/ou radar. L'objectif ici est de concevoir un microsatellite complet, cohérent, reproductible et intégrable dans un cycle industriel national restreint en tenant compte de l'absence de filières de production estaliennes spécialisées, du faible accès aux composants importés et de la contrainte temporelle imposée par l'ASF elle-même qui exige une première mise sur orbite avant la fin de l'année 2017. L'approche retenue repose sur le principe d'une plateforme à vocation essentiellement technologique mais dotée d'un minimum de capacités opérationnelles : la charge utile embarquée devra produire des images exploitables à résolution moyenne, dans un format compatible avec une analyse militaire élémentaire ou une reconnaissance d'objectifs fixes à haute valeur stratégique (infrastructures, dépôts, bases, etc.). Ce choix implique une série de compromis : résolution optique ou radar modeste, bande passante restreinte, stockage embarqué limité mais priorité donnée à la fiabilité, à la répétabilité de l'expérience orbitale et à l'autonomie de fonctionnement du satellite en orbite basse.

    Le concept de base repose sur un satellite d'une masse sèche comprise entre 60 et 80 kilos, dimensionné pour un lacement depuis une orbite héliosynchrone de 500 à 600 kilomètres d'altitude afin de bénéficier d'une couverture globale et d'un ensoleillement stable compatible avec la production d'énergie par panneaux fixes. la structure du satellite est construite autour d'un châssis monobloc en alliage léger qui reprend les formats standardisés de type microbus 6U à 12U avec une distribution interne segmentée entre charge utile, puissance, traitement et commande. La plateforme doit intégrer un système de contrôle d'attitude autonome à trois axes, sans aspiration à l'extrême précision mais capable de garantir un pointage stable inférieur à 1° durant la prise d'image. cette exigence peut être satisfaite par une combinaison de roues à réaction à bas couple, de barres magnétiques et d'un gyroscope MEMS pour la navigation inertielle, le tout pilotée par une carte embarquée unique architecturée autour d'un microcontrôleur de type ARM Cortex durci avec un système d'exploitation en temps réel allégé. Le volume interne alloué au stockage de données est limité à 32 ou 64 Go de mémoire flash industrielle avec effacement partiel après téléchargement et redondance logicielle minimale pour la prévention des corruptions mémoire dues à l'irradiation. La charge utile principale du démonstrateur pourra adopter deux configurations technologiques selon l'avancement du développement des recherches de l'ASF : un système d'imagerie optique multispectrale à moyenne résolution (dix à vingt mètres) ou un radar à synthèse d'ouverture à très basse résolution (vingt à trente mètres) qui est plus complexe à miniaturiser mais potentiellement plus utile pour la reconnaissance par tous temps. Dans la première hypothèse, la charge optique repose sur un télescope de type Cassegrain compact, monté sur structure isolée vibratoirement, avec matrice CCD ou CMOS stabilisée thermiquement, opérant dans la bande visible et proche infrarouge. Le traitement des données brutes est limité à un préformatage, sans compression avancée, afin de maintenir une structure logicielle embarquée simple et robuste. L'alimentation est assurée par des panneaux solaires fixes couvrant deux faces latérales du satellite, délivrant une puissance électrique moyenne de 45 à 60 W, suffisante pour les besoins combinés de la charge utile, de la transmission radio (émetteur en bande S, 2 à 5 Mbps en downlink) et de la régulation thermique. Un ensemble de batteries Li-ion de 160 Wh complète le système pour couvrir les périodes d'éclipse avec une autonomie dimensionnée pour un maximum de 35 minutes d'obscurité continue par orbite. La conception modulaire du démonstrateur doit permettre des évolutions futures vers des configurations plus avancées sans modifier l’architecture de base du satellite. En particulier, le bus sera conçu pour accueillir une charge utile légèrement plus lourde ou de plus grande complexité (par exemple un capteur SAR ou une optique submétrique non stabilisée), une capacité de stockage doublée, ou une amélioration du système de propulsion pour déorbitage contrôlé. Ce premier modèle ne sera toutefois pas équipé d’un système propulsif actif, la mission étant limitée à une durée orbitale d’environ 18 mois avant désintégration naturelle dans l’atmosphère, ça reste un démonstrateur technologique avant tout. La procédure de désorbitation est donc entièrement passive et dépendra de l’altitude finale et de la géométrie du satellite, optimisée pour une surface balistique modérée et une orbite peu inclinée afin de limiter le temps de séjour post-mission. L’ensemble des données télémétriques, de santé et de position sera transmis à intervalles réguliers vers une station sol unique installée sur le territoire estalien, non loin du COC-1, conçue autour d’une antenne parabolique motorisée à bande S, avec protocole de communication en duplex semi-automatisé et acquisition planifiée sur un maximum de quatre passages quotidiens.
    Haut de page