
El concepto de Centros de Datos Orbitales / Orbital Data Centers (ODC) surge como una respuesta desesperada a una crisis inminente en la Tierra: la demanda energética insostenible de la Inteligencia Artificial (IA). Es importante subrayar que, al trasladar esta infraestructura al espacio, no solo se exporta la capacidad de cómputo, sino también se generan una nueva gama de riesgos ambientales, de seguridad y geopolíticos en los que los Data Centers espaciales, como activos estratégicos para la seguridad nacional, perfilan potenciales conflictos de soberanía en la era del Space-Based Cloud, cuya jurisdicción cero, representa el monumental desafío de regular a la IA fuera de la atmósfera.
Aunque actualmente, no existen centros de datos completos y a gran escala operando comercialmente en la órbita baja terrestre (LEO), sino más bien proyectos piloto y demostradores tecnológicos que están probando la viabilidad de este concepto futurista. Como activo promotor del desarrollo espacial me siento en obligación de analizar y exponer el lado negativo de esta vertiente en la comercialización del espacio a través del NewSpace. A continuación, les presento una evaluación estratégica y crítica -sobre el alcance e impacto en el medio ambiente espacial y para el planeta en el futuro inmediato del emplazamiento de data centers en el espacio- basada en datos técnicos sobre la industria aeroespacial y de computación en la nube.
Contexto estratégico
En el contexto de la nueva carrera espacial y el NewSpace, la motivación principal de jugadores como Nvidia (Starcloud), Google (Project Suncatcher) y Amazon (Project Kuiper recientemente renombrado Amazon LEO que se conecta a la red global de estaciones terrestres e infraestructura de Amazon Web Services-AWS en la Tierra), no es la exploración espacial, sino la supervivencia energética avivada por la paradoja de la energía y la IA.
El problema, los centros de datos terrestres consumen cantidades masivas de agua (para refrigeración) y electricidad. La cifra estimada de 945 TWh para 2030 es alarmante; equivale al consumo eléctrico de varios países enteros. Elon Musk estima que la nave Starship de SpaceX podría suministrar entre 300 y 500 gigavatios de satélites de IA alimentados con energía solar al año, mientras que el fundador de Amazon, Jeff Bezos, predice que en un plazo de 10 a 20 años habrá centros de datos de gigavatios en órbita debido al aumento de la demanda energética de la IA. Ambos planteamientos abordan el creciente consumo energético de los centros de datos de IA, que se prevé se duplique hasta alcanzar los 945 teravatios-hora en 2030, aunque los costes de lanzamiento deben reducirse de 1500 a unos 200 dólares por kilogramo en 2035 para que sean económicamente viables.
La promesa, el espacio ofrece dos recursos teóricamente infinitos: En primer lugar, energía solar 24/7, en órbitas específicas como la órbita helio síncrona / sun-synchronous orbit (SSO), un tipo de órbita polar donde un satélite pasa sobre la misma latitud terrestre a idéntica hora solar local cada día, ideal para observaciones constantes de la Tierra, meteorología y teledetección. El satélite orbita la Tierra de polo a polo (polar). Esta órbita está inclinada y ajustada (heliosíncrona) para que el plano orbital del satélite gire en sincronía con la rotación de la Tierra alrededor del Sol; asegurando que el ángulo de la luz solar sea casi constante. Sin atmósfera ni noches, la eficiencia energética de los paneles solares es significativamente mayor.
En segundo lugar, la disipación de calor (teórica), el cero absoluto (0 Kelvin) del espacio profundo sugiere frío, pero en el vacío, el calor es difícil de eliminar. El cero absoluto (0 K), es la temperatura teórica más baja posible, y cómo esta se relaciona con la temperatura real del espacio vacío. La temperatura media del universo observable es de aproximadamente 2.7 Kelvin (equivalentes a -270.45 °C). En el espacio, la disipación de calor es crucial para la tecnología, como en satélites y naves espaciales. Los objetos en el espacio experimentan fluctuaciones extremas de temperatura (verdaderos desafíos térmicos), pueden sobrecalentarse rápidamente si están expuestos directamente al Sol (hasta 120°C) o enfriarse drásticamente en la sombra (hasta -100°C), por lo que los ingenieros utilizan sistemas de control térmico, como parasoles y materiales aislantes, para gestionar estas variaciones.
Análisis crítico del impacto ambiental en la Tierra
Aunque los ODC se venden como una solución “verde” (cero emisiones operativas en órbita), en la realidad el ciclo de vida completo representa graves amenazas para la Tierra en el futuro inmediato, en las vertientes de lanzamiento de cohetes (huella de carbono) y el reingreso (el riesgo químico de contaminación).
Para lograr la escala de gigavatios que predicen Bezos y Musk, se requeriría un ritmo de lanzamientos sin precedentes (miles de vuelos de Starship). Lo cual implica emisiones dañinas en la alta atmósfera, toda vez que los cohetes inyectan hollín (carbono negro) y vapor de agua directamente en la estratosfera. A diferencia de las emisiones a nivel del suelo, estas partículas permanecen años, absorbiendo calor y dañando la capa de ozono. Lo anterior aunado a que construir miles de satélites con chips de alta gama (como las GPU H100 de Nvidia) y cohetes gigantes tiene un alto costo energético de fabricación que produce una huella de carbono industrial masiva, antes de que el primer byte sea procesado en el espacio.
La contaminación en el reingreso es el punto más crítico y el menos discutido. Los satélites tienen una vida útil limitada (5-7 años en LEO debido a la degradación orbital y la radiación). Al reentrar y quemarse en la atmósfera, los satélites liberan una lluvia de óxidos de aluminio. Estudios recientes sugieren que estas partículas pueden alterar el albedo de la Tierra (reflectividad entre 0.30-0.32%, es decir, la fracción de luz solar que refleja la superficie de la Tierra de vuelta al espacio) y catalizar la destrucción del ozono, con las graves consecuencias que esto implica para la humanidad y el planeta. Adicionalmente, si se despliegan constelaciones masivas tipo Aetherflux (empresa estadounidense que busca expandir y comercializar la energía solar espacial en la Tierra) o Starcloud, estaremos vaporizando anualmente toneladas de metales raros y compuestos de basura tóxicos en nuestra atmósfera superior.
Impacto para el medio ambiente espacial
El entorno de la órbita baja Terrestre (LEO) ya es frágil, el emplazamiento orbital de los ODC agrava la situación exponencialmente, lo que aumenta la urgencia de avanzar en la regulación de la gestión del tráfico espacial / space traffic management (STM), ante una potencial crisis provocada por la posibilidad de que ocurra el Síndrome de Kessler, una colisión que provoque una reacción en cadena que generaría una nube de escombros, la cual podría inutilizar órbitas completas durante décadas destruyendo los activos espaciales (incluidos los ODC) y sus múltiples servicios así como el envío de futuras misiones al espacio desde la Tierra. A diferencia de los satélites de comunicaciones (como Starlink), los centros de datos espaciales son objetos grandes y pesados que podrían requerir estructuras más grandes para paneles solares y radiadores de calor, lo que incrementa considerablemente los riesgos de una colisión. Además, con iniciativas como Xingshidai (China) compitiendo con Axiom y Google (EE.UU.) por las mismas órbitas polares o heliosíncronas (ideales para energía solar constante), el riesgo de conflictos chino-americano por estos activos orbitales es potencialmente muy alto.
Otro aspecto nocivo por destacar es la contaminación lumínica y radioeléctrica cuyas afectaciones alcanzan a la astronomía, los ODC, debido a sus grandes paneles solares necesarios para alimentar las Unidades de Procesamiento Gráfico / Graphics Processing Unit (GPU) hambrientas de energía, serán muy brillantes, lo que perturba severamente a la astronomía terrestre y disminuye los cielos obscuros necesarios para las observaciones astronómicas. Adicionalmente, la transmisión de petabytes de datos hacia y desde la Tierra (downlink/uplink) saturará con ruido el espectro de radiofrecuencia (RF), interfiriendo con la ciencia y las telecomunicaciones.
Viabilidad técnica y económica
Aquí es donde el optimismo de las startups choca con la ingeniería dura y plantea desafíos serios para la física. Las empresas asumen que el espacio es frío, por lo que enfriar servidores es fácil. Este mito del enfriamiento es completamente falso. En la Tierra, se utilizan aire o agua para la convección (llevarse el calor). En el vacío, no hay aire. El calor solo se puede eliminar por radiación infrarroja. Una sola GPU H100 genera mucho calor concentrado, disipar ese calor solo con radiadores en el vacío requiere superficies inmensas; si no se gestiona adecuadamente, los chips se freirán en minutos. Proyectos como Aetherflux apuestan por el enfriamiento radiativo, pero escalar esto a gigavatios es un desafío de ingeniería monumental.
Los chips de IA de última generación (como los de Nvidia) son extremadamente sensibles a la radiación cósmica. En la Tierra, la atmósfera nos protege, en la LEO, los “bit flips” (errores de memoria causados por radiación) son más frecuentes, por lo que la radiación generará una barrera difícil de atravesar. Proteger estos chips requiere blindaje pesado (plomo, agua, polímeros), lo que aumenta el peso y, por ende, el costo de lanzamiento, dificultando la meta de los $200/kg.
Latencia vs Edge computing
La startup OrbitsEdge Inc. (enviará su primera plataforma informática espacial a órbita a principios del próximo año), tiene la estrategia más lógica a corto plazo: Edge Computing. Procesar datos satelitales (fotos de la Tierra) en el espacio y solo bajar los resultados. Intentar entrenar modelos masivos de IA (como GPT-5) en el espacio actualmente es inviable debido a la latencia y el ancho de banda necesarios para mover los datos de entrenamiento desde la Tierra al espacio.
Al comparar algunas de las iniciativas en progreso, destacan su enfoque central, la ventaja estratégica y el riesgo crítico que implican:
Starcloud Inc. Esta startup, que cuenta con el respaldo del programa Inception de Nvidia, lanzó recientemente un satélite de demostración (Starcloud-1) que lleva a bordo una GPU Nvidia H100 para probar la ejecución de IA en el espacio. Su objetivo es construir centros de datos orbitales a gran escala en el futuro. Actualmente se enfoca en Hardware puro (GPUs) en órbita, su ventaja estratégica es el acceso directo a la mejor tecnología de IA y su riesgo crítico se encuentra en la gestión térmica de chips de alta densidad en vacío.
Google Cloud está explorando activamente el concepto con su “Proyecto Suncatcher” que planea utilizar unidades de procesamiento tensorial / Tensor Processing Units (TPUs) en satélites alimentados por energía solar continua en órbita SSO. Suncatcher tiene como objetivo lanzar los primeros prototipos de satélites de prueba con chips de IA para 2027 con el fin de aprovechar la energía solar continua. Suncatcher se concentra en la energía Solar y las TPUs, un hardware especializado de Google para IA a través de chips que aceleran modelos complejos de Machine Learning, su ventaja estratégica está en la infraestructura de software (Google Cloud) y capital, mientras que su riesgo crítico se ubica en la dependencia de reducción drástica de costos de lanzamiento.
Axiom Space, esta empresa, conocida por desarrollar infraestructura espacial comercial, planea integrar capacidades de ODC en los módulos de su estación espacial comercial, que comenzará a acoplarse a la Estación Espacial Internacional (EEI/ISS) en 2026. Su ventaja estratégica es la posibilidad de mantenimiento humano/robótico y su riesgo crítico está limitado por la órbita y vida útil de la ISS (tentativamente 2030).
OrbitsEdge / HPE se centra en el procesamiento en borde (edge computing) en el espacio, planeando desplegar microcentros de datos de alto rendimiento en LEO para procesar datos de observación de la Tierra directamente en la órbita, en asociación con empresas como Hewlett Packard Enterprise (HPE). Su ventaja estratégica es que cuentan con el tipo de uso inmediato más lógico (filtrar datos espaciales) y su riesgo crítico es una menor escala al situarse en un nicho de mercado tan específico.
Aetherflux: Esta startup ha anunciado su proyecto “Galactic Brain”, con el objetivo de lanzar un nodo de centro de datos orbital en 2027 como parte de una constelación más grande, aprovechando la energía solar continua y el enfriamiento radiativo.
En China, varias empresas están trabajando en su propia constelación de centro de datos espacial (Xingshidai), que busca procesar datos y ejecutar tareas de IA en el espacio. Xingshidai se enfoca esencialmente en la soberanía de datos e IA, tiene la ventaja competitiva del apoyo estatal total e integración con las ambiciones militares del gigante asiático, el riesgo crítico identificado es el aislamiento tecnológico y el incremento de potenciales tensiones geopolíticas.
Otras empresas y agencias como Oracle, IBM, Space Compass (NTT y Sky Perfect JSAT), la Agencia Espacial Europea (ESA) y la NASA también están investigando o invirtiendo en el desarrollo de estas tecnologías emergentes.
La mayoría de estos proyectos se encuentran en fases tempranas, desde investigación y desarrollo hasta el lanzamiento de demostradores iniciales, y aún no operan como centros de datos a gran escala plenamente operativos comparables a los terrestres; donde el tema energético también es un asunto que genera preocupación por el ato impacto que conlleva en el consumo energético.
Soberanía de los datos en el espacio
Esta es una de las áreas más fascinantes y menos reguladas del derecho internacional público contemporáneo. Estamos ante un vacío legal estratégico donde chocan el Derecho Espacial (que data de la era de la Guerra Fría) y el Derecho Digital (que es muy reciente).
Por ejemplo, ante la típica pregunta: ¿Bajo qué jurisdicción están los datos en un servidor de Google (EE. UU.) cuando pasa sobre territorio de China? Para responder a esa pregunta específica sobre la soberanía de datos en el espacio, sin profundizar en las implicaciones, debemos desglosar el concepto de soberanía en tres niveles: la jurisdicción del objeto, la territorialidad del espacio y la interceptación de la señal.
El fundamento legal que ofrece el Tratado del Espacio Ultraterrestre de 1967 (OST), en su Artículo VIII, establece que el Estado en cuyo registro figure el objeto lanzado (Estado de lanzamiento) retendrá su jurisdicción y control sobre tal objeto y sobre todo el personal que se encuentre en él, mientras esté en el espacio ultraterrestre. Por lo tanto, el principio fundamental se resume en la bandera sigue al servidor, es decir, los datos están bajo la jurisdicción de los EE. UU. El Artículo VII del OST regula el Estado de lanzamiento, estableciendo la responsabilidad internacional por los daños causados por sus objetos espaciales.
En una analogía del derecho marítimo internacional (Convemar), un satélite funciona legalmente como un barco en aguas internacionales. Un barco con bandera estadounidense navegando cerca de la costa de China sigue siendo, a efectos legales internos, territorio estadounidense. A diferencia del espacio aéreo (donde un país tiene soberanía absoluta sobre lo que vuela encima de su territorio), el espacio exterior comienza (por convención general) en la Línea de Kármán (a 100 km de altura). Por lo tanto, por encima de esa línea, China no tiene soberanía territorial, aplicando la inmunidad de la órbita.
En conclusión, aunque un satélite Starcloud o Suncatcher esté físicamente sobre Beijing, legalmente es una “isla flotante” de la jurisdicción del país de registro, probablemente EE.UU. sí es Google/Nvidia, o quizás Luxemburgo si buscan ventajas fiscales.
En el posible escenario de un conflicto por la subida/bajada (Uplink/Downlink) de datos, la situación se complica, ya que el servidor puede ser estadounidense, pero los datos pueden y deben viajar. Aunque China no puede legislar sobre el servidor que orbita a 500 km de altura, sí tiene soberanía absoluta sobre el espectro radioeléctrico en su territorio. Para que un usuario en China acceda a ese “servidor espacial”, la señal debe bajar a una estación terrestre o al dispositivo del usuario generando un cuello de botella terrestre. En el momento en que los datos entran en la atmósfera y tocan la infraestructura de telecomunicaciones china, entran en vigor leyes locales como la Ley de Seguridad de Datos de China (DSL) y la Ley de Protección de Información Personal (PIPL). China podría técnica y legalmente bajo su propia ley, bloquear o interferir las señales de subida/bajada (cortafuegos espacial) si considera que ese centro de datos espacial está procesando información sensible de ciudadanos chinos sin cumplir con las leyes locales de localización de datos.
La extraterritorialidad de las leyes
En el ámbito de la extraterritorialidad de las leyes (el brazo largo de la legislación), el mayor problema estratégico no es dónde está el satélite, sino quién es el dueño. Los casos americano y europeo ejemplifican esta cuestión.
Los EE.UU. poseen una ley llamada CLOUD Act (Clarifying Lawful Overseas Use of Data Act). Esta ley permite a las agencias federales de EE. UU. (como el FBI, NSA, CIA, DEA, etc.) obligar a proveedores de servicios estadounidenses (Google, Amazon, Microsoft) a entregar datos, independientemente de dónde estén almacenados físicamente esos datos. La implicación derivada de una situación como esta es que si una empresa europea aloja datos sensibles en un satélite de Amazon LEO (AWS Space) para “escapar” de la vigilancia terrestre, la ley de EE. UU. sigue aplicando porque la empresa matriz es estadounidense; el espacio no ofrece refugio ante la CLOUD Act.
En el caso de Europa, el Reglamento General de Protección de Datos (RGDP) / General Data Protection Regulation (GDPR) de la Unión Europea (UE) protege los datos de los ciudadanos europeos donde quiera que vayan. Si un satélite procesa datos biométricos de ciudadanos alemanes, ese satélite debe cumplir con el GDPR. Pero ¿cómo se audita un servidor que se mueve a 27,000 km/h? ¿Cómo se ejerce el “derecho al olvido” en un servidor que podría estar incomunicado o dañado por radiación?, esa simple paradoja deja al GDRP en el vacío legal.
Este es el futuro oscuro de la estrategia y regulación de los datos espaciales. Al igual que existen los paraísos fiscales (Islas Caimán, Panamá, etc.), es muy probable que en breve veamos surgir también “Paraísos de datos orbitales”.
Ante el posible escenario en el cual una empresa no quiera cumplir con el GDPR europeo ni con la CLOUD Act americana, la estrategia a utilizar será lanzar su centro de datos satelital registrándolo en un país con leyes laxas o nulas sobre ciberseguridad, por ejemplo, una pequeña nación insular o un país africano emergente en el sector espacial, es decir recurrir a las banderas de conveniencia. El resultado deviene en que ese servidor se convierte en una “caja negra” legal, que potencialmente podría alojar mercados negros, criptoactivos no regulados o IA prohibida en la Tierra, amparándose en la bandera de un país que no tiene capacidad ni voluntad de inspeccionarlo.
Los riesgos para la seguridad nacional y el espionaje
La soberanía física del satélite es clara, pero la integridad de los datos no. En la Tierra, si China sospecha que un centro de datos de Apple en Guizhou viola sus leyes, envía a la policía. En el espacio, no puede enviar a la policía a inspeccionar un satélite de Google, lo que genera una opacidad operativa, ya que la verificación física es prácticamente imposible.
En otro caso hipotético, de derecho a la autodefensa, si un país (digamos, Rusia o China) determina que un centro de datos orbital de EE. UU. se está utilizando para coordinar ataques cibernéticos o procesar datos de inteligencia militar en tiempo real sobre su territorio, ¿tienen derecho a derribarlo?, de acuerdo con el derecho internacional vigente sería un acto provocativo de guerra por atacar territorio soberano de otro país. Sin embargo, la militarización de los datos podría llevar a una redefinición de “amenaza inminente” en el espacio; perfilándose la evolución de la geopolítica en astro política.
Resumiendo, este análisis legal, en términos de jurisdicción, la nacionalidad del satélite (Estado de registro) determina la ley aplicable a bordo, no el país que sobrevuela. En cuanto a la soberanía de los datos en un servidor de Google sobre China, son legalmente datos en “territorio” estadounidense. Respecto a la vulnerabilidad, la soberanía se rompe en el “puente”, la transmisión de radio hacia la Tierra es donde los países ejercen su control y censura. Derivado de esto, en el futuro veremos una carrera por registrar satélites en jurisdicciones convenientes (banderas de conveniencia digital) para evadir regulaciones terrestres de IA y privacidad. Este escenario plantea la necesidad urgente de un Tratado de Datos Espaciales, ya que las leyes actuales diseñadas para barcos, aviones, satélites y naves espaciales, no pueden gestionar la complejidad del flujo de información digital en órbita.
Como puede observarse, en el futuro inmediato (2025-2030), el emplazamiento de data centers en el espacio es técnicamente posible pero ambiental y económicamente inviable a la luz de las siguientes consideraciones.
Impacto neto, si bien reduce el consumo de agua y energía en la Tierra, transfiere la contaminación a la atmósfera superior (lanzamientos/reentrada) y congestiona el entorno orbital incrementando el riesgo de colisión y desafío de la gestión del tráfico espacial (STM).
El Killer App no será reemplazar a los centros de datos de internet (Netflix/Web), sino el procesamiento in situ para seguridad nacional, observación climática y operaciones militares (iniciativas como las de OrbitsEdge). Una Killer App (aplicación estrella o aplicación asesina) es un software revolucionario, indispensable o deseable que impulsa masivamente la adopción de una nueva tecnología o plataforma (como un sistema operativo o un tipo de hardware innovador) para poder usarla, marcando un antes y un después en la industria.
Hasta que la Starship de SpaceX no demuestre fiabilidad y costos del $200/kg, los centros de datos de gigavatios anunciados seguirán siendo ciencia ficción. El costo de mantenimiento, ante la imposibilidad de reparar un servidor fallido, sigue siendo el talón de Aquiles (barrera económica) frente a los centros terrestres.
Aunque para ser precisos, el mayor peligro no es que falle, sino que tenga éxito sin la regulación necesaria. Debemos tener muy claro que una carrera armamentista de cómputo en el espacio -sin tratados ambientales efectivos- podría precipitar un escenario de Síndrome de Kessler, bloqueando el acceso humano al espacio por varias generaciones; de ahí la urgencia e importancia de atender oportunamente en los foros internacionales especializados el vacío legal de los datos y la seguridad en el espacio ultraterrestre. México con su larga y prestigiada tradición diplomática, liderazgo regional y expertise en los asuntos del espacio exterior debería impulsar y promover iniciativas en el Grupo Latinoamericano y del Caribe (GRULAC) en foros como la UIT, COPUOS, CITEL, entre otros.
“Los artículos firmados son responsabilidad exclusiva de sus autores y pueden o no reflejar el criterio de A21”







