fbpx

135. Historia de la Informatica: Charles Simonyi

Tiempo de lectura aprox: 1 minutos, 17 segundos

17.mar.2026

La informática actual y el software que la sostiene tienen sus cimientos en el ingenio de pioneros que transformaron la interacción humano-máquina. La evolución desde los gigantescos ordenadores de válvulas hasta las interfaces gráficas modernas encuentra un hilo conductor en la figura de Charles Simonyi, un genio al que, aunque no lo sepamos, todos le debemos mucho. Su trayectoria despegó en Hungría frente a un vetusto Ural dos, donde las lecciones de su ingeniero mentor sobre lógica matemática moldearon su visión estructural del código.

Su innegable talento lo impulsó hacia Dinamarca, donde asimiló los conceptos del compilador diseñado por el científico Peter Naur, para finalmente aterrizar en los Estados Unidos. Allí, su destreza técnica captó la atención del profesor Butler Lampson, quien lo integró en su equipo universitario antes de dar el gran salto al legendario centro de investigación Xerox PARC. En este hervidero de innovación, Simonyi lideró el desarrollo de Bravo, el primer editor de texto verdaderamente visual, apoyándose en los brillantes algoritmos ideados por el propio Lampson y por el investigador Jim Moore.

La influencia de Simonyi en la arquitectura de la información se expandió radicalmente cuando Bob Metcalf facilitó su conexión con Microsoft. En esta nueva etapa, asumió la dirección del desarrollo de aplicaciones, convirtiéndose en el arquitecto principal de herramientas ofimáticas como Office, que redefinirían la productividad global, con programas como Word y Excel. Más allá del software comercial, su legado más profundo en la ingeniería de programación es la célebre notación húngara. Este sistema, basado en añadir prefijos a las variables para identificar sus propiedades de un vistazo, revolucionó la legibilidad del código y fue exportado por toda la industria gracias a discípulos como Tom Malloy, quien aplicó estos conocimientos al diseñar el software del ordenador Lisa para Apple.

Lejos de encasillarse en un perfil estrictamente técnico, Simonyi entendía la programación como una sinergia perfecta entre el dominio algorítmico y el arte estructural. Esta visión humanista se reflejaba en su profundo respeto por contemporáneos geniales como Jonathan Sachs, Bruce Artwick, Bill Atkinson y Bill Budge, así como en sus singulares inquietudes personales, demostrando que la mente detrás del software más utilizado del planeta necesitaba expandirse descifrando jeroglíficos egipcios y pilotando helicópteros.

134. La aplicación de la UE para la verificación de edad ya está lista.

Tiempo de lectura aprox: 1 minutos, 19 segundos

16.mar.2026

El ecosistema digital europeo se prepara para un cambio arquitectónico sin precedentes en la gestión del acceso a contenidos online. Hasta la fecha, la restricción de edad en internet se ha basado en un sistema operativamente rudimentario e ineficaz, donde un simple clic en una casilla de confirmación bastaba para que cualquier menor de edad accediera a plataformas sensibles. Para poner fin a esta grave brecha de seguridad, la Comisión Europea ha desplegado una solución tecnológica estructural que promete transformar por completo nuestra forma de navegación.

Esta nueva herramienta no es una aplicación aislada, sino un modelo base diseñado para integrarse directamente con el futuro Monedero Digital Europeo. A nivel técnico, el usuario deberá vincular su pasaporte o documento de identidad a esta cartera virtual. A partir de ese momento, el sistema actuará como una pasarela de autenticación automática. Su principal ventaja operativa es que funciona protegiendo la privacidad de los datos: la aplicación certificará ante la página web que el usuario cumple con la edad legal requerida, pero bloqueará la transferencia de cualquier información personal como el nombre o la dirección física.

La presidenta de la Comisión Europea, Ursula von der Leyen, ha destacado que esta infraestructura será de código abierto, lo que permitirá a auditores independientes analizar el núcleo del sistema, y será totalmente compatible con cualquier dispositivo. Además, ha lanzado una advertencia lapidaria a las grandes corporaciones tecnológicas, asegurando que habrá tolerancia cero y que se han acabado las excusas para no filtrar el acceso a los menores, dado que ahora disponen de una herramienta gratuita y estandarizada. Países como España, Francia e Italia ya lideran la fase de integración de este sistema en sus administraciones.

Sin embargo, el despliegue de esta infraestructura plantea serias interrogantes sobre la privacidad a gran escala. La obligación de utilizar esta pasarela de identificación afectará a todos los ciudadanos por igual. Esta validación constante genera un escenario técnico propicio para el rastreo sistemático de los patrones de navegación por parte de los gobiernos. Además, la concentración de información tan sensible crea un vector de ataque altamente atractivo para los ciberdelincuentes, dibujando un panorama donde la promesa de seguridad infantil podría derivar hacia una estructura de vigilancia digital masiva.

Promesas de seguridad que pueden devenir en patrones de inseguridad. Salvar a los menores para condenarnos a todos.

Quién sabe.

 

133. Las «frutinovelas»

Tiempo de lectura aprox: 1 minutos, 11 segundos

15.abr.2026

La creación de contenido audiovisual y el marketing digital se enfrentan continuamente al desafío estructural de retener la atención del usuario en un entorno de extrema saturación. En este escenario hipercompetitivo ha emergido un formato narrativo inusual y de altísima eficiencia bautizado operativamente como frutinovelas. Este concepto, cuya definición inicial nació bajo un prisma educativo e infantil, ha evolucionado rápidamente en las redes sociales hacia una herramienta avanzada de ingeniería para la retención algorítmica.

A nivel estructural, este formato se materializa en microproducciones audiovisuales diseñadas específicamente para plataformas de consumo rápido, donde los actores humanos son sustituidos íntegramente por representaciones de frutas. A pesar de esta premisa visual aparentemente inocua, la ejecución narrativa replica con total exactitud los arquetipos de la telenovela clásica, implementando elementos como triángulos amorosos, secretos, giros de guion inesperados y conflictos emocionales extremos. La alta efectividad de este modelo radica en la fuerte disonancia cognitiva que genera: el mero hecho de observar a una manzana acusando de traición a un plátano mientras una fresa observa en silencio rompe por completo el patrón de navegación del usuario. Esta singularidad asegura un nivel de compromiso inmediato y mantiene al espectador atento hasta la resolución final de la trama.

Desde la perspectiva de la producción, las frutinovelas optimizan los recursos de manera drástica. Al prescindir de actores reales y de grandes infraestructuras de grabación, el esfuerzo de desarrollo se concentra exclusivamente en mantener la tensión, el ritmo narrativo y la correcta dosificación de la información. Sin embargo, la innovación más significativa de este ecosistema reside en su sofisticada arquitectura legal. El uso exclusivo de personajes inanimados y abstractos establece un cortafuegos jurídico evidente. Esta abstracción permite a los creadores de contenido explorar temas delicados, caricaturizar comportamientos sociales y establecer paralelismos con situaciones de la vida real sin asumir ningún riesgo. Al evitar cualquier alusión directa a individuos reales, se neutraliza de raíz la posibilidad de enfrentar demandas por difamación, injurias o vulneración del derecho al honor, garantizando una protección total al creador mientras maximiza el impacto de su difusión.

132. China ya tiene su centro de datos submarino

Tiempo de lectura aprox: 1 minutos, 17 segundos

14.mar.2026

El desarrollo de la inteligencia artificial y su consecuente demanda masiva de procesamiento de datos y energía han forzado a la industria tecnológica a buscar alternativas sostenibles para sus infraestructuras físicas. En el programa número 57 del podcast ya hablábamos de ello en esta entrada. Pues bien, como respuesta a este desafío técnico y medioambiental, se ha desplegado con éxito el primer centro de datos submarino comercial frente a la costa de Shanghái, en el Mar de China Oriental. Esta obra de ingeniería busca conciliar la soberanía digital con la neutralidad de carbono mediante una arquitectura radicalmente distinta a la convencional.

El proyecto, impulsado operativamente por la empresa HiCloud y ejecutado por la firma de ingeniería CCCC Third Harbor Engineering, resuelve de forma simultánea tres graves problemas estructurales del sector. En primer lugar, libera un valioso espacio terrestre en áreas de alta densidad urbana. En segundo lugar, elimina por completo el masivo consumo de agua dulce y electricidad requerido habitualmente por los sistemas de refrigeración, empleando el agua oceánica como un disipador térmico natural y constante. Por último, la infraestructura se alimenta de forma directa conectándose a aerogeneradores marinos, absorbiendo en tiempo real los excedentes de energía eólica que de otro modo se desperdiciarían.

A nivel técnico, el despliegue ha requerido un nivel de precisión milimétrico. Los servidores operan encapsulados en cabinas cilíndricas de acero, las cuales son presurizadas e inyectadas con gases inertes para neutralizar cualquier riesgo de incendio o corrosión. La instalación en el lecho marino exigió el uso de avanzados sistemas de posicionamiento global y la intervención del buque grúa Sanhang Fengfan para asegurar la ubicación de las estructuras con un margen de error inferior a los diez centímetros.

Si bien existen precedentes operativos como el Proyecto Natick desarrollado por Microsoft, el cual demostró una gran viabilidad técnica pero fracasó por los altos costes de reparación, este nuevo despliegue cuenta con un fuerte respaldo para asegurar su continuidad. Un consorcio ampliado que incluye a Shenergy Group, China Telecom Shanghái e INESA ha firmado un acuerdo para escalar masivamente esta infraestructura. No obstante, el principal reto operativo sigue siendo diseñar protocolos de mantenimiento a largo plazo que garanticen la viabilidad económica de operar servidores en las profundidades marinas.

Habrá que estar atentos a estos cambios.

131. La IA produce 470 series a día en China tan malas que no las ve nadie

Tiempo de lectura aprox: 1 minutos, 18 segundos

13.abr.2026

El sector del entretenimiento audiovisual en China está experimentando una transformación estructural radical impulsada por la inteligencia artificial generativa. Actualmente, la industria despliega alrededor de cuatrocientas setenta nuevas series diarias generadas íntegramente por algoritmos. Estas producciones, estructuradas como microdramas, consisten en capítulos de entre dos y cinco minutos diseñados exclusivamente para su consumo en dispositivos móviles, y se caracterizan por explotar patrones narrativos altamente estereotipados y repetitivos.

Antes de la asimilación de la inteligencia artificial, este sector ya superaba la recaudación de la taquilla cinematográfica tradicional mediante un sistema de monetización basado en micropagos y publicidad algorítmica. Sin embargo, la implementación de herramientas tecnológicas de generación de vídeo ha provocado un desplome sin precedentes en los costes operativos. Mientras que la producción de un microdrama con actores reales requería una inversión superior al millón de yuanes (unos 120.000 euros), la actual arquitectura computacional permite sintetizar una serie completa por apenas treinta mil yuanes (unos 3.900 euros). Esta eficiencia financiera ha permitido a las productoras maximizar sus márgenes de beneficio prescindiendo por completo de la infraestructura física de grabación.

Sin embargo, a pesar del masivo volumen de despliegue, más del noventa y nueve por ciento de estas obras fracasa estrepitosamente. La falta de naturalidad en los rostros y en los movimientos sintéticos destruye el compromiso emocional del espectador, quien rechaza abonar el coste de los episodios posteriores. Para compensar esta deficiencia cualitativa, las empresas sobreviven implementando modelos de negocio agresivos basados en el arbitraje de tráfico.

Esta hiperindustrialización ha desencadenado severas consecuencias laborales y éticas. El volumen de contratación humana ha caído de forma crítica, afectando drásticamente a profesionales como el actor Li Wenhao, quien experimentó una reducción en su carga laboral de cincuenta días de rodaje consecutivos a tan solo seis jornadas mensuales. Ante este escenario, figuras de la industria como la actriz Hao Lei han pronosticado públicamente que los algoritmos acabarán reemplazando al noventa por ciento del sector actoral. Adicionalmente, el ecosistema se enfrenta a una crisis masiva de suplantación de identidad, donde tanto creadores de contenido anónimos como estrellas consagradas sufren la clonación no autorizada de sus rostros para protagonizar estas producciones digitales.

Está claro que la Inteligencia Artificial está impactando de manera importante en nuestras vidas y son pocos los sectores socioeconómicos que se libran de este fenómeno.

130. La fascinante historia del Solitario, la app más usada de Windows

Tiempo de lectura aprox: 1 minutos, 18 segundos

10.abr.2026

La historia de las interfaces gráficas de usuario no está exenta de curiosidades y revela que la asimilación del ratón informático no fue un proceso intuitivo, sino el resultado de una estrategia de gamificación encubierta. Con el despliegue de Windows 3.0 de Microsoft en el año 1990, se integró una aplicación de naipes aparentemente lúdica, el Solitario. Sin embargo, el verdadero objetivo de este software no era únicamente educativo, sino que iba más allá de lo puramente lúdico: familiarizar a los usuarios con la mecánica de arrastrar y soltar objetos virtuales en un entorno basado en ventanas.

El desarrollo técnico de esta herramienta no provino de una directriz corporativa estructurada, sino de la iniciativa independiente del becario Wes Cherry, quien programó el código base durante su tiempo libre. La interfaz gráfica y el diseño de la baraja fueron ejecutados por Susan Kare, reconocida diseñadora que previamente había definido parte de la identidad visual Apple. Una anécdota técnica relevante de la programación original fue la inclusión de una rutina de ocultación impulsada por Cherry para mostrar código falso en pantalla y evadir la supervisión laboral, una función que la directiva obligó a suprimir antes de la compilación oficial.

La ausencia de esta tecla de seguridad desencadenó una nada anecdótica crisis de productividad severa en los entornos ofimáticos globales. El impacto sociológico fue tan profundo que autoridades como el entonces alcalde de Nueva York, Michael Bloomberg llegaron a ejecutar despidos fulminantes a un funcionario descubierto ejecutando la aplicación durante la jornada laboral. Simultáneamente, el nivel de dependencia generado impulsó a la doctora Maressa Hecht Orzack a fundar la primera clínica de rehabilitación para adicciones digitales, motivada por su propia experiencia de uso compulsivo con este programa.

Esta vulnerabilidad a la procrastinación afectó también a la alta dirección tecnológica. Bill Gates desarrolló una dependencia extrema a otro de los pasatiempos integrados de lógica el buscaminas, llegando incluso a desinstalarlo localmente y obligándole a utilizar el terminal del directivo Mike Hallman para jugar. Esta dinámica cesó cuando el desarrollador Tom Reeves programó un algoritmo de resolución automatizada. Finalmente, la evolución de este ecosistema de software abandonó su naturaleza funcional y gratuita original, mutando en versiones contemporáneas estructuradas bajo un modelo de negocio basado en la inyección de publicidad y micropagos.

129. Así se trabajaba en Xerox Parc, el lugar donde nacieron las interfaces gráficas

Tiempo de lectura aprox: 1 minutos, 21 segundos

xerox

9.abr.2026

El análisis retrospectivo de la historia de la informática moderna revela que el desarrollo de la interfaz gráfica de usuario no fue un fenómeno aislado, sino el resultado de un ecosistema de innovación sin precedentes situado en el centro de investigación Xerox Parc en Palo Alto. A finales de la década de los setenta, este laboratorio operaba como una matriz de desarrollo tecnológico que gestó avances estructurales fundamentales, desde la tecnología de impresión láser y los semiconductores modernos, hasta el estándar de conexión a red conocido como Ethernet y la programación orientada a objetos.

La capacidad de generar tal volumen de innovaciones disruptivas se basó en el talento de figuras destacadas de la ingeniería. Investigadores como Alan Key sentaron las bases conceptuales del ordenador portátil, mientras que Douglas Engelbart desarrolló el hardware periférico de interacción que hoy conocemos como ratón. En este mismo entorno, Butler Lampson concibió el ordenador Alto, una máquina revolucionaria equipada con una pantalla de alta resolución y una memoria de quinientos doce kilobytes, y Adele Goldberg fue instrumental en el desarrollo de los lenguajes de programación orientados a objetos. Esta convergencia de talento operaba bajo una filosofía de investigación radical carente de jerarquías tradicionales. En lugar de responder a objetivos empresariales predefinidos, la financiación se asignaba directamente a los científicos para que ellos mismos identificaran los desafíos tecnológicos, obligándoles a construir sus propias herramientas, lenguajes de programación y sistemas operativos desde cero.

La metodología de desarrollo permitía una ejecución paralela donde el diseño del hardware físico convergía simultáneamente con la creación de interfaces basadas en la metáfora del escritorio y los primeros procesadores de texto visuales. Todo este flujo de trabajo estaba regido por una única directriz de autoexigencia denominada la regla de los cien, la cual estipulaba que cualquier innovación debía estar diseñada para soportar al menos a un centenar de usuarios. Sin embargo, la incapacidad corporativa para comercializar estos desarrollos propició que visionarios externos capitalizaran el trabajo del laboratorio. La histórica visita de Steve Jobs a estas instalaciones le permitió identificar el potencial comercial de la interfaz gráfica, integrándola en el núcleo de los futuros sistemas operativos. Posteriormente, figuras como Jef Raskin, Andy Hertfeld y Bill Atkinson materializarían esta visión en proyectos comerciales masivos, demostrando que la viabilidad tecnológica requiere ineludiblemente de una estrategia de mercado adecuada.

128. Tarjeta tradicional o teléfono móvil. ¿Con cual es más seguro comprar?

Tiempo de lectura aprox: 1 minutos, 24 segundos

08.abr.2026

El debate sobre la seguridad en los métodos de pago frecuentemente contrapone el uso de la tarjeta de plástico tradicional frente a los dispositivos móviles. Aunque el formato físico transmite una sensación de control, el análisis técnico revela que el pago mediante teléfonos inteligentes presenta ventajas de seguridad significativamente superiores.

En primer lugar, la tarjeta física presenta una vulnerabilidad inherente ante el robo o la pérdida. Gracias a la tecnología de pago sin contacto, un individuo no autorizado puede realizar múltiples transacciones inferiores a cincuenta euros sin requerir un código de identificación personal, pudiendo alcanzar un límite acumulado de entre ciento cincuenta y trescientos euros antes de que el sistema exija verificación. Por el contrario, un dispositivo móvil extraviado resulta inútil para efectuar pagos sin la autenticación del usuario ya que los sistemas de pago móvil implementan una estricta barrera biométrica, exigiendo confirmación mediante huella dactilar, reconocimiento facial o un código complejo en el instante exacto de la transacción.

A nivel de arquitectura de red, la principal fortaleza del dispositivo móvil reside en la tokenización, un proceso análogo al sistema de nombres de dominio de internet. Al utilizar una tarjeta física, el microchip transmite los datos reales, como la numeración completa y la fecha de caducidad, exponiendo esta información ante posibles ataques informáticos a los servidores del establecimiento. En contraste, al registrar una tarjeta en un teléfono, la entidad bancaria genera un token, que consiste en un alias matemático sin validez fuera de ese dispositivo específico. Durante el pago, el teléfono envía este token al terminal y la red de procesamiento lo asocia con la cuenta real en un servidor seguro. De este modo, el comercio nunca almacena ni visualiza los datos bancarios originales.

Finalmente, el pago móvil elimina los riesgos de clonación y fraude por copia de banda magnética. Mientras que el plástico mantiene componentes heredados y vulnerables, el teléfono se comunica exclusivamente por tecnología de comunicación de campo cercano y transmite criptogramas dinámicos. Estas contraseñas de un solo uso cambian en cada operación, garantizando que cualquier señal de radio interceptada caduque de forma inmediata y carezca de utilidad. En conclusión, la adopción del pago móvil representa una actualización técnica fundamental en la ciberseguridad financiera y puede decirse que, a día de hoy, resulta un medio de pago más seguro que las tradicionales tarjetas de plástico, con su banda magnética, su camisita y su canesú.

127. 50 años de Apple

Tiempo de lectura aprox: 1 minutos, 45 segundos

07.abr.2026

El análisis del medio siglo de trayectoria de Apple revela una evolución que redefinió la interacción digital.

La corporación se fundó sobre la base intelectual de Steve Jobs y Steve Wozniak, la económica de Mike Markulla y sobre la técnica de una placa de circuito, la del Apple I, diseñada originalmente para permitir la creación y ejecución de software. Este enfoque supuso un salto cualitativo frente a los sistemas contemporáneos, que aún requerían una tediosa programación directa en código binario mediante interruptores mecánicos. La transición hacia un lenguaje de alto nivel facilitó el desarrollo de una segunda generación de ordenadores, integrando el hardware bajo una carcasa estructurada con capacidad para generar gráficos en color. Sin embargo, la adopción masiva en el sector empresarial no fue impulsada exclusivamente por este diseño, sino por la llegada de VisiCalc, la primera hoja de cálculo comercial, demostrando de forma temprana que la utilidad del software puede llegar a determinar el éxito de la plataforma subyacente.

Posteriormente, la integración de la interfaz gráfica y la navegación mediante un ratón representó un cambio de paradigma en la comunicación humano-máquina, adaptando lo visto por Jobs en los laboratorios de XeroXParc al sistema operativo del Mac.

A pesar de esta innovación visual, las fluctuaciones comerciales de los productos de la compañía, culminaron en una profunda reestructuración directiva, la expulsión de Jobs de la empresa que él mismo creó, en la fundación por su parte de NeXT y la creación paralela de un avanzado sistema operativo orientado a objetos, el NeXTSTEP. La posterior asimilación de este entorno de programación con el retorno de Jobs a la empresa, resultó vital para actualizar el núcleo del sistema original, resolviendo una grave crisis de software que amenazaba la viabilidad de la corporación y permitiendo la simplificación de una matriz de productos que había llegado a ser excesivamente redundante y caótica.

La estrategia industrial se reorientó entonces hacia el minimalismo, materializándose en equipos de escritorio con componentes integrados y dispositivos portátiles de audio de alta capacidad de la mano de un genio, Jonathan Ive, a quien Jobs conoció por casualidad y que ecosistema sentó las bases para el iPhone, cuya principal hazaña técnica consistió en adaptar y comprimir un robusto sistema operativo de escritorio en una arquitectura móvil táctil, lo que facilitó enormemente la posterior programación de aplicaciones. El entorno de desarrollo se fortaleció además con la creación de lenguajes de codificación más seguros y eficientes.

En su etapa más reciente, el modelo de negocio ha pivotado con éxito hacia los servicios digitales y la transición a una arquitectura de procesadores propios de alta eficiencia. No obstante, la infraestructura tecnológica actual enfrenta retos operativos significativos. La implementación de funciones basadas en inteligencia artificial avanza con menor celeridad que el estándar del mercado, mientras que el despliegue de sus visores de realidad mixta se mantiene en un nicho de adopción restringida, planteando importantes interrogantes sobre la dirección técnica y la capacidad de adaptación de la compañía frente a los inminentes cambios de paradigma en el sector.

126. Ya sabemos lo que la IA aportó a la economía de EE. UU en 2025. “0”

Tiempo de lectura aprox: 1 minutos, 18 segundos

01.abr.2026

El análisis del impacto macroeconómico de la inteligencia artificial durante el ejercicio de dos mil veinticinco ha echado por tierra las proyecciones más optimistas del sector tecnológico. Inicialmente, la adopción masiva de esta tecnología se fundamentó en la promesa de un incremento exponencial de la productividad y una reducción drástica de los costes operativos. Arrastradas por estas expectativas, las corporaciones estadounidenses ejecutaron una inyección de capital sin precedentes, alcanzando los cuatrocientos diez mil millones de dólares. Sin embargo, la evaluación financiera posterior ha revelado que la aportación real de esta inversión al producto interior bruto del país ha sido estadísticamente nula.

La discrepancia entre el capital movilizado y el retorno económico nacional se explica a través de una fuga estructural en la cadena de suministro. La construcción de la infraestructura necesaria para sostener estos modelos algorítmicos requiere una cantidad ingente de procesadores, memorias y componentes electrónicos altamente específicos. Dado que la manufactura de este hardware no se realiza a nivel local, la inmensa mayoría de la inversión estadounidense ha terminado impulsando directamente el crecimiento económico de potencias asiáticas productoras de semiconductores, como Taiwán y Corea del Sur.

A este desvío geográfico del capital se suma una paradoja en la medición de la productividad. Las supuestas mejoras operativas en los flujos de trabajo corporativos resultan ser beneficios intangibles que quedan aislados en la contabilidad interna de cada empresa, sin lograr un impacto medible en la economía global. Este fenómeno ha generado una realidad financiera bifurcada y contradictoria: mientras los informes agregados muestran un crecimiento macroeconómico del cuatro por ciento, los despidos corporativos continúan en ascenso, impulsados paradójicamente por la misma automatización tecnológica que no logra generar riqueza nacional.

Resulta en cualquier caso paradójico que, a pesar de la contundencia de estos datos, la inercia del mercado no muestra signos de desaceleración. Las proyecciones financieras para dos mil veintiséis estiman que los gigantes tecnológicos desembolsarán seiscientos cincuenta mil millones de dólares adicionales. Ante este escenario, voces críticas desde la dirección de la banca de inversión global advierten sobre el error sistémico de asumir que un gasto colosal garantiza una rentabilidad equivalente, reavivando el debate técnico sobre la inminente formación de una burbuja financiera análoga a la crisis tecnológica de principios de siglo.

Uso de cookies

Desde mi nube utiliza cookies para que usted tenga la mejor experiencia de usuario. Si continúa navegando está dando su consentimiento para la aceptación de las mencionadas cookies y la aceptación de nuestra política de cookies, pinche el enlace para mayor información.

ACEPTAR
Aviso de cookies