Aquí tienes el contenido de todos los episodios de mi podcast «Cuéntame Tecnología» en forma de entrada. Si quieres escuchar los capítulos, pincha aquí
131. La IA produce 470 series a día en China tan malas que no las ve nadie
Tiempo de lectura aprox: 1 minutos, 18 segundos
![]()
13.abr.2026
El sector del entretenimiento audiovisual en China está experimentando una transformación estructural radical impulsada por la inteligencia artificial generativa. Actualmente, la industria despliega alrededor de cuatrocientas setenta nuevas series diarias generadas íntegramente por algoritmos. Estas producciones, estructuradas como microdramas, consisten en capítulos de entre dos y cinco minutos diseñados exclusivamente para su consumo en dispositivos móviles, y se caracterizan por explotar patrones narrativos altamente estereotipados y repetitivos.
Antes de la asimilación de la inteligencia artificial, este sector ya superaba la recaudación de la taquilla cinematográfica tradicional mediante un sistema de monetización basado en micropagos y publicidad algorítmica. Sin embargo, la implementación de herramientas tecnológicas de generación de vídeo ha provocado un desplome sin precedentes en los costes operativos. Mientras que la producción de un microdrama con actores reales requería una inversión superior al millón de yuanes (unos 120.000 euros), la actual arquitectura computacional permite sintetizar una serie completa por apenas treinta mil yuanes (unos 3.900 euros). Esta eficiencia financiera ha permitido a las productoras maximizar sus márgenes de beneficio prescindiendo por completo de la infraestructura física de grabación.
Sin embargo, a pesar del masivo volumen de despliegue, más del noventa y nueve por ciento de estas obras fracasa estrepitosamente. La falta de naturalidad en los rostros y en los movimientos sintéticos destruye el compromiso emocional del espectador, quien rechaza abonar el coste de los episodios posteriores. Para compensar esta deficiencia cualitativa, las empresas sobreviven implementando modelos de negocio agresivos basados en el arbitraje de tráfico.
Esta hiperindustrialización ha desencadenado severas consecuencias laborales y éticas. El volumen de contratación humana ha caído de forma crítica, afectando drásticamente a profesionales como el actor Li Wenhao, quien experimentó una reducción en su carga laboral de cincuenta días de rodaje consecutivos a tan solo seis jornadas mensuales. Ante este escenario, figuras de la industria como la actriz Hao Lei han pronosticado públicamente que los algoritmos acabarán reemplazando al noventa por ciento del sector actoral. Adicionalmente, el ecosistema se enfrenta a una crisis masiva de suplantación de identidad, donde tanto creadores de contenido anónimos como estrellas consagradas sufren la clonación no autorizada de sus rostros para protagonizar estas producciones digitales.
Está claro que la Inteligencia Artificial está impactando de manera importante en nuestras vidas y son pocos los sectores socioeconómicos que se libran de este fenómeno.
130. La fascinante historia del Solitario, la app más usada de Windows
Tiempo de lectura aprox: 1 minutos, 18 segundos
![]()
10.abr.2026
La historia de las interfaces gráficas de usuario no está exenta de curiosidades y revela que la asimilación del ratón informático no fue un proceso intuitivo, sino el resultado de una estrategia de gamificación encubierta. Con el despliegue de Windows 3.0 de Microsoft en el año 1990, se integró una aplicación de naipes aparentemente lúdica, el Solitario. Sin embargo, el verdadero objetivo de este software no era únicamente educativo, sino que iba más allá de lo puramente lúdico: familiarizar a los usuarios con la mecánica de arrastrar y soltar objetos virtuales en un entorno basado en ventanas.
El desarrollo técnico de esta herramienta no provino de una directriz corporativa estructurada, sino de la iniciativa independiente del becario Wes Cherry, quien programó el código base durante su tiempo libre. La interfaz gráfica y el diseño de la baraja fueron ejecutados por Susan Kare, reconocida diseñadora que previamente había definido parte de la identidad visual Apple. Una anécdota técnica relevante de la programación original fue la inclusión de una rutina de ocultación impulsada por Cherry para mostrar código falso en pantalla y evadir la supervisión laboral, una función que la directiva obligó a suprimir antes de la compilación oficial.
La ausencia de esta tecla de seguridad desencadenó una nada anecdótica crisis de productividad severa en los entornos ofimáticos globales. El impacto sociológico fue tan profundo que autoridades como el entonces alcalde de Nueva York, Michael Bloomberg llegaron a ejecutar despidos fulminantes a un funcionario descubierto ejecutando la aplicación durante la jornada laboral. Simultáneamente, el nivel de dependencia generado impulsó a la doctora Maressa Hecht Orzack a fundar la primera clínica de rehabilitación para adicciones digitales, motivada por su propia experiencia de uso compulsivo con este programa.
Esta vulnerabilidad a la procrastinación afectó también a la alta dirección tecnológica. Bill Gates desarrolló una dependencia extrema a otro de los pasatiempos integrados de lógica el buscaminas, llegando incluso a desinstalarlo localmente y obligándole a utilizar el terminal del directivo Mike Hallman para jugar. Esta dinámica cesó cuando el desarrollador Tom Reeves programó un algoritmo de resolución automatizada. Finalmente, la evolución de este ecosistema de software abandonó su naturaleza funcional y gratuita original, mutando en versiones contemporáneas estructuradas bajo un modelo de negocio basado en la inyección de publicidad y micropagos.
129. Así se trabajaba en Xerox Parc, el lugar donde nacieron las interfaces gráficas
Tiempo de lectura aprox: 1 minutos, 21 segundos
![]()
9.abr.2026
El análisis retrospectivo de la historia de la informática moderna revela que el desarrollo de la interfaz gráfica de usuario no fue un fenómeno aislado, sino el resultado de un ecosistema de innovación sin precedentes situado en el centro de investigación Xerox Parc en Palo Alto. A finales de la década de los setenta, este laboratorio operaba como una matriz de desarrollo tecnológico que gestó avances estructurales fundamentales, desde la tecnología de impresión láser y los semiconductores modernos, hasta el estándar de conexión a red conocido como Ethernet y la programación orientada a objetos.
La capacidad de generar tal volumen de innovaciones disruptivas se basó en el talento de figuras destacadas de la ingeniería. Investigadores como Alan Key sentaron las bases conceptuales del ordenador portátil, mientras que Douglas Engelbart desarrolló el hardware periférico de interacción que hoy conocemos como ratón. En este mismo entorno, Butler Lampson concibió el ordenador Alto, una máquina revolucionaria equipada con una pantalla de alta resolución y una memoria de quinientos doce kilobytes, y Adele Goldberg fue instrumental en el desarrollo de los lenguajes de programación orientados a objetos. Esta convergencia de talento operaba bajo una filosofía de investigación radical carente de jerarquías tradicionales. En lugar de responder a objetivos empresariales predefinidos, la financiación se asignaba directamente a los científicos para que ellos mismos identificaran los desafíos tecnológicos, obligándoles a construir sus propias herramientas, lenguajes de programación y sistemas operativos desde cero.
La metodología de desarrollo permitía una ejecución paralela donde el diseño del hardware físico convergía simultáneamente con la creación de interfaces basadas en la metáfora del escritorio y los primeros procesadores de texto visuales. Todo este flujo de trabajo estaba regido por una única directriz de autoexigencia denominada la regla de los cien, la cual estipulaba que cualquier innovación debía estar diseñada para soportar al menos a un centenar de usuarios. Sin embargo, la incapacidad corporativa para comercializar estos desarrollos propició que visionarios externos capitalizaran el trabajo del laboratorio. La histórica visita de Steve Jobs a estas instalaciones le permitió identificar el potencial comercial de la interfaz gráfica, integrándola en el núcleo de los futuros sistemas operativos. Posteriormente, figuras como Jef Raskin, Andy Hertfeld y Bill Atkinson materializarían esta visión en proyectos comerciales masivos, demostrando que la viabilidad tecnológica requiere ineludiblemente de una estrategia de mercado adecuada.
128. Tarjeta tradicional o teléfono móvil. ¿Con cual es más seguro comprar?
Tiempo de lectura aprox: 1 minutos, 24 segundos
08.abr.2026![]()
El debate sobre la seguridad en los métodos de pago frecuentemente contrapone el uso de la tarjeta de plástico tradicional frente a los dispositivos móviles. Aunque el formato físico transmite una sensación de control, el análisis técnico revela que el pago mediante teléfonos inteligentes presenta ventajas de seguridad significativamente superiores.
En primer lugar, la tarjeta física presenta una vulnerabilidad inherente ante el robo o la pérdida. Gracias a la tecnología de pago sin contacto, un individuo no autorizado puede realizar múltiples transacciones inferiores a cincuenta euros sin requerir un código de identificación personal, pudiendo alcanzar un límite acumulado de entre ciento cincuenta y trescientos euros antes de que el sistema exija verificación. Por el contrario, un dispositivo móvil extraviado resulta inútil para efectuar pagos sin la autenticación del usuario ya que los sistemas de pago móvil implementan una estricta barrera biométrica, exigiendo confirmación mediante huella dactilar, reconocimiento facial o un código complejo en el instante exacto de la transacción.
A nivel de arquitectura de red, la principal fortaleza del dispositivo móvil reside en la tokenización, un proceso análogo al sistema de nombres de dominio de internet. Al utilizar una tarjeta física, el microchip transmite los datos reales, como la numeración completa y la fecha de caducidad, exponiendo esta información ante posibles ataques informáticos a los servidores del establecimiento. En contraste, al registrar una tarjeta en un teléfono, la entidad bancaria genera un token, que consiste en un alias matemático sin validez fuera de ese dispositivo específico. Durante el pago, el teléfono envía este token al terminal y la red de procesamiento lo asocia con la cuenta real en un servidor seguro. De este modo, el comercio nunca almacena ni visualiza los datos bancarios originales.
Finalmente, el pago móvil elimina los riesgos de clonación y fraude por copia de banda magnética. Mientras que el plástico mantiene componentes heredados y vulnerables, el teléfono se comunica exclusivamente por tecnología de comunicación de campo cercano y transmite criptogramas dinámicos. Estas contraseñas de un solo uso cambian en cada operación, garantizando que cualquier señal de radio interceptada caduque de forma inmediata y carezca de utilidad. En conclusión, la adopción del pago móvil representa una actualización técnica fundamental en la ciberseguridad financiera y puede decirse que, a día de hoy, resulta un medio de pago más seguro que las tradicionales tarjetas de plástico, con su banda magnética, su camisita y su canesú.
127. 50 años de Apple
Tiempo de lectura aprox: 1 minutos, 45 segundos
07.abr.2026
El análisis del medio siglo de trayectoria de Apple revela una evolución que redefinió la interacción digital.
La corporación se fundó sobre la base intelectual de Steve Jobs y Steve Wozniak, la económica de Mike Markulla y sobre la técnica de una placa de circuito, la del Apple I, diseñada originalmente para permitir la creación y ejecución de software. Este enfoque supuso un salto cualitativo frente a los sistemas contemporáneos, que aún requerían una tediosa programación directa en código binario mediante interruptores mecánicos. La transición hacia un lenguaje de alto nivel facilitó el desarrollo de una segunda generación de ordenadores, integrando el hardware bajo una carcasa estructurada con capacidad para generar gráficos en color. Sin embargo, la adopción masiva en el sector empresarial no fue impulsada exclusivamente por este diseño, sino por la llegada de VisiCalc, la primera hoja de cálculo comercial, demostrando de forma temprana que la utilidad del software puede llegar a determinar el éxito de la plataforma subyacente.
Posteriormente, la integración de la interfaz gráfica y la navegación mediante un ratón representó un cambio de paradigma en la comunicación humano-máquina, adaptando lo visto por Jobs en los laboratorios de XeroXParc al sistema operativo del Mac.
A pesar de esta innovación visual, las fluctuaciones comerciales de los productos de la compañía, culminaron en una profunda reestructuración directiva, la expulsión de Jobs de la empresa que él mismo creó, en la fundación por su parte de NeXT y la creación paralela de un avanzado sistema operativo orientado a objetos, el NeXTSTEP. La posterior asimilación de este entorno de programación con el retorno de Jobs a la empresa, resultó vital para actualizar el núcleo del sistema original, resolviendo una grave crisis de software que amenazaba la viabilidad de la corporación y permitiendo la simplificación de una matriz de productos que había llegado a ser excesivamente redundante y caótica.
La estrategia industrial se reorientó entonces hacia el minimalismo, materializándose en equipos de escritorio con componentes integrados y dispositivos portátiles de audio de alta capacidad de la mano de un genio, Jonathan Ive, a quien Jobs conoció por casualidad y que ecosistema sentó las bases para el iPhone, cuya principal hazaña técnica consistió en adaptar y comprimir un robusto sistema operativo de escritorio en una arquitectura móvil táctil, lo que facilitó enormemente la posterior programación de aplicaciones. El entorno de desarrollo se fortaleció además con la creación de lenguajes de codificación más seguros y eficientes.
En su etapa más reciente, el modelo de negocio ha pivotado con éxito hacia los servicios digitales y la transición a una arquitectura de procesadores propios de alta eficiencia. No obstante, la infraestructura tecnológica actual enfrenta retos operativos significativos. La implementación de funciones basadas en inteligencia artificial avanza con menor celeridad que el estándar del mercado, mientras que el despliegue de sus visores de realidad mixta se mantiene en un nicho de adopción restringida, planteando importantes interrogantes sobre la dirección técnica y la capacidad de adaptación de la compañía frente a los inminentes cambios de paradigma en el sector.