www.transicionestructural.NET es un nuevo foro, que a partir del 25/06/2012 se ha separado de su homónimo .COM. No se compartirán nuevos mensajes o usuarios a partir de dicho día.
0 Usuarios y 1 Visitante están viendo este tema.
La inversión en IA está drenando el capital de las fábricas estadounidenses como hizo Internet en los noventa. Esta vez ya sabemos cómo termina la historia.Por un lado, el gobierno de Estados Unidos está intentando revertir tres décadas de desindustrialización con aranceles a China. Por el otro, la inversión en IA está recreando exactamente el fenómeno que destruyó parte de la industria estadounidense en los años noventa.La historia se repite, pero esta vez sabiendo lo que va a pasar.Por qué es importante. Derek Thompson, periodista económico de The Atlantic, ha identificado un patrón que reescribe lo que creíamos saber sobre el declive industrial estadounidense. China no solo robó empleos sino que el capital americano los abandonó antes.En una entrevista con el inversor Paul Kedrosky para su podcast Plain English, Thompson expone su tesis:En los noventa, el despliegue masivo de Internet y telecomunicaciones absorbió cantidades brutales de dinero.Ese dinero tenía que salir de algún sitio. Salió de las fábricas. Los pequeños fabricantes vieron cómo conseguir financiación se volvía cada vez más caro. Justo en ese momento, China entraba en la Organización Mundial del Comercio y las barreras comerciales caían.No fue mala suerte. Fue causa y efecto.El contexto. Las empresas tecnológicas van a gastar unos 400.000 millones de dólares este año construyendo infraestructura para IA. Para ponerlo en perspectiva: el programa Apollo que llevó a Estados Unidos a la Luna costó unos 300.000 millones ajustando por inflación. Aquello fueron diez años. Esto es un año.Los centros de datos han supuesto la mitad del crecimiento económico estadounidense en los primeros seis meses de 2025. La previsión es que la inversión supere los 500.000 millones anuales en 2026 y 2027.Mientras tanto, los consumidores americanos están gastando 12.000 millones al año en servicios de IA. La diferencia entre lo que se invierte y lo que se gana es abismal.La panorámica. El problema es estructural. Si gestionas un fondo de inversión con 500.000 millones, tienes dos opciones:Puedes repartir ese dinero entre cien pequeñas fábricas que necesitan cinco millones cada una.O puedes firmar diez cheques de 50.000 millones a proyectos de IA.La primera opción significa gestionar cien empresas distintas. Sentarte en decenas de consejos. Hacer seguimiento constante. La segunda significa diez reuniones al año. La elección es obvia.Un fabricante que quiera aprovechar el momento para traer producción de vuelta a EEUU se encuentra con que pedir dinero prestado es carísimo.Los bancos comparan su proyecto con los retornos que promete la IA.No hay color.La ironía. Trump ha construido su política económica sobre aranceles que fuercen a las empresas a fabricar en EEUU. Pero la inversión en IA está encareciendo exactamente lo que los aranceles intentan abaratar: producir localmente.Los aranceles suben el precio de importar desde China.La IA sube el coste de financiar producción local.El efecto neto puede ser nulo para la industria, pero con precios más altos para todo el mundo.Las cifras. Construir un centro de datos moderno implica...Que el 60% del presupuesto se va en chips de NVIDIA.El resto se reparte entre refrigeración, electricidad y construcción.El edificio físico es la parte más barata.La geografía también cuenta. Virginia del Norte concentra buena parte de la inversión. Zonas que hace diez años eran rurales están ahora rodeadas de instalaciones industriales que funcionan las 24 horas.Sí, pero. Hay una salida que no existía en los noventa: montar los centros de datos fuera de Estados Unidos. India y Oriente Medio están recibiendo inversiones enormes porque la electricidad es más barata y sus vecinos, ejem, se quejan menos.Pero eso empeora el problema original. Si el dinero se va a centros de datos en otros países, todavía queda menos para fábricas americanas.Entre líneas. Kedrosky usa un símil que resume todo: una estrella de la muerte que absorbe capital. En los noventa esa estrella fue Internet. Ahora es la IA. Las fábricas, en ambos casos, son el daño colateral.La diferencia es que en los noventa nadie lo vio venir. Ahora sí.
Carlos Lopez · 2025.10.14¿Estamos ante una revolución tecnológica imparable o simplemente inflando una burbuja histórica que está a punto de estallar? La inteligencia artificial (IA) domina el discurso económico y financiero global, pero no todos comparten el entusiasmo. Uno de los análisis más pesimistas hasta la fecha proviene de MacroStrategy Partnership, una firma de investigación independiente que asesora a más de 200 clientes institucionales. En una análisis lanza una advertencia rotunda: la burbuja de la IA sería 17 veces mayor que la burbuja puntocom y cuatro veces más grande que la burbuja inmobiliaria de 2008.Una teoría económica del siglo XIX para entender el presentePara sostener esta afirmación, Garran se apoya en un concepto poco habitual la brecha wickselliana. Inspirado por el economista sueco Knut Wicksell, este indicador mide cuándo el capital está siendo mal asignado, lo cual ocurre, según su teoría, cuando el coste de la deuda para las empresas se sitúa más de dos puntos por debajo del crecimiento nominal del PIB.Durante más de una década, las políticas de tipos bajos y la expansión cuantitativa de la Reserva Federal distorsionaron este equilibrio, generando una especie de “dinero barato” que ha financiado inversiones de dudosa rentabilidad. Garran calcula que esta brecha no sólo incluye las inversiones en IA, sino también en sectores como la vivienda, oficinas, NFTs y capital riesgo. Todo ello conforma, en su opinión, una asignación ineficiente del PIB impulsada por tipos artificialmente bajos.Dudas sobre la verdadera eficacia de los modelos de lenguajePero más allá del aspecto financiero, Garran también lanza una crítica técnica directa a los modelos de lenguaje como ChatGPT, eje central de la actual ola de IA. Cita estudios que cuestionan su eficacia real: en una empresa de software, las tareas realizadas con IA sólo se completaban entre un 1,5% y un 34% de las veces, y ni siquiera ese 34% era consistente.También apunta a señales preocupantes: la tasa de adopción de la IA entre grandes empresas estaría cayendo, según datos del Departamento de Comercio de EE. UU. Además, relata ejemplos reales donde los modelos fallan estrepitosamente, como pedirle a un generador de imágenes que dibuje un tablero de ajedrez a una jugada de la victoria: resultados incorrectos y confusos.¿Hemos tocado techo en la IA?Una de las ideas más provocadoras del informe es que la IA generativa podría haber alcanzado ya su límite de escalabilidad. Garran argumenta que no sabemos con certeza si los modelos de lenguaje pueden mejorar mucho más, ya que no disponemos de una medida clara de la complejidad estadística del lenguaje humano.Lo que sí sabemos, dice, es que cada nueva versión cuesta exponencialmente más y mejora cada vez menos: ▪ ChatGPT-3 costó unos 50 millones de dólares. ▪ ChatGPT-4 subió a 500 millones. ▪ ChatGPT-5, con un coste estimado de 5.000 millones, fue retrasado y no mostró mejoras significativas respecto a su predecesor.Además, la ventaja competitiva de estas herramientas es muy débil: cualquiera puede replicarlas, no hay una “moat” o foso defensivo claro, y los modelos son caros de mantener. Muchos usuarios aprovechan servicios de bajo coste, pero el gasto en computación para los desarrolladores es mucho mayor que los ingresos por suscripciones.¿Y si esta burbuja estalla?Las implicaciones de este análisis van más allá del mundo tecnológico. Garran advierte que la economía estadounidense ya se encuentra en punto muerto, y una reversión del “efecto riqueza” generado por la IA y los centros de datos podría desencadenar una recesión con tintes deflacionarios, similar a la crisis de 2001 tras el estallido de la burbuja puntocom.Pero el escenario podría ser aún más complejo. Según MacroStrategy, ni la Reserva Federal ni una posible administración Trump tendrían margen de maniobra para estimular la economía, lo que podría forzar medidas extraordinarias como la devaluación del dólar para intentar recuperar empleo industrial.
South Korea Abandons AI Textbooks After Four-Month TrialPosted by msmash on Thursday October 16, 2025 @12:10PM from the tough-luck dept.South Korea's government has stripped AI-powered textbooks of their official status after a single semester of use. The textbooks were introduced in March for math, English, and computer science classes as a flagship initiative under former President Yoon Suk Yeol. Students and teachers complained about technical problems, factual inaccuracies, and increased workload.The government spent more than 1.2 trillion won ($850 million) on the program. Publishers invested around 800 billion won ($567 million). The textbooks were reclassified as supplementary material. Adoption rates dropped from 37% in the first semester to 19% in September. Only 2,095 schools now use them, about half the number from earlier in the year.
Efim Zelmanov, matemático: “A día de hoy no tenemos ningún ordenador cuántico, no existe”El matemático Efim Zelmanov, medalla Fields y experto en criptografía, alerta sobre la burbuja generada en el mercado alrededor de la computación cuántica. “No me gusta la cultura que existe en este ámbito, consistente en que las compañías anuncian novedades sensacionales cada mes”, dice, recordando que los ordenadores cuánticos de verdad no existen y que, de hacerlo, darían respuestas completamente erróneas. En lo que ahora se trabaja, subraya, es “en la combinación de la computación cuántica y la clásica, de forma que los ordenadores tradicionales puedan controlar a los cuánticos, pero desconocemos cómo será esto y si funcionará”.(...)No transmiten así de claro este mensaje las empresas tecnológicas que ya están trabajando en computación cuántica, por ejemplo IBM, que anunció hace unos meses que su superordenador cuántico se estrenará en breve en España [aunque la empresa sí reconoció recientemente que su primer ordenador cuántico escalable y con corrección de errores no estaría listo hasta 2029].Seguro que tienen dispositivos con ventajas cuánticas que han sido diseñados para demostrar que son mejores en la resolución de problemas. Pero cuando hablamos de las amenazas que puede traer consigo la aparición del ordenador cuántico quiero ser preciso: estos ordenadores no existen. Y no me gusta la cultura que existe en este ámbito, consistente en el que las compañías anuncian novedades sensacionales cada mes.O sea, ve una burbuja en esto de la informática cuántica.Sí, hay una burbuja. Demasiado hype, diría. Ya lo dije recientemente en una reunión en la que estuve en Hong Kong, en la que alguien me preguntó si no había leído el último anuncio realizado ese mes, a lo que respondí que sí, como también había leído el del mes anterior, y el previo y así sucesivamente.Esta idea de la burbuja también la comparte el experto Juan Ignacio Cirac, del Instituto Max Planck, a quien entrevistamos hace un par de años en COMPUTERWORLD.Es que un ordenador cuántico de verdad podría dar respuestas absolutamente erróneas. Ahora se trabaja en la combinación de la computación cuántica y la clásica, de forma que los ordenadores tradicionales puedan controlar a los cuánticos, pero desconocemos cómo será esto y si funcionará. Es algo parecido a la fusión fría, una idea brillante, pero muy difícil [esta teoría promete producir reacciones nucleares a temperaturas muy inferiores a las que se utilizan actualmente para ello, de millones de grados centígrados]. ¿Puedo decir que nunca se hará realidad? No, no puedo. Tanto la fusión fría como el ordenador cuántico pueden construirse, quién sabe, quizá en cinco años, quizá en cuarenta. Y nadie sabe en qué forma llegarán, cuando lleguen, si es que llegan.¿Qué les diría entonces a los profesionales del campo de la ciberseguridad que están preocupados de que cuando llegue la computación cuántica se rompan todas las claves actuales?Creo que están demasiado nerviosos y que no deberían tener miedo. De todas formas, los actores maliciosos que sean muy poderosos, por ejemplo, un Estado con acceso a superordenadores, también pueden romper los actuales sistemas de seguridad de la informática clásica.Sorprende la diferencia entre su visión y la de otros científicos sobre los avances de la informática cuántica frente a los mensajes que llevan al mercado los jugadores de la industria tecnológica…Se gasta mucho dinero en ordenadores cuánticos porque alguien ha convencido a muchos de que este avance se producirá pronto. Pero esto me recuerda un poco a una historia situada en un antiguo pueblo de Uzbekistán, donde se dice que un héroe prometió al rey del lugar que enseñaría hablar a su burro por una cantidad razonable de dinero en 25 años. Obviamente, dentro de 25 años, quién sabe, lo más seguro es que el rey —desde luego, el burro seguro—esté muerto.